Alura > Cursos de Programação > Cursos de Automação e Produtividade > Conteúdos de Automação e Produtividade > Primeiras aulas do curso Claude Cowork: casos de uso em gestão, produto e marketing

Claude Cowork: casos de uso em gestão, produto e marketing

Alternativas e aplicações típicas - Apresentação

Apresentando o curso

Bem-vindas e bem-vindos a mais um curso de Claude Coworkna Alura. Sob a condução de Ricardo Bugan, nós daremos continuidade à série de cursos de Claude . Neste curso, faremos algo um pouco diferente do que trabalhamos nos cursos anteriores.

Relembrando aprendizagens e definindo objetivos

Nos cursos anteriores, exploramos as funcionalidades, entendemos o que são os skills (habilidades), como funcionam os hooks (ganchos), como trabalhar com a interface (interface) e como organizamos nossos arquivos.

Agora, veremos alguns estudos de caso. Desenvolveremos projetos dentro do contexto de Claude para que possamos nos inspirar e ter uma visão clara do que é possível fazer e do que podemos aplicar no dia a dia.

Apresentando projetos de comunicação e gestão

Entre os projetos, veremos um tradutor de contexto de comunicação para nos comunicarmos melhor com outras áreas ou com outras pessoas interessadas — isto é, com stakeholders (partes interessadas) —, com foco em aprimorar nossa comunicação.

Também veremos um assistente de AVD (sigla AVD) para nos auxiliar na organização semanal e na gestão do time de pessoas, apoiando o relacionamento e a coordenação com as pessoas do nosso time.

Audiodescrição: A pessoa instrutora aparece em plano médio, em um estúdio com parede clara ao fundo e iluminação uniforme. Veste camiseta de cor neutra e fala diretamente à câmera em tom didático.

Conectando ferramentas e explorando o ecossistema

Vamos configurar uma conexão, um distribuidor de demandas que será uma evolução do nosso gestor de projetos, pois se conectará diretamente ao Trello. Veremos como realizar essa conexão com o Trello, que não é necessariamente um conector nativo, pelo menos enquanto gravamos este curso. Esse conector não existe de forma nativa no Cloud, então vamos aproveitar ferramentas como o N8n para integrar com outras ferramentas.

Além disso, veremos as diferenças entre Claude Cowork, Claude Code, N8n, Open Code e Claude Core. Logo no início, exploraremos esse ecossistema de ferramentas — praticamente todos os dias ouvimos falar de uma nova — e, em seguida, passaremos aos estudos de caso.

Construindo o gerador de criativos e motivando a prática

Por fim, construiremos nosso gerador de criativos. Com código, utilizando o Claude, veremos como, a partir de uma campanha ou de um produto, geramos alguns criativos e automatizamos esse processo em conjunto com o Claude. Obviamente, o tipo de imagem que geramos com código é muito diferente do que um modelo global de geração de imagens, como o NanoBanana, por exemplo, produz. Ainda assim, conseguimos gerar algumas peças, criar alguns layouts (disposições) e integrar tudo isso ao nosso fluxo.

Estudaremos esses casos com o objetivo de inspirar a prática com esta ferramenta. Contamos com sua participação para estudarmos e aprendermos bastante sobre o que é possível fazer com ela.

Alternativas e aplicações típicas - Cowork x N8N x Openclaw

Apresentando a proposta do curso

Estamos aqui para outro curso de Cloud Coworking, e este curso será um pouco diferente do que temos feito até agora. Queremos trazer a ideia de observarmos ferramentas alternativas, ferramentas que estão no mercado e sobre as quais podemos estar ouvindo falar, entendendo como se relacionam entre si e como podemos compará-las com Cloud Coworking e com outras ferramentas que temos utilizado.

A proposta principal deste primeiro vídeo é examinarmos esse ecossistema: observar diversas ferramentas, ou boa parte delas, e tentar classificá-las, compreender como funcionam, como interagem umas com as outras e em quais casos podem se substituir. Ao longo do curso, veremos outros exemplos também, agora mais focados em nuvem. Portanto, este já é um vídeo inicial um pouco diferente.

Explicando o conceito de harness de llm e situando o cloud coworking

Vamos começar pelo que é semelhante, pelo que está mais próximo conceitualmente. Temos o que podemos chamar de um harness (estrutura de controle) de LLM (Modelo de Linguagem Grande). O próprio Cloud Coworking é um harness de LLM. Seu papel não é ser o modelo de linguagem em si, mas servir como essa estrutura que usamos para controlar e guiar o LLM, isto é, o modelo de linguagem que estivermos utilizando. No caso da Cloud, Cloud Coworking é o harness, a ferramenta, o software que controla o próprio modelo de linguagem. E o modelo de linguagem pode ser o Cloud Opus, pode ser o Cloud Sonnet; há alguns modelos diferentes que podemos usar. Porém, o Coworking em si é esse harness, essa ferramenta que nos ajuda a direcionar para onde queremos que o modelo vá e como queremos que o modelo nos responda.

Nessa linha, além de Cloud Coworking, também temos OpenClock, que provavelmente já ouvimos mencionar. Temos OpenCode, outra alternativa — inclusive, pelo nome, mais voltada a código —, e temos Codex, que é a alternativa à Cloud Coworking da OpenAI. Assim, temos duas alternativas proprietárias (Codex e Cloud Coworking, sendo Cloud da Anthropic e Codex da OpenAI) e duas ferramentas abertas (OpenCode e OpenClock), com variações de uso, mas que não pertencem a uma empresa específica nem impõem um modelo por padrão. Essas quatro ferramentas, das quais possivelmente já ouvimos falar, cumprem mais ou menos o mesmo papel que vimos em Cloud Coworking, portanto terão funcionalidades muito parecidas.

Contextualizando openclock e opencode em relação ao cloud

OpenClock, por exemplo, teve recentemente um grande destaque, foi bastante comentada e discutida, e é muito semelhante a Cloud Coworking. Na verdade, foi a partir dessa explosão, desse hype (alvoroço) que OpenClock teve no fim de 2025 e início de janeiro de 2026, que houve a criação e aceleração de Coworking; muitas pessoas começaram a instalar e usar. Porém, não é exatamente igual a Cloud Coworking; existem algumas diferenças.

OpenCode é uma ferramenta sobre a qual não vimos tantas pessoas falando; ainda há quem comente, mas não se dissemina tanto porque também é mais de nicho. Pelo próprio nome e pela apresentação no site, fica claro que é um agente de codificação, muito específica para quem quer programar. Se tivermos tarefas diárias de código, Cloud Coworking pode ajudar, mas, para algo mais próximo do que OpenCode oferece, há Cloud Code, isto é, a versão voltada a código da própria Cloud. Portanto, há paralelos tanto com OpenCode quanto com OpenClock.

Analisando vantagens e limitações de ferramentas abertas e proprietárias

Tanto OpenCode quanto OpenClock não nos vinculam a nenhum provedor de LLM. Quando usamos Cloud Coworking, o modelo de linguagem é servido pela própria Anthropic (como Cloud Opus ou Cloud Sonnet). Ao utilizarmos OpenCode ou OpenClock, podemos usar qualquer provedor: Anthropic, OpenAI, Google ou algum modelo disponível no Ollama, que é outra ferramenta para buscar modelos distintos. Assim, ao usar uma ferramenta aberta, temos a possibilidade de escolher o modelo que quisermos, aquele que cabe no nosso orçamento ou que preferimos para uma situação específica. Essa é uma vantagem de ferramentas abertas: podemos trocar de provedor de modelo de linguagem e tudo continua funcionando. Nosso projeto mantém toda a estrutura porque esse harness, esse controle que organiza o projeto e faz a interface entre nós e o provedor de LLM, permanece o mesmo. Podemos estar usando agora Anthropic junto com OpenClock para realizar algo, depois nossos créditos do OpenClock se esgotam e passamos a usar os da OpenAI, e em seguida utilizamos os da Google para outra tarefa — e nossa interface com o projeto continua unificada, permanecendo a experiência que OpenClock, por exemplo, nos proporciona. Essa é uma das vantagens de um modelo aberto, pois podemos alternar conforme a necessidade.

Ao mesmo tempo, como uma ferramenta aberta precisa se adaptar a múltiplos cenários e provedores, pode haver casos em que não consiga aproveitar tão bem algumas funções específicas de determinados LLMs. Já a Cloud, por ser da Anthropic e utilizar também um modelo de linguagem natural da Anthropic, pode integrar esses componentes de forma mais direta, o que pode resultar em melhor desempenho em algumas tarefas. Portanto, há vantagens em ambos os caminhos. Como dissemos, Codex e Cloud são proprietárias (Cloud da Anthropic e Codex da OpenAI) e, por isso, não permitem usar qualquer modelo de linguagem; é necessário usar os modelos oferecidos por essas plataformas. Ainda assim, todos eles — OpenClock, OpenCode, Cloud e Codex — são plataformas próprias e apresentam, no conjunto, as funcionalidades que vimos nos cursos anteriores.

Todas essas ferramentas — OpenClock, OpenCode, Cloud e Codex — possuem acesso a arquivos e pastas, criação de skills (habilidades) para documentar procedimentos padronizados, agentes e subagentes para limpar a trilha de contexto ou realizar tarefas em uma jornada de contexto vazia ou apenas com o contexto selecionado. Também contam com hooks (ganchos) para criar automações — por exemplo, quando algo acontece na pasta do projeto, dispara-se uma automação —, além de conectores MCP para integrar ferramentas. Em termos de funcionalidades, tudo o que aprendemos neste curso pode ser transportado para essas outras ferramentas.

Descrevendo a execução em nuvem e implicações de segurança

Entretanto, há diferenças que mudam a experiência. OpenClock, por exemplo, normalmente não roda na nossa máquina local. Diferentemente de Cloud, que está na nossa máquina e opera no nosso sistema de pastas, OpenClock até pode ser executada localmente, mas, sobretudo no início, quando teve o hype (alvoroço), não era considerada tão segura no sentido de que, ao pedirmos para fazer algo, poderia não executar exatamente como esperado, sair do eixo ou rodar algum comando delicado. Por isso, não se recomenda executá-la localmente. Por padrão, hoje o mais comum é que fique hospedada na nuvem. Existem servidores VPS que já vêm com isso instalado, e executamos em uma máquina externa. Assim, ela passa a ter acesso a essa máquina e a tudo o que colocarmos nesse computador na nuvem, nessa VPS: acesso a pastas, a arquivos, possibilidade de alterar o que for necessário, executar código, terminal, tudo o que fizemos localmente com Cloud — mas isso ocorre fora do nosso computador local.

Está em um computador na nuvem e não no equipamento local por uma questão de segurança. Se apagarmos tudo, por exemplo, apagaremos apenas o que está na nuvem e não o que está no nosso computador. Além disso, a maioria dos provedores de nuvem já mantém sistemas de respaldo organizados. Esses provedores oferecem camadas adicionais de segurança.

Isso também é uma vantagem, porque, como vimos na programação de tarefas do Cloud, a execução local ocorre apenas quando mantemos o computador ligado. Assim, se programarmos uma tarefa, como configuramos para a sexta-feira às 9h, e o computador estiver desligado nesse horário, ela não será executada. Já o OpenCloud, por estar em um servidor na nuvem, permanece ligado 24 horas por dia. Portanto, qualquer automação será executada no horário programado, porque o serviço estará ativo; podemos assegurar isso. Por estar na nuvem, essa arquitetura oferece vantagens.

Detalhando integrações e casos de uso entre opencloud e cloud

Há muitas integrações. Esse foi um diferencial do OpenCloud em relação ao Cloud: além de oferecer uma interface web, podemos enviar mensagens e manter uma conversa muito semelhante à que temos no Cloud Coworking pela interface web. Também podemos conectá-lo ao WhatsApp, ao Telegram e ao Discord para chamar esse assistente, isto é, invocar os nossos assistentes por qualquer uma dessas aplicações. Essa sempre foi e continua sendo uma grande vantagem do OpenCloud.

Configuramos o assistente e, se estivermos em trânsito, podemos chamá-lo pelo WhatsApp; se estivermos com o Discord aberto por algum motivo, podemos acioná-lo pelo Discord. Se o assistente tiver acesso ao Slack, também poderemos invocá-lo por lá. Assim, não ficamos presos apenas à própria interface, o que costuma ocorrer com o Cloud. O Cloud inclusive possui uma função para invocação pelo celular, mas continua sendo um aplicativo da Anthropic no telefone que se conecta ao computador; não é qualquer aplicativo. Essa é uma grande vantagem do OpenCloud: podemos integrá-lo a praticamente qualquer aplicação, conectá-lo e receberemos respostas.

As ferramentas são parecidas, mas possuem peculiaridades e propósitos distintos. Por ser aberto, estar sempre ativo e poder ser invocado de qualquer lugar, podemos conectá-lo como assistente de toda a equipe. Ele já está separado dos nossos arquivos pessoais, portanto faz mais sentido utilizá-lo dessa forma. O OpenCloud tende a ter foco em código. Nós o direcionamos para a tarefa para a qual foi criado, com bloqueios, mecanismos de segurança e configurações apropriadas para esse uso. É importante estudar esses propósitos para entendermos melhor o que podemos fazer.

O mesmo vale para o Cloud Coworking em comparação com o Cloud Code. O Cloud Code consegue realizar muitas das ações que o Coworking executa, mas sempre nos direcionará, ou interpretará melhor, quando inserimos código no processo, pois é focado em código e concebido para programar. Esses propósitos distintos e as diferenças entre produtos vão diferenciar e até influenciar se continuamos com o Cloud ou se utilizamos outra ferramenta desse tipo.

Apresentando o n8n e seu posicionamento no ecossistema

Há outra ferramenta sobre a qual se falou muito no ano passado, que ganhou bastante destaque: o N8n. Hoje se fala um pouco menos porque já se consolidou. Poucas pessoas conheciam e utilizavam, e existiam outras ferramentas semelhantes, como o Zapier e o Power Automate da Microsoft, mas o N8n ganhou popularidade por se conectar com muitas outras ferramentas.

Surge então a pergunta: onde o N8n se encaixa em relação ao Cloud, ao OpenCloud e a todas essas ferramentas? O N8n não foi pensado originalmente para existir apenas para IA nem apenas como um harness (arcabouço) de Large Language Models (Modelos de Linguagem Grande), até porque surgiu antes das IAs. A ideia principal é oferecer automação de processos e conexão entre aplicações.

Exemplificando fluxos de automação com n8n

Tanto é que a primeira interação que temos com o N8n, normalmente, é criar o nosso workflow (fluxo de trabalho), criar a automação e configurá-la para que seja executada exatamente como desejamos. Por exemplo: queremos que seja disparada quando um canal específico do Slack receber uma mensagem; o fluxo capturará essa mensagem, verificará o remetente, executará ações diferentes conforme a pessoa e registrará o evento no Excel, caso queiramos manter esse controle. Também é possível receber uma chamada de um webhook (gancho web) e ser notificado no Slack sobre qual chamada ocorreu. Se o servidor cair, o servidor dispara uma chamada ao N8n e o N8n comunica no Slack.

Sempre foi pensado para automação de processos e para a conexão entre diversas ferramentas. Isso impulsionou o crescimento do N8n e gerou toda a repercussão no ano passado. Podemos conectar praticamente qualquer ferramenta utilizada nas empresas e montar um fluxo que determine: chamar o Slack, depois salvar algo no Google Sheets (Planilhas Google), buscar uma informação no banco de dados, inseri-la no Google Docs (Documentos Google) na linha necessária do documento e, por fim, enviar um e-mail para toda a equipe. Tudo isso pode ser feito em um único fluxo, que será executado exatamente como foi configurado em cada ocasião.

Explicando recursos de ia e conectividade mcp no n8n

Como não foi concebido para IA, ao longo do tempo foram adicionadas funcionalidades de IA e agentes de IA. Ainda assim, trata-se de uma forma diferente de pensar. Há conexões nativas com essas aplicações, um desenho simples para automatizar processos e a adição de agentes, mas o funcionamento é distinto: precisamos encarar de outra maneira, pois o agente está no meio de um fluxo de automação. São agentes muito bons para responder a questões pontuais, mas normalmente não os utilizamos para manter uma conversa contínua, o que difere do Cloud, por exemplo.

Há casos de automação que invocam IA, e a plataforma possui conectores MCP, isto é, o Model Context Protocol (Protocolo de Contexto de Modelo). Ela atua tanto como cliente MCP quanto como servidor MCP. Portanto, oferece ambos os lados, e podemos aproveitá-la conectando-a, usando-a como nosso servidor MCP e expondo as ferramentas que disponibiliza para os nossos agentes do Cloud, do OpenCloud, do Codecs e assim por diante.

Há muitos cenários em que ela é muito útil, mas não a classificaríamos como concorrente direta; trata-se de uma ferramenta com outro propósito e outra função dentro do conjunto de ferramentas que utilizamos no dia a dia.

Concluindo com estratégias para avaliar e escolher ferramentas

A proposta deste primeiro vídeo, ao apresentarmos e analisarmos as ferramentas, é reconhecer que ouvimos falar de inúmeras ferramentas de IA, com lançamentos praticamente diários. Quanto maior for o nosso repertório, mais começamos a entender quando usar cada uma e para que serve cada uma. Também é válido exercitar a pergunta: o que elas fazem de igual? Como dissemos, OpenCloud, Codecs, Cloud e OpenCode têm funcionalidades e características muito semelhantes. Por que usaríamos uma em vez de outra? Podemos nos fazer essa pergunta, mas não precisamos nos sobrecarregar imaginando que são completamente distintas. Há diferenças, sim, mas também muitas coisas em comum.

Como dissemos, o N8n tem alguns recursos de agentes e, se quisermos trabalhar com esses agentes, precisaremos pensar de forma diferente do que fazemos com o Cloud. No entanto, quando ouvimos sobre Zapier, Power Automate e Make, o N8n está muito mais próximo, porque são ferramentas com funções e propósitos semelhantes.

Gostamos de pensar assim: começar a agrupar as ferramentas em categorias para traçar paralelos. Esta se parece mais com aquela, tem um recurso que a outra não tem. Essa é uma maneira de analisar o mercado, as ferramentas e todo o fluxo de informações que recebemos, para acalmar, reduzir a ansiedade e tomar uma boa decisão ao mudar de ferramenta ou ao escolher uma. É possível que estejamos fazendo este curso para conhecer a ferramenta, mas não necessariamente para usá-la no dia a dia. Existem outras alternativas às quais os conceitos apresentados aqui também se aplicam.

Alternativas e aplicações típicas - Como lideranças podem utilizar o Cowork?

Apresentando o formato do curso

Como dissemos, este curso será um pouco diferente, no sentido de que vamos trabalhar com casos de uso, utilidades e ideias para que possamos utilizar o Cloud (nuvem) no nosso dia a dia.

Para cada uma das aulas, não vamos desenvolver um grande projeto do início ao fim e executá-lo, como fizemos nos cursos anteriores, em que avançamos da primeira à terceira aula montando o projeto passo a passo. Em vez disso, vamos partir de casos já preparados, fazer adaptações e investigar como foram construídos, para que possamos ampliar nosso repertório e gerar mais ideias de como usar essa ferramenta no cotidiano.

Também vamos nos concentrar em estimular o pensamento sobre outras possibilidades com as ferramentas e as funcionalidades que vimos nos cursos anteriores.

Contextualizando os desafios de liderança

Considerando o público de lideranças e nós, como lideranças, temos um contexto muito amplo para gerir. Precisamos automatizar tarefas do dia a dia, conversar com muitas pessoas e lidar com um volume muito grande de informações. Além disso, há a gestão e o desenvolvimento de pessoas.

A proposta é abordar cada um desses temas e, ao longo dos projetos, discutir como o Cloud (nuvem) pode nos ajudar, estruturando um projeto que contribua nessa direção ou que nos estimule a pensar em como adaptar o projeto apresentado ao nosso dia a dia.

Partimos, portanto, desse contexto: somos lideranças, temos muita informação, muitas reuniões, precisamos lidar com pessoas e conduzir gestão e desenvolvimento de pessoas. Executamos vários projetos em paralelo e, como já vimos nos cursos anteriores, a organização da informação pode nos ajudar significativamente, funcionando como um segundo cérebro, um caderno de notas poderoso para compreendermos melhor as questões em andamento.

Dessa forma, vamos explorar outros projetos para inspirar adaptações e incentivar o uso no cotidiano.

Explorando automação e gestão de demandas

Começaremos com um projeto de automação de tarefas, escolhendo uma atividade bastante comum para trabalharmos: a tradução de contexto. Já exploramos esse tema em cursos anteriores, no âmbito da comunicação, mas agora vamos aprofundar e demonstrar como podemos desenvolver algo mais sofisticado e avançado, abrangendo muitos tipos possíveis de comunicação e diversas áreas com as quais precisamos nos comunicar.

Temos a organização de demandas no nosso dia a dia: precisamos delegar demandas, definir para quem as atribuiremos, acompanhar o andamento, realizar o daily (reunião diária), usar o Trello e o ClickUp. Mantemos essa organização e, neste projeto, a proposta é discutir a organização e também explorar como podemos conectar o n8n para disponibilizar uma ferramenta para nós e demonstrar essa possibilidade. Nos cursos anteriores, utilizamos a conexão nativa do ClickUp e contamos com um assistente de AVD, pensando na gestão de pessoas, no ciclo de AVD, em como fazemos o acompanhamento do desempenho, como realizamos os one-on-ones (encontros individuais) e como organizamos tudo isso.

Conectando projetos e componentes do sistema

Temos quatro projetos, ou quatro áreas, com os quais trabalharemos durante este curso.

Queremos que você tenha em mente, ao nos ver apresentando estes cursos, este curso e estes projetos, como as funcionalidades operam em conjunto e como desenhamos o sistema para funcionar de forma integrada. Trabalhamos com várias partes: temos as skills (habilidades), os agents (agentes), os hooks (ganchos), a própria LLM (Modelo de Linguagem Grande) e os conectores. Precisamos reunir todos esses elementos de modo que façam sentido.

Essa capacidade de criar sistemas, de pensar em sistemas e de conectar pontos é o foco que desejamos estimular: observar como as funcionalidades estão operando, como uma habilidade aciona outra, como um componente depende de outro para acontecer. Isso também ajudará a inspirar você a desenhar sistemas melhores e mais personalizados para o seu dia a dia.

Orientando a personalização e próximos passos

Ao final, o sistema que você terá pode ser pensado com foco em dados, pessoas, projetos, resultados, métricas ou negociações. Cada uma dessas áreas, que fazem parte do nosso cotidiano como lideranças, pode ser orientada por como a Cloud (nuvem), essa ferramenta ou esse nosso assistente podem ajudar — ou por como podemos estruturar um assistente que realmente auxilie nessa tarefa — e por quais tipos de tarefas serão contempladas.

Existem diversas áreas da liderança em que a ferramenta pode ajudar, mas depende também de você, no seu contexto, elaborar como montar esse assistente e como estruturar esse sistema. As funcionalidades já são conhecidas, pois foram apresentadas nos cursos anteriores.

Este curso será um estudo de caso para gerar ideias e, novamente, inspirar você a apresentar e aplicar isso no seu dia a dia.

Sobre o curso Claude Cowork: casos de uso em gestão, produto e marketing

O curso Claude Cowork: casos de uso em gestão, produto e marketing possui 147 minutos de vídeos, em um total de 35 atividades. Gostou? Conheça nossos outros cursos de Automação e Produtividade em Programação, ou leia nossos artigos de Programação.

Matricule-se e comece a estudar com a gente hoje! Conheça outros tópicos abordados durante o curso:

Alavanque sua carreira com até 44% off + Gift card de até R$150.

Alavanque sua carreira com até 44% off + Gift card de até R$150.

Conheça os Planos para Empresas