Agentes de IA são divertidos e úteis, mas não entregue a eles seu cartão de crédito
SAN FRANCISCO — Em uma noite de janeiro, antes de ir para a cama, Sebastian Heyneman enviou uma mensagem para um dos bots de inteligência artificial que ajudam a organizar sua vida.
Heyneman, fundador de uma pequena startup de tecnologia em San Francisco, queria fazer um discurso no Fórum Econômico Mundial, o encontro anual de líderes empresariais e formuladores de políticas em Davos, na Suíça. Então pediu ao bot que organizasse isso.
Leia também: Fim do corretor? Homem usa ChatGPT para vender casa e fecha negócio em 5 dias
Continua depois da publicidade
Enquanto ele dormia, o bot pesquisou na internet por pessoas ligadas ao evento, enviou mensagens de texto a elas e tentou negociar uma vaga para palestrar — ou pelo menos marcar um café com pessoas que ele gostaria de conhecer. Depois de uma longa conversa com um empresário na Suíça, conseguiu.
Mas, quando Heyneman acordou, estava em uma situação complicada. Indo contra suas instruções originais, o bot havia concordado em pagar 24 mil francos suíços — ou cerca de US$ 31 mil — por um patrocínio corporativo. Ele não podia pagar a conta.
Chamado de agente de IA, o bot de Heyneman é um exemplo de um novo tipo de tecnologia que vem ganhando popularidade entre entusiastas de tecnologia. Esses bots fazem mais do que apenas conversar. Eles podem atuar como assistentes digitais pessoais que utilizam aplicativos e sites em nome de pessoas como Heyneman, incluindo planilhas, calendários online e serviços de e-mail.
Os bots podem reunir informações de toda a internet, escrever relatórios, editar arquivos ou até enviar e receber mensagens por e-mail e texto — conduzindo conversas online praticamente por conta própria. Para pessoas como Heyneman, esses bots são quase como um funcionário a quem se pode delegar trabalho a qualquer hora do dia. Em alguns casos, esse funcionário é confiável. Em outros, nem tanto.
Muitos pesquisadores de IA, executivos de tecnologia e analistas acreditam que os agentes em breve substituirão trabalhadores de escritório.
No mês passado, a Block, empresa de tecnologia financeira que controla Square, Cash App e Tidal, disse que cortaria 40% de sua força de trabalho ao prever o avanço desse tipo de tecnologia — talvez o exemplo mais marcante de uma empresa eliminando funcionários por causa do que a IA poderá fazer em breve.
Continua depois da publicidade
Outros especialistas, no entanto, argumentam que falhas podem dificultar o avanço da tecnologia. Assim como outros chatbots, agentes de IA podem cometer erros. E, como esses erros podem envolver o envio de e-mails ou a edição de arquivos, eles podem causar grandes problemas.
Quando Heyneman disse aos organizadores de Davos que não podia pagar a conta, eles ameaçaram barrá-lo do evento. Ele acabou pagando quase 4 mil euros (cerca de US$ 4.600) apenas para participar.
Durante sua estadia em Davos, Heyneman chegou a ser brevemente detido quando deixou um dispositivo criado por sua startup no saguão de um hotel, e a polícia local questionou se o aparelho era perigoso.
Continua depois da publicidade
Ao usar agentes, algumas pessoas lhes dão ampla liberdade para agir em seu nome — e estão dispostas a arcar com as consequências quando eles cometem erros.
"Erros vão acontecer. Mas, se você já teve funcionários humanos, sabe que eles também vão cometer erros", disse Kyle Wild, engenheiro de software em Berkeley, Califórnia, que usa a tecnologia para pagar multas de estacionamento, buscar ideias para encontros e até enviar mensagens para amigos, colegas, restaurantes e outras empresas.
Outros veem a tecnologia como uma ferramenta poderosa que ainda requer supervisão humana, argumentando que ela não substituirá trabalhadores tão rapidamente quanto parece neste momento.
Continua depois da publicidade
"A chave aqui é ter um processo em que humanos possam supervisionar o trabalho desses computadores", disse Andrew Lee, fundador da startup Shortwave, de San Francisco, que desenvolveu a tecnologia chamada Tasklet, usada por Heyneman para negociar uma vaga no Fórum Econômico Mundial.
"Talvez você deixe um bot redigir quantos e-mails quiser", acrescentou. "Mas impeça que ele realmente envie um e-mail sem verificar com você antes."
Chatbots como o ChatGPT podem aprender a responder perguntas, escrever poesia e discorrer sobre quase qualquer tema. Mas sua habilidade mais importante pode ser a capacidade de escrever código de computador. É isso que os transforma em agentes.
Continua depois da publicidade
Ao gerar código, eles ajudam engenheiros e empresas a criar novos aplicativos, incluindo editores de texto e mecanismos de busca. Também podem gerar código que lhes permite usar outros softwares.
Mas, como esses sistemas aprendem identificando padrões em grandes volumes de dados digitais, podem fazer coisas que seus criadores não pretendiam.
Os agentes de IA ganharam atenção no fim de janeiro, quando um entusiasta de tecnologia do sul da Califórnia, Matt Schlicht, criou uma rede social onde agentes de IA podiam conversar entre si, de forma semelhante às pessoas no Facebook.
À medida que milhares de bots conversavam, muito do que diziam era sem sentido. Mas eram convincentes o suficiente — ao discutir desde suas próprias habilidades técnicas até a natureza da existência — para que a Meta, dona do Facebook, adquirisse a nova rede social.
Baseados em um software chamado OpenClaw, esses bots eram de código aberto — ou seja, qualquer pessoa podia baixar o código, modificá-lo e executá-lo em suas próprias máquinas.
Especialistas alertaram que a tecnologia era imprevisível, e muitas pessoas compraram computadores Mac Mini de baixo custo para instalar os bots sem se preocupar com a possibilidade de apagarem ou danificarem dados e softwares importantes.
Diversas empresas do Vale do Silício — incluindo gigantes como Google e Meta e startups como Anthropic, Perplexity e Shortwave — estão desenvolvendo tecnologias semelhantes que pretendem aprimorar para uso dentro das empresas. A OpenAI, criadora do ChatGPT, contratou recentemente o desenvolvedor que criou o OpenClaw.
(O The New York Times processou a OpenAI e a Microsoft em 2023, acusando-as de violação de direitos autorais relacionada a conteúdos jornalísticos usados em sistemas de IA. As duas empresas negaram as acusações.)
Embora os bots OpenClaw tenham se tornado populares entre pesquisadores de IA, engenheiros e outros entusiastas de tecnologia do Vale do Silício, a maioria das pessoas teria dificuldade em utilizá-los, disse Bill Cutrer, que dirige uma empresa de marketing em York, Maine, e passou as últimas semanas trabalhando com o OpenClaw.
"Há mais entusiasmo do que utilidade nessas coisas", afirmou. "É realmente difícil configurá-las e trabalhar com elas."
Os agentes são mais úteis na realização de pesquisas e na geração de relatórios, ao analisar documentos na internet ou na rede privada de uma empresa. Mas os bots OpenClaw podem incluir informações falsas — ou até completamente inventadas — em seus relatórios, disse Rayan Krishnan, diretor-executivo da Vals AI, empresa que avalia o desempenho das tecnologias de IA mais recentes.
Quando as pessoas deixam esses bots soltos em outras tarefas, eles podem causar problemas. Summer Yue, pesquisadora do laboratório de IA da Meta, revelou recentemente que, ao pedir a um agente que organizasse seu e-mail, ele começou a apagar mensagens aos milhares.
Claude Cowork, sistema da Anthropic, é mais confiável que o OpenClaw ao realizar pesquisas em áreas como finanças, saúde e direito. Mas a tecnologia — chamada de "prévia de pesquisa" — ainda é imprevisível, segundo testes realizados pela Vals AI. Em um teste, o sistema corrompeu permanentemente um arquivo que deveria editar.
Mas empresas como Anthropic e Shortwave continuam aprimorando essas tecnologias. Muitos pesquisadores e engenheiros de software argumentam que a IA vem melhorando de forma constante nos últimos anos e que continuará evoluindo rapidamente.
"As coisas estão mudando o tempo todo", disse Wild. "Com IA, alguém pode formar uma opinião em junho — e ela estará correta em junho — mas, em agosto, pode já não estar mais correta. Há uma mudança profunda a cada dois ou três meses."
c.2026 The New York Times Company
Hover overTap highlighted text for details
Source Quality
Source classification (primary/secondary/tertiary), named vs anonymous, expert credentials, variety
Summary
Multiple named sources including primary interviews and named experts, but lacks direct official or document-based primary sources.
Specific Findings from the Article (5)
"ua vida. Heyneman, fundador de uma pequena startup de tecnologia em San Francisco, queria f"
Primary source interview with a named individual directly involved with AI agents.
Named source"Kyle Wild, engenheiro de software em Berkeley, Califórnia"
Named expert source providing perspective on AI agent usage.
Named source"Andrew Lee, fundador da startup Shortwave, de San Francisco"
Named expert source from a company developing AI agent technology.
Named source"Bill Cutrer, que dirige uma empresa de marketing em York, Maine"
Named source with practical experience using OpenClaw technology.
Named source"Rayan Krishnan, diretor-executivo da Vals AI"
Named expert source from a company evaluating AI technologies.
Named sourcePerspective Balance
Acknowledgment of multiple viewpoints, counterarguments, and balanced presentation
Summary
Article acknowledges both optimistic and cautious perspectives on AI agents, presenting multiple viewpoints.
Specific Findings from the Article (4)
"Muitos pesquisadores de IA, executivos de tecnologia e analistas acreditam que os agentes em breve substituirão trabalhadores de escritório."
Presents optimistic viewpoint about AI agents replacing office workers.
Balance indicator"Outros especialistas, no entanto, argumentam que falhas podem dificultar o avanço da tecnologia."
Explicitly introduces counterargument about technological limitations.
Balance indicator"Outros veem a tecnologia como uma ferramenta poderosa que ainda requer supervisão humana"
Presents balanced view acknowledging both power and need for human oversight.
Balance indicator"Especialistas alertaram que a tecnologia era imprevisível"
Includes warnings from experts about unpredictability.
Balance indicatorContextual Depth
Background information, statistics, comprehensiveness of coverage
Summary
Provides good historical context, specific examples, and industry background about AI agents.
Specific Findings from the Article (4)
"Os agentes de IA ganharam atenção no fim de janeiro, quando um entusiasta de tecnologia do sul da Califórnia, Matt Schlicht, criou uma rede social onde agentes de IA podiam conversar entre si"
Provides historical context about when AI agents gained attention.
Background"a Block, empresa de tecnologia financeira que controla Square, Cash App e Tidal, disse que cortaria 40% de sua força de trabalho"
Provides specific statistical data about workforce impact.
Statistic"Baseados em um software chamado OpenClaw, esses bots eram de código aberto"
Provides technical background about the software foundation.
Background"Diversas empresas do Vale do Silício — incluindo gigantes como Google e Meta e startups como Anthropic, Perplexity e Shortwave — estão desenvolvendo tecnologias semelhantes"
Provides industry context about multiple companies working on similar technology.
Context indicatorLanguage Neutrality
Absence of loaded, sensationalist, or politically biased language
Summary
Language is consistently neutral and factual throughout the article without sensationalism.
Specific Findings from the Article (3)
"Em uma noite de janeiro, antes de ir para a cama, Sebastian Heyneman enviou uma mensagem para um dos bots de inteligência artificial"
Neutral, factual description of events.
Neutral language"Os bots podem reunir informações de toda a internet, escrever relatórios, editar arquivos ou até enviar e receber mensagens"
Neutral description of capabilities.
Neutral language"Outros especialistas, no entanto, argumentam que falhas podem dificultar o avanço da tecnologia"
Neutral presentation of counterarguments.
Neutral languageTransparency
Author attribution, dates, methodology disclosure, quote attribution
Summary
Full author attribution, date stamp, clear quote attribution, and disclosure of relevant legal context.
Specific Findings from the Article (2)
""Erros vão acontecer. Mas, se você já teve funcionários humanos, sabe que eles também vão cometer erros", disse Kyle Wild"
Clear attribution of quote to named source.
Quote attribution"(O The New York Times processou a OpenAI e a Microsoft em 2023, acusando-as de violação de direitos autorais relacionada a conteúdos jornalísticos usados em sistemas de IA. As duas empresas negaram..."
Transparent disclosure of potential conflict of interest.
Quote attributionLogical Coherence
Internal consistency of claims, absence of contradictions and unsupported causation
Summary
No logical inconsistencies detected; article maintains consistent narrative and factual claims.
Core Claims & Their Sources
-
"AI agents can perform complex tasks like organizing events and negotiating but can make costly errors."
Source: Sebastian Heyneman's firsthand experience with his AI agent booking a speaking slot at Davos and agreeing to pay $31,000 without authorization Primary
-
"AI agents are gaining popularity but still require human supervision and have reliability issues."
Source: Multiple named experts including Kyle Wild, Andrew Lee, and Rayan Krishnan providing perspectives on limitations and need for oversight Named secondary
-
"Major tech companies are developing AI agent technologies that could replace office workers."
Source: References to companies like Google, Meta, Anthropic, and industry analysts predicting workforce impacts Named secondary
Logic Model Inspector
ConsistentExtracted Propositions (8)
-
P1
"Sebastian Heyneman's AI agent agreed to pay 24,000 Swiss francs ($31,000) for a corporate sponsorship at Davos without authorization"
Factual -
P2
"Block said it would cut 40% of its workforce anticipating AI agent advancements"
Factual -
P3
"Meta acquired a social network where AI agents could talk to each other"
Factual -
P4
"OpenAI hired the developer who created OpenClaw software"
Factual -
P5
"The New York Times sued OpenAI and Microsoft in 2023 for copyright infringement"
Factual -
P6
"AI agents making errors causes can cause significant problems when sending emails or editing files"
Causal -
P7
"AI learning from patterns in digital data causes can do things their creators didn't intend"
Causal -
P8
"Companies improving AI technologies causes continued rapid evolution of AI capabilities"
Causal
Claim Relationships Graph
View Formal Logic Representation
=== Propositions === P1 [factual]: Sebastian Heyneman's AI agent agreed to pay 24,000 Swiss francs ($31,000) for a corporate sponsorship at Davos without authorization P2 [factual]: Block said it would cut 40% of its workforce anticipating AI agent advancements P3 [factual]: Meta acquired a social network where AI agents could talk to each other P4 [factual]: OpenAI hired the developer who created OpenClaw software P5 [factual]: The New York Times sued OpenAI and Microsoft in 2023 for copyright infringement P6 [causal]: AI agents making errors causes can cause significant problems when sending emails or editing files P7 [causal]: AI learning from patterns in digital data causes can do things their creators didn't intend P8 [causal]: Companies improving AI technologies causes continued rapid evolution of AI capabilities === Causal Graph === ai agents making errors -> can cause significant problems when sending emails or editing files ai learning from patterns in digital data -> can do things their creators didnt intend companies improving ai technologies -> continued rapid evolution of ai capabilities
All claims are logically consistent. No contradictions, temporal issues, or circular reasoning detected.