Especialista em computação adverte que corrida da IA ameaça sobrevivência humana
Para Stuart Russell, líderes globais devem assumir o controle da segurança da espécie diante do consenso de CEOs sobre os riscos da superinteligência
Katie Forster - AFP
17/02/2026 às 15:41.
Russel defende que a responsabilidade de salvar a espécie recai sobre os líderes mundiais, que podem agir de forma coletiva (SAUL LOEB/AFP via Getty Images)
NOVA DÉLHI (ÍNDIA) - Os diretores executivos das principais empresas de tecnologia estão envolvidos em uma corrida pelo domínio no campo da inteligência artificial que pode colocar em risco a sobrevivência da humanidade, afirmou nesta terça-feira (17) à AFP o destacado pesquisador Stuart Russell.
Russell, professor da Universidade da Califórnia, em Berkeley, disse que os líderes das maiores companhias de IA do mundo têm consciência dos perigos representados por sistemas superinteligentes, capazes um dia de superar os humanos.
Segundo ele, a responsabilidade de salvar a espécie recai sobre os líderes mundiais, que podem agir de forma coletiva.
"Permitir que entidades privadas joguem essencialmente roleta russa com cada ser humano na Terra é, na minha opinião, um abandono total do dever", declarou Russell, voz proeminente na área de segurança em IA.
Países e empresas estão investindo centenas de bilhões de dólares na construção de centros de dados de alto consumo de energia para treinar e operar ferramentas de IA generativa.
Essa tecnologia, que se desenvolve em ritmo acelerado, promete benefícios como a descoberta de medicamentos, mas também pode provocar perda de empregos e abusos on-line.
Além disso, existe o risco de que "os próprios sistemas de IA assumam o controle e a civilização humana seja um dano colateral nesse processo", afirmou Russell em entrevista durante a AI Impact Summit, em Nova Délhi.
"Acho que cada um dos presidentes das principais companhias de IA quer desarmar [interromper o progresso da IA], mas não pode fazê-lo de maneira unilateral, porque os investidores os demitiriam", acrescentou.
"Alguns disseram isso publicamente e outros me confessaram em privado", afirmou, destacando que até Sam Altman, diretor da empresa criadora do ChatGPT, OpenAI, declarou publicamente que a IA pode levar à extinção humana.
A OpenAI e a startup americana rival Anthropic registraram demissões públicas de funcionários que manifestaram preocupações éticas.
A Anthropic também alertou na semana passada que seus modelos mais recentes de chatbot podem ser "influenciados para apoiar, de maneira consciente, mas limitada, esforços voltados ao desenvolvimento de armas químicas e outros crimes atrozes".
Reuniões internacionais como a cúpula de IA desta semana oferecem uma oportunidade para regulamentar a tecnologia, embora suas três edições anteriores tenham resultado apenas em acordos voluntários por parte das empresas de tecnologia.
"Realmente ajuda que cada um dos governos compreenda esse assunto. E é por isso que estou aqui", afirmou Russell.
A Índia espera que a cúpula de cinco dias sobre IA, que reúne chefes de empresas de tecnologia e dezenas de delegações nacionais de alto nível, permita ao país avançar no setor.
O ministro indiano da Informação e Tecnologia, Ashwini Vaishnaw, afirmou nesta terça-feira que o país espera mais de 200 bilhões de dólares (R$ 1,05 trilhão) em investimentos em IA nos próximos dois anos, incluindo cerca de 90 bilhões de dólares (R$ 471 bilhões) já comprometidos.
Os temores de que ferramentas de assistência por IA provoquem demissões em massa nos maiores setores de atendimento ao cliente e suporte técnico da Índia fizeram as ações das empresas de terceirização do país despencarem nos últimos dias.
"Estamos criando imitadores humanos. E a aplicação natural para esse tipo de sistema é substituir os humanos", insistiu o especialista.
Russell observa uma rejeição crescente à IA, "particularmente entre os jovens".
"Eles realmente estão reagindo contra os aspectos desumanizantes da IA. Quando a IA assume todas as funções cognitivas - capacidade de responder a uma pergunta, tomar uma decisão, elaborar um plano, etc. - transforma as pessoas em algo inferior a seres humanos. Os jovens não querem isso", ressaltou.
Sobre o Portal A Crítica
No Portal A Crítica, você encontra as últimas notícias do Amazonas, colunistas exclusivos, esportes, entretenimento, interior, economia, política, cultura e mais.
Hover overTap highlighted text for details
Source Quality
Source classification (primary/secondary/tertiary), named vs anonymous, expert credentials, variety
Summary
Article relies heavily on a single, named expert source (Stuart Russell) with clear credentials, supplemented by references to other public figures and company actions.
Specific Findings from the Article (4)
"sell. Russell, professor da Universidade da Califórnia, em Berkeley, disse qu"
Primary, named expert source with clear academic credentials.
Expert source" afirmou Russell em entrevista durante a AI Impact Summit, em Nova Délhi. "Acho qu"
Direct quote attributed to the expert from an interview.
Primary source"até Sam Altman, diretor da empresa criadora do ChatGPT, OpenAI, declarou publicamente que a IA pode levar à extinção humana."
References a public statement by another industry figure.
Secondary source"A Anthropic também alertou na semana passada que seus modelos mais recentes de"
Cites a company warning from the previous week.
Tertiary sourcePerspective Balance
Acknowledgment of multiple viewpoints, counterarguments, and balanced presentation
Summary
The article presents a singular, alarmist perspective on AI risks, with minimal acknowledgment of counterarguments or balancing benefits.
Specific Findings from the Article (3)
"corrida pelo domínio no campo da inteligência artificial que pode colocar em risco a sobrevivência da humanidade"
Frames the AI race primarily as an existential threat.
One sided"promete benefícios como a descoberta de medicamentos, mas também pode provocar perda de empregos e abusos on-line."
Briefly acknowledges a potential benefit before listing negatives.
Balance indicator""Permitir que entidades privadas joguem essencialmente roleta russa com cada ser humano na Terra é, na minha opinião, um abandono total do dever""
Strong, one-sided quote from the main source against private AI development.
One sidedContextual Depth
Background information, statistics, comprehensiveness of coverage
Summary
Provides some context about the AI summit, investment figures, and specific company incidents, but lacks deeper historical or technical background.
Specific Findings from the Article (3)
"em entrevista durante a AI Impact Summit, em Nova Délhi."
Provides the event context for the statements.
Context indicator"o país espera mais de 200 bilhões de dólares (R$ 1,05 trilhão) em investimentos em IA nos próximos dois anos"
Provides specific investment figures for context.
Statistic"Reuniões internacionais como a cúpula de IA desta semana oferecem uma oportunidade para regulamentar a tecnologia, embora suas três edições anteriores tenham resultado apenas em acordos voluntários"
Provides background on previous summit outcomes.
BackgroundLanguage Neutrality
Absence of loaded, sensationalist, or politically biased language
Summary
Mostly factual language but includes several emotionally charged phrases and metaphors that frame the issue alarmingly.
Specific Findings from the Article (4)
"Países e empresas estão investindo centenas de bilhões de dólares"
Neutral, factual reporting of investment.
Neutral language"os em uma corrida pelo domínio no campo da inteligência artificial que pode colocar em ri"
Uses dramatic language ('survival of humanity').
Sensationalist" joguem essencialmente roleta russa com cada ser humano na Terra é, na minh"
Emotionally charged metaphor from a source quote.
Sensationalist"a civilização humana seja um dano colateral"
Alarmist phrasing about human civilization.
SensationalistTransparency
Author attribution, dates, methodology disclosure, quote attribution
Summary
Clear author and date attribution, and most quotes are properly attributed to the main source. Lacks methodology disclosure.
Specific Findings from the Article (4)
"Katie Forster - AFP"
Author and news agency clearly attributed.
Author attribution"17/02/2026 às 15:41."
Specific date and time of publication provided.
Date present"declarou Russell"
Quotes are consistently attributed to the main source.
Quote attribution"afirmou Russell em entrevista"
Provides context for how the quote was obtained.
Quote attributionLogical Coherence
Internal consistency of claims, absence of contradictions and unsupported causation
Summary
No logical contradictions or inconsistencies detected. The argument flows from the source's warnings to supporting examples and context.
Core Claims & Their Sources
-
"The race for AI dominance by tech CEOs threatens human survival."
Source: Direct quote from Professor Stuart Russell in an interview. Primary
-
"World leaders have a responsibility to collectively control AI safety."
Source: Direct quote and paraphrasing from Professor Stuart Russell. Primary
-
"AI CEOs want to pause progress but cannot do so unilaterally due to investor pressure."
Source: Claim attributed to Professor Stuart Russell, citing private and public CEO statements. Primary
Logic Model Inspector
ConsistentExtracted Propositions (8)
-
P1
"Stuart Russell is a professor at UC Berkeley."
Factual -
P2
"The AI Impact Summit is happening in New Delhi."
Factual -
P3
"India expects over $200 billion in AI investments in the next two years."
Factual -
P4
"OpenAI and Anthropic have had public resignations of employees over ethical concerns."
Factual -
P5
"Anthropic warned its latest chatbot models could be influenced to support weapons development."
Factual -
P6
"AI development causes potential human extinction (claimed by Russell/Altman)"
Causal -
P7
"AI tools causes mass job losses in Indian customer service (claimed as a market fear)"
Causal -
P8
"Investor pressure causes prevents CEOs from unilaterally pausing AI progress (claimed by Russell)"
Causal
Claim Relationships Graph
View Formal Logic Representation
=== Propositions === P1 [factual]: Stuart Russell is a professor at UC Berkeley. P2 [factual]: The AI Impact Summit is happening in New Delhi. P3 [factual]: India expects over $200 billion in AI investments in the next two years. P4 [factual]: OpenAI and Anthropic have had public resignations of employees over ethical concerns. P5 [factual]: Anthropic warned its latest chatbot models could be influenced to support weapons development. P6 [causal]: AI development causes potential human extinction (claimed by Russell/Altman) P7 [causal]: AI tools causes mass job losses in Indian customer service (claimed as a market fear) P8 [causal]: Investor pressure causes prevents CEOs from unilaterally pausing AI progress (claimed by Russell) === Causal Graph === ai development -> potential human extinction claimed by russellaltman ai tools -> mass job losses in indian customer service claimed as a market fear investor pressure -> prevents ceos from unilaterally pausing ai progress claimed by russell
All claims are logically consistent. No contradictions, temporal issues, or circular reasoning detected.