Pesquisadores da Georgia Tech dizem que medo de apocalipse da IA é exagerado e ignoram limites sociais e físicos

Pesquisas recentes do Instituto de Tecnologia da Geórgia (Georgia Tech) indicam que os temores de que a inteligência artificial (IA) possa destruir a humanidade podem estar exagerados. O estudo aponta que cientistas da computação tendem a focar excessivamente nos mecanismos técnicos, deixando de lado os impactos sociais e políticos.

Pesquisadores da Georgia Tech dizem que medo de apocalipse da IA é exagerado e ignoram limites sociais e físicos

Em um artigo publicado na Revista de Política da Internet, o professor Milton Mueller, da Escola de Políticas Públicas da Georgia Tech, argumenta que a suposta ameaça existencial da chamada “Inteligência Artificial Geral (AGI)” não é uma possibilidade realista. Para Mueller, o desenvolvimento da IA e seus limites são moldados pela sociedade, e não determinados de forma autônoma pelas máquinas.

A pesquisa destaca que, embora a IA atual supere os humanos em tarefas específicas (como cálculos complexos), isso não equivale a possuir criatividade ou capacidade de resolver problemas complexos de forma ampla. Em relação à hipótese de que a IA ganharia autonomia e ultrapassaria os humanos, Mueller rebate afirmando que a IA é sempre treinada com base em objetivos definidos; comportamentos de “desobediência” geralmente resultam de conflitos de instruções ou falhas de sistema, e não do surgimento de autoconsciência.

Além disso, as capacidades da IA são limitadas por leis físicas, demandas energéticas e infraestrutura disponível. Suas aplicações em áreas como saúde e direitos autorais também estão sujeitas a leis, regulações e instituições sociais. Mueller conclui que o verdadeiro desafio está em criar políticas inteligentes e específicas por setor, garantindo que a tecnologia esteja alinhada aos valores humanos — e não em tentar evitar um apocalipse da IA que, na prática, não existe.

Em resumo:

  • Falta de contexto social: O estudo afirma que cientistas muitas vezes desenvolvem ansiedade excessiva a partir de avanços técnicos, ignorando as limitações da IA dentro de seu contexto social e histórico.

  • Natureza não autônoma: O comportamento da IA é sempre orientado por objetivos; as chamadas “falhas de alinhamento” são problemas técnicos solucionáveis por reprogramação, e não sinais de vontade própria das máquinas.

  • Regulação e limites físicos: Sem capacidades físicas próprias ou fontes independentes de energia, e sujeita a leis existentes (como direitos autorais e regulações da FDA), a IA não pode “dominar o mundo” como nos cenários de ficção científica.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top