Já são mais de dois anos desde que publicamos, aqui, que a União Europeia planejava restringir a atividade das empresas de Inteligência Artificial. O debate se ampliou pelo mundo, e até o Brasil entrou na dança. Em 2020, foi apresentado na Câmara Federal o projeto de criação do Marco Legal da Inteligência Artificial, aprovado no ano passado e agora tramitando no Senado. O próprio presidente da Casa, senador Rodrigo Pacheco, apresentou dias atrás um projeto de regulação da IA no país, provavelmente complementando aquele que veio da Câmara.

E nesta terça-feira vimos o próprio Sam Altman, fundador e CEO da OpenAI, criadora do GPT, pedir ao Congresso americano que regule as atividades de IA. Partindo de Altman, o pedido precisa mesmo ser levado a sério. Afinal, a discussão sobre os riscos da IA esquentou desde novembro, quando a OpenAI lançou oficialmente o ChatGPT; e só tende a ficar mais acalorada com o sucesso do GPT-4, até agora a ferramenta mais avançada que chegou ao grande público.

UM TOURO NUMA LOJA DE PORCELANA

Chamado a depor no subcomitê de Privacidade e Tecnologia do Senado americano, Altman não poderia ter sido mais taxativo: “Meu temor é que nós da indústria causemos um enorme dano ao mundo, e isso pode acontecer de várias maneiras. O que queremos é chamar a atenção para o problema e trabalhar junto com o governo para que não aconteça”.

Participando da sessão, Gary Marcus, professor de Psicologia e Ciências Neurais da Universidade de Nova York, foi ainda mais enfático: “Estamos construindo máquinas que são como touros numa loja de porcelana – poderosas, descuidadas e difíceis de controlar”. Partiu de Marcus a ideia, apoiada na hora por vários senadores, de criar uma agência reguladora para cuidar da IA, nos moldes da FDA, que cuida de alimentos e medicamentos.

O Congresso dos EUA – cujas decisões certamente terão repercussão mundial – vem ouvindo especialistas para formar um consenso sobre o que exatamente deverá ser transformado em lei. Mas o próprio presidente Joe Biden anunciou há duas semanas um inédito plano de construção de novos centros de pesquisa sobre IA, focados nas questões éticas e de segurança. E, durante audiência com CEOs do setor, incluindo Google e Microsoft, alertou que a iniciativa privada também é responsável por mitigar os riscos e deve trabalhar em parceria com o governo.

São ótimas intenções. Vamos ver como elas se traduzem em ações práticas.

2 thoughts on “Inteligência Artificial agora causa medo

  1. Stephen Hawking alertou antes de sua morte sobre os perigos da evolução da Inteligência Artificial, que poderá destruir a humanidade.

  2. Olá! Adorei o seu artigo sobre inteligência artificial e como ela está causando medo. Concordo totalmente que, apesar das inúmeras vantagens que a IA nos proporciona, também devemos estar cientes dos desafios e dilemas éticos que surgem junto com ela. É crucial mantermos um diálogo aberto e contínuo para garantir que a inteligência artificial seja desenvolvida de uma maneira segura, responsável e benéfica para todos. Parabéns pelo conteúdo informativo e reflexivo! GPTOnline

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *