30 de mar. de 2023

Engenharia Lógica avalia Chat de IA.


No último dia 25 de março de 2023 tive a grata satisfação de ministrar a palestra intitulada “Engenharia Lógica avalia Chat de IA” com a qual reinicia, em 2023, as atividades do Cenenlocog (Centro de Engenharia Lógica e Cognição).

DIAS, C. M. C. - 2023

Na conferência chamo a atenção não apenas para os desafios sobre o Chat de IA (Inteligência Artificial) denominado ChatGPT (Chat generative pre-trained transformer - Chat “transformador pré-treinado gerador de conversas”) da OpenAI, mas, principalmente, para os grandes perigos para a humanidade que este chatbot com IA “especializado em diálogo” começa a sinalizar. Servindo-me dos pressupostos da Engenharia Lógica procedo de forma extemporânea a avaliação da ferramenta em referência na correspondente exposição.

Como todo chatbot (ou chatterbot), o ChatGPT “é um programa de computador que se propõe simular um ser humano na conversação com as pessoas objetivando responder as perguntas de maneira que as pessoas tenham a “impressão” de estar, de fato, conversando com outra pessoa e não com um computador”. E, portanto, falível e não confiável (em princípio) dado que os conteúdos advém apenas da INTERNET e não têm referências de autoridades.

O modelo de linguagem artificial do ChatGPT interage de forma conversacional possibilitando “realizar uma grande variedade de tarefas tais como responder perguntas, elaborar textos, traduzir conteúdos, escrever programas em linguagem de computador, preparar monografias ou até mesmo teses, gerar artigos científicos, elaborar laudos ou perícias, resolver questões problema, enfim, dar conta de diversas tarefas que desafiam a inteligência humana”.

Mas, embora surpreendente e já cativando milhões de usuários, o ChatGPT é bem deficitário, limitado, podendo ser tendencioso e gerar erros (até grosseiros e facilmente identificáveis) dos mais diferentes níveis e abrangências podendo causar sérios prejuízos.

O próprio ChatGPT adverte os usuários: “... o sistema pode ocasionalmente gerar informações incorretas ou enganosas e produzir conteúdo ofensivo ou tendencioso. Não se destina a dar conselhos”.

Na palestra ponho em foco a questão do correspondente perigo, mas sinalizo, também, algumas das boas vantagens que a ferramenta apresenta desde que devidamente avaliadas pelos humanos que recebam as respectivas informações solicitadas.

A palestra seguiu as linhas do artigo “Lógica expõe dificuldades sobre chat de IA” que escrevi recentemente e que foi publicado em mídias digitais de divulgação.

Enfatizo tanto na palestra quanto no artigo referenciado que a “Literacia Mediática” (“capacidade de aceder, criar, avaliar e compreender as mensagens dos vários meios de comunicação”) de ferramentas baseadas em IA como a plataforma ChatGPT é ainda muito fraca e não confiável dado que tais plataformas “não sabem bem o que dizem, só falam e falam e falam (sem compromisso algum [com a verdade]”.

Encerro meu pronunciamento alertando sobre a necessidade urgente de definirem regulamentações e de legislações específicas apropriadas para se manter a segurança, a ética, a privacidade e a confiabilidade das informações disseminadas automaticamente por quaisquer robôs ou máquinas com IA tipo o ChatGPT dado que se não forem instituídas normas claras sobre o desenvolvimento e proliferação de tais tecnologias poderá ser possibilitada a disseminação de potencial ameaça à humanidade.

As chances de se desenvolver e se multiplicarem (sem controle algum) inúmeras “mentes digitais” autorreplicantes sobre as quais não se tenha sequer entendimento algum não é mera ficção, é um fato como o é uma pandemia ou outra infestação em grande e incontrolada escala que não se conhecia certamente.

O risco de se criar uma "superinteligência” desalinhada com a manutenção da vida humana sempre foi um temor real que com as ferramentas como o ChatGPT se tornam algo bem mais assustador e presente.

Finalizando minha exposição fui bem claro ao afirmar que é necessário sim (e urgente) a criação de um Órgão Regulador Internacional dedicado a tratar, avaliar e decidir sobre todos os aspectos relacionados com a IA e com todas as tecnologias associadas à IA que possam interferir maleficamente na vida humana.

Carlos Magno Corrêa Dias
30/03/2023