Dissemos anteriormente que há programas de inteligência artificial (IA) capazes de codificar a voz humana. Uma voz “clonada” pelos programas pode ler qualquer texto, realizar telefonemas, enviar mensagens de áudios, simulando a nossa identidade. Isso pode gerar graves problemas. Por exemplo, no Brasil estão codificados os crimes contra a honra: a calúnia, a difamação e a injúria. Recentemente, a injúria racial foi equiparada ao crime de racismo. Agora perguntamos: se alguém “rouba” a nossa voz e, com o auxílio de inteligência artificial, envia “áudios” ou realiza telefonemas cometendo esse tipo de ato, os “áudios” enviados ou gravados poderiam ser admitidos em processos jurídicos?
Evidentemente, segundo a virtude da justiça, esse material não poderia ser considerado uma prova real, mas sim uma fraude. Mas se for impossível demonstrar a autenticidade do material, todas as mensagens de áudio deverão ser invalidadas em processos jurídicos. E as chamadas telefônicas tampouco poderão servir de provas, pois o acusado pode alegar que não deu aquele telefonema, mas foi uma IA que simulou a sua voz. Assim poderá ocorrer que alguém tenha realmente cometido um crime, que se tenha provas disso, sem que elas possam ser usadas, deixando o culpado livre para cometer novos atos ilícitos.
Há ainda programas de IA que trabalham com fotos: elas as editam, mudam o fundo, trocam a “face” das pessoas, o ambiente, a paisagem etc. Recentemente, foi publicada uma foto “editada” do Papa Francisco. É possível fazer montagens de fotos para, por exemplo, simular um crime, usando a face de um inocente. Essas fotos poderão ser usadas como “prova” no tribunal? Se não tivermos como identificar se a foto é autêntica ou uma fraude, uma foto não poderá mais ser utilizado como prova. O mesmo ocorrerá com programas de IA que modifiquem imagens em movimento. Não poderá ser aceito como prova, caso não seja possível distinguir o material autêntico e o produzido pelas IAs. Assim, criminosos poderão ser filmados, fotografados, cometendo crimes, sem que esses vídeos e fotos sejam utilizados contra eles.
Isso mostra a complexidade do assunto. Talvez a maior parte das pessoas use esses meios para fins lícitos, educativos ou lúdicos, mas há também a possibilidade real de se cometer diversos novos crimes, que ainda não conseguimos nem prever, com a acrescida dificuldade que eles sejam provados e os culpados condenados. Há o risco sério de que os inocentes deverão provar que são inocentes (e foram fraudados) e será cada vez mais difícil conseguir provas cabais contra atos criminosos.
Deveria se limitar, então, o uso desse tipo de ferramentas? Sem dúvidas, de modo que elas não sejam usadas para fins ilícitos, de modo coloquem em risco as pessoas, a sociedade, promovendo o roubo, o engano, a violência, o terrorismo. Mas como fazer isso? Se esses meios forem limitados para alguns, deverão sê-lo para todos.
O assunto é complexo e leva os próprios criadores das IAs a buscarem uma solução. Em 29/03/2023, Elon Musk, um dos cofundadores da OpenAI, empresa criadora do ChatGPT, que presidiu a empresa até 2018, lançou uma carta no site futureoflife.org, com mais de 1000 especialistas, pedindo uma pausa de seis meses na pesquisa sobre inteligências artificiais (IAs) mais fortes do que o GPT-4. Pois esse tipo de ferramentas pode trazer “profundos riscos para a humanidade”. Nesse tempo, dever-se-ia providenciar a criação de órgãos regulatórios, de meios de supervisão de sistemas e de ferramentas que permitam distinguir o que é criado por inteligência artificial. Parece que eles estão buscando soluções legislativas para os problemas que eles criaram.
No dia 31/05/23, recebemos a notícia de que a União Europeia e os EUA publicarão um “código de conduta” sobre as IAs, a serem assumidas pelos países de forma voluntária. No Brasil, há o Projeto de Lei nº 2338, de 2023, do Senador Rodrigo Pacheco, sobre o uso da Inteligência Artificial. O projeto está em tramitação (“aguardando despacho”). Tem 31 páginas, o que demonstra a complexidade do tema.
Deve-se, pois, facilitar o acesso a meios que podem trazer graves riscos para a humanidade? Se os riscos de uma nova tecnologia superarem os seus benefícios, elas devem ser incentivadas e desenvolvidas? Se os primeiros cientistas que pesquisaram a energia nuclear soubessem que ela teria sido usada para a fabricação da arma de destruição em massa mais letal que temos, eles teriam continuado a sua pesquisa? É uma pergunta que deveríamos levar a sério. Além disso, deve-se pensar nos impactos desses meios sobre a educação. Falaremos disso mais adiante.