A Inteligência artificial pode ser responsável?
Uma reflexão a partir do artigo de Tiago Garros e Fernando Pasquini na revista Ultimato
Parabéns, Tiago e Fernando! É muito bom ver o trabalho de vocês e de todos da ABC2 (Associação Brasileira de Cristãos na Ciência), da qual também sou membro, auxiliando a igreja no processo de reflexão.
Este texto não é exatamente o que o assunto mereceria, em termos de rigor e tamanho, mas é pra que a ideia que me veio à mente ao lê-lo não se perca por ai.
Em “ChatGPT: O que é e os desafios para o cristão”, publicado na revista Ultimato de maio/junho de 2023 os autores Tiago Garros e Fernando Pasquini apresentam ao leitor o que é a Inteligência Artificial a partir de um exemplo que tomou a mídia, o ChatGPT. Em seguida apresenta alguns dilemas éticos já conhecidos de quem trata de ética na tecnologia: A questão do que é especificamente humano no trabalho e a relação entre conhecimento e sabedoria. Entendo que pelo espaço não seria possível aprofundar a questão e que a proposta do texto era justamente tematizar o problema. Nisto os autores foram muito felizes. É um ótimo texto para ajudar cada pessoa cristã a começar a pensar sobre.
Naturalmente estes dois aspectos éticos demandariam tratamento mais extenso e são dois pontos fundamentais. No entanto há outra questão no texto que me chamou a atenção e que gostaria de considerar ao refletir ética na tecnologia, especialmente em relação a IA.
Segundo os autores a
antropologia teológica cristã pode responder que o ser humano é único na medida em que assume um papel e responde a um chamado dentro da ordem da criação e da história da redenção.
Aqui temos um tema que adquire na reflexão de Oswald Bayer um peso fundamental: a responsabilidade. Bayer naturalmente reflete isto a partir da teologia de Martinho Lutero e, assim como os autores, localiza a responsabilidade humana dentro do âmbito do mandato cultural e da ordem criacional.
O que eu quero ressaltar aqui, a partir do insight de Bayer, é que responsabilidade significa literalmente “responder a”. Que nós seres humanos somos responsabilizados perante Deus pela ordem recebida, pelo “cuidar e guardar, cultivar e dominar” parece uma leitura muito natural do texto de Gênesis. A questão é: quem responde pela inteligência artificial? Ela pode responder por si mesma?
Responsividade é geralmente atrelada a ideia de poder dar respostas autônomas, por si mesmo. Parece-me que IA caminha neste sentido, a possibilidade de responder por si mesmo, não a partir de critérios dados por um programador, um ente heterônomo, mas com critério que a própria machine learnig eruiu dos padrões linguísticos que ela analisou. Ou seja, a IA seria capaz de responder nos mesmo padrões de um humano. Isto a torna responsável pelo que ela produz?
Se pudéssemos responder positivamente a esta questão, ainda teríamos que ir além. Na hipótese da IA produzir resposta que a sociedade humana considera nocivas ou criminosas, a IA pode ser responsabilizada? O que está em jogo aqui não é mera hipótese, mas a definição ética e antropológica, se a IA é uma pessoa, uma vez que assume os papéis sociais típicos para uma definição filosófica de pessoa.
Observação pra quem não é acostumado ao debate: há uma diferença entre o conceito de ser humano (homo sapiens) e o conceito de pessoa, que se refere ao ser humano enquanto parte da sociedade, o ser humano em seu papel de um “CPF”. Há filósofos, como Peter Singer, que postulam que há seres humanos que não são pessoa, e portanto, não tem direito a vida (os direitos na constituição são para PESSOAS, não para um ser do gênero homo sapiens! Por isso você precisa de certidão de nascimento - que agora já vem com CPF - pra você ter direitos). Este mesmo filosofo estica o conceito de pessoa para que seu pet seja pessoa por conta do vinculo afetivo.
Eu ainda não tenho respostas, mas mais perguntas: chegaremos ao ponto de definir IA como pessoa por conta do papel desempenhado? Hoje você só vê um app de IA, mas amanhã você pode ter um “robocop” aí do seu lado, tanto pra ser sua Rosie dos Jetsons, ou para ser seu melhor amigo. Pessoas criarão vínculos com a IA e não me assusta que alguém postule que este vínculo seja suficiente para caracterizar esta IA como pessoa. Que direito esta pessoa IA teria? Quais deveres? Ela pode ser responsabilizada? Teremos uma pena de morte IA (tirar da tomada)?
Pode parecer muito irreal ou distante, mas eu acho - por hoje só acho - que precisamos pensar a respeito. A conversa tá só começando.