LLM é uma sigla para Large Language Model. O exemplo mais famoso desse tipo de sistema é o ChatGPT, embora existam uma série de outros sistemas de IA generativa. Esses modelos de linguagem ampla têm gerando muitas discussões em campos interdisciplinares como, por exemplo, linguística, filosofia, ciências cognitivas e computacionais. Seus usos objetivam produzir resultados que sejam inteligíveis ao olhar humano a partir de um determinado prompt. Esses prompts podem ser caracterizados como descrições que visam o desempenho de certas tarefas como produzir um texto, gerar uma imagem ou até mesmo vídeo.
Todavia, em nosso atual estado de coisas, não sabemos muito acerca das possibilidades e até mesmo implicações desses softwares em nossa comunicação genuinamente humana. No sentido do senso comum as opiniões parecem divididas sobre as reais capacidades das LLMs em termos de uma genuína inteligência artificial. Muitos conceitos que classicamente a filosofia reservou apenas aos seres humanos, parecem agora ganhar uma ampla aplicabilidade no campo dessas IAs generativas. Já é comum observarmos filósofos e outros profissionais afirmarem que essas máquinas podem ser tomadas como agentes racionais. Isso, por sua vez, nos conduz a debates sobre noções clássicas como conhecimento, raciocínio, compreensão e até mesmo consciência. Vale ressaltar que tal atitude no campo da filosofia não é algo novo, ao menos desde os anos 70 com o funcionalismo filosófico, autores como Dennett, Putnam e Fodor já defendiam uma atitude pragmática sobre a cognição de máquinas inteligentes, embora, sem se comprometerem ontologicamente com a existência real de estados mentais.
Ninguém coloca em dúvida que as LLMs têm uma capacidade incrível de gerar resultados linguísticos que fazem sentido para nós humanos. Porém, o que é questionável é se elas próprias podem entender o que seus resultados significam. O fato é que muitos de nós interagimos com essas máquinas de maneiras que se assemelham fortemente a uma conversa genuinamente humana, mas como podemos encontrar maneiras esclarecedoras de descrever essa atividade? Anna Strasser (2024) sugere que precisamos examinar de perto a diferença entre competência com compreensão e competência sem compreensão, isto é, devemos nos perguntar se há formas de comunicação para as quais um nível de competência sem compreensão é suficiente. Por “competência” devemos entender o modo como os LLMs performam a linguagem de maneira significativa (compreensão).
Ora, essa não é uma questão fácil, porque até a nível humano podemos nos perguntar se determinadas performances linguísticas são genuinamente significativas, ou seja, se elas exibem além da competência, a compreensão. Podemos usar as crianças na fase de aquisição de linguagem como exemplo. Imagine uma criança que está aprendendo a falar e faz uso da palavra “tio”. Com essa palavra ela pretende designar uma pessoa, porém, ao usar a palavra “tio” para designar uma pessoa, isso não implica em afirmar que ela compreende o que significa a palavra em “tio” em termos de relação parental, por exemplo, como sendo o irmão de seu pai. Com o passar dos anos, muitas dessas palavras passarão a incorporar esse e outros significados em seu uso corrente de linguagem. Isso nos leva a afirmar que além da competência linguística da criança (o uso adequado de palavras e expressões dentro de um contexto conversacional) ela também compreende aquilo que fala.
O exemplo da criança serve para visualizarmos essas instâncias de nossas práticas linguísticas. Pode ocorrer algo semelhante com nós adultos em nossas performances linguísticas, ou seja, usamos muitos jogos de linguagem onde não compreendemos a totalidade daquilo de que falamos. Em termos wittgensteinianos, podemos até afirmar que mesmo em nossas práticas de uso de linguagem, não é de todo claro que além de nossas competências linguísticas também possuímos compreensão. Talvez o exemplo de Searle do quarto chinês exemplifique isso. A partir de uma tabela de conversão de caracteres chineses para a língua portuguesa (ou até mesmo google tradutor), eu poderia performar para um chinês (e vice-versa) que eu sei seu idioma, mas a verdade é que estou apenas seguindo regras sintáticas de conversão, uma vez que não entendo nada de chinês. O ponto é que mesmo na interação entre seres humanos, nossos jogos de linguagem são assimétricos em termos de habilidades compreensivas. É algo parecido com o modo como aprendemos a perceber as coisas, algumas pessoas podem perceber muitos mais nuances do que outras diante do mesmo estímulo perceptual. Em nossas práticas linguísticas também. Imagine um filósofo lendo um texto de filosofia e uma pessoa sem esse tipo de conhecimento lendo o mesmo texto, parece óbvio que haverá uma diferença qualitativa na compreensão do texto.
Mas o que ocorre com as LLMs? Como elas devem ser interpretadas? Podemos falar de assimetria em termos humanos, mas podemos falar dessa mesma assimetria quando nos relacionamos com essas IAs generativas? Em termos humanos as assimetrias podem ser equiparadas; uma criança que usa a palavra “tio” em algum momento do seu desenvolvimento vai compreender o significado da palavra para além do uso designativo ou referencial. Mas o que dizer de uma LLM? Uma criança começa com um primitivo background de capacidades e vai expandindo ao longo de sua existência, uma LLM já começa com um background quantitativamente superior a uma criança e até mesmo a um adulto. O modelo de uma IA generativa é meramente estatístico e, portanto, quantitativo, enquanto que a nível humanos nossas práticas linguísticas não seguem esses padrões e, por esta razão, tendemos a afirmar que elas são qualitativas. Talvez esta seja uma diferença fundamental entre nossos usos de linguagem e os usos de linguagem por parte das LLMs.
A verdade é que essas questões não são fáceis de responder. Estamos apenas dando os primeiros passos nessa direção na qual é necessário todo um esforço interdisciplinar para chegarmos em algum lugar sobre essa problemática. Apesar de todo o elã que existe por detrás das LLMs sou partidário da tese de que as IAs generativas não possuem capacidade de compreensão significativa (problema do significado). Entretanto, é preciso investigar em que medida essas LLMs podem desempenhar um papel importante em nossa comunicação quando interagimos com elas. Além do mais, a razão está para além da comunicação em si, uma vez que podemos pensar na dimensão ética que está por detrás de tudo isso, ou seja, até que ponto podemos confiar nelas e em que medida seus usos são aceitáveis.
João Paulo M. Araujo
Professor de Filosofia no IFRR
Membro da Escola Amazônica de Filosofia