Certa vez, li num adesivo colado no caixa de uma padaria os seguintes dizeres: "MINHA EDUCAÇÃO DEPENDE DA SUA". Em outra ocasião, vi numa churrascaria de estrada um quadro informando que: "SE OS CLIENTES INSISTIREM EM DEPOSITAR CINZA DE CIGARRO NOS PRATOS E COPOS, TEREMOS PRAZER EM SERVIR A COMIDA NOS CINZEIROS".
Se grosseria tem limite, salamaleques em excesso devem ser evitados — a menos que a intenção seja expressar ironia. Aliás, li certa vez que "A PAZ QUE PROCURAMOS PODE ESTAR NO FODA-SE QUE NÃO DIZEMOS". Diz um ditado que "QUEM FALA DEMAIS DÁ BOM-DIA A CAVALO" (mais uma pérola para sua coleção de inutilidades); como já não usamos carroças como meio de transporte, o equivalente seria dizer "muito obrigado" ao carro ao final uma viagem sem sobressaltos.
Não me lembro de ter feito isso nem tampouco de ter visto alguém fazer, mas sei de gente que cumprimenta a Alexa antes de formular uma pergunta e, ao final, agradece a ajuda prestada. Parece caso de internação, mas talvez não seja.
Gadgets alimentados por IA são programados para tratar os usuários com cortesia — o que é fácil para eles, que não estão sujeitos a "dias difíceis". Isso me lembra a anedota do médico que, repreendido pelo diretor do hospital por ter sido rude com uma enfermeira, explicou que perdeu a hora, que seu carro não deu a partida, que foi difícil encontrar um taxi e, quando ele finalmente chegou ao hospital, o elevador estava em manutenção. Subiu 18 andares pela escada, chegou a sua sala suado e esbaforido, e então a tal enfermeira apareceu e disse: "Doutor, o paciente do quarto tal amanheceu morto. Sobrou este supositório. O que faço com ele?"
Algumas pessoas tratam sistemas tecnológicos — computadores, celulares, televisores etc. — como se esses aparelhos fossem humanos. Isso vem sendo estudado há tempos. Num experimento realizado nos anos 1990, um computador que foi programado para elogiar um grupo de pessoas por executar bem uma tarefa recebeu uma nota maior, ainda que os participantes soubessem que os elogios foram gerados automaticamente. Desde então, vários estudos demonstraram que costumamos antropomorfizar as máquinas, e que, quando um sistema tecnológico imita qualidades humanas, como a cortesia, percebemos um melhor desempenho de sua parte.
O que se pretende descobrir é se é ou não apropriado ser educado com Alexa, ChatGPT, Copilot, Luzia e companhia, se faz ou não sentido considerar chatbots como sujeitos morais e se a cortesia no tratamento influencia a eficiência operacional desses dispositivos. O sistema nervoso dos animais lhes permite sentir dor, prazer, e até ter um nível de consciência que pode ser afetado positiva ou negativamente pela ação dos humanos, mas as máquinas não têm essas capacidades emocionais e, portanto, não podemos compará-las a animais nem (muito menos) a pessoas.
Para o professor Enrique Dans diz que não há nada de errado em ser gentil com as máquinas, embora se deva ter em mente que, sem percepções, emoções ou consciência, elas não são capazes de compreender e valorizar a cortesia ou a gratidão que expressamos. Mas será mesmo que elas não são?
É o que veremos nos próximos capítulos, que deixarão claro o porquê de eu ter incluído o termo "estarrecedor" no título desta matéria.