Está chegando a hora da IA desenvolver sentimentos?


A ficção científica quase sempre cria uma inteligência artificial maligna, que pretende acabar com a humanidade, mas a IA real pode ter sentimentos algum dia?

Inteligência Artificial

Ainda não sabemos se uma IA pode realmente ser sensível e isso é um tópico bastante desconcertante, principalmente agora, no século XXI. Afinal, por que uma IA deve ter sentimentos?

Essa possibilidade existe e até pode fornecer um grau mais alto de conforto social, além de uma interação humanos/máquina mais precisa, que facilite a nossa vida. Imagine, por exemplo, a IA Duplex do Google usando genes emocionais. Mas se uma IA, seja ela do Google ou da Apple, pode desenvolver sentimentos, ela está inerentemente ligada à sua capacidade de lidar com emoções. Segundo definições clínicas, emoção é tudo aquilo que podemos sentir. Esses gatilhos emocionais acontecem em nosso subconsciente, em resposta a um estímulo externo ou uma agitação interna. Algo que decorre de aspectos como crenças e desejos.

Por outro lado, todo sentimento acompanha a emoção com uma manifestação física imediata. Ou seja, esses sentimentos são uma experiência consciente de cada ser humano. Pois sentimentos e emoções acontecem gradualmente e podem mudar ao longo do tempo, mesmo se eles estejam relacionados a um mesmo assunto. No caso dos algoritmos de uma IA, sua percepção a um estímulo externo específico depende de dados inclusos. Porém, essas experiências recebidas não podem variar ao longo do tempo. Em poucas palavras, uma IA pode até gerar um tipo de emoção, mas seria algo completamente estático. Pois sua resposta consegue se manifestar na forma de sentimentos, porém permanece inalterada. Mesmo que as expressões emocionais de uma IA, também conhecidas como sentimentos, sejam criadas hoje, elas podem não aparecer amanhã, se o seu algoritmo for alterado por um humano.

Emoção e sentimento são reações humana

O principal dilema para qualquer IA, é a desconexão entre emoção e sentimento, pois o último não pode se originado sem o primeiro. Pois é muito comum vermos pessoas incapazes de descrever, com precisão, o que estão realmente sentido. Há uma diferença tangível entre o que elas dizem, o que sentem e como elas estão realmente se sentindo. E se uma IA for alimentada com um conjunto de dados cheio de reações humanas? E se algumas dessas pessoas, que alimentam essa IA, não conseguirem reconhecer suas emoções e expressões físicas? Certamente seria bem difícil fazer com que essa IA, desenvolvida por humanos, consiga compreender o que é uma verdadeira emoção.

Um exemplo claro sobre isso, são os inúmeros testes públicos de programas de IA, como o Tay e Delphi, da Microsoft, ou o recente caso de uma IA treinada com os dados do 4Chan, que rapidamente sugeriu reações assassinas e racistas. Por isso o debate sobre a possibilidade de uma IA ter sentimentos, esquentou, e muito, nos últimos anos. Isso aconteceu porque um engenheiro do Google foi suspenso, depois de ir à público com alegações de que o gerador de chatbot LaMDA AI, da empresa, é senciente.

A Inteligência Artificial pode ser egoísta?

É lógico que tivemos muito progresso nesse campo. O melhor exemplo disso, foi a criação de uma IA que compreende a emoção, através do processamento de linguagem natural. Ou seja, essa Inteligência Artificial consegue captar informações sobre o humor de uma pessoa, usando pistas audiovisuais. E ela pode fazer isso bem melhor que os humanos, em alguns casos. Mas, apesar de ser capaz de detectar centenas de linguagens corporais, para estudar as emoções e realizar uma análise sentimental detalhada, essa IA também não consegue retribuir com a mesma profundidade emocional de um humano. Ou, para simplificar, ela é incapaz de expressar seus sentimentos com uma perspectiva pessoal, antes de analisar rapidamente as milhões de respostas inclusas em seu banco de dados. Quando ela encontra aquela que pode ser a melhor opção para um cenário específico, ela esquece as outras possibilidades.

Especialistas até dizem que uma IA com ética é algo importante, mas que ela já está parcialmente sequestrada pela AGI (Inteligência Geral Artificial). Mas muitas pessoas ainda acham importante ter mais tempo para lidar com os nossos problemas urgentes: como perda de emprego e salários estagnados, destruição da democracia, discriminação e preconceito, desigualdade de riqueza.

A Inteligência Artificial ainda enfrenta vários obstáculos

Se jogarmos emoções e sentimentos na criação de uma IA, iremos abrir toda uma nova dimensão de respostas sintéticas errôneas, que visam imitar o toque humano em uma interação. Outro obstáculo importante, é que as respostas de uma IA são direcionadas para atingirem um objetivo específico, já a inteligência emocional e social, que os humanos exibem, não é. Com uma abordagem orientada a concluir objetivos, a IA não teria um toque reflexivo ou um pensamento imprevisível, algo que só vem com o sentimento humano. Alguns especialistas acreditam que a Inteligência Geral Artificial (AGI) acabará sendo capaz de replicar os traços mais intrinsecamente humanos. Só que esse futuro ainda está muito distante de acontecer.

A maneira como uma IA é treinada atualmente, para estudar e imitar emoções, com ou sem um nível específico de cortesia e empatia, nunca permitirá que ela tenha emoções próprias. Vários especialistas estão divididos sobre até onde a AGI já chegou, pois a maioria das IAs existentes são direcionadas para as multitarefas do nosso dia-a-dia. Portanto, deve levar pelo menos uma década para que essa nova inteligência artificial seja desenvolvida. Por enquanto, vamos continuar interagindo com a Alexa e Siri em tarefas rotineiras, até chegar o dia que elas reconheçam se estamos felizes ou tristes.

As Leis da Robótica

Quando esse dia chegar, vamos lembrar da obra de Isaac Asimov, pois ele escreveu no livro Eu, Robô, as famosas leis da robótica. A primeira delas diz que um robô não pode ser criado para permitir que um ser humano sofra algum mal. A segunda diz que os robôs precisam obedecer as ordens humanas, exceto quando essas ordens entrarem em conflito com a primeira lei. A terceira lei diz que um robô deve proteger sua própria existência, desde que não entre em conflito com as leis anteriores. Esse é o verdadeiro dilema para a criação de uma IA totalmente emotiva.

No Site MobDica falamos sobre Tecnologia e IA

Acesse a seção de Tecnologia da Amazon – Clique Abaixo

Mídias relacionadas:

Artigo:

CONTINUA DEPOIS DA PUBLICIDADE










Posts
Relacionados