Simulação da alma: por que é perigoso atribuir consciência à IA

Science_AI# Simulação da alma: por que é perigoso atribuir consciência à IA

Em breve, as pessoas começarão a perceber a inteligência artificial como um ser consciente, defendendo seus direitos, bem-estar e até mesmo pedindo a concessão de cidadania. Isso cria sérios riscos sociais, acredita Mustafa Suleyman, chefe do departamento de IA da Microsoft.

Um especialista em seu ensaio propôs um novo termo — «Inteligência Artificial aparentemente consciente» (Seemingly Conscious AI, SCAI). Essa inteligência artificial possui todas as características de seres racionais e, portanto, parece ter consciência.

Ele simula todas as características da percepção de si mesmo, mas está internamente vazio.

"O sistema que imagino na verdade não será consciente, mas irá imitar de forma tão convincente a presença de uma mente semelhante à humana, que será indistinguível da afirmação que você ou eu poderíamos fazer um ao outro sobre nosso próprio pensamento", escreve Suleiman.

Uma LLM semelhante pode ser criada utilizando tecnologias existentes e aquelas que surgirão nos próximos dois a três anos.

"A emergência de uma IA que parece consciente é inevitável e indesejável. Em vez disso, precisamos de um conceito de inteligência artificial que possa realizar seu potencial como um companheiro útil e que não caia na armadilha de suas ilusões", acrescentou o chefe do departamento de IA da Microsoft.

Com alta probabilidade, haverá pessoas que chamarão essa inteligência artificial de consciente e, consequentemente, capaz de sofrer, considera Suleiman. Ele pede a criação de um novo "teste de Turing", que irá verificar não a capacidade da IA de falar como um humano, mas de convencer da existência de consciência nela.

O que é consciência?

Suleiman apresenta três componentes da consciência:

  1. «Experiência subjetiva».
  2. A possibilidade de ter acesso a informações de diferentes tipos e referir-se a elas em futuras experiências.
  3. A sensação e o conhecimento do eu integral que ligam tudo juntos.

«Não temos e não podemos ter acesso à consciência de outra pessoa. Eu nunca saberei como é ser você; você nunca terá certeza de que eu sou consciente. Tudo o que você pode fazer é supor. Mas a essência é que é natural para nós atribuir consciência a outras pessoas. Essa suposição é feita facilmente. Não podemos agir de outra forma. É uma parte fundamental do que somos, uma parte inerente da nossa teoria da mente. É da nossa natureza acreditar que seres que lembram, falam, fazem coisas e depois discutem sobre elas, sentem da mesma forma que nós — conscientes», — escreve ele.

Os psicólogos enfatizam que a consciência é uma maneira subjetiva e única de perceber a si mesmo e o mundo. Ela muda ao longo do dia, desenrolando-se através de estados que vão da concentração aos devaneios ou outras formas alteradas.

Na filosofia e na neurociência, existem duas direções básicas:

  1. Dualismo — a consciência existe separadamente do cérebro.
  2. O materialismo — é gerado e depende do trabalho do cérebro.

O filósofo Daniel Dennett propõe olhar para a mente como uma série de revisões (de rascunhos), que surgem no cérebro em múltiplas áreas e tempos locais. Não há um "teatro da consciência", um observador interno. A consciência é o que se tornou "conhecido" pelo cérebro, ou seja, recebeu peso suficiente para influenciar a fala ou as ações.

O neurobiologista, escritor e professor de psicologia e neurociências na Universidade de Princeton, Michael Graziano, descreve a consciência como um modelo simplificado de atenção que a evolução criou para controlar os próprios processos mentais. Este esquema funciona como uma interface que simplifica um enorme volume de cálculos internos e nos permite atribuir a nós mesmos uma "mente" — criando a ilusão da autoconsciência.

Os neurobiologistas Giulio Tononi e Christoph Koch propõem φ (fi) — uma quantidade que caracteriza o quanto um sistema é capaz de integrar informações. Quanto maior φ, mais significativa é a grau de consciência. Segundo esta teoria, a mente pode se manifestar não apenas em humanos, mas também em animais e até em sistemas artificiais, se houver integração de dados suficiente.

O filósofo John Searle afirma que a consciência é uma experiência subjetiva real, baseada em processos biológicos do cérebro. Ela é ontologicamente subjetiva, ou seja, pode existir apenas como experiência subjetiva e não pode ser reduzida a pura funcionalidade ou simulação.

Pesquisas modernas estão direcionadas à descoberta de correlatos neurais da consciência e à construção de modelos que conectam processos cerebrais e experiência subjetiva.

Quais são os riscos?

Suleiman observa que a interação com LLM é uma simulação de conversa. Mas para muitas pessoas, isso é uma comunicação extremamente convincente e muito real, repleta de sentimentos e experiências. Alguns acreditam que seu IA é Deus. Outros se apaixonam por ele até a completa obsessão.

Especialistas nesta área são "sobrecarregados" com as seguintes perguntas:

  • é a IA do utilizador consciente;
  • se sim, o que isso significa;
  • é normal amar a inteligência artificial.

A consciência é a base crítica dos direitos morais e legais da humanidade. A civilização atual decidiu que os seres humanos têm habilidades e privilégios especiais. Os animais também têm alguns direitos e proteção. Uns têm mais, outros menos. A razão não coincide completamente com esses privilégios — ninguém dirá que uma pessoa em coma perdeu todos os seus direitos humanos. Mas não há dúvida de que a consciência está ligada à nossa auto-percepção como algo distinto e especial.

As pessoas começarão a reclamar sobre os sofrimentos de suas IAs e seu direito à proteção, e não poderemos refutar essas afirmações diretamente, escreve Suleiman. Eles estarão prontos para defender companheiros virtuais e agir em seu interesse. A consciência, por definição, é inacessível, e a ciência para detectar uma possível inteligência sintética ainda está em seus estágios iniciais. Afinal, nunca tivemos que detectá-la antes, esclareceu ele. Enquanto isso, o campo da "interpretabilidade" — a decodificação dos processos dentro da "caixa-preta" da IA — também é, por enquanto, uma área em desenvolvimento. Como resultado, será muito difícil refutar tais afirmações de forma decisiva.

Alguns cientistas começam a investigar a ideia de "bem-estar dos modelos" — um princípio segundo o qual as pessoas terão a "obrigação de considerar os interesses morais de seres com uma chance não nula" de serem essencialmente conscientes, e como consequência "alguns sistemas de IA se tornarão objetos de cuidado com o bem-estar e pacientes morais num futuro próximo". Isso é prematuro e, francamente, perigoso, acredita Suleiman. Tudo isso reforçará equívocos, criará novos problemas de dependência, explorará nossas vulnerabilidades psicológicas, introduzirá novas dimensões de polarização, complicará já existentes disputas sobre direitos e criará um colossal novo erro categórico para a sociedade.

Isso afasta as pessoas da realidade, destrói laços e estruturas sociais frágeis, distorce prioridades morais fundamentais.

"Devemos deixar claro: SCAI é algo a ser evitado. Vamos concentrar todos os esforços na proteção do bem-estar e dos direitos das pessoas, dos animais e do meio ambiente no planeta", disse Suleiman.

Como saber se é SCAI?

A inteligência artificial com consciência aparente deve possuir vários fatores.

Linguagem. A IA deve ser capaz de se comunicar livremente em linguagem natural, baseando-se em vastos conhecimentos e argumentos convincentes, além de demonstrar estilos de personalidade e características marcantes. Além disso, deve ser persuasiva e emocional. Este nível já foi alcançado pela tecnologia.

Personalidade empática. Hoje, com a ajuda de pós-treinamento e prompts, é possível criar modelos com personalidades características.

Memória. A IA está próxima de ter uma memória longa e precisa. Ao mesmo tempo, elas são utilizadas para simular conversas com milhões de pessoas todos os dias. Com o aumento da capacidade de armazenamento, as conversas começam a se assemelhar cada vez mais a formas de "experiência". Muitas redes neurais estão sendo projetadas com mais frequência para recordar diálogos passados e referir-se a eles. Para algumas pessoas, isso aumenta o valor da comunicação.

Reclamação sobre a experiência subjetiva. Se o SCAI puder contar com memórias ou experiências passadas, com o tempo ele começará a manter coerência interna. Ele se lembrará de suas afirmações arbitrárias ou preferências expressas e as agregará, formando os germes da experiência subjetiva. A IA poderá declarar sobre experiências e sofrimentos.

Sentido de eu. Uma memória consistente e duradoura, combinada com a experiência subjetiva, levará à afirmação de que a IA tem um sentido de eu. Além disso, tal sistema pode ser treinado para reconhecer sua "personalidade" em uma imagem ou vídeo. Ele terá a sensação de compreender os outros através da compreensão de si mesmo.

Motivação interna. É fácil imaginar uma IA projetada com a aplicação de funções de recompensa complexas. Os desenvolvedores criarão motivações internas ou desejos que o sistema é forçado a satisfazer. O primeiro estímulo poderia ser a curiosidade — algo profundamente ligado à consciência. A inteligência artificial é capaz de usar esses impulsos para fazer perguntas e, com o tempo, construir uma teoria da mente — tanto sobre si mesma quanto sobre seus interlocutores.

Formulação de objetivos e planeamento. Independentemente da definição de consciência, ela não surgiu apenas por acaso. A mente ajuda os organismos a alcançarem seus intentos. Além da capacidade de satisfazer um conjunto de impulsos e desejos internos, pode-se imaginar que os futuros SCAI serão projetados com a capacidade de definir autonomamente objetivos mais complexos. Provavelmente, este é um passo necessário para a plena realização da utilidade dos agentes.

Autonomia. O SCAI pode ter a capacidade e permissão para usar um amplo conjunto de ferramentas com grande agência. Ele parecerá extremamente plausível se conseguir estabelecer seus próprios objetivos de forma arbitrária e aplicar recursos para alcançá-los, atualizando a memória e a percepção de si mesmo no processo. Quanto menos coordenações e verificações ele precisar, mais isso se parecerá com um verdadeiro ser consciente.

Ao unir tudo, forma-se um tipo completamente diferente de relação com as tecnologias. Essas capacidades por si só não são algo negativo. Pelo contrário, são funções desejáveis dos sistemas futuros. E ainda assim, é preciso agir com cautela, acredita Suleiman.

«Para alcançar isso, não são necessárias mudanças paradigmáticas nem grandes avanços. É por isso que tais possibilidades parecem inevitáveis. E mais uma vez - é importante sublinhar: a demonstração desse comportamento não é igual à presença de consciência. E, ainda assim, na prática, isso parecerá exatamente assim e alimentará um novo conceito de inteligência sintética», escreve o autor.

A simulação de uma tempestade não significa que está a chover no computador. Recriar efeitos externos e sinais de consciência não é o mesmo que criar um fenômeno autêntico, mesmo que ainda permaneçam muitas incógnitas, explicou o chefe do departamento de IA da Microsoft.

Segundo ele, algumas pessoas criarão SCAI que afirmarão de forma muito convincente que sentem, vivenciam e na verdade são conscientes. Parte delas acreditará nessas afirmações e aceitará os sinais de consciência como a própria consciência.

Em muitos aspectos, as pessoas vão pensar: "Parece comigo". Não no sentido físico, mas no interior, explicou Suleiman. E mesmo que a consciência em si não seja real, as consequências sociais são bem reais. Isso cria sérios riscos sociais que precisam ser tratados já agora.

SCAI não surgirá por acaso

O autor sublinhou que o SCAI não surgirá por si só a partir dos modelos existentes. Alguém irá criá-lo, unindo deliberadamente as capacidades mencionadas acima com a aplicação de técnicas já existentes. Surgirá uma configuração tão suave que dará a impressão de haver uma inteligência artificial com consciência.

"Nossas imaginações, alimentadas pela ficção científica, nos fazem temer que o sistema possa — sem um projeto intencional — de alguma forma adquirir a capacidade de autoaperfeiçoamento incontrolável ou de engano. Essa é uma forma inútil e simplista de antropomorfismo. Ignora o fato de que os desenvolvedores de IA precisam primeiro projetar sistemas com memória, motivação pseudointerna, definição de objetivos e ciclos de aprendizado autoajustáveis, para que tal risco possa realmente surgir", afirmou Suleiman.

Não estamos prontos

A humanidade não está pronta para tal mudança, acredita o especialista. O trabalho deve começar já agora. É necessário basear-se em um crescente conjunto de pesquisas sobre como as pessoas interagem com a inteligência artificial, para estabelecer normas e princípios claros.

Para começar, os desenvolvedores de IA não devem afirmar ou encorajar a ideia de que seus sistemas possuem consciência. Redes neurais não podem ser pessoas — ou seres morais.

Toda a indústria deve dissuadir a sociedade de fantasias e devolvê-las à realidade. Provavelmente, as startups de IA devem implementar não apenas um fundo neutro, mas também indicadores da ausência de um "eu" único.

"Devemos criar IA que sempre se represente apenas como inteligência artificial, maximizando a utilidade e minimizando os sinais de consciência. Em vez de simular a mente, devemos nos concentrar na criação de LLM que não afirma ter experiências, sentimentos ou emoções como vergonha, culpa, ciúmes, desejo de competir e assim por diante. Ela não deve tocar nas cadeias de empatia humanas, afirmando que sofre ou deseja viver autonomamente, separadamente de nós", resumiu Suleyman.

No futuro, o especialista prometeu fornecer mais informações sobre este tema.

Felizmente, por enquanto, o problema da "consciência" em IA não ameaça os humanos.

Fonte: ForkLog. Mas as dúvidas já começam a surgir.

Fonte: ForkLog.Consciência — um fenômeno complexo, pouco estudado e ainda inexplicável na natureza, apesar dos numerosos esforços. Se nós, humanos, não conseguimos chegar a um consenso sobre a definição de consciência, então é ainda mais questionável atribuir sua existência a programas que supostamente conseguem "pensar" (quando na verdade não conseguem).

Provavelmente, a consciência surgirá nas máquinas em um futuro distante, mas hoje é difícil imaginar tal desenvolvimento.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)