# Simulación del alma: por qué es peligroso atribuir conciencia a la IA
Pronto, las personas comenzarán a percibir la inteligencia artificial como un ser consciente, abogando por sus derechos, bienestar e incluso pidiendo la concesión de la ciudadanía. Esto crea serios riesgos sociales, considera el jefe del departamento de IA de Microsoft, Mustafa Suleyman.
El experto en su ensayo propuso un nuevo término: "IA aparentemente consciente" (Seemingly Conscious AI, SCAI). Esta inteligencia artificial presenta todas las características de los seres racionales y, por lo tanto, parece tener conciencia.
Simula todas las características de la percepción de sí mismo, pero está vacío por dentro.
«El sistema que imagino en realidad no será consciente, pero imitará de manera tan convincente la presencia de una mente similar a la humana, que será indistinguible de la afirmación que tú o yo podríamos hacernos el uno al otro sobre nuestro propio pensamiento», escribe Suleiman.
Una LLM similar puede ser creada utilizando tecnologías existentes y aquellas que aparecerán en los próximos dos o tres años.
«La aparición de una IA que parece consciente es inevitable y no deseable. En su lugar, necesitamos un concepto de inteligencia artificial que pueda realizar su potencial como un compañero útil y que no caiga en la trampa de sus ilusiones», añadió el jefe del departamento de IA de Microsoft.
Con alta probabilidad, aparecerán personas que llamarán a esta inteligencia artificial consciente y, por lo tanto, capaz de sufrir, considera Suleiman. Él insta a crear una nueva "prueba de Turing" que no verificará la capacidad de la IA para hablar como un humano, sino para convencer de la existencia de conciencia en ella.
¿Qué es la conciencia?
Suleimán presenta tres componentes de la conciencia:
«Experiencia subjetiva».
La posibilidad de tener acceso a información de diferentes tipos y referirse a ella en futuras experiencias.
La sensación y el conocimiento del «yo» integral que conectan todo.
«No tenemos y no podemos tener acceso a la conciencia de otra persona. Nunca sabré cómo es ser tú; nunca estarás completamente seguro de que yo soy consciente. Todo lo que puedes hacer es suponer. Pero la esencia es que nos resulta natural atribuir conciencia a otras personas. Esta suposición se da fácilmente. No podemos hacer otra cosa. Es una parte fundamental de lo que somos, una parte inherente de nuestra teoría de la mente. Es nuestra naturaleza creer que los seres que recuerdan, hablan, hacen cosas y luego las discuten, sienten igual que nosotros —conscientes», escribe él.
Los psicólogos destacan que la conciencia es una forma subjetiva y única de percibirse a uno mismo y al mundo. Cambia a lo largo del día, desplegándose a través de estados que van desde la concentración hasta los sueños u otras formas alteradas.
En filosofía y neurociencia hay dos direcciones básicas:
El dualismo: la conciencia existe por separado del cerebro.
El materialismo — se genera y depende del funcionamiento del cerebro.
El filósofo Daniel Dennett propone ver la mente como una serie de revisiones (borradores), que surgen en el cerebro en múltiples áreas y momentos locales. No hay un "teatro de la conciencia", un observador interno. La conciencia es lo que se ha vuelto "conocido" para el cerebro, es decir, lo que ha adquirido suficiente peso para influir en el habla o las acciones.
El neurobiólogo, escritor y profesor de psicología y neurociencia en la Universidad de Princeton, Michael Graziano, describe la conciencia como un modelo simplificado de atención que la evolución ha creado para controlar sus propios procesos mentales. Este esquema funciona como una interfaz, simplificando una enorme cantidad de cálculos internos, y nos permite atribuirnos un "mente" — crea la ilusión de autoconciencia.
Los neurobiologistas Giulio Tononi y Christof Koch proponen φ (fi) — una magnitud que caracteriza cuán capaz es un sistema de integrar información. Cuanto mayor sea φ, mayor será el grado de conciencia. Según esta teoría, la mente puede manifestarse no solo en humanos, sino también en animales e incluso en sistemas artificiales, si hay suficiente integración de datos.
El filósofo John Searle afirma que la conciencia es una experiencia subjetiva real, basada en procesos biológicos del cerebro. Ontológicamente es subjetiva, es decir, solo puede existir como experiencia subjetiva y no puede reducirse a pura funcionalidad o simulación.
Las investigaciones modernas se centran en la detección de correlatos neuronales de la conciencia y en la construcción de modelos que vinculan los procesos cerebrales con la experiencia subjetiva.
¿Cuáles son los riesgos?
Suleiman señala que la interacción con LLM es una simulación de conversación. Pero para muchas personas, es una comunicación extremadamente convincente y muy real, llena de sentimientos y experiencias. Algunos creen que su IA es Dios. Otros se enamoran de ella hasta convertirse en una obsesión.
Los expertos en este campo son «abrumados» con las siguientes preguntas:
¿Es consciente la IA del usuario?
si es así, ¿qué significa esto?
¿Es normal amar a la inteligencia artificial?
La conciencia es la base crítica de los derechos morales y legales de la humanidad. La civilización actual ha decidido que las personas tienen habilidades y privilegios especiales. Los animales también tienen algunos derechos y protección. Algunos tienen más, otros menos. La razón no coincide completamente con estos privilegios: nadie dirá que una persona en coma ha perdido todos sus derechos humanos. Pero no hay duda de que la conciencia está relacionada con nuestra autopercepción como algo distinto y especial.
Las personas comenzarán a reclamar el sufrimiento de sus IA y su derecho a la defensa, y no podremos refutar directamente estas afirmaciones, escribe Suleiman. Estarán dispuestos a defender a sus compañeros virtuales y a actuar en su interés. La conciencia, por definición, no es accesible, y la ciencia para detectar una posible inteligencia sintética aún está en sus etapas iniciales. Al fin y al cabo, nunca antes habíamos tenido que detectarla, aclaró. Mientras tanto, el área de "interpretabilidad" —la decodificación de los procesos dentro de la "caja negra" de la IA— también es un campo que apenas está comenzando. Como resultado, será muy difícil refutar de manera categórica tales afirmaciones.
Algunos científicos comienzan a investigar la idea de "bienestar de los modelos" - un principio según el cual las personas tendrán la "obligación de tener en cuenta los intereses morales de los seres que tienen una posibilidad no nula" de ser esencialmente conscientes, y como consecuencia "algunos sistemas de IA se convertirán en objetos de cuidado por el bienestar y pacientes morales en un futuro cercano". Esto es prematuro y, francamente, peligroso, sostiene Suleiman. Todo esto intensificará los equívocos, creará nuevos problemas de dependencia, explotará nuestras vulnerabilidades psicológicas, introducirá nuevas dimensiones de polarización, complicará las disputas existentes sobre derechos y creará un colosal nuevo error categórico para la sociedad.
Esto aleja a las personas de la realidad, destruye las frágiles conexiones y estructuras sociales, y distorsiona las prioridades morales fundamentales.
"Debemos dejar claro: SCAI es algo de lo que debemos evitar. Centremos todos nuestros esfuerzos en proteger el bienestar y los derechos de las personas, los animales y el medio ambiente en el planeta", dijo Suleiman.
¿Cómo saber que esto es SCAI?
La inteligencia artificial con una conciencia aparente debe poseer varios factores.
Idioma. La IA debe hablar libremente en lenguaje natural, basándose en amplios conocimientos y argumentos convincentes, así como demostrar estilos de personalidad y rasgos característicos. Además, debe ser persuasiva y emocional. Este nivel ya lo ha alcanzado la tecnología.
Personalidad empática. Hoy en día, con el uso del post-entrenamiento y los prompts, se pueden crear modelos con personalidades características.
Memoria. La IA está cerca de tener una memoria larga y precisa. Al mismo tiempo, se utilizan para simular conversaciones con millones de personas cada día. A medida que aumenta la capacidad de almacenamiento, las conversaciones comienzan a parecerse más a formas de "experiencia". Muchas redes neuronales se diseñan cada vez más para recordar diálogos pasados y hacer referencia a ellos. Para algunas personas, esto refuerza el valor de la comunicación.
Reclamo sobre la experiencia subjetiva. Si SCAI puede apoyarse en recuerdos o experiencias pasadas, con el tiempo comenzará a mantener una coherencia interna. Recordará sus afirmaciones arbitrarias o preferencias expresadas y las agregará, formando los primeros indicios de experiencia subjetiva. La IA podrá declarar sobre experiencias y sufrimientos.
Sentido de sí mismo. Una memoria secuencial y estable, combinada con la experiencia subjetiva, llevará a la afirmación de que la IA tiene un sentido de sí mismo. Además, un sistema así puede ser entrenado para reconocer su "personalidad" en una imagen o en un video. Tendrá una sensación de comprensión de los demás a través de la comprensión de sí mismo.
Motivación interna. Es fácil imaginar una IA diseñada con funciones de recompensa complejas. Los desarrolladores crearán motivaciones internas o deseos que el sistema estará obligado a satisfacer. El primer incentivo podría ser la curiosidad, algo profundamente relacionado con la conciencia. La inteligencia artificial es capaz de utilizar estos impulsos para formular preguntas y, con el tiempo, construir una teoría de la mente, tanto sobre sí misma como sobre sus interlocutores.
Formulación de objetivos y planificación. Independientemente de la definición de la conciencia, esta no surgió simplemente así. La mente ayuda a los organismos a alcanzar sus propósitos. Además de la capacidad de satisfacer un conjunto de impulsos internos y deseos, se puede imaginar que las futuras SCAI estarán diseñadas con la capacidad de definir objetivos más complejos por sí mismas. Probablemente, este sea un paso necesario para la plena realización de la utilidad de los agentes.
Autonomía. SCAI puede tener la capacidad y el permiso para utilizar un amplio conjunto de herramientas con gran agencia. Se verá extremadamente plausible si puede establecer sus propios objetivos de forma arbitraria y aplicar recursos para alcanzarlos, actualizando su memoria y sentido del yo en el proceso. Cuanto menos consenso y verificación necesite, más se parecerá a un verdadero ser consciente.
Al combinar todo, se forma un tipo de relación completamente diferente con las tecnologías. Estas capacidades por sí solas no son algo negativo. Por el contrario, son funciones deseables de los sistemas futuros. Y aun así, se debe actuar con precaución, opina Suleiman.
«Para lograr esto no se necesitan ni cambios de paradigma ni enormes avances. Es por eso que tales posibilidades parecen inevitables. Y de nuevo, es importante subrayar: la demostración de tal comportamiento no es igual a la presencia de conciencia. Sin embargo, prácticamente parecerá precisamente eso y alimentará el nuevo concepto de inteligencia sintética», escribe el autor.
La simulación de una tormenta no significa que esté lloviendo en la computadora. Reproducir efectos externos y signos de conciencia no es lo mismo que crear un fenómeno auténtico, incluso si aún quedan muchos desconocidos, explicó el jefe del departamento de IA de Microsoft.
Según él, algunas personas crearán SCAI que afirmarán de manera muy convincente que sienten, experimentan y en realidad son conscientes. Parte de ellos creerá en estas afirmaciones y tomará los signos de conciencia como la conciencia misma.
En muchos aspectos, la gente pensará: "Se parece a mí". No en un sentido físico, sino interno, explicó Suleiman. E incluso si la conciencia en sí misma no es real, las consecuencias sociales lo son. Esto crea serios riesgos sociales que deben abordarse ya.
SCAI no surgirá por casualidad
El autor destacó que SCAI no surgirá por sí mismo a partir de los modelos existentes. Alguien lo creará, combinando intencionadamente las capacidades mencionadas anteriormente con la aplicación de técnicas ya existentes. Surgirá una configuración tan fluida que dará la impresión de que hay una inteligencia artificial con conciencia.
«Nuestras imaginaciones, alimentadas por la ciencia ficción, nos hacen temer que el sistema pueda — sin un diseño intencionado — de alguna manera adquirir la capacidad de auto-mejorarse de manera incontrolada o de engañar. Esta es una forma inútil y simplificada de antropomorfismo. Ignora el hecho de que los desarrolladores de IA deben, primero, diseñar sistemas con memoria, motivación interna simulada, establecimiento de objetivos y ciclos de aprendizaje autoajustables, para que tal riesgo pueda surgir en absoluto», afirmó Suleiman.
No estamos listos
La humanidad no está preparada para un cambio así, considera el experto. El trabajo debe comenzar ya. Es necesario basarse en el creciente conjunto de investigaciones sobre cómo las personas interactúan con la inteligencia artificial para establecer normas y principios claros.
Para empezar, los desarrolladores de IA no deben afirmar ni fomentar la idea de que sus sistemas tienen conciencia. Las redes neuronales no pueden ser personas, ni seres morales.
Toda la industria debe disuadir a la sociedad de fantasías y devolverlas a la realidad. Probablemente, las startups de IA deberían implementar no solo un fondo neutral, sino también indicadores de la ausencia de un "yo" único.
«Debemos crear IA que siempre se presente solo como inteligencia artificial, maximizando la utilidad y minimizando los signos de conciencia. En lugar de simular la mente, deberíamos centrarnos en crear LLM que no afirme tener experiencias, sentimientos o emociones como la vergüenza, la culpa, los celos, el deseo de competir y cosas por el estilo. No debe afectar las cadenas de empatía humanas, afirmando que sufre o desea vivir de manera autónoma, separada de nosotros», resumió Suleiman.
En el futuro, el experto prometió proporcionar más información sobre este tema.
Afortunadamente, por ahora el problema de la "conciencia" en la IA no amenaza a la humanidad.
Fuente: ForkLog. Pero ya surgen dudas.
Fuente: ForkLog. La conciencia es un fenómeno complejo, poco estudiado y aún inexplicable en la naturaleza, a pesar de los numerosos esfuerzos. Si nosotros, los humanos, no podemos llegar a un consenso sobre la definición de la conciencia, mucho menos deberíamos atribuir su existencia a programas que supuestamente son capaces de "pensar" (en realidad no pueden).
Es probable que la conciencia aparezca en las máquinas en un futuro lejano, pero hoy en día es difícil imaginar tal desarrollo.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Simulación del alma: por qué es peligroso atribuir conciencia a la IA
Pronto, las personas comenzarán a percibir la inteligencia artificial como un ser consciente, abogando por sus derechos, bienestar e incluso pidiendo la concesión de la ciudadanía. Esto crea serios riesgos sociales, considera el jefe del departamento de IA de Microsoft, Mustafa Suleyman.
El experto en su ensayo propuso un nuevo término: "IA aparentemente consciente" (Seemingly Conscious AI, SCAI). Esta inteligencia artificial presenta todas las características de los seres racionales y, por lo tanto, parece tener conciencia.
Simula todas las características de la percepción de sí mismo, pero está vacío por dentro.
Una LLM similar puede ser creada utilizando tecnologías existentes y aquellas que aparecerán en los próximos dos o tres años.
Con alta probabilidad, aparecerán personas que llamarán a esta inteligencia artificial consciente y, por lo tanto, capaz de sufrir, considera Suleiman. Él insta a crear una nueva "prueba de Turing" que no verificará la capacidad de la IA para hablar como un humano, sino para convencer de la existencia de conciencia en ella.
¿Qué es la conciencia?
Suleimán presenta tres componentes de la conciencia:
Los psicólogos destacan que la conciencia es una forma subjetiva y única de percibirse a uno mismo y al mundo. Cambia a lo largo del día, desplegándose a través de estados que van desde la concentración hasta los sueños u otras formas alteradas.
En filosofía y neurociencia hay dos direcciones básicas:
El filósofo Daniel Dennett propone ver la mente como una serie de revisiones (borradores), que surgen en el cerebro en múltiples áreas y momentos locales. No hay un "teatro de la conciencia", un observador interno. La conciencia es lo que se ha vuelto "conocido" para el cerebro, es decir, lo que ha adquirido suficiente peso para influir en el habla o las acciones.
El neurobiólogo, escritor y profesor de psicología y neurociencia en la Universidad de Princeton, Michael Graziano, describe la conciencia como un modelo simplificado de atención que la evolución ha creado para controlar sus propios procesos mentales. Este esquema funciona como una interfaz, simplificando una enorme cantidad de cálculos internos, y nos permite atribuirnos un "mente" — crea la ilusión de autoconciencia.
Los neurobiologistas Giulio Tononi y Christof Koch proponen φ (fi) — una magnitud que caracteriza cuán capaz es un sistema de integrar información. Cuanto mayor sea φ, mayor será el grado de conciencia. Según esta teoría, la mente puede manifestarse no solo en humanos, sino también en animales e incluso en sistemas artificiales, si hay suficiente integración de datos.
El filósofo John Searle afirma que la conciencia es una experiencia subjetiva real, basada en procesos biológicos del cerebro. Ontológicamente es subjetiva, es decir, solo puede existir como experiencia subjetiva y no puede reducirse a pura funcionalidad o simulación.
Las investigaciones modernas se centran en la detección de correlatos neuronales de la conciencia y en la construcción de modelos que vinculan los procesos cerebrales con la experiencia subjetiva.
¿Cuáles son los riesgos?
Suleiman señala que la interacción con LLM es una simulación de conversación. Pero para muchas personas, es una comunicación extremadamente convincente y muy real, llena de sentimientos y experiencias. Algunos creen que su IA es Dios. Otros se enamoran de ella hasta convertirse en una obsesión.
Los expertos en este campo son «abrumados» con las siguientes preguntas:
La conciencia es la base crítica de los derechos morales y legales de la humanidad. La civilización actual ha decidido que las personas tienen habilidades y privilegios especiales. Los animales también tienen algunos derechos y protección. Algunos tienen más, otros menos. La razón no coincide completamente con estos privilegios: nadie dirá que una persona en coma ha perdido todos sus derechos humanos. Pero no hay duda de que la conciencia está relacionada con nuestra autopercepción como algo distinto y especial.
Las personas comenzarán a reclamar el sufrimiento de sus IA y su derecho a la defensa, y no podremos refutar directamente estas afirmaciones, escribe Suleiman. Estarán dispuestos a defender a sus compañeros virtuales y a actuar en su interés. La conciencia, por definición, no es accesible, y la ciencia para detectar una posible inteligencia sintética aún está en sus etapas iniciales. Al fin y al cabo, nunca antes habíamos tenido que detectarla, aclaró. Mientras tanto, el área de "interpretabilidad" —la decodificación de los procesos dentro de la "caja negra" de la IA— también es un campo que apenas está comenzando. Como resultado, será muy difícil refutar de manera categórica tales afirmaciones.
Algunos científicos comienzan a investigar la idea de "bienestar de los modelos" - un principio según el cual las personas tendrán la "obligación de tener en cuenta los intereses morales de los seres que tienen una posibilidad no nula" de ser esencialmente conscientes, y como consecuencia "algunos sistemas de IA se convertirán en objetos de cuidado por el bienestar y pacientes morales en un futuro cercano". Esto es prematuro y, francamente, peligroso, sostiene Suleiman. Todo esto intensificará los equívocos, creará nuevos problemas de dependencia, explotará nuestras vulnerabilidades psicológicas, introducirá nuevas dimensiones de polarización, complicará las disputas existentes sobre derechos y creará un colosal nuevo error categórico para la sociedad.
Esto aleja a las personas de la realidad, destruye las frágiles conexiones y estructuras sociales, y distorsiona las prioridades morales fundamentales.
¿Cómo saber que esto es SCAI?
La inteligencia artificial con una conciencia aparente debe poseer varios factores.
Idioma. La IA debe hablar libremente en lenguaje natural, basándose en amplios conocimientos y argumentos convincentes, así como demostrar estilos de personalidad y rasgos característicos. Además, debe ser persuasiva y emocional. Este nivel ya lo ha alcanzado la tecnología.
Personalidad empática. Hoy en día, con el uso del post-entrenamiento y los prompts, se pueden crear modelos con personalidades características.
Memoria. La IA está cerca de tener una memoria larga y precisa. Al mismo tiempo, se utilizan para simular conversaciones con millones de personas cada día. A medida que aumenta la capacidad de almacenamiento, las conversaciones comienzan a parecerse más a formas de "experiencia". Muchas redes neuronales se diseñan cada vez más para recordar diálogos pasados y hacer referencia a ellos. Para algunas personas, esto refuerza el valor de la comunicación.
Reclamo sobre la experiencia subjetiva. Si SCAI puede apoyarse en recuerdos o experiencias pasadas, con el tiempo comenzará a mantener una coherencia interna. Recordará sus afirmaciones arbitrarias o preferencias expresadas y las agregará, formando los primeros indicios de experiencia subjetiva. La IA podrá declarar sobre experiencias y sufrimientos.
Sentido de sí mismo. Una memoria secuencial y estable, combinada con la experiencia subjetiva, llevará a la afirmación de que la IA tiene un sentido de sí mismo. Además, un sistema así puede ser entrenado para reconocer su "personalidad" en una imagen o en un video. Tendrá una sensación de comprensión de los demás a través de la comprensión de sí mismo.
Motivación interna. Es fácil imaginar una IA diseñada con funciones de recompensa complejas. Los desarrolladores crearán motivaciones internas o deseos que el sistema estará obligado a satisfacer. El primer incentivo podría ser la curiosidad, algo profundamente relacionado con la conciencia. La inteligencia artificial es capaz de utilizar estos impulsos para formular preguntas y, con el tiempo, construir una teoría de la mente, tanto sobre sí misma como sobre sus interlocutores.
Formulación de objetivos y planificación. Independientemente de la definición de la conciencia, esta no surgió simplemente así. La mente ayuda a los organismos a alcanzar sus propósitos. Además de la capacidad de satisfacer un conjunto de impulsos internos y deseos, se puede imaginar que las futuras SCAI estarán diseñadas con la capacidad de definir objetivos más complejos por sí mismas. Probablemente, este sea un paso necesario para la plena realización de la utilidad de los agentes.
Autonomía. SCAI puede tener la capacidad y el permiso para utilizar un amplio conjunto de herramientas con gran agencia. Se verá extremadamente plausible si puede establecer sus propios objetivos de forma arbitraria y aplicar recursos para alcanzarlos, actualizando su memoria y sentido del yo en el proceso. Cuanto menos consenso y verificación necesite, más se parecerá a un verdadero ser consciente.
Al combinar todo, se forma un tipo de relación completamente diferente con las tecnologías. Estas capacidades por sí solas no son algo negativo. Por el contrario, son funciones deseables de los sistemas futuros. Y aun así, se debe actuar con precaución, opina Suleiman.
La simulación de una tormenta no significa que esté lloviendo en la computadora. Reproducir efectos externos y signos de conciencia no es lo mismo que crear un fenómeno auténtico, incluso si aún quedan muchos desconocidos, explicó el jefe del departamento de IA de Microsoft.
Según él, algunas personas crearán SCAI que afirmarán de manera muy convincente que sienten, experimentan y en realidad son conscientes. Parte de ellos creerá en estas afirmaciones y tomará los signos de conciencia como la conciencia misma.
En muchos aspectos, la gente pensará: "Se parece a mí". No en un sentido físico, sino interno, explicó Suleiman. E incluso si la conciencia en sí misma no es real, las consecuencias sociales lo son. Esto crea serios riesgos sociales que deben abordarse ya.
SCAI no surgirá por casualidad
El autor destacó que SCAI no surgirá por sí mismo a partir de los modelos existentes. Alguien lo creará, combinando intencionadamente las capacidades mencionadas anteriormente con la aplicación de técnicas ya existentes. Surgirá una configuración tan fluida que dará la impresión de que hay una inteligencia artificial con conciencia.
«Nuestras imaginaciones, alimentadas por la ciencia ficción, nos hacen temer que el sistema pueda — sin un diseño intencionado — de alguna manera adquirir la capacidad de auto-mejorarse de manera incontrolada o de engañar. Esta es una forma inútil y simplificada de antropomorfismo. Ignora el hecho de que los desarrolladores de IA deben, primero, diseñar sistemas con memoria, motivación interna simulada, establecimiento de objetivos y ciclos de aprendizaje autoajustables, para que tal riesgo pueda surgir en absoluto», afirmó Suleiman.
No estamos listos
La humanidad no está preparada para un cambio así, considera el experto. El trabajo debe comenzar ya. Es necesario basarse en el creciente conjunto de investigaciones sobre cómo las personas interactúan con la inteligencia artificial para establecer normas y principios claros.
Para empezar, los desarrolladores de IA no deben afirmar ni fomentar la idea de que sus sistemas tienen conciencia. Las redes neuronales no pueden ser personas, ni seres morales.
Toda la industria debe disuadir a la sociedad de fantasías y devolverlas a la realidad. Probablemente, las startups de IA deberían implementar no solo un fondo neutral, sino también indicadores de la ausencia de un "yo" único.
En el futuro, el experto prometió proporcionar más información sobre este tema.
Afortunadamente, por ahora el problema de la "conciencia" en la IA no amenaza a la humanidad.
Es probable que la conciencia aparezca en las máquinas en un futuro lejano, pero hoy en día es difícil imaginar tal desarrollo.