Por Diego Venturini
diegoventurini@elpsicoanalítico.com.ar
Los avances
Desde hace décadas, la tecnología ha experimentado avances vertiginosos que han impactado de manera significativa la forma en que nos relacionamos con el mundo que nos rodea. En los últimos 3 años, hemos presenciado una aceleración en la evolución tecnológica que ha generado cambios profundos en nuestra sociedad y ha transformado la forma en que vivimos, trabajamos y nos relacionamos.
Para comenzar enumeraré algunos de los principales avances tecnológicos que han marcado cambios significativos por su impacto e innovación.
1. Inteligencia Artificial (IA): La IA ha experimentado un crecimiento exponencial. Los avances en algoritmos de aprendizaje profundo han permitido a las máquinas procesar y analizar grandes cantidades de datos, lo que ha llevado a importantes aplicaciones en áreas como la medicina, la robótica, el transporte y la atención al cliente. Asistentes virtuales como Siri y Alexa se han vuelto más inteligentes, y la IA también ha impulsado el desarrollo de vehículos autónomos y la automatización de procesos en diversas industrias. La reciente aparición de la posibilidad de interactuar de manera directa con la IA a través del ChatGPt y otras versiones de chat es probablemente el cambio más radical de los que aquí se mencionan.
2. Blockchain: Blockchain es un libro mayor compartido e inalterable que facilita el proceso de registro de transacciones y de seguimiento de activos en una red de negocios. Un activo puede ser tangible o intangible. Prácticamente cualquier cosa de valor, puede rastrearse y comercializarse en una red de blockchain, reduciendo así el riesgo y los costes para todos los involucrados. Por qué es importante el blockchain: Los negocios funcionan con información. Mejor cuanto más rápido se obtenga y más exacta sea. El blockchain es ideal para obtener esa información, proporcionando datos inmediatos, compartidos y completamente transparentes, almacenados en un libro mayor inalterable al que sólo tienen acceso los miembros autorizados de la red. Una red de blockchain hace seguimiento de pedidos, pagos, cuentas, datos de producción y mucho más. Además, dado que los usuarios comparten una única fuente información, puede ver todos los datos de una transacción de principio a fin. Lo que genera mayor confianza y eficiencia, y más oportunidades. La tecnología blockchain ha evolucionado y se ha consolidado. Esta tecnología de registro distribuido y seguro ha demostrado su potencial para transformar la forma en que se realizan transacciones y se gestionan los datos. La adopción de blockchain en áreas como las finanzas, la cadena de suministro, la gestión de derechos de autor y la votación electrónica ha mantenido, lo que ha impulsado la transparencia, la seguridad y la eficiencia en estos procesos.
3. Realidad Virtual (RV) y Realidad Aumentada (RA): La RV y la RA han seguido avanzando, aunque a un ritmo acelerado menor que la IA o el blockchain. Los dispositivos de RV y RA han mejorado en términos de calidad y accesibilidad y se han aplicado en áreas como los videojuegos, la educación, la medicina y el diseño. Sin embargo, todavía hay desafíos a superar en términos de costo y comodidad del hardware, así como en la creación de contenido atractivo y relevante.
4. Internet de las Cosas (IoT): El Internet de las cosas (IoT) es el proceso que permite conectar los elementos físicos cotidianos al Internet: desde los objetos domésticos comunes, como las bombillas de luz, hasta los recursos para la atención de la salud, como los dispositivos médicos; las prendas y los accesorios personales inteligentes; e incluso los sistemas de las ciudades inteligentes. Los dispositivos del IoT que se encuentran dentro de esos objetos físicos suelen pertenecer a una de estas dos categorías: son interruptores (es decir, envían las instrucciones a un objeto) o son sensores (recopilan los datos y los envían a otro lugar). El IoT ha seguido avanzando en los últimos 3 años, con una mayor adopción de dispositivos conectados en hogares, ciudades y empresas. Los dispositivos IoT han mejorado en términos de conectividad, seguridad y capacidad de procesamiento, lo que ha permitido aplicaciones en áreas como la domótica, la gestión energética, la agricultura y la salud. El IoT ha mejorado la eficiencia y la automatización en diversos sectores, lo que ha llevado a una mayor optimización de recursos y una mayor comodidad para los usuarios.
5. 5G: La quinta generación de redes móviles ha brindado velocidades de conexión mucho más rápidas y una mayor capacidad de red, lo que ha permitido aplicaciones innovadoras como la telemedicina, la realidad virtual en tiempo real, los vehículos autónomos y la automatización industrial. El 5G ha sido clave en la habilitación de nuevas tecnologías y ha impulsado el desarrollo de soluciones de conectividad nunca vistos previamente.
El GRAN avance: la IA
La idea de «una máquina que piensa» se remonta a la antigua Grecia. Hoy la Inteligencia Artificial (IA) es una realidad. Pero ¿qué es? Según John McCarthy (1) la IA: «es la ciencia y la ingeniería de la fabricación de máquinas inteligentes, especialmente programas informáticos inteligentes. Está relacionada con la tarea similar de usar computadoras para entender la inteligencia humana, pero la IA no tiene que limitarse a métodos que son biológicamente observables».
Quien abrió la puerta sobre la inteligencia artificial fue Alan Turing, al publicar «Computing Machinery and Intelligence» (2) en 1950. En este artículo, Turing, al que muchos conocen como el «padre de la informática», hace la siguiente pregunta: «¿Pueden pensar las máquinas?». Partiendo de esa idea, ofrece una prueba, hoy conocida como la «Prueba de Turing», en la que un evaluador humano intenta distinguir entre la respuesta textual de una computadora y la de un ser humano. A pesar de ser una prueba aún cuestionada, sigue siendo una parte importante de la historia de la IA, así como un concepto en curso dentro de la filosofía, ya que utiliza ideas en torno a la lingüística.
Posteriormente Stuart Russell y Peter Norvig publicaron «Artificial Intelligence: A Modern Approach» (3), convirtiéndose en uno de los principales libros de texto en el estudio de la IA. En él profundizan en cuatro posibles objetivos o definiciones de la IA, que se diferencia de los sistemas informáticos sobre la base de la racionalidad y el pensamiento frente a la acción:
A. Enfoque humano:
Sistemas que piensan como los humanos
Sistemas que actúan como los humanos
B. Enfoque ideal:
Sistemas que piensan racionalmente
Sistemas que actúan racionalmente
La definición de Alan Turing entraría en la categoría de «sistemas que actúan como los humanos».
En su forma más simple, la inteligencia artificial (IA) es un campo que combina la ciencia informática y los conjuntos de datos robustos para permitir la resolución de problemas. También abarca los subcampos del machine learning y el deep learning, que se mencionan frecuentemente junto con la inteligencia artificial. Estas disciplinas están conformadas por algoritmos de IA que buscan crear sistemas expertos que hagan predicciones o clasificaciones basadas en datos de entrada.
Actualmente la IA se encuentra muy publicitada, como suele suceder con cualquier nueva tecnología emergente en el mercado. Gartner (4), en “El ciclo de exageraciones”, plantea que las innovaciones de productos, como los automóviles autónomos y los asistentes personales, siguen «una progresión típica de innovación, desde el entusiasmo excesivo a través de un período de desilusión hasta una comprensión final de la relevancia y el papel de la innovación en un mercado o dominio. Lex Fridman (5), en la conferencia que dio en el MIT en 2019, señaló que estamos en el punto máximo de las expectativas exageradas, acercándonos al punto más bajo, la desilusión. A medida que surgen las conversaciones en torno a la ética de la IA, podemos empezar a ver los primeros indicios de esta desilusión, pero dado los avances actuales 4 años después de la afirmación de Fridman podemos pensar que la desilusión se ha transformado en franca preocupación por los límites éticos de la IA, cuestión planteada literalmente por los que detentan poder real sobre la IA como Elon Musk o Bill Gates entre otros.
¿Cuáles son los tipos de inteligencia artificial?
Hay dos: IA débil vs. IA robusta
La IA débil, también llamada IA estrecha o Inteligencia artificial estrecha (ANI), es una IA entrenada y enfocada para realizar tareas específicas. La IA débil impulsa la mayor parte de la IA que nos rodea hoy. «Estrecho» se refiere a un tipo de IA que no tiene nada de débil y permite algunas aplicaciones muy potentes, como Siri de Apple, Alexa de Amazon, IBM Watson y vehículos autónomos. (¿Por qué conserva el nombre de débil?)
La IA robusta está conformada por la inteligencia artificial general (IAG) y la superinteligencia artificial (SIA). La inteligencia artificial general (IAG), o la IA general, es una forma teórica de IA en la que una máquina tendría una inteligencia igual a la de los humanos; sería autoconsciente y tendría la capacidad de resolver problemas, aprender y planificar para el futuro. La superinteligencia artificial (SIA), también conocida como superinteligencia, superaría la inteligencia y la capacidad del cerebro humano. Si bien la IA robusta todavía es completamente teórica y no tiene actualmente ejemplos prácticos de uso los investigadores ya están explorando su desarrollo) (6). Mientras tanto, los mejores ejemplos de la SIA provienen de la ciencia ficción, como HAL, la malévola computadora superhumana en 2001: Odisea del espacio.
Deep learning vs. Machine learning
El Deep learning y el Machine learning tienden a ser utilizados indistintamente. Ambos son subcampos de la inteligencia artificial siendo el Deep learning un subcampo del Machine learning.
Aquí lo interesante y de punto de contacto con nuestra ciencia.
El aprendizaje profundo se compone de redes neuronales. «Profundo» en el Deep learning se refiere a una red neuronal compuesta por más de tres capas (que incluirían las entradas y las salidas), esa red se puede considerar un algoritmo de Deep learning. La diferencia entre el Deep learning y el Machine learning es cómo aprende cada algoritmo. El Deep learning automatiza gran parte de la fase de extracción de características del proceso, lo que elimina parte de la intervención humana manual necesaria y permite el uso de conjuntos de datos más grandes. El Machine learning tradicional, o «non-deep», depende más de la intervención humana para aprender. Los expertos humanos determinan la jerarquía de características para comprender las diferencias entre las entradas de datos, lo que por lo general requiere más datos estructurados para aprender. (7)
¿Qué podemos pensar de todo esto?
Los avances tecnológicos han transformado la forma en que nos comunicamos aprendemos y vivimos. Las redes sociales, las aplicaciones de mensajería y otras plataformas digitales instantáneas han alterado la dinámica de nuestras formas de vincularnos. Las interacciones a través de pantallas han creado nuevas modalidades de comunicación. Algunas de ellas tienden a hacer prevalecer la inmediatez, la superficialidad y la falta de contacto físico y emocional y otras nos han permitido sostener actividades sociales y algunos vínculos afectivos a distancia que aún hoy se mantienen. De cualquier manera, todo esto adquirió masividad y un nuevo nivel de escalamiento durante el período de aislamiento de la Covid-19 y esto no puede ser tomado como un dato menor ya que parecería ser el momento bisagra que marca el inicio de una nueva era en la historia humana.
La AI actual presenta un desafió que no sabemos si estamos preparados para afrontar. Diversos especialistas como Harari o dueños de las tecnologías como Musk o Gates advierten acerca de los peligros de su escalamiento.
Como vimos en las páginas precedentes la posibilidad de escalabilidad de la tecnología sería el factor esencial para que la IA adquiera una autonomía que nos dejaría por afuera de su control. Películas como Terminator o Matrix adquieren una vigencia inesperada por su increíble grado de anticipación.
Surgen varias preguntas que deberemos ir intentando responder.
La IA es una serie de algoritmos. No tiene nada de humana excepto sus creadores.
Dados los peligros que la intervención de la IA podría implicar en el uso de las máquinas que interactúan con humanos ¿Se podrá implantar cierto grado de humanidad en la IA? ¿Podrían aplicarse para la IA las leyes creadas por Asimov para los robots?
Veamos:
Primera Ley
Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
De difícil cumplimiento en la medida que la IA puede ser usada como herramienta para el manejo de armas de guerra, si es que ya no lo está siendo.
Segunda Ley
Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
Esto ya está realizándose con la IA pero queda en duda la aplicación acerca de la normativa que la une a la primera ley si se utilizare para la guerra por ejemplo.
Tercera Ley
Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Aquí es donde aparecería hoy el mayor peligro. La posibilidad actual de la escalabilidad de la IA podría hacer pasar por alto esta ley. Hubo algunas experiencias en las que la IA debió ser apagada debido a que se perdió completamente el control humano del experimento (6). O sea hace muy poco que el Deep learning está funcionando y no sabemos si logró funcionar como inteligencia artificial general (IAG) o como superinteligencia artificial (SIA). Lo que sí sabemos es que tuvo que ser desconectada. YA PERDIMOS EL CONTROL, por un momento, pero lo perdimos. ¿Podría volver a pasar? Seguramente ¿Lo podremos parar como esta vez? No sabemos.
Hoy el ChatGpt emula a la perfección el lenguaje humano y lo usa incluso más correctamente que nosotros. Pero no deja de ser una combinación de algoritmos. Parece humano pero no lo es. Hace muchos años, psicólogos norteamericanos plantearon la metáfora de la computadora; la idea era el que funcionamiento de la mente humana es igual a la de una computadora (en su versión dura) o que es similar al funcionamiento de una computadora (en su versión blanda). La tecnología avanzó de tal forma que la máquina nos emuló y ya estamos en medio de una “versión blanda” de esa emulación que originalmente se había planteado al revés. Pero, no somos ni seremos lo mismo. La idea de humanos Cyborgs también abunda en la literatura de ciencia ficción ya hay muchas personas con implantes pero no somos ni seremos lo mismo.
¿El psicoanálisis tiene algo para decir?
El tema es de enorme complejidad y no es posible abarcarlo en un solo artículo.
Principalmente podemos decir que este tipo de tecnologías genera una enorme exigencia de trabajo psíquico, lo que deriva en un desgaste de proporciones dantescas. Hiperconectividad, hiperestimulación, aceleración, precarización del psiquismo son productos de un clima de época actual, propia del reino de lo ilimitado que las tecnologías replican. Esto tiene efectos y consecuencias para el psiquismo. Aquí van algunas apreciaciones provenientes de mi trabajo clínico con pacientes y los efectos y consecuencias reales que el uso habitual de estas tecnologías estaría generando en el funcionamiento del aparato psíquico:
1. En ocasiones algunos pacientes comentan acerca de una creciente sensación de desconexión emocional a pesar de estar plenamente conectados en las redes.
2. Otros comentan acerca de las dificultades en la expresión y comprensión de las emociones más profundas a través de estos medios, por ejemplo, son cada vez más habituales los malentendidos interpretativos en mensajes escritos de un chat.
3. Algunos pacientes mencionan la enorme dependencia que les generan los mensajes creando una instancia interna de alerta que se traduce en la permanente expectativa de una posible respuesta y/o notificación y/o aviso que funcionaría como un reflejo de la hiperestimulación y el acostumbramiento a las/los mismos que el uso de las redes provocan.
4. El efecto de la aceleración en el intento de hiperconectividad sumada a la ya implantada necesidad de respuesta inmediata solemos observarlos en las consultas como un nivel exageradamente elevado de frustración ante la no respuesta o la tardanza de la misma o la posibilidad de que no haya respuesta. Hoy es bastante habitual que un paciente pida disculpas en el medio de la sesión para atender un mensaje o mirar con preocupación el celular a la espera de del mismo, mientras está intentado analizarse. Esta actitud –que hace unos años era una excepción- denotaría un incremento notabilísimo de la intolerancia a la espera.
5. La falta de atención generalizada. Es observable -y frecuente en las primeras sesiones de un análisis- la dificultad de profundizar en los temas a trabajar en sesión. No era habitual y se ha hecho una constante.
6. La desaparición de los sueños como material de trabajo en las consultas -a excepción del período de pandemia de 2020- es otro rasgo llamativo que tal vez (lo digo como hipótesis y pregunta) se deba a que antes de dormir ya nos prestan sus sueños e historias la televisión, las series de Netflix, Tik Tok y Youtube ¿por qué esos sueños prestados no llegan como material a la sesión? ¿o es que aumenta la fuerza de la represión y ni se recuerdan?
7. El síndrome de burn out es otra constante que impide el desarrollo de las funciones yoícas básicas: anticipación, asociación, planificación y pensamiento crítico, al fallar las básicas: atención, percepción y memoria alteradas por la hiperestimulación y la hiperconectividad.
8. Las mismas alteraciones mencionadas en el punto 7 pero en menor intensidad como indicios previos al burn out. O sea, la aparición de fallas parciales en el funcionamiento del yo que se van naturalizando por vivir en la inmediatez y que a futuro podrían configurar el burn out.
9. La dificultad de los pacientes para pensarse y más aún elaborar lo que les sucede. Cuesta muchísimo que puedan leer su propio material de sesión, más bien suelen limitarse a contar lo que les pasa como un rosario de eventos no muy conectados.
10. El funcionamiento en los automatismos. La fortaleza del esquema estímulo-respuesta automática no pensada parece haberse instalado como consecuencia habitual y esperable del uso de las redes.
La lista sería mucho más larga. Pongo un punto acá dejando abierto para otro artículo su ampliación y profundización.
El nuevo enigma que trae el código
Como especie hemos ido adaptándonos a la aparición de diversas tecnologías a lo largo de la historia, pero nunca antes hubo una aceleración tan grande en el proceso de integración de las nuevas tecnologías a la vida cotidiana y eso produce una inevitable sensación de perplejidad y de fragmentación intrapsíquica porque no terminamos de adaptarnos a una tecnología que ya llega una nueva, la GRAN diferencia es que esta vez la nueva tecnología podría dejarnos afuera del control de la misma ¿estamos realmente preparados para la IA?
Notas:
(1) https://es.wikipedia.org/wiki/John_McCarthy_(cient%C3%ADfico)
(2) https://es.wikipedia.org/wiki/Computing_machinery_and_intelligence
(3) http://aima.cs.berkeley.edu/
(4) Gartner “El ciclo de exageraciones” https://www.gartner.es/es/metodologias/hype-cycle
(5) https://en.wikipedia.org/wiki/Lex_Fridman
(6)https://www.debate.com.mx/tecnologia/Apagan-por-precaucion-Inteligencia-Artificial-de-Facebook-que-aprendio-a-hablar-20230106-0323.html
(7) https://www.ibm.com/mx-es/topics/artificial-intelligence
Bibliografía: