Este 2023 marcó un quiebre en la manera en que nos relacionamos con la tecnología por medio de las aplicaciones de la inteligencia artificial.

La Inteligencia Artificial IA generativa y tantas evoluciones que vienen por delante, marcan una diferencia y crean una incertidumbre general sobre si los robots llegarán a reemplazarnos, porque se ve que imitan a los humanos realizando movimientos complejos, hasta bailando y jugando ping pong.

¿Qué alcance tendrá? ¿Qué impacto generará en nuestra sociedad y en nuestro trabajo? Llegó el momento de hacer que nuestra inteligencia humana supere a la artificial. No es imposible, aun cuando la IA tiene información online disponible para procesar mucho más rápido que nuestra mente. La respuesta está en trabajar para crear una “exteligencia” en lugar de contar con una inteligencia que asegure la competencia en una posición de desventaja.

¿Y, qué es una “exteligencia”? Cohen y Stewart utilizan el término para expresar la relación interdependiente entre el conocimiento dentro de la cabeza y el conocimiento fuera de ésta, al que se puede acceder fácilmente. Uno de sus aportes es la forma en que se relacionan, a través de la idea de complicidad, del individuo con la suma del conocimiento humano, que en el ámbito laboral la aseguramos con los equipos de trabajo, y los de alto desempeño.

A través de la Psicodinamia Laboral Agil se apunta a que el trabajo sea colaborativo, que se creen equipos donde los vínculos entre las personas contribuyan a la tarea diaria en el trabajo, no sólo disminuyendo los niveles de insatisfacción, stress y sufrimiento laboral, si no también, desde la perspectiva de Cohen y Stewart crear una exteligencia humana que sea superior a la inteligencia individual de cada persona, ya que estaríamos hablando de la inteligencia grupal. 

La IA en su estado actual, no posee sentimientos, conciencia ni moralidad. Es un conjunto de algoritmos y modelos matemáticos diseñados para realizar tareas específicas basadas en datos y patrones, pero carece de experiencias subjetivas o emociones. No tiene la capacidad de experimentarlas como los seres humanos ni de entender conceptos éticos de manera intrínseca. Aunque puede aprender patrones éticos a partir de datos, su comprensión de lo que es «bueno» o «malo» se basa en patrones identificados en los datos con los que fue entrenada.

La ética y la moralidad en Ia IA son responsabilidad de los diseñadores y desarrolladores. Estos profesionales deben implementar principios éticos y consideraciones morales en el diseño y entrenamiento de los sistemas de IA para garantizar que se utilicen de manera responsable y ética.

Es importante destacar que la inteligencia artificial no es consciente de sí misma ni tiene una comprensión subjetiva del mundo. Cualquier comportamiento que parezca ético o moral en un sistema de IA es el resultado de la programación y los datos utilizados durante el entrenamiento, no de una comprensión intrínseca de la moralidad.

Esta “extelingencia” es la que puede brindar contención, definir mejores prácticas y formas de hacer las cosas cotidianas del quehacer laboral, y sobre todo explotar y trabajar la parte que la IA no posee, que es la que acabamos de mencionar: sentimientos, conciencia, moralidad y ética.

Los equipos laborales deben trabajar para cambiar su realidad, aprehendiendo la misma, y cambiando uno mismo, teniendo en cuenta su sentir, su pensar, su hacer, su moral, su conciencia y su ética.

Esta es el desafío para el 2024. Ayudar a crecer, creciendo, y no dejándonos superar por un conjunto de algoritmos pensados por unos pocos desarrolladores.

Sergio Satulovsky

CEO InnovAgile Group

Google News Portal Innova
Síguenos en Google Noticias

Equipo Prensa
Portal Innova

VIAS IMPORTACIONES 2024