Por Pablo Flores, director de KPMG Law en Chile
Muchos asocian la Inteligencia Artificial (IA) con sistemas altamente complejos, caros y de uso poco frecuente, como aquellos enfocados en procedimientos predictivos de emergencia, seguridad, defensa, entre otros. Por su parte, las generaciones más jóvenes tienden a vincularla a ChatGPT, robots, o automóviles autónomos. Sin embargo, en los hechos, se trata de herramientas que están más cerca de lo que parece y se utilizan en dispositivos tan cotidianos como los smartphones, redes sociales, mapas y buscadores.
Su gran alcance, amplia diversidad de usos y su rápida expansión amerita, sin lugar a duda, contar con un marco normativo apropiado que resguarde adecuadamente los derechos de las personas.
Como ejercicio, fuimos a preguntarle a uno de sus protagonistas -ChatGPT- cómo estima que deberíamos limitar sus capacidades para proteger la estabilidad social, derechos fundamentales y la libertad de los seres humanos. Al respecto, respondió que se trata de “una preocupación legítima y crucial”, ofreciendo recomendaciones relacionadas con la transparencia en cuanto al entrenamiento y diseño de modelos de IA, la generación de comités éticos, e incluir responsabilidad de los desarrolladores, por mencionar algunas. La sugerencia que más llamó la atención fue “la necesidad de contar con una efectiva regulación a nivel gubernamental y estándares internacionales”.
De esta manera, ChatGPT refuerza la urgencia y relevancia de la discusión que estamos teniendo en torno a la definición de una regulación formal (legislativa) de la IA.
Entre los factores a considerar están la protección de datos personales, seguridad, educación, propiedad intelectual, trabajo, libertad, entre otras, lo que nos pone en una posición que permite afirmar que lo central -en definitiva- tiene que ver con nuestros derechos fundamentales.
Desde esta perspectiva, corresponde hacer un análisis crítico del proyecto de ley en tramitación en Chile, el cual comparte características con la regulación de la Unión Europea (EU) y la OCDE, pues propone un marco regulatorio basado en principios, y califica los riesgos aparejados a los sistemas de IA según sus particularidades. Si bien podemos afirmar desde ya que se trata de un gran avance, y que nos ubica en la misma línea de países desarrollados, y a la altura del desafío que enfrentamos, se trata de un proyecto perfectible y que amerita una discusión altamente técnica, compleja y omnicomprensiva, que deberá ponderar correctamente lo que está en juego, teniendo como principal antagonista la conveniencia de tener un resultado o “producto” lo más pronto posible.
En este orden de ideas, es importante que la discusión de los próximos meses reconozca los múltiples puntos positivos del proyecto, y que, de la misma forma, ponga en evidencia los desafíos que se deben tener en cuenta, con honestidad intelectual y una visión de bien común.
El primer punto que se debe mejorar tiene que ver con un aspecto de la esencia de la Inteligencia Artificial, y que hoy solo han tomado los Estados Unidos, el cual es definir claramente qué es la IA y no solo limitarse a su aplicación o sistemas.
Otro de los grandes retos tiene relación con un sólido sistema de protección de datos, con normativas que sean estrictas en cuanto a su almacenamiento, procesamiento y transferencia. Basta imaginarse lo que podría ocurrir si un sistema de IA pudiera acceder a las cuentas bancarias o a la información de salud de todas las personas (cuestión que, sin duda, ya es posible técnicamente).
Lo mismo ocurre si se hiciera un sistema tan laxo que haga realidad uno de los temores más grandes de la sociedad: que los trabajadores seamos reemplazados por la IA. La tecnología debe estar a disposición de las personas y no al revés, y eso solo será posible si la norma establece un marco regulatorio adecuado.
Es por las razones recién mencionadas que el eje central de cara a la elaboración de la ley tiene que estar en entender cuál es el rol de los expertos y legisladores en el proceso de discusión (el cual probablemente se apoyará en la IA). Además, es importante considerar la incorporación de parámetros éticos del más alto estándar, y así definir aquello que es bueno y malo, de cara a cada uno de los bienes jurídicos protegidos. Lo anterior, servirá de guía y referencia para una Inteligencia Artificial que -aún- no es capaz de discernir por sí sola.
Este es el real desafío y la verdadera importancia del reto: debemos generar los espacios de diálogo y convocar a expertos y técnicos de diversas áreas que aporten su conocimiento para elaborar una ley que establezca un marco regulatorio de la IA, que nos permita beneficiarnos de su uso, al mismo tiempo que resguarde las libertades y derechos de las personas en todo momento y ámbito.
Equipo Prensa
Portal Innova