Summit País Digital 2024
TecnoCard SpA Impresoras de Credenciales
Hydrogreen
XM Regalos Corporativos 2024
Datasur d-stats importaciones exportaciones
Innova Talentos
MACAYA equipos trabajos en altura
AguaLibre Tecnología Geotécnica e Hidrogeológica
Biodiversa
 

 

Pulso FGE-BackSpace

Uso ético de la Inteligencia Artificial: Protección de datos personales es el tema que más preocupa a las empresas

  • El sondeo realizado en el marco de la conferencia “Inteligencia Artificial y protección de datos: innovar con integridad”, mostró que un 31,4% afirma que le inquietan las fallas que estas tecnologías puedan presentar en el resguardo de datos personales.
  • Respecto de herramientas como ChatGPT, un 77,1% aseguró que no cuentan con una política interna que regule su uso.

Los datos personales están en el centro de las preocupaciones de las empresas a la hora de hablar de inteligencia artificial y uso ético de las nuevas tecnologías. Así lo mostró un pulso realizado por Fundación Generación Empresarial (FGE) y BackSpace (consultora de IA, analítica y automatización de procesos), el cual se aplicó en el marco de la conferencia “Inteligencia Artificial y protección de datos: innovar con integridad”. En la actividad participaron el socio fundador de BackSpace, Maurizio Pancorvo; y el abogado experto en estos temas Raúl Arrieta, quienes intercambiaron puntos de vista en una conversación que fue moderada por Fernanda Hurtado, gerente general de FGE.

El sondeo “Inteligencia Artificial y ética: ¿Cuáles son las preocupaciones y urgencias?”  contó con las respuestas de representantes de 35 empresas y reveló que un 48% de ellos opina que la protección de datos personales es la medida que más urge desarrollar en Chile, seguida de la regulación del uso de la Inteligencia Artificial (34,3%) y la ciberseguridad (11,4%).

En la misma línea, un 31,4% afirmó que las fallas que se puedan presentar en el resguardo de los datos personales es el principal aspecto ético que les inquieta del uso de estas herramientas. Más atrás en materia de preocupaciones figuran fallas en la tecnología que pongan en riesgo la reputación corporativa y sesgos de la tecnología que generen decisiones discriminatorias por parte de las empresas (ambas con un 22,9%).

“El uso de la Inteligencia Artificial está impulsando a miles de empresas alrededor del mundo pero, a la vez, también ha despertado muchas inquietudes sobre su uso ético. En Fundación Generación Empresarial estamos comprometidos no solo con promover buenas prácticas y el cumplimiento de las leyes vigentes, sino también con abrir espacios para discutir cómo nos hacemos cargo de estos desafíos que aún no han sido resueltos por la regulación. Una actitud proactiva es clave para prevenir eventuales malas prácticas en este ámbito”, señaló Fernanda Hurtado, gerente general de FGE.

Por su parte Maurizio Pancorvo, experto en Inteligencia Artificial y fundador de la consultora BackSpace, recalcó la importancia de conversar estos temas dentro de las empresas. “Creo que el desafío de las compañías no está tanto en los costos o aplicación técnica de estas tecnologías, sino en el tema cultural de cómo nos preparamos para incorporar la Inteligencia Artificial de manera adecuada y ética. En este sentido, es fundamental tener conversaciones no solo a nivel directivo, sino con los propios equipos, informando sobre las inversiones que se harán, los efectos que esto tendrá en el trabajo diario y, sobre todo, atendiendo y resolviendo las legítimas dudas que las personas pueden tener sobre estos temas”.

Medidas que pueden adoptar las empresas

El pulso desarrollado por FGE y BackSpace consultó también a los participantes sobre las medidas que pueden adoptar las empresas para abordar el uso de las tecnologías de Inteligencia Artificial y la automatización. Los encuestados señalaron que las principales son una definición de políticas internas (37,1%), formación del personal en el uso éticos de estas herramientas (31.4%), capacitación de los empleados para que adquieran nuevas habilidades e incorporen la IA a sus tareas (20%) e incorporación de estos temas al comité de riesgos de (11,4%).

Sobre qué acciones ya están siendo implementadas en las organizaciones, un 77% de los encuestados reconoció que no poseen una política interna de regulación de tecnologías de inteligencia artificial como ChatGPT u otras, mientras que el 20% señaló que están trabajando en esto.

Google News Portal Innova
Síguenos en Google Noticias

Equipo Prensa
Portal Innova