Search
Close this search box.

Uso responsable de la IA podría impulsar la transformación empresarial y mitigar riesgos

Así lo consideran Arturo Paz y José Márquez, especialistas de PwC La seguridad y privacidad de los datos es un tema crítico al implementar esta tecnología
Por: Daniel Valero dvalero@elasegurador.com.mx

La implementación de la inteligencia artificial (IA) en la operatividad de las empresas es un paso importante en el crecimiento de las organizaciones. Sin embargo, es imperativo incorporar prácticas responsables en cada etapa del proceso para mitigar riesgos y que sea sostenible a largo plazo.

Dicha aseveración pertenece a Arturo Paz, socio líder de Cloud & Digital, y a José Márquez, director de Cloud & Digital, ambos de PwC. Los expertos añadieron que en un futuro cercano, la IA será muy relevante en las estrategias de crecimiento de todas las compañías.

“Confiar en la inteligencia artificial va más allá de garantizar sistemas seguros y el cumplimiento normativo, también implica que las empresas se guíen bajo los principios alineados con valores sociales, éticos y de respeto a los derechos humanos. Por ejemplo, implementando características de legalidad, opción de intervención humana, seguridad para las personas, así como transparencia y explicabilidad”, señalaron los ejecutivos de PwC.

Asimismo, sostuvieron que las empresas deben ser transparentes al comunicar cómo se recopilan, utilizan y protegen los datos, así como los algoritmos y modelos utilizados en la inteligencia artificial.

De igual forma, agregaron, deben asegurarse de que los sistemas de IA sean justos y equitativos, evitando la discriminación y el sesgo en la toma de decisiones, tanto en la recopilación de datos, como en los algoritmos utilizados. 

“También, es importante considerar que las organizaciones deben asumir la responsabilidad de las acciones y decisiones tomadas por los sistemas de inteligencia artificial. El diseño y desarrollo de sistemas de IA deben estar centrados en el ser humano y requieren considerar las necesidades, valores y derechos de las personas”, señalaron.

Los especialistas mencionaron que proteger los datos personales y garantizar su privacidad es un aspecto crítico en el desarrollo y uso responsable de la IA. Esto, dijeron, demanda medidas de seguridad que deben ser implementadas de manera integral y actualizadas constantemente para adaptarse a las nuevas amenazas y regulaciones.

Además, añadieron, es importante realizar evaluaciones periódicas para identificar posibles vulnerabilidades y mejorar en todo momento la protección de los datos personales en las aplicaciones de inteligencia artificial.

Por último, los funcionarios compartieron algunos ejemplos para la privacidad y seguridad de los datos:

  • Recopilar y almacenar sólo la información personal necesaria.
  • Eliminar o enmascarar información identificable y asociar identificadores únicos en lugar de datos personales directos.
  • Implementar controles de acceso adecuados y políticas claras sobre la retención y eliminación de datos personales.
  • Utilizar técnicas de encriptación para proteger los datos personales.
  • Mantener una infraestructura segura para la aplicación de IA.
  • Capacitar al talento en las mejores prácticas de seguridad y privacidad, incluyendo la identificación de posibles riesgos y brechas de seguridad.

Califica este artículo

Calificación promedio 0 / 5. Totales 0

Se él primero en calificar este artículo