Inteligencia Artificial
La “transparencia algorítmica” es lo que permitirá la privacidad de los datos en tiempo de inteligencia artificial
Durante los últimos años, hemos visto como organizaciones de todo tamaño se han dado cuenta de que la información es valiosa y les permite tomar mejores decisiones de negocio. Pero uno de sus grandes desafíos es poder asegurar el correcto uso y protección de los datos que se capturan.
Actualmente, las principales filtraciones de información ocurren por error, omisión o por la acción de una persona que no siguió a cabalidad un procedimiento para la implementación o ejecución de un control digital o físico. Gracias a la inteligencia artificial (IA) muchos de estos procesos se están automatizando, ya que permite analizar cantidades masivas de datos para resolver problemas que eran prácticamente imposibles de considerar hace 10, cinco, tres, incluso un año.
Son muchos los beneficios y ventajas que nos ofrece la combinación de big data, machine learning e IA. Sin embargo, es fundamental que eso se acompañe de derechos de privacidad y protección de datos para que podamos realmente verlo como una ventaja y no como una nueva amenaza.
“Es necesario fomentar prácticas totalmente transparentes en la forma en que los datos personales son utilizados por la inteligencia artificial, garantizando su seguridad y privacidad”, dice Marcelo Zanotti, socio líder de Consultoría en Riesgo de EY. Agrega que “hay que procurar que exista una ‘transparencia algorítmica’, que permita mediante una combinación de enfoques técnicos y organizativos modelar y mejorar la transparencia del desarrollo de algoritmos de aprendizaje automático”.
Para que esto se incluya en el debate sobre la privacidad, “es fundamental que los desarrolladores de tecnología, las organizaciones sociales, la academia y los gobiernos establezcan reglas 100% transparentes sobre la construcción de la lógica que está detrás de las decisiones que toman los sistemas, y con un lenguaje que no solo sea técnico”, dice Manuel O´Brien, gerente de Gobierno y Asuntos Regulatorios para IBM Chile.
El ejecutivo agrega que otro punto importante es la capacidad de explicación de la tecnología. “Para que un modelo de IA sea ético debe ser explicable y justo; debe ser capaz de comprender cómo se tomó una decisión y estar seguro de que los resultados son precisos e imparciales. Esto requiere más que un simple “sentimiento” de que se puede confiar en él: requiere evidencia sólida, como pruebas estandarizadas y mecanismos transparentes de presentación de informes”, dice.
SIGA LEYENDO: https://digital.elmercurio.com/2020/08/19/DCST-T/RD3R65QG#zoom=page-width