¿El diseño de la inteligencia artificial debe priorizar la privacidad de los datos?

 “La inteligencia artificial es parte integral de los desarrollos en la atención médica, la tecnología y otros sectores, pero hay preocupaciones sobre cómo se regula la privacidad de los datos. La privacidad de los datos es esencial para ganar la confianza del público en los avances tecnológicos.”


Mujeres para pensar


La privacidad de los datos se vincula a menudo con los modelos de inteligencia artificial (IA) basados en los datos de los consumidores. Es comprensible que los usuarios desconfíen de las tecnologías automatizadas que obtienen y utilizan sus datos, que pueden incluir información sensible. Dado que los modelos de IA dependen de la calidad de los datos para ofrecer resultados destacados, su existencia continua depende de que la protección de la privacidad sea parte integral de su diseño.

Más que una forma de disipar los temores y preocupaciones de los clientes, las buenas prácticas de privacidad y gestión de datos tienen mucho que ver con los valores organizativos fundamentales de la empresa, los procesos empresariales y la gestión de la seguridad. Los problemas de privacidad se han estudiado y divulgado ampliamente, y los datos de nuestra encuesta de percepción de la privacidad indican que la protección de la privacidad es una preocupación crucial para los consumidores.

Abordar estas preocupaciones en contexto es crucial, y para las empresas que operan con IA de cara al consumidor, hay varios métodos y técnicas que ayudan a resolver los problemas de privacidad a menudo vinculados a la inteligencia artificial.

Las empresas que trabajan con inteligencia artificial ya se enfrentan a una desventaja ante la opinión pública en términos de privacidad. Según la Organización Europea de Consumidores en 2020, una encuesta mostró que entre el 45 y el 60% de los europeos están de acuerdo en que la IA provocará un mayor abuso de los datos personales.

Hay muchos servicios y productos populares en línea que se basan en grandes conjuntos de datos para enseñar y mejorar sus algoritmos de IA. Algunos de los datos de esos conjuntos de datos podrían ser considerados privados incluso por los usuarios menos conscientes de la privacidad. Los flujos de datos procedentes de redes, páginas de medios sociales, teléfonos móviles y otros dispositivos contribuyen al volumen de información que las empresas utilizan para entrenar los sistemas de aprendizaje automático. Gracias a la extralimitación en el uso de los datos personales y a la mala gestión de algunas empresas, la protección de la privacidad se está convirtiendo en una cuestión de política pública en todo el mundo.

Muchos de nuestros datos sensibles se recopilan para mejorar los procesos habilitados por la Inteligencia Artificial. Muchos de los datos analizados también están impulsados por la adopción del machine learning, ya que los sofisticados algoritmos necesitan tomar decisiones en tiempo real, basándose en esos conjuntos de datos. Los algoritmos de búsqueda, los asistentes de voz y los motores de recomendación son solo algunas soluciones que aprovechan la IA basada en grandes conjuntos de datos de usuarios del mundo real.

Las bases de datos masivas pueden abarcar una amplia gama de datos, y uno de los problemas más urgentes es que estos datos podrían ser personalmente identificables y sensibles. En realidad, enseñar a los algoritmos a tomar decisiones no depende de saber a quién corresponden los datos. Por lo tanto, las empresas que están detrás de este tipo de productos deben centrarse en hacer que sus conjuntos de datos sean privados, con pocas o ninguna forma de identificar a los usuarios en los datos de origen, así como en crear medidas para eliminar los casos límite de sus algoritmos para evitar la ingeniería inversa y la identificación.

La relación entre la privacidad de los datos y la inteligencia artificial es bastante matizada. Aunque algunos algoritmos pueden requerir inevitablemente datos privados, hay formas de utilizarlos de manera mucho más segura y no invasiva. Los siguientes métodos son sólo algunas de las formas en que las empresas que utilizan datos privados pueden formar parte de la solución.

Los sistemas de Inteligencia Artificial necesitan muchos datos, y algunos de los mejores servicios y productos en línea no podrían funcionar sin los datos personales utilizados para entrenar sus algoritmos de Inteligencia Artificial. Sin embargo, hay muchas maneras de mejorar la adquisición, la gestión y el uso de los datos, incluidos los propios algoritmos y la gestión general de los datos. La Inteligencia Artificial respetuosa con la privacidad requiere empresas respetuosas con la privacidad.


Todas las columnas de la autora en este enlace: https://alponiente.com/author/gianelasc/

Gianela Sipión Castillo

Estudiante de Derecho cursando el duodécimo ciclo en la Universidad Femenina del Sagrado Corazón (Perú). Analista de Sostenibilidad en Interseguro. Editora del Proyecto del Código Civil en Instituto Pacífico y Jefa económica en Diario El Gobierno. Con especializaciones en la World Compliance Association de Madrid y diferentes estudios en materia de datos personales, sostenibilidad, derecho corporativo, consumidor, entre otros. Columnista e investigadora académica.

Comentar

Clic aquí para comentar

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.