Ideario de ética digital empresarial

“La ficción nos preparó durante décadas para esas imágenes alucinantes creadas por algoritmos. El reto es entender, asumir, usar con sensatez y regular unas herramientas descentralizadas, omnipresentes, múltiples, sin cuerpo. Ni rostro. Ni mirada. Unas inteligencias artificiales que han sido desarrolladas, sobre todo, por grandes corporaciones privadas -como Google, Meta o Microsoft-, y que son fruto, por tanto, no del consenso, el humanismo y la voluntad democrática, sino del espíritu disruptivo e irresponsable de Silicon Valley”. Jorge Carrión

Las acciones humanas no siempre han sobrevivido a una reflexión suficiente de lo que estas en su conjunto representan. Alejados de un estudio consciente de los riesgos, los hombres han monopolizado el desarrollo, la innovación y el progreso, más con el impulso de su ímpetu, que con una mirada clara de ¿el para qué? y ¿a costa de qué? de sus actos. Esta forma de actuar ha representado el devenir del hombre, uno que en tiempos presentes se muestra errático, caótico y lleno de incógnitas acerca de si algunos de esos emprendimientos que ha desarrollado han pasado ya un punto de no retorno, o por el contrario este, el hombre, haciendo uso de su inteligencia, aún puede corregir el mal o los alarmantes avances que podrían poner en riesgo al ser humano como hasta ahora lo conocemos.

En este sentido y centrando la discusión en los avances tecnológicos; la automatización y las herramientas digitales que se vienen desarrollando en la última década de manera singular tal como lo advirtiera Raymond Kurzweil, con movimientos tan acelerados que ni siquiera las leyes físicas que Aristóteles explicó para interpretar el mundo hasta el momento volverían para definirlas. Cambios que, tal como diría de manera optimista Frank Pasquale, quien sigue que: “Hoy en día disponemos de métodos para canalizar las tecnologías de automatización para que no nos veamos atrapados o transformados por ellas” y quien resalta además que “El futuro de la robótica puede ser inclusivo y fomenta la participación de todos y se ajusta a las esperanzas de todos los ciudadanos”, y otros como el teórico David Precht desde orillas opuestas se cuestiona sobre: ¿quién está conteniendo la imagen robótica que se está formando? ¿Quién está mostrando qué y quiénes somos diferentes? ¿Estamos dejando el futuro de nuestros hijos en manos de beneficios como Google, Amazon, Facebook y Apple? lo que a su vez replantea y abre camino para el pensamiento de los liberales alemanes que dicen “primero, los ingenieros después los filósofos y sociólogos”.

En ese sentido, ambas posturas, hoy desde distintos ámbitos se empiezan a hacer reflexiones sobre cuál será el futuro de la inteligencia artificial (IA). El Parlamento tiene como objetivo garantizar que los sistemas con IA sean seguros, transparentes y respeten los derechos fundamentales y los valores europeos compartidos. Además, en Estados Unidos, un artículo en el New York Times advierte que “La Casa Blanca anuncia una iniciativa sobre la inteligencia artificial: un orden ejecutiva que impone nuevas normas a las empresas e instruye a varias agencias que establezcan salvaguardas.”

Plausibles y necesarias resultan estas iniciativas; sin embargo, y como siempre ocurre, existen distintos caminos para llegar a un mismo lugar. En la actualidad, la autorregulación resulta muchas veces más expedita, al gozar de una efectividad mayor al emanar esta de la conciencia personal y no de imposiciones parlamentarias. “¡Sapere aude!” (¡ten el coraje de valerte de tu propio entendimiento!) escribía Kant, invitando a seguir el camino de la pregunta permanente y no a la respuesta preestablecida.

En este sentido, existen referentes de posturas que invitan a una reflexión y hacen un llamado a la acción frente a los rápidos avances de la tecnología. Dos de ellas, propuestas en tiempos muy distintos, son: las leyes de la robótica de Isaac Asimov descritas en «Runaround», un cuento corto de ciencia ficción publicado en 1941, en el que este declara:

  1. Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
  2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

La segunda, descrita por Frank Pasquale en su texto «Las nuevas leyes de la robótica» publicado en 2020, plantea cuatro nuevas leyes de la robótica:

  1. Los sistemas robóticos y de IA deberán servir de complemento a los profesionales, no reemplazarlos.
  2. Los sistemas robóticos o la IA no tienen que falsificar lo humano.
  3. Los sistemas robóticos y la IA no deben fomentar la carrera armamentística de suma cero.
  4. Los sistemas robóticos y la IA tienen que indicar siempre la identidad de sus creadores, controladores y propietarios.

 

Siguiendo este mismo camino de una autorregulación consciente, desde Aún Humanos se impulsa un decálogo que recoge acciones que de manera organizada se vienen desarrollando en las organizaciones y que, sin mucha reflexión, van creciendo, entregando a la máquina y a los algoritmos cada vez más protagonismo en la toma de decisiones, no solo desde el punto de vista táctico, sino también desde la estrategia, esa que marca el futuro de la organización y con ella el de sus colaboradores. Pues como dice Eric Sadin: “es el momento de volver sobre la diferencia entre voluntad e intención. La voluntad es un impulso con un objetivo amplio”. Aún en construcción, se presentan 10 postulados simples, pero que pudieran servir de detonante para una construcción y una apropiación colectiva.

  1. En nuestra organización, garantizamos la autonomía humana asegurando que ningún colaborador estará subordinado a decisiones tomadas exclusivamente por máquinas o inteligencia artificial.
  2. En nuestra organización las máquinas e inteligencias artificiales son herramientas diseñadas para asistir al ser humano en sus labores, sin reemplazar su capacidad de tomar decisiones críticas en la organización
  3. Cualquier adopción de tecnología en nuestra organización se someterá a un proceso de socialización integral y evaluación ética, realizada por un comité imparcial que analizará tanto los beneficios como los riesgos asociados a su implementación.
  4. En nuestra organización nos aseguramos de que tanto clientes internos como externos siempre tengan la opción de interactuar directamente con un ser humano en cualquier proceso
  5. En nuestra organización todo proceso automatizado por máquinas o inteligencia artificial será claramente identificado como ‘Operado No-Humano’ para mantener la transparencia con todos los involucrados.
  6. En nuestra organización todos los datos personales se regirán por las políticas y procedimientos dispuestos por la ley, para lo cual se dispondrá de vigilancia a través de un oficial de cumplimiento de protección de datos personales.
  7. En nuestra organización ninguna máquina o inteligencia artificial podrá obrar o inducir a los colaboradores a actuaciones por fuera de la ley, teniendo para ello siempre una abstención frente a la duda.
  8. En nuestra organización ninguna máquina o inteligencia artificial podrá atentar contra la intimidad y la libertad de las personas que interactúan con ella.
  9. En nuestra organización se motiva la reflexión permanente acerca de cómo funcionan las máquinas y la inteligencia artificial, así como también disponer de espacios para retomar las preguntas fundamentales por lo Humano.
  10. En nuestra organización ningún tipo de máquina o de inteligencia artificial tendrá asiento en cargos de decisión, juntas directivas o asambleas de accionistas.

Reflexionar y tomar decisiones nos hace verdaderamente Humanos,

no en vano es nuestro gran diferencial sobre la máquina.

Aún Humanos

Felipe Jaramillo Vélez

Doctor en Filosofía de la Universidad Pontificia Bolivariana, Creador de la escuela de pensamiento Aún Humanos la cual reflexiona sobre el ascenso de la técnica sin reflexión desde el Humanismo.

Comentar

Clic aquí para comentar

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.