Giges y la IA

En el Libro II de La República, Platón pone en boca de Glaucón una historia para desafiar a Sócrates: la del anillo de Giges. El relato cuenta que un pastor encuentra un anillo capaz de volverlo invisible. Con ese poder seduce a la reina, asesina al rey y toma el trono. Pero la historia no busca narrar un crimen, sino preguntar ¿qué haría cualquier persona si pudiera actuar sin ser vista ni castigada?

Glaucón utiliza el mito como provocación filosófica. Sostiene que la mayoría de los seres humanos actúa justamente no por convicción moral, sino por temor a las consecuencias. Si existieran dos anillos, uno para el justo y otro para el injusto, ambos terminarían comportándose igual. La justicia, sugiere, sería menos una virtud que un acuerdo social sostenido por la vigilancia. En esencia, plantea que nadie es justo por elección cuando tiene garantizada la impunidad.

Sócrates escucha esa tesis sin apresurarse a refutarla. Más bien la toma en serio y la convierte en el corazón de una discusión sobre el carácter, la responsabilidad y la vida buena. El anillo no revela simplemente el poder de la invisibilidad; revela la fragilidad de nuestras convicciones cuando desaparece la mirada del otro.
Más de dos mil años después, esa pregunta regresa con un nuevo nombre: inteligencia artificial.

No llevamos anillos mágicos en los dedos, pero convivimos con herramientas capaces de amplificar nuestras decisiones, acelerar nuestras acciones y difuminar nuestras responsabilidades. Hoy podemos producir textos, generar o delegar decisiones complejas a sistemas cuyo funcionamiento no siempre comprendemos. No somos invisibles en sentido literal, pero operamos en un ecosistema donde la trazabilidad ética se vuelve cada vez más difusa.

La inteligencia artificial no inventa nuestros dilemas morales; los intensifica. Nos permite hacer más cosas, más rápido y con menos fricción. Y ahí aparece la tensión socrática: cuando el poder tecnológico crece más rápido que nuestra reflexión ética, el riesgo no es técnico, sino humano.

Las contradicciones son evidentes. La IA puede democratizar el acceso al conocimiento y facilitar soluciones a problemas complejos en educación, salud o participación ciudadana. Puede ayudar a comunidades históricamente excluidas a amplificar sus voces y abrir espacios de innovación que antes parecían imposibles. Pero también puede reforzar sesgos, erosionar la confianza pública y normalizar una relación instrumental con la verdad. Puede ayudarnos a pensar mejor o a dejar de pensar.

El anillo de Giges nos enfrenta a la tentación de actuar sin responsabilidad directa. ¿Qué ocurre cuando puedo publicar contenido manipulado sin asumir sus efectos? ¿cuándo puedo producir conocimiento sin reconocer sus fuentes? ¿cuándo las decisiones que afectan vidas humanas se apoyan en algoritmos que nadie entiende del todo? La pregunta de Glaucón emerge con fuerza, ¿seguimos siendo justos cuando creemos que nadie puede señalarnos?

En el debate contemporáneo sobre la IA suele predominar una falsa dicotomía: celebrar la tecnología sin ningún tipo de restricción o vetarla como amenaza existencial. Ambas posturas simplifican el problema. La cuestión central no es si la inteligencia artificial es buena o mala, sino cómo transforma nuestras condiciones de acción moral. La tecnología amplía nuestras capacidades; la ética debe ampliar nuestra conciencia sobre sus efectos.

Sócrates defendía que la justicia auténtica no depende únicamente del castigo externo, sino de la formación interior del carácter. Tal vez esa intuición sea hoy más necesario que nunca. Las regulaciones son necesarias y urgentes, pero no suficientes. Ninguna norma sustituye la deliberación ética cotidiana. Ningún protocolo reemplaza la responsabilidad individual y colectiva frente al uso del poder tecnológico.

En contextos educativos, por ejemplo, el desafío no es solo detectar el uso de herramientas de IA, sino repensar qué significa aprender en un mundo donde las máquinas también escriben y analizan. En la política, el problema no se limita a los deepfakes, sino a la erosión progresiva de la confianza cuando la verdad se vuelve maleable. En la vida cotidiana, la cuestión va más allá de la productividad, tiene que ver con la autenticidad de nuestras relaciones y con nuestra capacidad de discernir entre lo humano y lo automatizado.

La inteligencia artificial, como el anillo de Giges, no transforma automáticamente nuestra naturaleza. Solo expande nuestras posibilidades de actuar, para bien o para mal, y acelera las consecuencias de nuestras decisiones. Nos obliga a hacernos preguntas incómodas sobre quién responde por lo que hacemos cuando actuamos a través de sistemas complejos.

Platón dejó el dilema abierto porque sabía que la respuesta no estaba en el objeto, sino en quienes lo utilizan. Hoy ocurre algo similar. El verdadero desafío no es solo diseñar nuevas tecnologías, sino formar ciudadanos capaces de usarlas con responsabilidad y criterio. La discusión sobre inteligencia artificial necesita una conversación ética profunda sobre los valores que nos sostienen.

Tal vez la pregunta socrática más vigente de nuestro tiempo no sea qué puede hacer la inteligencia artificial, sino quiénes decidimos ser cuando el poder tecnológico nos ofrece la ilusión de la invisibilidad. Porque, al final, el anillo no crea la injusticia, solo revela aquello que ya estábamos dispuestos a hacer cuando creíamos que nadie nos estaba mirando.

Daniel Bedoya Salazar

Estudiante de Filosofía UdeA
Ciudadano, creyendo en la utopía.

Comentar

Clic aquí para comentar

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.