Por medio de un correo, el 8 de mayo del 2025, me llega la solicitud del Senador León Fredy Muñoz Lopera solicitándome un concepto formal sobre el Proyecto Ley número 059 de 2023. Aquí les comparto mi respuesta.
1. Introducción
El despliegue de la inteligencia artificial (IA) en Colombia representa un hito de transformación con el potencial de reconfigurar nuestra sociedad, economía y vida cotidiana. En este contexto, el Proyecto de Ley 059 de 2023 emerge como una iniciativa fundamental para establecer las bases normativas que guiarán este desarrollo. Es encomiable que el proyecto reconozca principios esenciales como la dignidad humana, la protección de datos, la inclusión y la seguridad algorítmica, sentando un marco ético inicial necesario.
Sin embargo, desde mi análisis técnico y con una mirada puesta en las posibilidades democráticas y equitativas que la IA puede ofrecer, identifico que su enfoque actual presenta limitaciones significativas. Adopta un modelo que, aunque bien intencionado, tiende al centralismo, a una excesiva prevención y, crucialmente, desconecta la regulación de la vibrante pero desigual realidad de nuestro ecosistema digital. Para construir una norma robusta y adaptada a Colombia, es indispensable examinar sus cimientos conceptuales y éticos, tal como se presentan en sus primeros artículos. Este documento, por tanto, busca profundizar en un análisis técnico de la propuesta actual, comenzando por sus definiciones y principios fundacionales, para, a partir de ahí, articular propuestas concretas que, con una mirada progresista, fortalezcan la norma, democratizando sus beneficios y asegurando su viabilidad práctica en todo el territorio colombiano.
2. Cimientos conceptuales y éticos
Adentrándonos en el corazón conceptual y ético del proyecto de ley, nos encontramos con los artículos 2, referido a las definiciones clave, y 3, que establece los principios rectores. Estos artículos son, sin duda, la base sobre la que se erige toda la estructura regulatoria. Una revisión técnica de su contenido revela la necesidad de ajustes significativos para garantizar que la norma sea precisa, aplicable y, sobre todo, esté alineada con las realidades de la IA contemporánea y los estándares internacionales más avanzados en materia de derechos y ética.
Sobre el artículo 2 – Definiciones:
La definición de inteligencia artificial propuesta en el artículo 2, si bien intenta acotar el campo, resulta, a mi juicio, restrictiva y poco funcional para los propósitos de una regulación que busca ser duradera y adaptable. Limitar la IA a una “disciplina científica” centrada en “programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana” omite conscientemente o no aspectos cruciales que definen el ecosistema de IA hoy. Pensemos, por ejemplo, en los sistemas ciberfísicos, como los vehículos autónomos o ciertos robots utilizados en medicina, cuya inteligencia reside tanto en el software como en su interacción con el mundo físico. De igual forma, esta definición deja de lado la enorme y creciente categoría de modelos entrenados masivamente a partir de datos, cuyo funcionamiento no siempre se basa en reglas lógicas explícitas que “simulen” la mente humana de manera directa, sino en patrones emergentes de grandes volúmenes de información. Tampoco considera los distintos niveles de autonomía que pueden tener estos sistemas, ni la amplia gama de aplicaciones sectoriales que van mucho más allá de una simple simulación mental.
Más allá de lo técnico, la definición ignora elementos fundamentales para una regulación ética y socialmente responsable. No aborda el impacto social de la IA, la relevancia central de la toma de decisiones automatizadas en la vida de las personas, ni el papel omnipresente del aprendizaje automático (machine learning) y los datos, que son el verdadero combustible de la IA moderna. Sin una definición que sea funcional, técnicamente precisa y éticamente orientada, la implementación de la norma corre el riesgo de volverse ambigua, inconsistente o, peor aún, de quedar obsoleta antes de ser plenamente aplicada.
Por ello, se propone redefinir la IA de una manera que capture su complejidad y su impacto real. Una definición más pertinente podría ser una síntesis de referentes de la OCDE, la UNESCO y la Unión Europea, así como de autores sobre la materia; así: “Sistemas computacionales entrenados con datos o reglas, capaces de percibir su entorno, procesar información y tomar decisiones o acciones que simulan o complementan comportamientos humanos, operando con distintos niveles de autonomía. Su desarrollo e implementación deben regirse por principios éticos, respetar los derechos humanos y generar valor social.” Esta formulación, al reconocer la diversidad de enfoques (datos vs. reglas), la interacción con el entorno, la autonomía variable y la necesidad de un propósito ético y social, permitiría construir una regulación mucho más inclusiva, flexible y centrada en los impactos reales de la tecnología en la sociedad colombiana.
Sobre el artículo 3 – Principios:
En cuanto a los principios rectores establecidos en el artículo 3, considero que, si bien son éticamente deseables y recogen intenciones loables, su formulación actual presenta vaguedades, redundancias y, crucialmente, debilidades operativas que dificultarán su aplicación práctica. Los principios deben ser brújulas claras y accionables, no solo declaraciones de buenas intenciones.
Por ejemplo, los principios de “Autoridad humana” y “Prevalencia de la inteligencia humana” podrían unificarse de manera más efectiva y técnicamente precisa bajo el concepto de “supervisión humana significativa”. Más allá de la unificación, lo fundamental es que este principio esté anclado a mecanismos técnicos concretos que aseguren la posibilidad de revisión, la trazabilidad de las decisiones tomadas por los sistemas autónomos y, cuando sea necesario, la reversibilidad de dichas decisiones por parte de un humano. Sin estos mecanismos explícitos, el principio se queda en el aire.
Asimismo, el principio de “Bien común” se menciona de manera abstracta, sin vincularlo a mecanismos claros de evaluación de impacto social o a políticas públicas específicas. Para que este principio tenga dientes, debe conectarse explícitamente con objetivos nacionales concretos, como los Objetivos de Desarrollo Sostenible (ODS) pertinentes para Colombia, la promoción de la equidad territorial o la defensa del interés público definido de manera participativa con la sociedad civil.
Los principios de “Diseño seguro” y “Prevención de riesgos” son esenciales, pero su redacción actual podría interpretarse de forma restrictiva, llegando a bloquear desarrollos experimentales o académicos vitales para el ecosistema de innovación. Es crucial vincular estos principios a una tipología de riesgos claramente definida y a procesos de evaluación proporcional, donde la intensidad de la supervisión y las salvaguardas requeridas dependan del nivel de riesgo que presenta una aplicación particular. Aquí es donde la habilitación de entornos de prueba controlada (sandboxes) cobra vital importancia, permitiendo innovar de forma segura sin paralizar la creatividad.
Finalmente, el principio de “Cooperación”, aunque reconocido, necesita ser ampliado para reflejar la complejidad de los actores involucrados en el desarrollo y uso de la IA. No basta con una cooperación general; debe promoverse activamente la cooperación interinstitucional (entre diferentes entidades del Estado), territorial (entre regiones y municipios), e internacional. Esto implica fomentar redes abiertas de investigación, el desarrollo de estándares interoperables y el intercambio de conocimiento y mejores prácticas, tanto a nivel nacional como global.
En conclusión sobre estos artículos fundacionales: La base conceptual y ética del proyecto de ley, tal como está planteada, requiere un fortalecimiento técnico sustancial. Necesitamos definiciones que sean robustas y capturen la realidad de la IA, así como principios que no solo inspiren, sino que sean operativizables, guíen la acción tanto de reguladores como de desarrolladores, y estén alineados con criterios de funcionalidad, proporcionalidad y un enfoque centrado en los derechos humanos. Su redacción actual es un buen punto de partida ético, pero jurídicamente y técnicamente necesita mayor precisión. Se propone, por tanto, una reescritura cuidadosa de estos artículos, incorporando estos criterios para asegurar que los cimientos de la regulación sean sólidos y pertinentes para la realidad territorial de Colombia.
3. Nudos críticos: deficiencias estructurales que limitan el potencial de la norma
Sobre esta base conceptual que, como hemos visto, requiere ajustes, emerge un panorama de problemas centrales que atraviesan la propuesta de ley y que, de no ser corregidos, limitarían severamente su efectividad y su capacidad para promover un desarrollo de la IA que beneficie a toda la sociedad colombiana. Este análisis de los fundamentos nos lleva a identificar nudos críticos más amplios en la estructura y el enfoque general del proyecto:
a. Gobernanza inadecuada:
La arquitectura institucional propuesta para la supervisión y orientación del desarrollo de la IA, a través de una Comisión de Tratamiento de Datos y Desarrollos con IA, carece de la autonomía presupuestal y técnica indispensable para operar de manera efectiva en un campo tan dinámico y complejo. Más preocupante aún es su conformación, dominada por altos cargos del gobierno central, sin asegurar una participación activa y representativa de las regiones, el sector productivo en su vasta diversidad (incluyendo pymes y emprendimientos), la academia técnica con su conocimiento especializado, ni la sociedad civil organizada, que representa las voces ciudadanas. Esto limita drásticamente su legitimidad, su representatividad y, quizás lo más importante, su capacidad técnica real para evaluar, seguir y orientar un campo tan complejo y cambiante como la IA.
b. Sobrerregulación ex ante:
El proyecto incurre en una sobrerregulación ex ante que amenaza la innovación, imponiendo cargas que pueden ser desproporcionadas. Exigencias como el registro obligatorio de todos los desarrollos de IA (Art. 30) o la presentación previa de un código de ética por parte de cada desarrollador (Art. 31) pueden constituirse en barreras de entrada infranqueables. Pensemos en una startup naciente, un centro de investigación con recursos limitados o iniciativas comunitarias que desarrollan soluciones con IA; estas obligaciones burocráticas y costosas podrían simplemente asfixiar su creatividad antes de que puedan probar su valor, desincentivando así la experimentación y el surgimiento de soluciones locales.
c. Ausencia de enfoque territorial y formativo:
La norma evidencia una dolorosa ausencia de enfoque territorial y de mecanismos concretos para cerrar brechas. No hay disposiciones claras que obliguen al Estado a abordar activamente las profundas brechas de conectividad que persisten en el país, ni a garantizar la formación técnica o la institucionalidad necesaria en las regiones apartadas. Sin una estrategia explícita para superar estas barreras, la regulación corre el riesgo de ser letra muerta fuera de los grandes centros urbanos y de cristalizar las desigualdades existentes, convirtiendo la IA en un privilegio para unos pocos.
d. Falta de mecanismos efectivos de rendición de cuentas y reparación:
A pesar de reconocer principios loables como la prevalencia de la inteligencia humana (Art. 9) y la obligación de no discriminar en el uso de datos (Art. 11), el proyecto se queda corto en establecer mecanismos efectivos de rendición de cuentas y reparación. No se contemplan vías claras para la auditoría externa de algoritmos, ni mecanismos de defensa ciudadana accesibles y eficientes frente a decisiones algorítmicas erradas, sesgadas o discriminatorias. Tampoco se delinean rutas concretas para la reparación de los daños que estas decisiones puedan causar. Esto deja a la ciudadanía vulnerable y limita la capacidad de corregir los posibles impactos negativos de la IA en áreas sensibles como la justicia, la salud o el acceso a servicios.
4. Propuestas
Sobre la base de este diagnóstico, que inicia en los cimientos conceptuales y se extiende a los problemas estructurales del proyecto, proponemos una serie de ajustes técnicos y estructurales. El objetivo es transformar la norma en una herramienta genuina de progreso social y tecnológico para Colombia, asegurando que la IA sea una fuerza para el bien común y no un factor de exclusión o desigualdad.
4.1. Reformar la estructura de gobernanza
La primera y quizás más fundamental propuesta es reemplazar la actual y limitada Comisión por una Autoridad Nacional de Inteligencia Artificial (ANIA). Esta entidad debe ser concebida con funciones técnicas, presupuestales y reguladoras robustas, dotada de la autonomía indispensable para operar con agilidad y pericia. Crucialmente, su conformación debe ser espejo de la diversidad nacional, incluyendo representación efectiva de las regiones, universidades públicas, el sector productivo (con énfasis en las pymes y emprendedores), organizaciones de la sociedad civil y expertos independientes en ética de la tecnología y campos afines.
A diferencia de una comisión interministerial que, por su naturaleza, tiende a la inoperatividad y la fragmentación de esfuerzos, una ANIA especializada garantizaría la coherencia regulatoria, un enfoque adaptativo a la rápida evolución de la IA y, sobre todo, la articulación real entre los sectores público, privado, académico y social. Esto permitiría, por ejemplo, que el aval técnico de un proyecto de IA destinado a mejorar la educación rural no dependa de un comité centralizado en Bogotá, sino que la ANIA pueda descentralizar estos procesos a nodos regionales con autonomía técnica, involucrando a universidades locales y expertos conocedores del contexto específico. Imaginen un piloto de IA para identificar patrones de deserción escolar en el Chocó: su evaluación y seguimiento podrían beneficiarse enormemente de la experticia local facilitada por una estructura de gobernanza descentralizada bajo el paraguas de la ANIA.
4.2. Introducir un enfoque de regulación adaptativa
Pasando al enfoque regulatorio, y en coherencia con la necesidad de tener principios operativizables, planteamos la adopción de un modelo adaptativo, basado en principios éticos vinculantes y una auditoría posterior proporcional al riesgo de la aplicación, sustituyendo así los controles previos rígidos y registros obligatorios indiscriminados. El espíritu de esta propuesta reside en confiar en la innovación, al tiempo que se establecen salvaguardas robustas para las aplicaciones de alto riesgo.
En lugar de exigir permisos antes de que un proyecto se despliegue, debemos abogar por un sistema que permita que los desarrollos avancen, bajo un marco claro de principios (transparencia, equidad, trazabilidad, responsabilidad) que, como se propone, deben ser claramente definidos y vinculados a mecanismos técnicos. La regulación intervendría después de la implementación, con un monitoreo inteligente y auditorías obligatorias para aquellas aplicaciones que, por su naturaleza o impacto (ej. decisiones que afecten derechos fundamentales, sistemas críticos), se consideren de alto riesgo. Es fundamental, en este sentido, incluir artículos que habiliten “entornos de prueba controlada” o sandboxes regulatorios en sectores estratégicos. Esto permitiría a innovadores probar sus soluciones en un ambiente real pero supervisado, recibiendo retroalimentación técnica y ética sin enfrentar el peso completo de una regulación diseñada para aplicaciones de escala masiva. Consideremos un grupo de jóvenes investigadores en una universidad pública que desarrollan una IA para asistir en el diagnóstico temprano de enfermedades tropicales, vital para regiones apartadas del país. Bajo el esquema actual, la carga regulatoria inicial podría ser insuperable. En un sandbox, podrían implementar su solución de forma segura en una zona piloto, ajustándola y recibiendo asesoría ética y técnica en tiempo real, demostrando su valor antes de escalar.
4.3. Territorializar la política de IA
La dimensión territorial y la formación son pilares ausentes que deben integrarse de manera explícita y vinculante en la ley. Es imperativo que la ley incorpore un capítulo específico que comprometa al Estado a establecer metas concretas y medibles para cerrar las brechas de conectividad y talento digital en todo el país. Esto implica acciones decididas en áreas como la educación en IA y pensamiento computacional desde etapas tempranas, la dotación de infraestructura (equipos y conectividad) en zonas rurales y apartadas, y la implementación de incentivos reales para que las universidades regionales abran y fortalezcan programas académicos en ciencia de datos, ética de la tecnología, robótica y campos conexos.
Ignorar esta realidad es condenar a una parte significativa del país a quedar al margen de la revolución de la IA. La política pública en esta materia debe ser una herramienta activa para reducir, no para ampliar, la brecha digital, educativa y económica entre el centro y la periferia. El desarrollo de la IA en Colombia debe ser, en esencia, una estrategia de descentralización del conocimiento y de la oportunidad. Un caso ilustrativo es un colegio público en una zona rural del Pacífico, sin acceso fiable a internet. Ninguna solución de IA educativa, por brillante que sea, podrá beneficiar a sus estudiantes sin que la ley establezca la obligación explícita para ministerios como el de Educación y el MinTIC de priorizar la conectividad y la dotación tecnológica en estos contextos.
4.4. Impulsar la innovación con propósito
Para impulsar una innovación con impacto social y garantizar que los beneficios de la IA no se concentren únicamente en grandes corporaciones, proponemos la creación de un Fondo Nacional de Innovación en IA Ética e Inclusiva. Este fondo, con participación público-privada y un marcado enfoque social y territorial, estaría destinado a financiar proyectos que demuestren un claro impacto positivo en áreas como la educación, la salud, el medio ambiente o la agricultura.
Asimismo, debería priorizar el apoyo a startups y desarrolladores que apuesten por soluciones de código abierto (open source) y, crucialmente, a proyectos liderados por comunidades tradicionalmente excluidas, como pueblos indígenas, comunidades afrodescendientes o asociaciones rurales. En un país con un ecosistema tecnológico desigual, el Estado tiene un rol insustituible como facilitador y catalizador de una innovación que sirva a los intereses colectivos. Este mecanismo aseguraría que universidades públicas, cooperativas y organizaciones sociales puedan acceder a los recursos técnicos y financieros necesarios para desarrollar e implementar soluciones de IA adaptadas a sus realidades y necesidades.
4.5. Fortalecer la protección de derechos y las vías de reparación
La protección de los derechos ciudadanos en la era de la IA es un pilar ético que exige mecanismos concretos. Resulta indispensable robustecer los mecanismos de salvaguarda más allá de la simple enunciación de principios. Esto implica establecer en la ley obligaciones claras para la auditoría externa de algoritmos, especialmente en sectores sensibles cuyas decisiones tienen un impacto directo en la vida de las personas, como la justicia, la salud, la educación o los servicios sociales.
Además, es crucial garantizar la transparencia, los usuarios deben ser informados de manera clara y accesible cuando están interactuando con un sistema de IA, y entender los criterios generales que guían sus decisiones. Fundamentalmente, la ley debe crear un sistema de quejas y reparación que sea accesible, gratuito y que opere con un enfoque diferencial, reconociendo las particularidades de las poblaciones vulnerables o con bajo acceso a la tecnología. No basta con enunciar principios como la no discriminación; la ley debe ir más allá y garantizar la defensa efectiva y la reparación frente a los daños que puedan causar decisiones automatizadas sesgadas o erradas. El derecho a la réplica.
4.6. Simplificar el régimen de obligaciones
Finalmente, la viabilidad práctica de la ley depende en gran medida de la racionalidad de las obligaciones impuestas. Abogamos por la eliminación de exigencias que, desde una perspectiva técnica, son imprácticas o desproporcionadas, como la renovación trimestral del consentimiento para uso de datos personalísimos (Art. 23, parágrafo) o el aval obligatorio para todos los desarrollos de IA sin distinguir su nivel de riesgo.
Estas disposiciones generan cargas burocráticas innecesarias que dificultan el cumplimiento, especialmente para los actores más pequeños. La protección de datos personales, por ejemplo, debe depender de la solidez de los controles técnicos y organizacionales implementados sobre los datos y los modelos, no de una burocracia de consentimientos que, en la práctica, puede volverse inviable y poco efectiva. Proponemos sustituir estas exigencias por declaraciones juradas basadas en estándares de buenas prácticas y, sobre todo, una evaluación de riesgo algorítmico proporcional que determine el nivel de supervisión requerido. La clave está en una regulación escalonada: mayor riesgo, mayor supervisión; menor riesgo, mayor libertad para innovar, siempre dentro de un marco ético claro. Un pequeño desarrollo educativo basado en IA, creado por un grupo de profesores rurales para personalizar contenidos, no debería enfrentar las mismas barreras regulatorias que un sistema de crédito bancario automatizado; bastaría una guía de principios y una posible evaluación posterior si se identifica un impacto negativo, en lugar de avales previos y renovaciones de consentimiento trimestrales.
5. Conclusión
El Proyecto de Ley 059 de 2023 contiene los cimientos para una regulación necesaria en el campo de la IA en Colombia, reconociendo principios éticos que son innegociables. Sin embargo, mi análisis técnico, que inicia en la evaluación de sus fundamentos conceptuales y éticos y se extiende a sus mecanismos de gobernanza y aplicación, me lleva a concluir que requiere ajustes estructurales profundos para asegurar su aplicabilidad, su equidad y su coherencia con la complejidad y diversidad de nuestro contexto nacional.
Desde una perspectiva que valora la innovación con propósito y la justicia social, la IA no debe ser regulada desde el miedo a sus riesgos, sino desde el potencial inmenso que tiene para la transformación positiva. Una política de IA genuinamente habilitadora y ética debe ser, ante todo:
- Construida sobre cimientos conceptuales y éticos sólidos y operativizables, con definiciones claras y principios vinculados a mecanismos concretos.
- Territorializada, descentralizada y con un enfoque diferencial que aborde activamente las brechas y desigualdades preexistentes.
- Facilitadora de la innovación “desde abajo”, empoderando a las comunidades, las pymes y la academia local, no solo a las grandes corporaciones.
- Protectora de los derechos ciudadanos mediante mecanismos concretos y accesibles de transparencia, auditoría y reparación.
- Proporcional y adaptativa, evitando barreras burocráticas innecesarias y fomentando un desarrollo local de tecnologías con un claro propósito social.
En definitiva, la regulación de la IA en Colombia no debe convertirse en una camisa de fuerza que limite nuestro potencial, sino en una herramienta poderosa de justicia, equidad y progreso colectivo, construida con la participación y la visión de todos los sectores de la sociedad. Es una oportunidad para diseñar un futuro digital que nos incluya a todos.
Comentar