Suscríbete
Elecciones 2023 Elecciones 2023 mobile
Mundo
A la IA no hay que tenerle susto ni generarse demasiadas expectivas
Felipe Osorio, jurista y experto chileno en temas de IA, habló con Colprensa de los vacíos en la legislación global frente a los avances de esta nueva tecnología.
Authored by
Image
Colprensa
Colprensa
Domingo, 27 de Julio de 2025

Felipe Osorio es un experto en temas en propiedad intelectual, ciberseguridad, ética e inteligencia artificial que se desempeña como profesor ayudante del Módulo Jean Monnet Inteligencia Artificial y Derecho Privado Europeo, además de ser investigador asociado de Wikimedia Chile.

El experto, que encarriló su profesión de abogado al tema de la inteligencia artificial, habló con Colprensa de los aspectos jurídicos relacionados con la IA, de los delitos que aparecen con esta nueva tecnología, de la criminalidad y hasta del estado de la legislación regional.

Osorio estará en un mes en el país como parte del grupo de expertos internacionales de la primera Cumbre de Inteligencia Artificial (CIA) que se realizará en el país, por iniciativa de Camacol. Esto nos dijo del futuro del IA que ya está aquí.

¿Frente a la Inteligencia Artificial (IA) se han construido relatos que pontifican y que demonizan este desarrollo tecnológico, le pido que en líneas general me diga qué tan debemos confiar y qué tanto debemos temer sobre el futuro con la IA en nuestras vidas?

Es interesante partir preguntándonos por los relatos antes que por la técnica. Aunque parezca extraño esta idea de los relatos alrededor de la inteligencia artificial han sido bien estudiados por la literatura.

Hay un un texto muy interesante que habla sobre el hype, esta palabra en inglés relacionada con el entusiasmo, y todo lo que está girando alrededor de la inteligencia artificial. Los autores destacan cómo pareciera ser que cada vez que hay la aparición de una nueva tecnología, independiente cual sea esta, cambian alguna de nuestras formas de relacionarnos, se generan vacíos incluso culturales o sociales en los que sentimos ansiedad de saber qué es lo que va a pasar y cómo nos hacemos cargo de esto nuevo que está pasando. Ocurrió con la imprenta, ocurrió con las cámaras de fotos, ocurrió con el computador y ahora con la inteligencia artificial.


Lea también: ¿Para qué sirve la Zona Binacional que suscribió Colombia con Venezuela?


Se nos presentan estos dos mundos antagónicos. Por un lado algunos dicen: "La inteligencia artificial va a venir a solucionar todos nuestros problemas y vamos a ser naciones más prósperas y cada vez vamos a tener mejores tecnologías para sanar enfermedades". Y otros dicen: "La inteligencia artificial nos va a reemplazar a todos, no vamos a tener trabajo y vamos a terminar con esta idea tipo Terminator donde la inteligencia artificial se apodera de todo".

Hoy en día con el nivel de desarrollo tecnológico y esto hay que entenderlo con la prevención de que está avanzando muy rápido, no tenemos la necesidad —hasta donde yo tengo entendido— de tener una inteligencia artificial completamente autónoma, en el sentido de que pueda decidir completamente sola, en qué temas meterse y qué hacer con esos temas.

Siempre hay un ser humano mediando la tecnología, ya sea en el entrenamiento o en su uso o finalmente en cómo se desarrolla la tecnología. Entonces, efectivamente yo creo que hay riesgos asociados a la inteligencia artificial básicamente en determinados usos. Pensemos en uso de creación de fake news o noticias falsas, usos para generación de contenido pornográfico no consentido, especialmente problemático en el caso de menores.

Pero también hay incluso los que son bastante positivos, detección de enfermedades o para hacer más eficientes los procesos de las empresas. Entonces, estamos en un estadío en el que recién estamos viendo las posibles aplicaciones que tiene esta nueva tecnología. Diría que a modo de frase general que no hay que tenerle ni tanto susto ni hay que darle tanta expectativa a esta nueva tecnología.

¿A partir del tema de propiedad intelectual qué lugar van a ocupar el arte, las labores creativas, incluso todo ese trabajo artesanal, que es tan propio de América Latina?

Para que todos entendamos lo mismo, a qué nos referimos con propiedad intelectual, básicamente a aquel régimen jurídico que protege expresiones originales del intelecto humano. Entonces, libros, música, expresiones de pueblo originario, son todas creaciones que son susceptibles de protección por inteligencia artificial y que asumen que hay un grado de creatividad envuelto.

Eso es bastante importante porque desde hace dos siglos se ha entendido que este grado de creatividad es exclusivo de los seres humanos. Solo los seres humanos podemos imprimir nuestra personalidad en las obras que creamos.

Y eso, al menos desde el punto de vista jurídico, ya genera un quiebre entre aquello que puede protegerse o no protegerse por derechos de autor. Mientras que lo que todos nosotros como seres humanos creamos si es susceptible de protección, aquello que la inteligencia artificial crea autónomamente no podría ser protegido por propiedad intelectual, porque carece de creatividad.

La máquina no es creativa, responde a parámetros establecidos por un ser humano, responde al requerimiento de ese ser humano. Entonces hay bajos grados de creatividad en la operación de la inteligencia artificial, al menos en el grado de desarrollo tecnológico en el que estamos.

Esto es muy interesante desde un punto de vista analítico, porque la aparición de la inteligencia artificial, en tanto nueva tecnología que pareciera alejarse de la inteligencia humana lo que hace es distinguirnos a nosotros como seres humanos. Nosotros somos capaces de hacer cosas que la inteligencia artificial no es capaz.

Siento en su respuesta cierta sensación de inocencia, al advertir que lo creativo se va a anteponer a la producción hecha mediante IA. Pero la IA ya nos ha demostrado que es capaz de reproducir falsas realidades. ¿Cómo podemos ponernos a salvo de ese tipo de situaciones?

A lo que me refería era que para el derecho autor, para la propiedad intelectual, el hecho de que la creación sea de un humano amerita protección. Ese era todo el punto. No había un juicio normativo ahí, es simplemente el requisito. Pero uno de los grandes riesgos actualmente de la inteligencia artificial son los usos que pueden generar perjuicios o daños en la población.

Están las fake news y su uso en procesos políticos o incluso fuera de la política en la creación de contenido falso que pueda causar daño.

Todo el desafío está en cómo se regulan ese tipo de desarrollos o de usos de inteligencia artificial. La UNESCO ha generado una recomendación de inteligencia artificial en la que se pone especial énfasis en la protección de derechos humanos durante todo el ciclo de vida de la inteligencia artificial.

Una cuestión relevante de esa enfoque en derechos humanos es que está primero la protección de los ciudadanos, es decir, que solo se puede entrenar inteligencia artificial con datos personales si es que hay un consentimiento previo, establecimiento de regímenes penales y civiles para perseguir a las personas que utilizan inteligencia artificial en este sentido que hemos identificado como perjudiciales.

Ya sea generación de noticias falsas, de contenido falso o de contenido que puede afectar la integridad o dignidad de los ciudadanos. Una cuestión extremadamente relevante es la capacitación y formación de la población para identificar cuándo está en presencia de contenido que es falso y contenido que es verdadero.

Eso no es un proceso fácil de realizar, porque tiene que ver con identificación de fuentes, tiene que ver con habituar a la población a verse expuesta a noticias y por tanto poder identificar cuestiones que nos dan indicios de que es falso o verdadero aquello que estamos leyendo.

Ese proceso de formación, señalaba UNESCO y propone a los países a adoptar, va desde la formación en las escuelas hasta la formación de la población de la tercera edad, porque es toda la población la que se ve expuesta a contenido generado por inteligencia artificial, que puede generar algún tipo de perjuicio.

¿Cuál es el lugar de la ética en el mundo de la IA y sobre quién recae?

Sobre los sujetos que trabajan con la IA o en la IA misma y su normativa. Es central el rol de la ética debe estar presente durante todo el ciclo de vida de la tecnología.

Al momento en que recopilamos datos para entrenar a la inteligencia artificial, debemos respetar la privacidad y los datos personales de los ciudadanos y eso implica un estándar ético.

Una cuestión extremadamente relevante y que se suele dejar fuera de los debates, al menos a nivel de público general, es entender que las tecnologías, cualquiera pero sobre todo la inteligencia artificial, tienen sesgos, sesgos de distintos tipos, de género, de raza, socioeconómicos, culturales. Y esos sesgos, si es que nosotros no los identificamos al momento del entrenamiento o al momento de comenzar a testear la tecnología, van a replicarse al momento de la utilización de la inteligencia artificial.

La UNESCO ha propuesto que se establezcan comités de ética en todas las instituciones que van a implementar el sistema de inteligencia artificial, precisamente para detectar este tipo de sesgos en todo el ciclo de vida de la inteligencia artificial.

Se ha entendido y se promueve que es central siempre incorporar a un ser humano en la toma de decisiones que sea asistida por una inteligencia artificial, porque se entiende que los seres humanos tenemos una sensibilidad distinta respecto de la inteligencia artificial y adicionalmente somos responsables de nuestros actos y entonces si hay un uso equivocado o perjudicial a una determinada población de una inteligencia artificial vamos a ser capaces de reconducir esa responsabilidad a un ser humano. Entonces se mezcla ahí la responsabilidad ética y la responsabilidad legal al momento de regular esta nueva tecnología.

¿Los avances tecnológico siempre ha sido un desafío para los legisladores y las leyes en general dado que hay vacíos que pueden ser aprovechados por algunos en beneficio propio, cuáles son esos espacios de los que hay que estar atento para evitar que justamente se produzcan situaciones de desventaja para algunos creadores y ventaja para quien se aprovechan de la producción de otros?

Yo diría que encontramos usos de la regulación que son problemáticos en distintas áreas. Está todo el tema de utilización de datos personales para el entrenamiento de inteligencia artificial. Eso genera un problema porque los desarrolladores de inteligencia artificial, estoy pensando en básicamente los grandes desarrolladores Open AI, Meta, comenzaron a entrenar la inteligencia artificial muchos años atrás, donde para los legisladores este no era un problema.

Lo que hicieron fue recopilar toda la información que estaba en internet para poder entrenar su sistema de inteligencia artificial y dentro de ese paquete había información sensible o datos personales de todos nosotros. Hoy en día se está proponiendo establecer estándares de protección más fuertes respecto al entrenamiento de inteligencia.

Sin embargo, ya tenemos el problema de que la mayoría de estos sistemas ya fue entrenado con nuestros datos. Entonces, ahí hay un problema detectado, que es cómo hacemos que estas nuevas regulaciones puedan protegernos, aún cuando nuestros datos ya hayan sido utilizados. Otro problema es que en general la población está muy dispuesta a entregar sus datos a quien se los solicite.

Pensemos nuevamente en plataformas digitales, Instagram, Facebook, TikTok, donde para tener cuentas nos piden firmar o aceptar términos y condiciones que la gran mayoría no lee y generalmente hay condiciones que establecen que, por ejemplo, todo aquello que nosotros subamos a esas plataformas va a ser propiedad del controlador de la plataforma y que adicionalmente va a poder ser utilizado para entrenamiento de inteligencia artificial y nosotros estamos dispuestos a entregar esa información, porque queremos pertenecer a esa plataforma.

Entonces nos encontramos con que las regulaciones es muy fácil que queden obsoletas tempranamente en esta área que es la inteligencia artificial, precisamente porque la tecnología avanza demasiado rápido y comienzan a aparecer usos que el legislador no ha contemplado al momento de desarrollar la normatividad.

Hoy en día se mira al modelo europeo como el gran modelo a seguir, sin embargo, en Europa ya están discutiendo que esa ley quedó obsoleta o que hay elementos de esa ley que ya son obsoletos en el estado actual de la tecnología y entonces un desafío para nosotros los latinoamericanos, que quizás no estamos tan avanzados en la regulación, es quizás tomarnos el tiempo y pensar bien qué tipo de regulación queremos para precisamente evitar estos espacios donde se puede mal utilizar la legislación o se pueden encontrar algunos vacíos que pueden ser utilizados para afectar a terceros.

¿Cuál es el panorama de América Latina en términos de legislativos frente a todo este tema de la IA, quiénes están rezagados, quiénes están adelantados o todos estamos en el mismo lugar?

Yo diría que estamos en la gran mayoría de Latinoamérica en una posición expectante respecto de la inteligencia artificial y esto se debe a dos cuestiones principales. Primero, somos economías, que comparadas con las sociedades que ya tienen regulación de inteligencia artificial, bastante pequeñas y por tanto nuestros ecosistemas de desarrollo de este tipo de tecnologías también son pequeños, al punto que no tenemos a Meta trabajando en Latinoamérica.

Colombia y Chile están proponiendo regulaciones y políticas nacionales de inteligencia artificial que permitan a esos Estados determinar o mirar el horizonte hacia dónde quieren desarrollar este sector.

Pero en general lo que he visto en Latinoamérica es que se está mirando mucho al caso europeo, que es el caso de mayor normatividad en inteligencia artificial, donde básicamente lo que se hace es regular con base en el riesgo los tipos de uso de inteligencia artificial.

En la regulación por riesgo se detectan determinados usos que crean situaciones riesgosas para la población, entonces se le ponen más requisitos, como la manipulación subliminal de las decisiones de los usuarios.

Se están desarrollando tecnologías de inteligencia artificial que permiten influenciar decisiones de los usuarios de manera subliminal y llevarnos a consumir un determinado tipo de producto, tomar una determinada decisión y eso se ha entendido como usos prohibidos de la inteligencia artificial, de manera que se le imponen muchas normas, responsabilidad penal y civil en caso de que se incumpla.

Hay otros usos que no van a estar tan regulados, porque son menos perjudiciales como el manejo de chat GPT para redactar párrafos o pedir que se realice una ilustración.

¿Los legisladores, ustedes los abogados y los académicos están muy pendientes de lo legal, pero le están prestando atención a la criminalidad y los usos que ellos puedan hacer de la inteligencia artificial?

Nosotros podemos hacer una distinción entre dos tipos de criminalidad. Una es la criminalidad utilizando la inteligencia artificial y otra es la criminalidad contra algoritmos de inteligencia artificial.

En el primer están los casos como la generación de imágenes de connotaciones sexual sin consentimiento que podría ser consideradas delito, utilizar inteligencia artificial para crear noticias falsas para perjuicio de alguien finalmente o el robo de información comercial o información personal mediante la inteligencia artificial son todas áreas que en caso de no estar cubierta por los códigos penales, sería necesario regular y establecer nuevos tipos penales que den cuenta de estas actividades.

Una cuestión distinta es modificar los algoritmos de inteligencia artificial para generar efectos no deseados. Pensemos en una industria que se dedica al desarrollo de algoritmos de inteligencia artificial y un tercero, un hacker, modifica ese código para generar acciones no deseadas por el programador.

Ahí tenemos todo lo que nosotros llamamos técnicamente ciberdelitos, que es básicamente de lo que se encarga la ciberseguridad. Y ahí hay otro tema que es que por el tipo de sociedad en la que estamos hoy altamente digitalizada y con altos grados de acceso a tecnología, necesitamos cada vez más sistemas jurídicos de ciberseguridad robustos, que permitan la cooperación internacional entre los distintos países para enfrentarla.


Gracias por valorar La Opinión Digital. Suscríbete y disfruta de todos los contenidos y beneficios en https://bit.ly/SuscripcionesLaOpinion

Temas del Día