La propiedad intelectual ha sido históricamente uno de los pilares fundamentales en la protección de las creaciones del ingenio humano, garantizando derechos exclusivos sobre invenciones, obras literarias, artísticas, diseños industriales y signos distintivos utilizados en el comercio. Sin embargo, en los últimos años, la irrupción de tecnologías disruptivas, especialmente aquellas basadas en inteligencia artificial (IA), ha generado nuevas tensiones en torno a la titularidad, originalidad y protección legal de los productos generados mediante algoritmos autónomos o semi-autónomos. Este contexto plantea desafíos significativos tanto para el derecho como para la informática forense, que debe adaptarse para responder eficazmente ante infracciones, litigios y disputas derivadas de estas realidades emergentes.
Desde el punto de vista normativo, Colombia cuenta con un marco jurídico general que permite abordar cuestiones relativas a la propiedad intelectual, principalmente a través de la Ley 23 de 1982 y sus actualizaciones posteriores, así como de la Ley 1755 de 2015, que introduce modificaciones orientadas a fortalecer la protección de bienes digitales. No obstante, estos instrumentos no han sido suficientemente desarrollados para dar respuesta precisa a escenarios complejos en los que sistemas de IA participan activamente en la creación de contenido o en la producción de modelos predictivos que pueden contener elementos protegidos por derechos de autor, patentes o marcas registradas.
A nivel internacional, el Acuerdo ADPIC (Acuerdo sobre los Aspectos de los Derechos de Propiedad Intelectual Relacionados con el Comercio), bajo el amparo de la Organización Mundial del Comercio (OMC), establece un marco mínimo de protección que obliga a los Estados miembros a adoptar medidas nacionales tendientes a garantizar la tutela efectiva de los derechos de propiedad intelectual. Junto con este acuerdo, otros tratados como la Convención de Berna para la Protección de Obras Literarias y Artísticas, y el Tratado de la OMPI sobre Derecho de Autor (WCT), han servido de base para regular aspectos vinculados a la protección de obras generadas por medios electrónicos o automatizados. Sin embargo, ninguno de ellos contempla expresamente situaciones en las que los agentes creadores sean sistemas tecnológicos autónomos, lo cual genera lagunas interpretativas que deben ser resueltas por vía jurisprudencial o legislativa.
En este sentido, uno de los debates más relevantes en el ámbito global es el referido a la autoría de obras generadas por inteligencia artificial. Mientras algunos países, como Australia y Sudáfrica, han reconocido ciertos derechos a sistemas IA en procesos de registro de inventos, otros, como Estados Unidos y la Unión Europea, han sido claros en afirmar que la titularidad de derechos de autor y patentes requiere necesariamente de un autor o inventor humano. Esta divergencia normativa no solo complica la protección transfronteriza de activos intangibles, sino que también afecta la capacidad de los laboratorios de informática forense para realizar análisis comparativos entre versiones de software, modelos entrenados y repositorios de datos, especialmente cuando se trata de identificar posibles plagios o derivaciones ilegales.
Un ejemplo emblemático de esta problemática es el caso de Waymo vs Uber en Estados Unidos, donde se presentó una denuncia formal por presunto robo de secretos empresariales relacionados con tecnología de vehículos autónomos. Anthony Levandowski, ingeniero previamente vinculado a Waymo (subsidiaria de Alphabet), fue acusado de haber descargado miles de archivos sensibles antes de fundar Otto, empresa posteriormente adquirida por Uber. La investigación forense permitió reconstruir patrones de acceso, transferencias internas de información y actividades sospechosas en dispositivos personales, lo cual resultó crucial para demostrar la existencia de una conducta deliberada de apropiación indebida de activos intangibles. Este caso evidencia cómo la informática forense puede jugar un rol decisivo en la protección de secretos comerciales, especialmente en entornos altamente tecnificados.
Otro caso significativo es el relacionado con GitHub Copilot, herramienta desarrollada por GitHub (adquirida por Microsoft) y OpenAI, diseñada para asistir a programadores en la escritura de código mediante un modelo de lenguaje basado en IA. En 2021, esta plataforma fue objeto de múltiples demandas por parte de desarrolladores independientes y comunidades de código abierto, quienes argumentaron que la herramienta generaba fragmentos de código protegidos por licencias específicas sin atribución adecuada ni cumplimiento de condiciones legales. Los laboratorios forenses intervinieron analizando el origen de los bloques de código utilizados para entrenar al modelo, rastreando posibles violaciones a licencias GPL, MIT y Apache. Este tipo de análisis implica técnicas avanzadas de minería de datos, trazabilidad digital y verificación de metadatos, destacando la importancia de contar con metodologías estandarizadas que permitan validar pruebas en contextos judiciales o administrativos.
En el Reino Unido, otro caso relevante fue el que involucró a DeepMind (también parte de Alphabet) y el Servicio Nacional de Salud británico (NHS). DeepMind firmó un acuerdo con NHS para utilizar datos médicos de millones de pacientes con el fin de desarrollar algoritmos predictivos destinados a mejorar diagnósticos clínicos. Las autoridades encontraron que no se había obtenido consentimiento explícito de los pacientes, lo cual constituyó una violación ética y potencialmente legal. La informática forense jugó un rol clave en la revisión de cómo se procesaron y almacenaron los datos, ayudando a construir un marco de responsabilidad corporativa. Este caso ilustra cómo la protección de datos sensibles va más allá del simple cumplimiento normativo y entra en el terreno de la auditoría técnica y la evaluación pericial.
El uso de inteligencia artificial en la creación de contenido artístico también ha generado controversia. Plataformas como DALL·E, Midjourney y Stable Diffusion han sido demandadas por artistas y fotógrafos que afirman que estas herramientas violan derechos de autor al reproducir estilos y composiciones sin reconocer a sus creadores originales. En muchos de estos casos, los laboratorios forenses están desarrollando métodos para identificar similitudes semánticas y visualizar patrones de derivación, con el fin de determinar si existe plagio o uso legítimo bajo doctrinas como el “fair use”. Estas investigaciones implican el uso de técnicas de visión artificial, análisis de matrices neuronales y comparación de salidas generativas, lo cual representa un avance significativo en la forense de machine learning.
Desde una perspectiva técnica, los laboratorios de informática forense enfrentan múltiples desafíos en el análisis de activos intangibles relacionados con inteligencia artificial. Entre ellos se encuentran:
- El análisis de repositorios de datos utilizados para entrenamiento de modelos.
- La comparación semántica entre modelos entrenados con datasets similares.
- La detección de huellas de datos sensibles o confidenciales dentro de redes neuronales.
- La validación de licencias de código utilizado en frameworks de desarrollo.
- La identificación de brechas de seguridad en sistemas que almacenan secretos empresariales.
Estas actividades deben realizarse siguiendo protocolos estandarizados, como los establecidos por ENFpol (Red Europea de Ciencias Forenses), NIST (Instituto Nacional de Estándares y Tecnología de EE.UU.) y otros organismos internacionales, garantizando así la validez legal de los resultados obtenidos.
En Colombia, aunque aún no se han registrado casos de alto impacto similar a los mencionados, sí se han presentado situaciones en las que empresas tecnológicas han denunciado la fuga de información sensible hacia competidores, utilizando empleados como vectores de extracción. En estos casos, los laboratorios de informática forense han intervenido analizando historiales de navegación, correos electrónicos, conexiones remotas y cambios en repositorios locales, todo ello con el objetivo de reconstruir eventos digitales y determinar la posible existencia de conductas ilícitas.
La evolución de la inteligencia artificial y su incorporación en procesos productivos, diseño de productos y generación de contenido continúa transformando el concepto mismo de creación y autoría, lo cual obliga a repensar los mecanismos tradicionales de protección y fiscalización. Por eso, es fundamental promover cooperación internacional, estándares comunes de análisis forense y capacitación multidisciplinaria que integre derecho, tecnología y ciencia de datos.
Solo mediante una visión integral será posible salvaguardar los derechos de innovación y competencia justa en una economía cada vez más automatizada, garantizando que la informática forense siga siendo un aliado crucial en la protección de los activos intangibles del futuro.