OpenAI se encuentra nuevamente bajo el escrutinio público, esta vez por una denuncia del New York Times. De acuerdo con el medio estadounidense, la compañía habría eliminado pruebas clave relacionadas con una demanda por violación de derechos de autor. En el marco de una demanda presentada por el New York Times contra OpenAI, el medio acusó a la compañía de haber eliminado deliberadamente pruebas importantes que podrían ser utilizadas en el juicio. El conflicto se centra en el uso de contenido protegido por derechos de autor en el entrenamiento de ChatGPT, el modelo de lenguaje más avanzado de OpenAI.
Según las denuncias, OpenAI habría eliminado registros internos y datos específicos de su sistema, afectando directamente la capacidad de las partes involucradas para analizar si los textos del New York Times fueron utilizados sin permiso durante el entrenamiento del modelo. La eliminación, calificada por algunos como un “error técnico”, ha desatado polémica, ya que podría constituir un intento de obstrucción legal.
¿Fue un error o una estrategia?
El periódico sostiene que OpenAI no solo utilizó contenido protegido por derechos de autor para entrenar ChatGPT sin autorización, sino que al eliminar las pruebas pertinentes, dificulta la investigación sobre la escala del uso indebido. Según reportes, esto podría agravar las acusaciones y aumentar las consecuencias legales para OpenAI en caso de un fallo en su contra.
Te puede interesar: Esta es la primera discográfica de artistas creados con IA: su música es buena y ya planean conciertos
OpenAI respondió que la eliminación de datos fue un fallo no intencionado en sus sistemas de gestión de información. Sin embargo, críticos y analistas del sector tecnológico señalan que la empresa tiene la responsabilidad de garantizar la preservación de la información relevante, especialmente en medio de disputas legales tan sensibles como esta.
De confirmarse que los datos se eliminaron intencionalmente, OpenAI podría enfrentar no solo multas económicas, sino también daños significativos a su reputación. Por otro lado, si se demuestra que fue un error técnico, el caso evidenciaría la necesidad de mejorar los protocolos internos de gestión de datos en empresas de esta magnitud.
¿Qué está en juego?
Este caso no solo afecta a OpenAI y al New York Times, sino que también establece un precedente importante para la relación entre la inteligencia artificial y los derechos de autor. Empresas como OpenAI utilizan grandes volúmenes de datos para entrenar sus modelos de lenguaje, pero el uso de contenido protegido sin autorización ha sido motivo de debate global.
Además, la polémica subraya la falta de regulación clara en torno al uso de contenido en los sistemas de IA. Si bien algunos argumentan que el uso de este material entra dentro de excepciones legales como el “uso justo”, otros consideran que es necesario reformar las leyes de propiedad intelectual para adaptarlas a las nuevas tecnologías.
Imagen: archivo ENTER.CO