La compañía de inteligencia artificial Anthropic, fundada con la promesa de priorizar la ética y la seguridad, ha dado dos pasos significativos que redefinen su identidad. Por un lado, ha anunciado que utilizará las conversaciones de los usuarios y usuarias para entrenar a sus modelos de lenguaje, en línea con lo que ya hacen OpenAI y Google. Por el otro, ha llegado a un acuerdo extrajudicial con varios autores y editoriales para resolver una demanda colectiva por el uso no autorizado de libros en el entrenamiento de su chatbot Claude. La cifra del acuerdo —1.500 millones de dólares, unos 3.000 dólares por obra— ha sacudido el sector cultural y tecnológico.
"Puede parecer solo un acuerdo legal, pero en realidad es una declaración estratégica: asumir costes hoy para reforzar una narrativa de legitimidad y respeto a la creación", explica Antonio Pita, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC) y experto en IA. "Mientras OpenAI sigue lidiando con batallas abiertas en los tribunales, Anthropic opta por proyectar una imagen de empresa que quiere convivir con el ecosistema cultural en lugar de enfrentarse a él".
Una IA nacida con vocación ética
Anthropic nació en 2021 de la mano de Dario y Daniela Amodei, antiguos directivos de OpenAI que decidieron tomar otro camino. Desde sus inicios, apostaron por una IA más segura, predecible y transparente, guiada por lo que denominaron "Constitutional AI": una arquitectura basada en una constitución de principios éticos que regula el comportamiento del chatbot Claude, en lugar de depender únicamente del feedback humano.
Esta aproximación se convirtió en su sello de identidad, junto con la renuncia a utilizar las conversaciones de las personas usuarias para entrenar a sus modelos. "Su visión es que el futuro de la IA no se mida solo por su potencia, sino también por la solidez de sus valores", resume Pita. Claude se convirtió en una opción valorada por quienes necesitaban asistentes más conservadores con temas sensibles, o que pudieran mantener la coherencia en tareas largas y complejas.
Anthropic ha actualizado su política de privacidad y, a partir de ahora, utilizará por defecto las conversaciones de los usuarios y usuarias para mejorar sus modelos, salvo que se indique expresamente lo contrario. Es decir: se alinea con OpenAI, Google, Meta y otras plataformas que ya incorporan esa práctica. "Este giro puede interpretarse como una mezcla de pragmatismo y necesidad de competitividad", afirma Antonio Pita. "No adoptar esta práctica equivalía a jugar con desventaja en una carrera donde cada mejora incremental cuenta".
Desde un punto de vista técnico, la decisión podría ser positiva. "Permitirá entrenar modelos más rápidos, más precisos y con una curva de aprendizaje real alimentada por casos concretos", señala el experto. Pero también reconoce el coste reputacional: "Anthropic nació como la alternativa ética, la compañía que se atrevía a decir que la seguridad no era un añadido, sino el corazón del proyecto. Para algunos usuarios y organizaciones sensibles a la privacidad, este cambio puede leerse como una concesión que diluye esa identidad".
La clave estará en la gestión del relato. "Si logra demostrar que puede utilizar datos sin sacrificar transparencia ni control por parte de quien lo usa,la maniobra podría fortalecerla. Si, en cambio, se percibe como un paso atrás en sus principios fundacionales, el riesgo es perder la diferenciación que le daba sentido en un mercado saturado de gigantes tecnológicos", advierte.
El acuerdo con los autores: estrategia o concesión
En paralelo a este cambio, Anthropic ha acordado pagar una fortuna para resolver una demanda presentada por autores y editoriales estadounidenses, que denunciaban el uso no autorizado de sus libros en el entrenamiento de Claude.
Aunque no ha trascendido la lista completa de títulos ni autores, se estima que la media pagada es de unos 3.000 dólares por obra. Esta cifra es muy superior a la ofrecida por otras compañías y envía un mensaje claro al ecosistema creativo: Anthropic está dispuesta a pagar para legitimar su modelo.
"Mientras OpenAI sigue lidiando con batallas abiertas en los tribunales, Anthropic opta por reforzar una narrativa de respeto a la creación. No se trata solo de construir el chatbot más potente, sino de hacerlo de forma que escritores, editores y usuarios perciban un terreno de juego más justo", explica Pita.
Tensión entre antiguos aliados
Este nuevo rumbo coincide con el deterioro de las relaciones entre Anthropic y OpenAI, su competidor más directo. Ambas compañías comparten origen —los fundadores de Anthropic trabajaban en OpenAI—, pero han optado por caminos divergentes. La tensión ha llegado a tal punto que, en agosto, Anthropic ha revocado el acceso de OpenAI a la API de Claude, acusándola de usarla para hacer benchmarking y preparar el lanzamiento de GPT‑5. Según la compañía, se trata de una violación de los términos de servicio que no podía permitirse.
"Hablar de Anthropic frente a OpenAI es observar en directo cómo dos visiones del futuro de la inteligencia artificial chocan, pese a compartir el mismo punto de partida", sostiene Pita. "Una apuesta por la penetración masiva y otra por los principios. El conflicto no es anecdótico: es una guerra fría tecnológica y filosófica".
Claude frente a ChatGPT: dos visiones diferentes
Mientras que OpenAI se ha consolidado como el modelo dominante, con una estrategia de integración masiva en productos globales y colaboraciones con Microsoft, Claude ha seguido un camino más contenido y conservador. Según Pita, su propuesta de valor se apoya en dos pilares: la "Constitutional AI" y la capacidad de manejar contextos largos con coherencia, lo que lo hace ideal para tareas complejas o de análisis documental.
"Lo que más llamó la atención fue la filosofía que había detrás: poner la seguridad y la alineación en el centro de la experiencia. Esa diferencia no es un matiz técnico menor, sino una declaración de intenciones", destaca el experto.
Ahora, ese diferencial se ve amenazado por la necesidad de mantenerse en la carrera tecnológica. "No adoptar las prácticas de mejora con datos reales equivalía a quedarse atrás. Pero el riesgo es erosionar la confianza de quienes apostaron por Claude precisamente por su respeto a la privacidad".
¿Qué gana (o pierde) la persona usuaria?
El uso de datos de los usuarios y usuarias para entrenar a modelos plantea interrogantes éticos y técnicos. Por un lado, permite mejorar las respuestas, adaptar el sistema a contextos reales y reducir errores. Por otro, implica riesgos para la privacidad y el control sobre los contenidos generados.
"El benchmarking entre competidores es común, pero lo relevante no es si es ético o no, sino qué consecuencias tiene para el usuario final", apunta Pita. "La presión competitiva acelera la innovación, pero también puede erosionar derechos si no se regula adecuadamente".
Anthropic asegura que mantendrá un enfoque responsable, con opciones de exclusión clara. Sin embargo, como señala el experto, "esto es algo que tendremos que ver cómo evoluciona. No sería la primera compañía que dice que va a hacer algo y luego hace lo contrario".
¿Desviación táctica o cambio de rumbo definitivo?
Los pasos dados por Anthropic en los últimos días indican una transición estratégica hacia una IA más competitiva, aunque eso suponga sacrificar parte de la identidad que la hizo singular. Para algunos analistas, este movimiento era inevitable si quería sobrevivir en un mercado dominado por gigantes. Para otros, es un cambio de piel que puede dañar la confianza de sus usuarios más fieles.
"El futuro tanto de Anthropic como del resto de competidores se juega en ese delicado equilibrio: ganar competitividad sin erosionar la confianza que la distinguía", concluye Pita. "Si logra demostrar que puede usar datos sin sacrificar transparencia ni control, la maniobra podría fortalecerla. Si, en cambio, se percibe como un paso atrás en sus principios fundacionales, el riesgo es perder la diferenciación que le daba sentido en un mercado saturado".