
La Wikipedia en inglés ha tomado una medida histórica al prohibir oficialmente el uso de modelos de lenguaje grandes (LLM, por sus siglas en inglés) para escribir o reescribir artículos. La decisión fue adoptada el 20 de marzo de 2026, tras una votación abrumadoramente favorable de los editores voluntarios de la enciclopedia en línea.
La nueva directriz, que ya aparece reflejada en las políticas de contenido de Wikipedia, establece que el texto generado por IA frecuentemente incumple las normas centrales de la plataforma, incluyendo criterios de verificabilidad, neutralidad y calidad de las fuentes. Por ello, su uso para crear o reescribir contenido de artículos queda prohibido.
Lo que sí está permitido
La restricción no es absoluta. Los editores aún pueden utilizar modelos de lenguaje de manera limitada, bajo dos condiciones específicas:
- Correcciones de estilo: Los LLM pueden sugerir ajustes menores en la redacción de los textos escritos por el propio editor, siempre que no introduzcan contenido nuevo.
- Traducciones preliminares: Se permite generar traducciones iniciales de artículos de Wikipedia de otros idiomas al inglés. Sin embargo, la traducción debe ser revisada cuidadosamente por un humano con suficiente fluidez en el idioma de origen para detectar errores y omisiones.
La política enfatiza la necesidad de precaución, ya que los LLM pueden alterar el significado de un texto o agregar información que no está respaldada por fuentes confiables.
La respuesta a la proliferación de artículos de IA
La decisión llega tras varios meses de preocupación por la comunidad de voluntarios, que reportó un aumento significativo de artículos generados por IA, muchos de ellos plagados de errores, citas falsas y referencias inventadas.

Para enfrentar este problema, se creó el WikiProject AI Cleanup, un grupo dedicado a identificar y eliminar contenido automatizado defectuoso. Entre los signos más claros de textos generados por IA se encuentran:
- Uso excesivo de palabras como «moreover» o «breathtaking».
- Textos dirigidos directamente al lector, como «¡Espero que esto ayude!».
- Referencias sin sentido, con ISBN inválidos o DOI rotos.
Con la nueva política, los administradores de Wikipedia pueden acelerar la eliminación de artículos generados por IA que no hayan sido revisados por humanos, saltándose el período de discusión habitual de siete días.
Apoyo de la comunidad y declaraciones clave

La propuesta fue presentada por el administrador de Wikipedia Chaotic Enby, quien destacó que la medida representa un rechazo a la “enshittification” y al impulso forzado de la IA por parte de empresas en los últimos años. Según Chaotic Enby, la política busca garantizar que los contenidos sean fiables, verificables y de alta calidad, evitando que la IA degrade la información disponible en la enciclopedia.
La comunidad ha recibido la medida con entusiasmo, considerando que podría ser un paso hacia un cambio más amplio en la forma en que se utiliza la inteligencia artificial en la creación de contenido en línea.
