Contenido
La irrupción de la inteligencia artificial en los procesos de edición de Wikipedia ha encendido las alarmas entre los voluntarios que sostienen la plataforma. Una advertencia poco habitual comenzó a aparecer en la parte superior de cientos de artículos: “Este artículo puede incorporar texto de un modelo de lenguaje de gran tamaño”. Esta señal no solo alerta sobre el uso de contenido automatizado, sino que refleja una preocupación creciente por la fiabilidad de la enciclopedia más consultada del mundo.
Desde 2022, con el auge de herramientas como ChatGPT, se ha vuelto más fácil generar textos persuasivos que pueden infiltrarse en Wikipedia sin pasar por el filtro riguroso de la comunidad. La edición abierta, uno de los pilares del sitio, enfrenta ahora el desafío de distinguir entre aportes legítimos y textos generados por IA, que suelen contener errores, citas falsas o sesgos encubiertos
Los voluntarios han detectado casos insólitos, como artículos que describían un hotel argentino en lugar de una localidad homónima, o la publicación de una supuesta fortaleza otomana ficticia que permaneció sin ser descubierta durante casi un año. Estos episodios evidencian la dificultad de controlar la calidad del contenido cuando se multiplican los aportes automatizados.
Lea también: Loyal, una startup para alargar la vida de nuestros amigos caninos
Un estudio de la Universidad de Princeton, realizado en octubre de 2024, reveló que cerca del 5% de las 3.000 nuevas páginas en inglés creadas en agosto de ese año contenían texto generado por inteligencia artificial. En algunos casos, la IA fue utilizada como apoyo para redactar artículos aparentemente inocuos; en otros, como herramienta para promover intereses comerciales o políticos. Muchos de estos textos fueron eliminados tras la intervención de los moderadores.
Ante esta situación, la comunidad de editores reaccionó con rapidez. En 2023 se creó el equipo WikiProject AI Cleanup, dedicado a identificar y corregir errores generados por sistemas automatizados. Este grupo elaboró guías específicas para detectar señales de escritura artificial y mantiene una lista activa de más de 500 artículos sospechosos.
Wikipedia también modificó su política de borrado rápido, permitiendo eliminar de forma ágil los artículos que presenten indicios de generación por IA, como instrucciones residuales propias de estos sistemas. Además, se prohibió el uso de imágenes generadas por inteligencia artificial.
Las discusiones internas han sido intensas. Los mensajes entre editores muestran cómo las políticas se ajustan caso por caso, con advertencias a quienes infringen las reglas y actualizaciones constantes en las guías de revisión. Un editor anónimo resumió la situación en junio: “He estado encontrando MUCHÍSIMO contenido basura generado por IA en la cola de envíos”, según recogió The Washington Post.
Le puede interesar: Nace una plataforma educativa para transformar el talento minero energético en América Latina
Marshall Miller, director de producto para experiencias principales en la Fundación Wikimedia, comparó la labor de los voluntarios con un sistema inmunológico. Reconoció que la comunidad tiene la capacidad de movilizarse y responder ante el contenido automatizado, aunque también señaló que la IA puede ser útil si se emplea para tareas rutinarias, facilitar el ingreso de nuevos editores o traducir artículos. Sin embargo, subrayó que la revisión humana sigue siendo esencial para preservar la neutralidad y fiabilidad de Wikipedia
La Fundación Wikimedia ha experimentado con inteligencia artificial para mejorar la plataforma, pero no todas las iniciativas han sido bien recibidas. En junio de 2025, la fundación abandonó un proyecto que buscaba incorporar resúmenes generados por IA en los artículos, tras las protestas de la comunidad. Miller aclaró que cualquier avance futuro en esta área solo podrá complementar el trabajo de los voluntarios, nunca reemplazarlo.
Lucie-Aimée Kaffee, investigadora en políticas de inteligencia artificial, advirtió sobre el riesgo de erosionar la confianza en Wikipedia. “La gente confía mucho en Wikipedia. Y eso es algo que no deberíamos erosionar”, declaró al Washington Post.
La experiencia de Wikipedia puede servir de referencia para otras organizaciones que enfrentan el desafío de integrar la inteligencia artificial en sus sistemas de información. El debate sobre el papel de estas tecnologías en la creación y gestión del conocimiento público sigue abierto, y la necesidad de establecer límites claros se vuelve cada vez más urgente.