Table of Contents
Cómo detectar plagio de ChatGPT (2025)

Cómo detectar plagio de ChatGPT (2025)

Max Malak
Max Malak
August 29, 2025
Sources

1/2

Extracting Training Data from ChatGPT
Not-just-memorization.github.io favicon
Not-just-memorization.github.io
COPYBENCH: Measuring Literal and Non-Literal Reproduction of Copyright-Protected Text in Language Model Generation
Tong Chen, Akari Asai, Niloofar Mireshghallah, Sewon Min, James Grimmelmann, Yejin Choi, Hannaneh Hajishirzi, Luke Zettlemoyer, Pang Wei Koh
Assessing Plagiarism in ChatGPT-Paraphrased Texts
Soheil Hassanipour, Sandeep Nayak, Ali Bozorgi, Mohammad-Hossein Keivanlou, Tirth Dave, Abdulhadi Alotaibi, Farahnaz Joukar, Parinaz Mellatdoust, Arash Bakhshi, Dona Kuriyakose, Lakshmi D Polisetty, Mallika Chimpiri, Ehsan Amini-Salehi
Scalable watermarking for identifying large language model outputs
Jonah Brown-Cohen, Rudy Bunel, Borja Balle, Taylan Cemgil, Zahra Ahmed, Kitty Stacpoole, Ilia Shumailov, Ciprian Baetu, Sven Gowal, Demis Hassabis, Pushmeet Kohli, S. Ghaisas

Slides

1/5

I. Resumen ejecutivo

Hallazgo clave: Los modelos de lenguaje grande (LLMs), como ChatGPT, pueden generar texto que constituye plagio — ya sea al reproducir literalmente fragmentos de entrenamiento o al generar parafraseo no atribuido — por lo que se justifican comprobaciones habituales para trabajos académicos y profesionales de alto riesgo. Estudios empíricos recientes (2023–2025) documentan tanto la memorización literal como altas tasas de similitud residual tras parafrasear, evidenciando un riesgo no trivial para la integridad.

Resumen de evidencia: Múltiples estudios de referencia y de extracción muestran que los modelos a veces emiten fragmentos de datos de entrenamiento; experimentos controlados y pruebas específicas por dominio revelan una superposición sustancial con el material fuente en muchos resultados. Panorama de detección: motores de similitud (p. ej., Turnitin) señalan de forma fiable la superposición literal pero pasan por alto la reutilización parafraseada; los detectores de IA ofrecen señales probabilísticas pero son frágiles y producen falsos positivos/negativos. Las marcas de agua y la procedencia en el servidor son prometedoras pero aún no universales.

Implicación práctica: para entregas de rutina, utilice un enfoque escalonado — exploración automática de similitud, señal de detección de IA y revisión humana focalizada — y realice verificaciones de procedencia (borradores, marcas de tiempo, verificación oral) en casos controvertidos. Las instituciones deben combinar verificaciones técnicas con el rediseño de tareas y políticas claras de uso de IA para reducir el uso indebido sin perder la equidad.

Para un ejemplo concreto, consulte https://mystylus.ai/blog/the-most-embarrassing-moment-of-my-life-essay.

II. ¿Qué riesgos de plagio crean los grandes modelos de lenguaje?

Riesgo clave: memorización literal: los LLMs pueden emitir extractos literales de datos de entrenamiento, produciendo plagio directo cuando la salida reproduce texto protegido; ataques de extracción han recuperado megabytes de contenido de entrenamiento y se ha medido que más del 5% de las salidas contienen secuencias literales de 50 tokens bajo ataque Extractin....

Riesgo clave — reutilización no literal y parafraseada: los modelos también producen copias no literales (trama, eventos, interacción entre personajes) y parafraseos que conservan una similitud sustantiva con el material fuente; los resultados de benchmarks muestran que los modelos más grandes aumentan tanto las tasas de reproducción literal como las no literales COPYBENCH..., y estudios de dominio reportan tasas promedio de plagio residual cercanas al 45% en textos parafraseados por ChatGPT Assessing....

Mecanismos y consecuencias prácticas: la escala, el prompting y las entradas adversarias aumentan el riesgo de copiar y pueden ayudar a evadir la coincidencia de texto o los detectores de IA COPYBENCH... Extractin... A Practic.... Esto crea dos problemas operativos para educadores y editores: (1) los motores de similitud convencionales pueden pasar por alto la parafrasis o la reutilización no literal Evaluatin..., y (2) los detectores de IA son frágiles ante prompts adversarios, por lo que ni la similitud automatizada ni la detección por IA por sí solas es un árbitro fiable A Practic.... El marcado de agua generativo ofrece una señal de procedencia para la producción, pero aún no está disponible de forma universal, limitando la seguridad a nivel institucional por ahora Scalable... Does Turn....

Para orientación sobre ensayos de afirmación de hechos, consulte https://mystylus.ai/blog/claim-of-fact-essay

II. ¿Qué riesgos de plagio crean los modelos de lenguaje de gran tamaño?

Resumen: Los riesgos se agrupan en memorización literal, reutilización no literal/parafraseada y desafíos de detección/proveniencia; cada uno tiene respaldo empírico y consecuencias distintas para la integridad académica.

Tipo de riesgo Qué es (dato clave) Evidencia Implicación práctica
Memorización literal Los modelos pueden reproducir fragmentos de entrenamiento de forma literal, lo que deriva en plagio directo cuando las salidas coinciden con textos protegidos. Los ataques de extracción recuperaron megabytes y reportaron que >5% de las salidas contenían secuencias literales de 50 tokens bajo ataque Extractin...; los benchmarks muestran que la copia literal aumenta con la escala del modelo COPYBENCH.... Realizar escaneos de similitud para solapamiento literal; trate las coincidencias literales confirmadas como evidencia de plagio de alta confianza y escale la investigación.
Reutilización no literal / parafraseada Las salidas pueden conservar la trama, eventos, estructura o formulación sustantiva, incluso cuando no son palabra por palabra, lo que genera preocupaciones de derechos de autor y académicas. COPYBENCH documenta un aumento de la reproducción no literal (eventos/personajes) en modelos más grandes COPYBENCH...; un estudio empírico encontró un plagio residual medio ≈45% en textos parafraseados por ChatGPT Assessing.... Las herramientas de similitud pueden pasar por alto esto; se requieren lectura forense humana, verificación contextual (fuentes citadas, errores fácticos) y evidencia de procedencia (borradores, marcas de tiempo).
Fragilidad de detección y elusión Los detectores de IA y las indicaciones de prompts conscientes de adversarios pueden generar baja sensibilidad de detección, por lo que las señales automáticas de IA son probabilísticas y frágiles. Evaluaciones exhaustivas muestran que la tasa de verdaderos positivos de los detectores puede caer a casi 0% con umbrales bajos de falsos positivos ante prompts adversarios A Practic...; estudios indican que las herramientas de coincidencia de texto pueden no separar de forma fiable las salidas de modelos de la escritura humana en todos los casos Evaluatin.... No confiar únicamente en detectores de IA; combine señales (similitud + indicador de IA + revisión humana) y utilice umbrales conservadores para la acción.
Procedencia y límites de mitigación La trazabilidad de implementación (marcado de agua, registros del servidor) puede atribuir la generación, pero su adopción es incompleta y las herramientas de los proveedores varían. El marcado de agua generativo (SynthID-Text) es práctico y se despliega en algunos sistemas (p. ej., Gemini) pero no universal Scalable...; la orientación de los proveedores presenta indicadores de IA como informativos en lugar de punitivos Does Turn.... Preferir generación controlada por la institución o exigir borradores verificables; adoptar una política que combine la procedencia técnica cuando esté disponible con controles de proceso (diseño de tareas, verificaciones orales).
Para ideas prácticas adicionales de monetización, vea https://mystylus.ai/blog/2025-trends-making-money-with-chatgpt

III. Evidencia académica reciente (2023–2025)

Hallazgo clave: la investigación empírica de 2023–2025 demuestra tanto memorización literal como similitud sustantiva de paráfrasis en las salidas de los LLM, lo que significa que los modelos pueden generar texto que cumple definiciones comunes de plagio Extractin... COPYBENCH... Assessing.... Los estudios combinan experimentos de extracción, evaluaciones de referencia y evaluaciones específicas por dominio para cuantificar estos riesgos y probar mitigaciones.

Evidencia de extracción: los ataques dirigidos han recuperado varios megabytes de datos de entrenamiento del modelo por un costo modesto y han encontrado que, en configuraciones agresivas, más del 5% de las salidas del modelo contenían un fragmento literal de 50 tokens extraído de los datos de entrenamiento, lo que demuestra vulnerabilidades de memorización concretas Extractin.... El trabajo documenta cómo técnicas simples de prompting pueden eludir capas de alineación y provocar contenido memorizado, subrayando preocupaciones prácticas de privacidad y derechos de autor Extractin....

Resultados de benchmarking: COPYBENCH muestra que modelos más grandes muestran tasas más altas de reproducción literal y no literal (la copia literal aumenta significativamente con la escala), y que muchos métodos de mitigación reducen la copia literal con más eficacia que la reutilización no literal, como la réplica de tramas o eventos COPYBENCH.... Esto implica que las evaluaciones legales e de integridad deben considerar la similitud estructural y de contenido, no solo la superposición literal COPYBENCH....

Estudios de dominio sobre parafraseo: pruebas controladas de parafraseo de ChatGPT reportan un plagio residual promedio alrededor del 45% (DE ≈10%), con parafraseo iterativo que reduce aún más la similitud y entradas de un solo párrafo que producen las tasas más bajas; por lo tanto, el parafraseo por parte de los LLM reduce pero no elimina la superposición detectable Assessing.... Conclusión práctica: las verificaciones de parafraseo deben complementarse con revisión humana y verificación de procedencia para trabajos de gran trascendencia Assessing....

Investigación de detección y procedencia: evaluaciones independientes encuentran que muchos detectores de IA son frágiles—prompting adversarial puede reducir las tasas de verdaderos positivos a casi cero en umbrales bajos de falsos positivos—por lo que las salidas de los detectores son señales probabilísticas más que pruebas definitivas A Practic.... Las herramientas de proveedores enmarcan los indicadores de IA como informativos y no punitivos mientras fomentan el juicio del docente Does Turn.... El watermarking generativo (SynthID‑Text) ofrece un enfoque de procedencia escalable y se ha desplegado en algunos sistemas de producción, pero la adopción es desigual, por lo que depender solo del watermarking aún no es factible para la mayoría de las instituciones Scalable....

Para obtener una guía más accionable, lea https://mystylus.ai/blog/top-5-ai-content-traps-and-how-to-avoid-them

Interactive Learning (12)

Flashcards: ChatGPT Plagiarism

¿Qué es la 'memorización literal' en los LLMs?

click to see answer

1/12

IV. Herramientas de detección: comparación y limitaciones

Hecho clave: ningún programa automatizado único es decisivo: los motores de similitud comerciales y los detectores de IA capturan señales distintas y ambos tienen puntos ciegos, por lo que se requiere una interpretación combinada, además del juicio humano Does Turn... A Practic.... Turnitin y vendedores similares presentan las puntuaciones de indicadores de IA como ayudas informativas en lugar de pruebas definitivas, enfatizando la revisión por parte del docente Does Turn.... Evaluaciones independientes muestran que la sensibilidad del detector puede verse comprometida ante prompts adversariales, por lo que las señales del detector deben tratarse como señales probabilísticas, no como veredictos A Practic....

Motores de similitud — fortaleza y brecha: las herramientas de coincidencia de texto detectan de manera fiable superposiciones literales y son efectivas para detectar copiado directo, pero pasan por alto la reutilización no literal y la similitud a nivel de parafrase; estudios empíricos de SafeAssign y sistemas relacionados muestran que las salidas de IA pueden evadir umbrales simples de coincidencia de texto, y las pruebas comparativas señalan que los métodos de mitigación reducen más el copiado literal que la reproducción no literal Evaluatin... COPYBENCH.... Prácticamente, una alta coincidencia literal sigue siendo evidencia de alta confianza, mientras que una coincidencia baja no garantiza originalidad Evaluatin....

Detectores de IA — rendimiento y riesgo adversarial: los clasificadores entrenados para detectar texto generado por modelos pueden proporcionar señales útiles pero son frágiles; investigaciones de referencia muestran que las tasas de verdaderos positivos con umbrales realistas de falsos positivos bajos pueden caer a casi cero cuando se utilizan prompts adversariales, lo que significa que atacantes (o usuarios inocentes que reformulan los prompts) pueden alterar sustancialmente las salidas del detector A Practic.... Por lo tanto, trate las puntuaciones del detector de IA como una entrada dentro de un flujo de trabajo de múltiples señales y evite acciones punitivas basadas únicamente en un resultado del detector Does Turn... A Practic....

Procedencia y marca de agua — prometedor pero incompleto: la marcación generativa con marca de agua (p. ej., SynthID-Text) ofrece una señal del lado de la producción que puede atribuir salidas de forma fiable sin necesidad de conocer el interior del modelo, y ha sido desplegada a gran escala en algunos sistemas, sin embargo la adopción es desigual entre proveedores, por lo que no se puede asumir que esté disponible para todas las entregas Scalable.... En consecuencia, las instituciones deben combinar escaneos técnicos con controles de proceso (registros de borradores, entregas por etapas, verificación oral) y reservar la confirmación basada en marca de agua cuando exista como evidencia de procedencia sólida Scalable... Does Turn....

Para orientación práctica sobre cómo hacer que el texto generado por IA sea más humano y auditable, consulte Humanizing AI Text (Edición 2025) en https://mystylus.ai/blog/humanizing-ai-text-2025-edition.

V. Flujo de trabajo práctico 2025 para comprobar plagio de ChatGPT

Hecho clave: Utilice un flujo de trabajo por capas, basado en la evidencia: escaneo automático de similitud, señal de detección de IA, revisión forense humana focalizada y, luego, verificación de procedencia para los casos en disputa, porque cada señal tiene fortalezas y debilidades distintas Does Turn... A Practic.... Las herramientas automatizadas son útiles para cribado inicial, pero son probabilísticas y pueden ser evadidas, mientras que los controles de procedencia proporcionan una atribución más sólida cuando están disponibles Scalable....

Flujo de trabajo rápido / de bajo riesgo (criba rápida): 1) Realice un escaneo de similitud (Turnitin, SafeAssign, Unicheck) para detectar superposiciones literales y señalar fuentes candidatas Evaluatin... Does Turn.... 2) Anote cualquier pasaje marcado y ejecute un detector de IA para obtener señal adicional (interpretar las puntuaciones de manera conservadora) A Practic.... 3) Realice una lectura humana rápida para rasgos característicos de texto generado (redacción genérica, errores de citación, cambios bruscos de estilo); si no hay señales rojas y las coincidencias son bajas, acepte con una nota para monitorear la evolución de la evidencia Does Turn....

Flujo de trabajo de alto riesgo / de investigación (escalado): 1) Informe completo de similitud y recuperación de fuentes; priorice coincidencias largas y contiguas confirmadas —la evidencia muestra que reproducciones literales contiguas de 50 o más tokens son señales de alto nivel de confianza de memorización y copia Extractin.... 2) Aplique detectores de IA para obtener indicadores probabilísticos, pero no los trate como determinantes, porque la tasa de verdaderos positivos puede colapsar ante prompts adversariales A Practic.... 3) Análisis forense humano: compare estructura, fuentes, errores fácticos y patrones de citación; verifique la reproducción no literal (trama/eventos/estructura del argumento), que las pruebas comparativas muestran puede persistir incluso cuando la superposición literal es baja COPYBENCH... Assessing.... 4) Verifique la procedencia: solicite borradores, marcas de tiempo de editores, historial de envíos y, cuando sea posible, use registros del servidor o verificación de marca de agua si el proveedor de generación admite un marcado al estilo SynthID Scalable....

Umbrales de evidencia e interpretación: trate las coincidencias literales largas confirmadas como evidencia de plagio de alta confianza (trabajo de extracción de citas y memorización) Extractin...; trate la similitud moderada o la superposición a nivel de paráfrasis como inconclusas sin procedencia o explicación del autor, ya que la parafrasis por LLMs puede dejar una similitud residual sustancial (~45% en promedio en algunas pruebas) Assessing.... Las positivas del detector de IA deberían impulsar una revisión adicional, pero no sanciones automáticas, reflejando la guía del proveedor de que los indicadores son informativos y requieren juicio del educador Does Turn....

Documentación, escalación y remedios: registre informes (resultados de similitud y puntuaciones de IA), las notas del revisor humano y cualquier artefacto de procedencia; si la evidencia es ambigua, realice un seguimiento oral o supervisado para evaluar la autoría y comprensión, o exija una reenvío escalonado con controles de proceso (borradores, fuentes anotadas). Para casos confirmados, siga la política institucional; para casos límite, considere la remediación (reescritura, citas, módulos de aprendizaje) en lugar de una acción punitiva inmediata, en consonancia con las mejores prácticas pedagógicas Evaluatin....

Lista de verificación rápida (una página): ejecute escaneo de similitud → marque coincidencias literales contiguas (50+ tokens) → ejecute detector de IA (interpretar de forma conservadora) → lectura forense humana de reutilización no literal → solicite procedencia (borradores, marcas de tiempo/marca de agua) → verificación oral si es necesario → documente y escale según la política Extractin... A Practic... Scalable....

Para herramientas prácticas adicionales, consulte https://mystylus.ai/blog/methods-to-get-chatgpt-to-write-an-essay-2025.

AI Teacher