Desde hace un tiempo los textos que finalizan con la sentencia “en resumen” me producen cierta desconfianza y me obligan a repasar con otro ojo lo acometido.
Ahora que se cierra el semestre académico me he encontrado con varios profesores que me hacen la misma pregunta: ¿cómo identifico si este texto es escrito por una inteligencia artificial (IA)? En mi caso la primera seña, —quedan avisados mis alumnos— es que se haga recuento de lo argumentado, precedido del título: “en conclusión”, “en resumen”, “en última instancia”. Puede sonar prejuicioso, pero, como dice mi mamá, “es mejor la seguridad que la policía”.
Lo cierto es que en la web hay varias aplicaciones que prometen ayudar con la tarea, hasta mitad de año, por ejemplo, OpenAI, compañía de ChatGPT, tenía disponible OpenAI Classifier, una herramienta en la que se copiaba el texto a validar y arrojaba la probabilidad de haber sido escrito por una IA, pero como el asunto no es tan fácil, la propia compañía decidió sacarlo del servicio por considerar que no se podía dar certeza del resultado, es decir que reconoció una baja tasa de precisión.
Así las cosas, aquí hay diez consideraciones que podrían servir a los profesores para evaluar la autenticidad de un texto:
1. Complejidad y coherencia: Los textos generados por IA suelen tener una alta coherencia y estructura gramatical sólida, incluso en temas complejos. Sin embargo, a veces carecen de la profundidad y, sobre todo, de la perspectiva emocional humana.
2. Errores específicos: Las IA pueden cometer errores inusuales o predecibles, como malinterpretaciones lingüísticas sutiles o fallos en el contexto cultural o histórico.
3. Creatividad y originalidad: A pesar de los avances, la creatividad genuina y la originalidad en la redacción siguen siendo áreas donde las IA tienen limitaciones. La habilidad para desarrollar ideas únicas y novedosas es a menudo una característica humana.
4. Uso de lenguaje técnico: Las IA pueden dominar terminologías técnicas o especializadas con precisión, pero pueden carecer de la habilidad para explicar conceptos complejos de manera real, mejor dicho muchas veces son “cañeras”.
5. Identificación de patrones repetitivos: Las IA a veces presentan patrones de repetición textual o utilizan frases específicas con mayor frecuencia de lo habitual. Aquí entra mi “En resumen” también suelen tener una estructura narrativa que incluye factores axiológicos.
6. Coherencia emocional: Los textos generados por IA pueden carecer de la profundidad emocional y la empatía presentes en el lenguaje humano, especialmente al expresar sentimientos complejos o subjetivos.
7. Contexto cultural y actualidad: Las IA pueden no captar totalmente el contexto cultural o los eventos actuales de manera precisa, lo que puede reflejarse en su redacción.
8. Evaluación de la lógica y argumentación: Aunque las IA pueden presentar argumentos lógicos, a menudo carecen de la capacidad de razonamiento holístico y la habilidad para conectar con el contexto.
9. Tiempo de respuesta y cantidad de texto generado: Las IA pueden producir textos en tiempo récord y cantidades masivas de contenido de manera rápida y eficiente, aspecto que suele diferenciarlas de los humanos. —No hace mucho me preguntaron si tenían que entregar un ensayo para ya, ¿será que lo iban a generar por IA?—
10. Prueba de Turing y pruebas específicas: Emplear pruebas como la de Turing, diseñadas para detectar la autenticidad de los textos puede ser útil para identificar si un texto fue creado por una IA o por un ser humano.
En resumen(?), la evaluación de la autenticidad de un texto requiere un análisis multifacético y un enfoque reflexivo. A medida que la tecnología continúa avanzando, el desafío de discernir entre la producción humana y la generada por IA seguirá siendo un área de interés y estudio para educadores y expertos en el campo de la lingüística computacional.
Nos vemos en la red (0)