ChatGPT está dejando su huella en el mundo de la escritura, ganando popularidad en el ámbito académico y siendo reconocido por su versatilidad al adoptar diversos estilos e incluso imitar a distintos autores.
La creación de contenidos mediante motores de inteligencia artificial (IA) está en aumento, y surge la pregunta de si los escritores profesionales deben temer por su lugar en esta nueva era. La respuesta, al menos por ahora, parece ser un rotundo no.
Pero, ¿es posible cuantificar la creatividad? Un estudio reciente, llevado a cabo por investigadores de Salesforce y la Universidad de Columbia, se propuso determinar cómo se perciben actualmente los textos escritos por escritores profesionales en comparación con escritores aficionados y un modelo generativo de IA. El objetivo era evaluar la «creatividad como producto» utilizando una variante del Test de Torrance de Pensamiento Creativo (TTCT).
El estudio consistió en un banco de pruebas que constaba de 48 relatos cortos, cada uno con alrededor de 1.400 palabras. De estos, 12 fueron escritos por profesionales de la escritura, mientras que los otros 36 fueron generados por tres modelos de lenguaje de gran renombre aplicados a sus respectivos chatbots: ChatGPT (GPT-3.5), ChatGPT (GPT-4) y Claude 1.3. Un grupo de 10 expertos en escritura creativa se encargó de realizar tres evaluaciones distintas para cada relato.
Los resultados del estudio revelaron que «los relatos generados por los modelos de lenguaje tienen entre tres y diez veces menos probabilidades de superar las pruebas en comparación con los relatos escritos por expertos». Esta conclusión es evidente y enfatiza «la habilidad de los escritores experimentados para evocar la creatividad, superando significativamente a los modelos de lenguaje».
Es evidente que ChatGPT y sus compañeros tienen mucho que aprender en este ámbito. De hecho, los investigadores también evaluaron la posibilidad de que estos modelos mejoren en estas pruebas de evaluación de creatividad. Según los expertos, los modelos de lenguaje «enfrentan el desafío no solo de producir contenido intrínsecamente creativo, sino también de carecer de la sutileza necesaria para evaluar la creatividad de la misma manera que lo hacen los expertos».
Los resultados de este estudio son sorprendentes en cierto sentido, sobre todo porque las herramientas diseñadas para detectar textos generados por IA aún no ofrecen la confiabilidad esperada. OpenAI incluso lanzó su propio detector, que finalmente fue retirado después de admitir que no cumplía con los estándares de precisión necesarios.
A pesar de que los escritores profesionales pueden sentirse seguros por ahora, no se puede pasar por alto que ya están surgiendo problemas con motores de IA generativa en el mundo editorial. Esto es particularmente notorio en Amazon, donde se están publicando numerosos títulos escritos por IA que incluso utilizan el nombre de autores humanos.
Fuente: Xataka