El gigante tecnológico OpenAI ha promocionado su herramienta de transcripción impulsada por inteligencia artificial Whisper como teniendo una precisión y robustez casi “al nivel humano”.
Pero Whisper tiene una gran falla: es propenso a inventar fragmentos de texto o incluso frases completas, según entrevistas con más de una docena de ingenieros de software, desarrolladores e investigadores académicos. Esos expertos dijeron que algunos de los textos inventados, conocidos en la industria como alucinaciones, pueden incluir comentarios raciales, retórica violenta e incluso tratamientos médicos imaginarios.
Los expertos dijeron que tales fabricaciones son problemáticas porque Whisper se está utilizando en una serie de industrias en todo el mundo para traducir y transcribir entrevistas, generar texto en tecnologías populares para el consumidor y crear subtítulos para videos.
Lo más preocupante, dijeron, es la prisa de los centros médicos por utilizar herramientas basadas en Whisper para transcribir las consultas de los pacientes con los médicos, a pesar de las advertencias de OpenAI de que la herramienta no debería ser utilizada en “dominios de alto riesgo”.