Alexa podrá replicar la voz de un familiar fallecido

Pronto, el asistente virtual de Amazon podrá replicar la voz de una persona con tan sólo una pequeña grabación de audio o video.
23 Junio, 2022 Actualizado el 23 de Junio, a las 10:56
Alexa podrá replicar la voz de un familiar fallecido.
Alexa podrá replicar la voz de un familiar fallecido.
Arena Pública

Como si se tratara de un episodio de Black Mirror, ahora la asistente virtual Alexa podrá imitar la voz de cualquier persona viva o muerta, a partir de una pequeña grabación de voz o un video.

Hasta este momento, ya se ha escuchado al asistente virtual de Amazon con distintas voces de personas reales, como actores; sin embargo, era necesario grabar en un estudio profesional y que la persona hablara con diferentes entonaciones para que la voz sintética se pareciera lo más posible a la de un humano.

Según la compañía, la nueva tecnología desarrollada por sus ingenieros podría lograr lo mismo con sólo tener una grabación de la voz de la persona que se desea imitar.

Durante una conferencia de prensa celebrada el miércoles pasado en Las Vegas, el vicepresidente senior Rohit Prasad dijo que "el objetivo es hacer que los recuerdos perduren después de que muchos de nosotros hayamos perdido a un ser querido durante la pandemia”.

Durante la conferencia se mostró un videoclip en el que un niño pequeño decía: "Alexa, ¿la abuela puede terminar de leerme el Mago de Oz?". Tras una pausa, Alexa confirmó la orden y alzó la voz unos segundos después. Hablaba con una voz más calmada y menos robótica, fingiendo sonar como la abuela real del niño.

Según Prasad, la empresa quiere que Alexa tenga la capacidad de adaptarse a las situaciones de sus usuarios sin mucha ayuda externa y agregó que “no debe confundirse con la inteligencia general súper artificial que todo lo sabe, todo lo puede”. Sin embargo, muchos usuarios recurrieron a Twitter para expresar su descontento, señalando que puede usarse para estafas o para crear narrativas falsas sobre personas a través de deepfakes.

En los últimos años, ha ocurrido un 'boom' en cuanto a tecnología para crear imágenes y videos falsos. El deepfake, la posibilidad de reemplazar en un video el rostro de una persona por otra, ha cobrado relevancia en industrias como el cine o la publicidad, e incluso se ha utilizado en algunas campañas políticas. Ahora, la tecnología para imitar la voz de una persona con tan sólo una grabación de ella, podría presentar nuevos retos para la protección de datos personales.

Archivado en