viernes, 25 de octubre de 2024

La ficción se hace realidad

Hace más de 10 años se estrenaba el primer capítulo de la segunda temporada de la serie Black Mirror. El episodio, titulado "Be Right Back", relataba la historia de una mujer que, tras la muerte de su esposo, utilizaba un servicio web para chatear con un bot que simulaba ser él. Este bot, basado en los datos de comportamiento y conversaciones del fallecido, ofrecía incluso una versión premium que permitía escuchar su propia voz a partir de audios previos.

Sobre esta serie organicé desde la FCEA varios encuentros con paneles de debate sobre la evolución y el impacto de la tecnología, y en particular sobre este capítulo conversamos con Mauricio Nihil Olivera (docente FIC), Diego Vallarino (docente FCEA), Natalia Uval (docente FIC y periodista de la diaria) y Marcelo Montado (presidente de la CEDU).

En su momento, este episodio parecía una especulación futurista, un escenario donde las tecnologías podrían llegar a un nivel de intimidad y personalización inquietante. Sin embargo, hoy la realidad ya se parece mucho a la ciencia ficción.

Aplicaciones como character.ai permiten interactuar con bots que simulan la voz de una persona real, mediante audios generados por inteligencia artificial, y aunque estas herramientas no pueden "entrenarse" específicamente con la información de una persona para simular con total exactitud sus modismos, vocabulario o estilo de comunicación, lo que ofrecen es sorprendentemente cercano. Incluso en su versión gratuita, basta con subir un breve archivo de audio para recibir respuestas que imitan de forma realista una conversación humana.

La evolución de estas tecnologías plantea una serie de reflexiones profundas sobre la relación entre la inteligencia artificial y nuestras emociones, así como sobre los límites que deberíamos establecer en su uso, especialmente en situaciones tan personales. ¿Hasta qué punto es ético replicar la voz y el comportamiento de una persona fallecida mediante inteligencia artificial? Este tipo de simulaciones podría proporcionar consuelo a algunas personas, pero también plantea interrogantes sobre el impacto emocional que podría generar interactuar con "versiones" virtuales de seres queridos. ¿Cómo afecta esta experiencia a quienes buscan mantener una conexión con alguien que ya no está?

Además, surge la preocupación sobre las implicancias en términos de privacidad y consentimiento. Si utilizamos datos personales, como conversaciones o audios, para entrenar estos sistemas, ¿quién decide cómo y cuándo se puede usar esa información? Este dilema no solo toca la privacidad, sino también el respeto por la memoria y la identidad de las personas.

Finalmente, la rapidez con la que estas tecnologías están avanzando nos obliga a preguntarnos si estamos preparados como sociedad para definir los límites éticos en el uso de inteligencia artificial en áreas tan íntimas de nuestras vidas. ¿Qué responsabilidad tenemos en su desarrollo y qué implicancias tendrá a largo plazo para nuestra forma de entender la vida, la muerte y las relaciones humanas?

El futuro de la inteligencia artificial nos desafía a reflexionar y decidir hasta dónde estamos dispuestos a llegar.

[Imagen generada por Dall-E a través de ChatGPT]

.

.

No hay comentarios:

Publicar un comentario