En lo que se cree que es una primicia mundial, la inteligencia artificial (IA) ha permitido a un hombre asesinado dirigirse a su asesino en la audiencia de sentencia.
Christopher Pelkey fue asesinado a tiros en un incidente de ira al volante en Chandler, Arizona, hace cuatro años, pero recientemente, se utilizó IA para recrear una versión digital de la víctima a la que se le permitió hacer una declaración durante el juicio, informó un sitio de noticias local.
La presentación en video también incluyó clips reales de Pelkey para dar a los presentes en la corte una comprensión más clara de su personalidad. Algunos de estos clips también se utilizaron para crear la imagen de Pelkey generada por la IA, que puedes ver a continuación.
En el video reproducido en la corte, la versión de IA de Pelkey dice: «Para Gabriel Horcasitas, el hombre que me disparó, es una pena que nos encontráramos ese día en esas circunstancias. En otra vida, probablemente podríamos haber sido amigos».
Y continúa: «Creo en el perdón y en el Dios que perdona. Siempre lo he hecho y lo sigo haciendo».
Después de ver el video, el juez Todd Lang dijo: «Me encanta esa IA. Gracias por eso. Sentí que eso era genuino, que su obvio perdón al Sr. Horcasitas refleja el carácter del que escuché hoy».
Esta semana, el juez sentenció a Horcasitas a diez años y medio por el homicidio involuntario de Pelkey.
Fue la hermana de Chris Pelkey, Stacey, a quien se le ocurrió la idea de utilizar la IA para crear una imagen de su hermano para su uso en los tribunales. Dijo que era importante «no hacer que Chris dijera lo que yo estaba sintiendo, y desapegarme y dejarlo hablar porque dijo cosas que nunca saldrían de mi boca, pero que sé que saldrían de la suya».
Ann A. Scott Timmer, presidenta de la Corte Suprema de Arizona, comentó que la IA tiene el potencial de «crear grandes eficiencias en el sistema de justicia y puede ayudar a quienes no están instruidos en la ley a presentar mejor sus posiciones. Por esa razón, estamos entusiasmados con el potencial de la IA».
Timmer agregó: «Pero la IA también puede obstaculizar o incluso alterar la justicia si se usa de manera inapropiada. Lo mejor es un enfoque mesurado. En ese sentido, el tribunal ha formado un comité de IA para examinar el uso de la IA y hacer recomendaciones sobre la mejor manera de usarla. Aquellos que usan la IA, incluidos los tribunales, son responsables de su precisión».
De hecho, si bien el uso de la IA de esta manera aporta un elemento poderoso y profundamente personal a los procedimientos judiciales, también plantea varias preocupaciones éticas y legales sobre la autenticidad, la influencia emocional y la aplicación adecuada. Como resultado, parece probable que otros tribunales desarrollen en algún momento pautas para casos futuros, si deciden permitir las declaraciones de las víctimas generadas por IA.