استناداً إلى دراسة أجرتها كلية أستون للقانون في جامعة كوينز بلفاست وكلية القانون في جامعة نيوكاسل البريطانية، تُظهر تقنيات الذكاء الاصطناعي المبتكرة قدرتها على استنساخ صور رقمية للأشخاص المتوفين، ما أثار قلقاً متزايداً لدى الناس بشأن سمعتهم وشخصياتهم حتى بعد وفاتهم.وتستخدم هذه التقنيات المتقدمة، مثل "الشبح الآلي" (غوست بوت)، تقنيات الهولوجرام والتزييف العميق وغيرها، لإعادة تكوين مظهر وأصوات وسمات الأموات. ومن الناحية القانونية، يُعد هذا الأمر خطيراً وقد يهدد سمعة الأموات ويفتح الباب لاتهامهم بأفعال لم يقوموا بها، ما يعرض أسرهم للابتزاز ومخاطر كبيرة. ووصفت الأمم المتحدة هذا الأمر بأنه "خطر وجودي".ووفقاً للخبراء، أدت هذه التقنية بالفعل إلى زيادة كبيرة في جرائم الابتزاز الجنسي في الولايات المتحدة بنسبة تقترب من 322% في فبراير/ شباط 2023 مقارنةً بالعام السابق، نتيجة استخدام التزييف العميق. ومن المثال الحالي على هذه التقنية، استنساخ صوت سيدة الغناء العربي أم كلثوم، ما دفع أسرتها للنظر في التصرف القانوني لمنع استخدام صوتها دون إذن. وعلى الرغم من ذلك، لا توجد حتى الآن قوانين محددة للذكاء الاصطناعي، ولكن من المتوقع أن يتم تبني قوانين من قبل الاتحاد الأوروبي بحلول نهاية هذا العام أو بداية العام المقبل.وفيما يتعلق بالقوانين المأمولة، يجب أن تنظم حق استخدام أشكال وأصوات الأموات وتحمي حقوقها. ويجب أن يُسمح للأفراد بتضمين بنود في وصيتهم قبل وفاتهم، تحدد استخدام أصواتهم وأشكالهم وتسمح لعائلاتهم بالسماح ببيعها أو استخدامها، وتحدد ما إذا كان يجب أن تكون متاحةً للجميع أو مقيدةً ببعض الضوابط أو ممنوعة تماماً.وقد حذر الأمين العام للأمم المتحدة سابقاً، أنطونيو غوتيريش، من مخاطر تقنيات الذكاء الاصطناعي، ووصفها بأنها "خطر وجودي" يضاهي خطر الحرب النووية. وقدمت الأمم المتحدة مقترحات لكيفية التعامل مع الذكاء الاصطناعي، بما في ذلك إنشاء هيئة استشارية عالية المستوى للتنظيم والمراقبة، تشبه الهيئة الدولية للطاقة الذرية، بهدف مواجهة هذا الخطر الكبير.