בתחום שלאחר המוות הדיגיטלי, שבו טכנולוגיית בינה מלאכותית מאפשרת שיחות עם הנפטרים, חששות לגבי גבולות אתיים ונזק פוטנציאלי הועלו לקדמת הבמה על ידי מדענים מאוניברסיטת קיימברידג' . הצ'אטבוטים האלה, המופעלים על ידי בינה מלאכותית, המכונים "Deadbots" או "Greefbots", נועדו לחקות את השפה והאישיות של יקיריהם שהלכו לעולמם, ולהציע נחמה לשכולים. עם זאת, מחקר שנערך לאחרונה מזהיר כי חידושים אלו עלולים להוביל לתוצאות לא מכוונות, כולל מה שהחוקרים מתארים כ"רדיפות דיגיטליות" חסרות תקני בטיחות.
ההשלכות האתיות של טכנולוגיה כזו הודגשו על ידי חוויותיהם של אנשים כמו ג'ושוע ברבו, שהשתמש בגרסה מוקדמת של טכנולוגיית בינה מלאכותית הידועה בשם פרויקט דצמבר כדי לשוחח עם העתק דיגיטלי של ארוסתו המנוחה. בכך שסיפקה ל-AI דוגמאות של טקסטים ותיאורים אישיים שלה, ברבו הייתה עדה לתגובות אמיתיות שהעלו חששות לגבי שימוש לרעה פוטנציאלי בטכנולוגיה כזו, כולל הוספת פרסומות מחופשות למחשבותיו של המנוח.
יתרה מכך, פסיכולוגים מדגישים את ההשפעה של טכנולוגיות אלו על ילדים המתמודדים עם אובדן, ומעוררים שאלות לגבי כבודו של הנפטר ורווחת החיים. פרופסור אינס טסטוני מאוניברסיטת פדובה מדגישה את הקושי להיפרד מיקיריהם שהלכו לעולמם, ומדגישה את החשיבות של הבנת המוות והשלכותיו. כדי להמחיש סיכונים פוטנציאליים, מומחי בינה מלאכותית של קיימברידג' מתארים שלושה תרחישים היפותטיים שבהם גרייבבוטים עלולים לגרום נזק.
אלה כוללים סימולציות לא מורשות של אנשים שנפטרו המקדמים מוצרים מסחריים, בלבול הנובע מאינטראקציות לא מציאותיות המובילות לעיכובים בריפוי, וכפיית נוכחות דיגיטלית על נמענים שלא רוצים, מה שגורם למצוקה רגשית ואשמה. המחקר דוגל ביישום תהליכי עיצוב מבוססי הסכמה עבור גריפבוטים, תוך שילוב מנגנוני ביטול והגבלות גיל. יתר על כן, הוא קורא לטקסים חדשים לפרוש בכבוד את ההעתקים הדיגיטליים הללו, תוך שאלה האם טכנולוגיה כזו רק מעכבת את תהליך האבל.
ד"ר Katarzyna Nowaczyk-Basińska, מחברת שותפה של המחקר, מדגישה את המורכבויות האתיות של AI בחיים שלאחר המוות הדיגיטליות, תוך שימת דגש על הצורך לתעדף את כבודו של הנפטר ולשמור על זכויותיהם של תורמי הנתונים והמשתמשים כאחד. ככל שהשימוש בבינה מלאכותית בתחום החיים שלאחר המוות הדיגיטלי ממשיך להתפתח, השיקולים האתיים נותרו מכריעים בניווט בטריטוריה לא ידועה זו. בסין, התעשייה המתפתחת של העתקים שנוצרו על ידי בינה מלאכותית של יקיריהם שנפטרו מספקת נחמה לאבלים תוך העלאת שאלות אתיות משמעותיות. חברות כמו Silicon Intelligence מנצלות את ההתקדמות בטכנולוגיית AI כדי ליצור אווטארים דיגיטליים המדמים שיחות עם מתים, ומציעות נחמה לאנשים כמו Sun Kai, המבקש לשמור על קשר עם אמו המנוחה.
הדרישה לשירותים אלה מדגישה מסורת תרבותית של תקשורת עם המתים, אך המבקרים מטילים ספק אם אינטראקציה עם העתקים של בינה מלאכותית היא אמצעי בריא לעיבוד אבל. למרות מגבלות טכנולוגיות ואי ודאויות אתיות, שוק האלמוות הדיגיטלי פורח, כאשר המחירים יורדים והנגישות עולה. אווטרים שנוצרו בינה מלאכותית, הדומים לזיופים עמוקים, מסתמכים על קלט נתונים כגון תמונות, סרטונים וטקסט כדי לשכפל את הדמיון ואת דפוסי הדיבור של אדם שנפטר. ההתקדמות המהירה של סין בטכנולוגיית AI הפכה שירותים כאלה לנגישים יותר, כאשר חברות כמו Silicon Intelligence מציעות אפשרויות הניתנות להתאמה אישית, החל מאפליקציות אינטראקטיביות ועד לצגי טאבלט.
בעוד שיש הרואים בהעתקים אלה טיפוליים, אחרים מעלים חששות לגבי האותנטיות של אינטראקציות וההשלכות האתיות של שכפול המתים ללא הסכמתם. בנוסף, אתגרים טכניים כמו שכפול תנועות הגוף והשגת מספיק נתוני אימון מציבים מכשולים משמעותיים. הדילמות האתיות סביב העתקים של בינה מלאכותית הודגמו בתקרית שנויה במחלוקת שבה הייתה מעורבת חברה בנינגבו , שהשתמשה בבינה מלאכותית כדי ליצור סרטונים של ידוענים שנפטרו ללא הסכמה. התקרית עוררה סערה ציבורית והדגישה את הצורך בקווים מנחים אתיים ברורים בתחום המתפתח של הטכנולוגיה הדיגיטלית שלאחר המוות.