ربات های تسلی دهنده هوش مصنوعی: اخلاق گرایان هوش مصنوعی سه سناریوی وحشتناک را مطرح نموده اند

به گزارش مجله یک کامپیوتر، صحبت کردن با مردگان اکنون یک واقعیت است، نوعی از فناوری هوش مصنوعی (AI) موسوم به ددبات ها و ربات های تسلی آن را ممکن نموده اند. این ربات های تبادل نظر، می توانند زبان و شخصیت نزدیک ترین و عزیزترین فرد درگذشته ما را شبیه سازی نمایند، و برای کسانی که سوگوار هستند، آرامش ایجاد نمایند، اما دانشمندان دانشگاه کمبریج هشدار می دهند که ربات های تسلی می توانند بیش از آنکه فایده داشته باشند، آسیب رسانی نمایند و تجاوز دیجیتالی ایجاد نمایند و فاقد استاندارد های ایمنی باشند.

ربات های تسلی دهنده هوش مصنوعی: اخلاق گرایان هوش مصنوعی سه سناریوی وحشتناک را مطرح نموده اند

اخلاق فن آوری غم و اندوه با تجربه شخصی فردی با ابزاری به نام پروژه دسامبر مطرح شد. به عنوان نسخه اولیه فناوری هوش مصنوعی ChatGPT-3، پروژه دسامبر به کاربران پولی این فرصت را داد که با کاراکتر های چت بات به صورت از پیش معین شده صحبت نمایند یا از فناوری یادگیری ماشینی برای ایجاد شخصیت خود استفاده نمایند. نویسنده ای به نام جاشوا باربو کاربری بود که با دانش خود از پروژه دسامبر صحبت کرد تا با بات تقلیدنماینده از نامزدش که 8 سال پیش مرده بود، صحبت کند.

پروژه دسامبر با استفاده از نمونه هایی از متون و توصیفات به جا مانده از شخصی که دیگر پیش ما نیست، به یاری هوش مصنوعی می تواند پاسخ های واقعی را با استفاده از مدل های زبانی برای تقلید گفتار او در حین مکالمه های متنی ایجاد کند.

اما نویسندگان یک مطالعه نو استدلال می نمایند که این خلاقیت های هوش مصنوعی، بر اساس ردپای دیجیتالی افراد درگذشته، نگرانی هایی را در خصوص سوء استفاده احتمالی ایجاد می نماید.

آن ها همچنین پیشنهاد می نمایند که چنین فناوری هایی ممکن است بچه هایی را که با مرگ یکی از عزیزانشان دست و پنجه نرم می نمایند، با حفظ این توهم که والدینشان هنوز زنده هستند، آزار دهند. نگرانی آن ها این است که با انجام این کار، داغ دیدگان به شأن و منزلت متوفی ارج نگذارند.

این افکار به وسیله روانشناسی به نام پروفسور اینس تستونی از دانشگاه پادووا برجسته شده که می گوید، بزرگترین چیزی که پس از مرگ یکی از عزیزان باید بر آن غلبه کنیم مواجهه با این واقعیت است که آن ها دیگر با ما نیستند.

تستونی می گوید: بزرگترین مشکل مربوط به ناتوانی در جدا شدن از کسانی است که ما را ترک نموده اند، و این به این علت است که هر چه بیشتر یک نفر را دوست داشته باشید، بیشتر دوست دارید با او زندگی کنید.

هر چه فرد عادت های شخص درگذشته را بیشتر دوست داشته باشد، بیشتر می خواهد مطمئن گردد که آن ها تغییر نمی نمایند. این دو عامل باعث می گردد که کار پذیرش جدایی و تنظیم مجدد زندگی، بسیار زمان بر گردد.

از نظر مفهومی پذیرش جدایی مبهم است و ما در کوشش برای آن، به وسوسه جستجوی شواهد به جا مانده از فرد درگذشته و یافتن آن ها در هر کجا که باشند، می افتیم.

تستونی شرح داد: ادبیات گسترده پدیده پیوند های مستمر را توصیف می نماید، یعنی راهبرد های روان شناختی افراد داغدار برای زنده نگه داشتن رابطه با متوفی. آموزش پذیرش مرگ می تواند به ما امکان می دهد از این فرآیند ها مطلع شویم.

برای نشان دادن نگرانی های خود، اخلاق شناسان هوش مصنوعی کمبریج سه سناریو را ترسیم می نمایند که در آن ربات های تسلی دهنده می توانند برای افراد زنده مضر باشند:

MaNana - یک سرویس هوش مصنوعی مکالمه که مردگانی مانند مادربزرگ مسلما بدون رضایت آنها در حین زندگی، با نام مستعار مادربزرگ، شبیه سازی می نماید. اما ضمناً تبلیغات هم دارد و این مادربزرگ شبیه سازی شده به افراد داغدار پیشنهاد می نماید از یک سرویس تحویل خاص غذا سفارش دهند!

پدر و مادر - یک زن مبتلا به بیماری بدون درمان ممکن است در آخرین ماه های زندگی رباتی را آموزش دهند تا به کودکش در پذیرش مرگش یاری کند. ربات تسلی دهنده ممکن است در ابتدا باعث آرامش گردد، اما اگر آغاز به ایجاد پاسخ های گیج نماینده کند، مانند پیشنهاد دیدار حضوری، می تواند بهبودی کودک را به تاخیر بیندازد.

حضور مستمر و جاودانگی - یک پدر یامادر ممکن است بخواهد اثری ماندگار و جاودان از خودش بسازد، اما همه بچه ها این را نمی خواهند. یکی از بچه ها،ممکن است بخواهد با این فناوری ارتباط برقرار کند، اما در عوض با ایمیل های از قبل تنظیم شده پدر و مادر مرده اش به رگبار بسته می گردد. از طرفی اگر با ربات قطع رابطه کند ممکن است احساس کند که خواسته های متوفی را نقض نموده و در نتیجه احساس گناه و ناراحتی می نماید.

چندین نوع از ربات های مربوط به درگذشتگان را نشان داده اند که چنین فناوری ای تا کنون از نظر فناوری امکان پذیر و از نظر قانونی قابل تحقق هستند. گرچه سناریو های اخلاق شناسان در حد حدس و گمان هستند، اما تاثیر اجتماعی منفی خدمات بازآفرینی شخصیت درگذشتگان فقط یک مسئله بالقوه نیست که ممکن است در آینده با آن دست و پنجه نرم کنیم. برعکس، پروژه دسامبر و سایر محصولات و شرکت های ذکر شده دردر این مقاله نشان می دهد که استفاده از هوش مصنوعی در صنعت زندگی پس از مرگـ به صورت دیجیتال، امروزه یک چالش قانونی و اخلاقی را سبب شده.

این ربات ها موسوم به ربات تسلی دهنده یا griefbots باید فرایندهای کسب رضایت چه از فرد در آستانه فوت یا بازماندگان آنها را داشته باشند و پروتکل های انصراف و محدودیت های سنی را برای کاربران داشته باشند. همچنین، تاثیر آنها در طی کردن فرایند طبیعی داغ دیدگی و جدایی از عزیزان باید آنالیز گردد.

این حوزه هوش مصنوعی یک میدان مین اخلاقی است. مهم است که شأن و منزلت متوفی را در اولویت قرار دهید، و اطمینان حاصل کنید که برای مثال، انگیزه های مالی خدمات پس از مرگ دیجیتال به این موضوع تجاوز نمی نماید. در عین حال، یک فرد ممکن است یک شبیه سازی هوش مصنوعی را به عنوان هدیه خداحافظی برای عزیزانی که آماده پردازش غم و اندوه خود به این روش نیستند، تقدیم آنها کند. حقوق اهدانمایندگان داده و کسانی که با خدمات پس از مرگ هوش مصنوعی در تعامل هستند باید به یک مقدار محافظت گردد.

این تحقیق در Philosophy & Technology منتشر شده.

منبع: یک پزشک
انتشار: 22 اردیبهشت 1403 بروزرسانی: 22 اردیبهشت 1403 گردآورنده: 1com.ir شناسه مطلب: 92284

به "ربات های تسلی دهنده هوش مصنوعی: اخلاق گرایان هوش مصنوعی سه سناریوی وحشتناک را مطرح نموده اند" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "ربات های تسلی دهنده هوش مصنوعی: اخلاق گرایان هوش مصنوعی سه سناریوی وحشتناک را مطرح نموده اند"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید