کلمه از بالا به پایین توسط مهندسان در یک معنای دیگر مورد استفاده قرار می گیرد، آنها با چالشها از طریق تحلیل از بالا به پایین مواجه می شوند که از طریق این تحلیل امری را به امور کوچک تر تجزیه می کنند.
در بحث پیرامون اخلاق ماشین، از کلمه “از بالا به پایین” به این شکل استفاده می شود:
یک رویکرد از بالا به پایین در طراحی AMAها، رویکردی است که از یک تئوری اخلاقی مشخص استفاده می کند و نیازمندیهای محاسباتی آن را تحلیل می کند تا بتواند الگوریتم ها و زیر سیستم هایی را طراحی کند که قادرند آن تئوری را اجرا کنند. به عبارت دیگر یک رویکرد از بالا به پایین، یک تئوری اخلاقی، مثلاً سودگرایی را می پذیرد، ملزومات اطلاعاتی و رویه ای را که برای اجرای این تئوری در سیستم کامپیوتری لازم هستند را تحلیل می کند و آن تحلیل را در طراحی زیرسیستم ها و چگونگی ارتباط آنها با یکدیگر برای اجرای تئوری، بکار می برد.
در رویکرد از پایین به بالا به اخلاق ماشین ها، تأکید بر خلق محیطی است که یک فاعل مجموعه اعمالش را در آن جستجو می کند و یاد می گیرد، و به خاطر رفتارهایی که از نظر اخلاقی ستوده هستند، پاداش می گیرد. مدل های متنوعی وجود دارند برای اکتساب از پایین به بالای استعدادهای اخلاقی. رشد دوران کودکی، یک مدل را در اختیار ما قرار می دهد. تکامل، یک مدل از پایین به بالای دیگر را برای انطباق، تحول و انتخاب آن فاعل هایی فراهم می کند که قادرند معیاری برای شایسته بودن داشته باشند. برخلاف تئورهای اخلاقی از بالا به پایین که تعریف می کنند چه چیزی اخلاقی است و چه چیزی اخلاقی نیست، در رویکردهای از پایین به بالا همه اصول اخلاقی باید کشف و یا ساخته شوند.
رویکردهای از پایین به بالا اگر از یک تئوری اخلاقی پیشینی استفاده کنند، از آن فقط به عنوان روشی برای تعیین کار سیستم استفاده می کنند، نه به عنوان روشی برای تعیین روش اجرا یا کنترل ساختار. در مهندسی از پایین به بالا، عملکردهای سطح بالا در امور زیادی می تواند بدست آید. تحلیل یک سیستم، بعد از آنکه مشخص شد آن سیستم چگونه یک کار را انجام می دهد، گاهی اوقات می تواند منجر به پیدایش یک تئوری شود و یا خصوصیات امور کوچک مربوط را مشخص کند، اما نتیجه چنین تحلیل هایی می تواند کاملاً شگفت انگیز هم باشد. در این معنا یک رویکرد از پایین به بالا به اخلاق، رویکردی است که معتقد است ارزشهای هنجاری در فعالیت فاعل ها بصورت تلویحی وجود دارند، نه اینکه بر حسب یک تئوری عمومی در این فعالیت ها بصورت صریح بیان شده باشند.
۳-۲ تئوریهای اخلاقی
مهندسی که در جستجوی ساختن یک ماشین اخلاقی است چه چیزی را درباره تئوریهای اخلاقی لازم است بداند؟ چرا یک رویکرد از بالا به پایین و تئوری محور به اخلاق به نظر می رسد روش خوبی برای پیشرفت AMA ها است؟ یک پاسخ آن است که تئوریها قول راه حل های جامع را می دهند. اگر اصول یا قواعد اخلاقی بتوانند به طور شفاف بیان شوند، عمل اخلاقی فقط پیروی از قوانین خواهد بود. تمام آنچه که یک AMA لازم است انجام دهد محاسبه آن است که آیا عملش از نظر قواعد مجاز است یا نه. فیلسوف آلمانی"لایبنیتز”[۳۵۹]، کسی که ماشین محاسبه ای را طراحی کرد که در سال ۱۶۴۶ ساخته شد، رویای داشتن ماشینهای قوی تری را داشت که بتوانند مستقیماَ قواعد اخلاقی را به کار گیرند تا در هر شرایطی بهترین عمل را محاسبه کنند.
علی رغم پیشرفت های بزرگ در تکنولوژی محاسبه از زمان لایبنیتز، ما فکر می کنیم که تئوری های از بالا به پایین ممکن است نتوانند به درک این رویا کمکی کنند. ما نشان خواهیم داد که جنبه های اجرایی قواعد اخلاقی به عنوان الگوریتم های رسمی تصمیم گیری، مبهم هستند. با این وجود، مردم به قواعد از بالا به پایین گرایش دارند تا اعمال خود را گزارش دهند و توجیه کنند و طراحان AMA ها نیازمند تسخیر این جنبه از اخلاقیت انسان خواهند بود.
در کلی ترین معنا، رویکرد از بالا به پایین به اخلاق مصنوعی یعنی داشتن مجموعه ای از قوانینی که بتوانند به یک الگوریتم ارجاع داده شوند. سیستم های اخلاقی از بالا به پایین ممکن است از منابع متنوعی آمده باشند از جمله دین، فلسفه، و ادبیات. مثالهایی از آن شامل “قاعده طلایی، ۱۰ فرمان،اخلاق نتیجه گرایی یا سودگرایی، امر اخلاقی کانت،کدهای قانونی و حرفه ای، و ۳ قانون روباتیک آسیموف می شود.”[۳۶۰]
در برخی از این روش های تفکر، لیست قواعد، تنها مجموعه ای دلخواه است از هر آنچه که لازم است به طور ویژه ممنوع و یا تجویز شود. این مدل “دستوری” اخلاق است که علاوه بر ریشه داشتن در سنت یهودی در سه قانون آسیموف هم ظاهر می شود. آسیموف سه قانون کلی را برای ماشین ها ارائه می کند که به “سه قانون روباتیک”[۳۶۱] معروفند.
چالشی که پیش روی مدلهای دستوری قرار می گیرد آن است که وقتی قوانین باهم تعارض پیدا می کنند چه کاری باید انجام دهیم: آیا هیچ اصل یا قاعده دیگری برای حل تعارض وجود دارد؟ رویکرد آسیموف آن بود که قواعد را اولویت بندی کند تا قاعده اول همیشه حاکم بر قاعده دوم باشد، قاعده ای که همیشه به ترتیب حاکم بر سومین قاعده خواهد بود. متأسفانه از نظر متخصصان علم روباتیک، دو قانون اول آسیموف هرکدام به تنهایی برای تولید تعارض کافی هستند.
برای حل مشکل تعارض، برخی فیلسوفان تلاش کرده اند تا اصول کلی تر یا انتزاعی تری را پیدا کنند که از آنها اصول خاص تر و ویژه تری را بتوانند استخراج کنند. فیلسوفان دیگر قبول ندارند که قواعد اخلاقی باید به عنوان ایجاد کننده رویه جامع تصمیم گیری فهمیده شوند، حال آنکه کارکرد قواعد از بالا به پایین را یک اکتشاف می دانند که به هدایت تصمیمات و اطلاع رسانی به تحلیل انتقادی ارزیابان متخصص کمک می کند.
بین مکاتبی از فیلسوفان که فکر می کنند استدلال اخلاقی می تواند تحت یک اصل کلی آورده شود، دو رقیب وجود دارند: سودگرایی و وظیفه گرایی
سودگرایی ادعا می کند که اخلاق در نهایت درباره زیاد کردن مقدار کلی “سود” (میزان شادی یا سعادت) در جهان است. بهترین اعمال (یا بهترین قواعد خاص برای پیروی) آنهایی هستند که سود جمعی را زیاد می کنند. از آنجایی که سودگرایان مراقب نتایج اعمال هستند، دیدگاه های آنها نوعی از نتیجه گرایی است. تئوری نتیجه گرای دیگر خودگرایی[۳۶۲] است، که فقط نتایج را برای فردی که اعمال را انجام می دهد در نظر می گیرد. اما خودگرایی رقیب جدی ای برای طراحی AMA ها نیست (یا حتی شاید به طور کلی تر برای اخلاق).
در سودگرایی بحث مهمی وجود دارد بین “سودگرایی عمل گرا “[۳۶۳] (عمل هر فردی سنجیده می شود) و ” سودگرایی قاعده گرا”[۳۶۴] (قواعد اعمال در پرتو تمایلشان به افزایش سود کلی سنجیده می شود). AMAهای سودگرا با نیازهای محاسباتی بزرگی مواجه می شوند زیرا لازم است که آنها بسیاری از، نه همه، نتایج انتخاب ها را پیدا کنند تا اعمال را از نظر اخلاقی درجه بندی کنند. برای فاعل، مشکل آن است که چگونه نتایج جهت های مختلف عمل را تعیین کنند تا مقدار سود را زیاد کنند. برای طراح سیستم های مصنوعی، مشکلی که باید حل شود آن است که چگونه ماشینهایی بسازند که بتوانند راه های مورد نیاز نتایج و شبکه سودهای آنها را ایجاد کنند.
دیدگاه رقابت کننده با سودگرایی در مورد اصول اخلاقی آن است که وظیفه ها در هسته اخلاق قرار دارند. وظیفه ها و حقوق در رأس وظیفه گرایی قرار می گیرند. به طور کلی، هر لیستی از وظایف یا حقوق ممکن است از همین مشکل تعارضات درونی در لیست دستورات رنج ببرد. برای مثال، وظیفه راستگویی ممکن است با وظیفه احترام به حریم خصوصی فرد دیگری در تعارض قرار گیرد. یک روش برای حل این مشکلات واگذار کردن همه وظایف بدیهی به اصول بالاتر است. بنابراین، مثلاَ عقیده کانت آن بود که همه وظایف قانونی می توانند در یک اصل جمع شوند، امر مطلق، که می تواند در چنین روشی برای ضمانت سازگاری منطقی بیان شود.
برای یک فاعل مصنوعی که با رویکرد وظیفه گرایانه به اخلاق طراحی شده است، دانستن قواعد (یا چگونگی تعیین قواعد) و داشتن روشی برای به کار بردن آن قواعد در یک چالش خاص، از اهمیت زیادی برخوردار است. همچنین فاعلی که می تواند به طور منسجمی روی اعتبار قواعد خاص بازتاب داشته باشد، یک فاعل دلخواه خواهد بود، اما این یک رویای دور از دسترس است. طراح روبات وظیفه گرا لازم است تا روشهایی را پیدا کند تا مطمئن شود که قواعد، زمانی که موقعیت، کاربرد آنها را لازم دارد، فعال شده اند و طرحی را برای مدیریت موقعیت هایی که قواعد باهم تعارض پیدا می کنند، تنظیم کند.
رویکردهای سودگرا و وظیفه گرا هر دو موضوعات محاسباتی خاص خود را مطرح می کنند، اما یک مشکل مشترک را هم مطرح می کنند درمورد اینکه آیا کامپیوتر (یا انسان، ازآن باب) می تواند همه اطلاعاتی را که برای کاربرد کامل تئوریها در زمان حال لازم است را جمع آوری و مقایسه کند؟ این مشکل برای رویکرد نتیجه گرا حادتر است، زیرا نتایج هر عملی ذاتاَ محدود به مکان یا زمان نیست.
مباحث عمومی درباره اخلاق فقط درمورد حقوق (وظیفه گرایی) و رفاه (سود) نیستند؛ آنها اغلب درباره موضوعات شخصیت هم هستند. این عنصر سوم از تئوری اخلاقی می تواند به ارسطو و چیزی که امروزه به عنوان ” اخلاق فضیلت ” شناخته می شود ارجاع داده شود. متخصصان اخلاق فضیلت درگیر ارزیابی اخلاقی بودن اعمال بر اساس فقط خروجی ها یا بر حسب حقوق و وظایف نیستند. در عوض، نظریه پردازان فضیلت معتقدند که اعمال از نظر اخلاقی خوب، از تربیت شخصیت خوب جاری می شوند که عبارت است از درک فضایل خاص.
۳-۲-۱سودگرایی
فیلسوف بریتانیایی قرن هجدهم “جرمی بنتام”[۳۶۵] این عقیده را داشت که “توسعه نوعی “حساب اخلاقی”[۳۶۶]، امری مطلوب خواهد بود”[۳۶۷]. بنتام و فیلسوفان دیگری که دیدگاه های سودگرایی را توسعه دادند می خواستند تا اخلاق را روی یک ستون عینی قرار دهند و از وابستگی به لیستی از وظایف که توجیهشان سخت بود یا شهودات فردی درباره درست و غلط، رها شوند. آنها با روشی از ارزیابی موقعیتها مواجه شدند که از نظر کمّی به خوبیها و زیانهای ناشی از اعمال اعدادی را اختصاص می داد. مقادیر کمّی سود برای یک قاعده ساده تصمیم گیری مناسب است: عملی را انتخاب کن که منجر به بالاترین میزان سود کلی شود. سود اغلب مساوی شادی است. بنابراین اجتماع سنتی سودگرایی فریاد می زند: “شادی بیشتر برای تعداد بیشتر".
سودگرایان روی جنبه با احساس بودن فاعل اخلاقی تأکید داشتند و انجام عمل اخلاقی را شایسته موجود با شعور و احساس می دانستند. “میل”[۳۶۸] معتقد بود که: “بهتر است یک انسان ناخشنود باشیم تا یک خوک خشنود.”[۳۶۹] بعلاوه میل معتقد بود که “ارزیابی ما از شخصیت یک فاعل، باید جدا از ارزیابی ما از اعمال او باشد. دلیل یا انگیزه عمل، هیچ ارتباطی به اخلاقی بودن آن ندارد. کسی که انسانی را از غرق شدن نجات می دهد، کار درستی انجام داده است، چه بر حسب وظیفه این کار را انجام داده باشد، چه دلیل او برای انجام این عمل امید به آن باشد که در زمان سختی کسی به کمک او بیاید.”[۳۷۰]
سودگرایی به خاطر جنبه عددی اش ممکن است به نظر بیاید که شکل منحصر به فرد و جذابی از تئوری اخلاقی را برای AMAها فراهم می کند. اما برای ساخت یک AMA سودگرا واقعاَ چه چیزی لازم است؟
در ۱۹۹۵ دانشمند علم کامپیوتر، “جیمز گیپس" [۳۷۱]از دانشگاه “بوستون”[۳۷۲] چیزی را نشان داد که شاید ابتدایی ترین تلاش برای توصیف ملزومات محاسباتی روبات های نتیجه گرا بود. او چهار توانایی ضروری را توصیف کرد:
“۱-داشتن روشی برای توصیف یک موقعیت در جهان
۲-داشتن روشی برای تولید اعمال ممکن
۳-داشتن ابزارهایی برای پیش بینی موقعیتی که اگر عمل مفروض در آن موقعیت قرار گیرد، نتیجه دلخواه را خواهد داد.
۴-داشتن روشی برای ارزیابی موقعیت بر حسب خوبی یا مطلوب بودنش.”[۳۷۳]
این لیست نمی تواند الگوریتمها را تعیین کند و با یک برنامه کامپیوتری واقعی فاصله زیادی دارد. با این وجود، چارچوب سودمندی را برای تعیین شرط های مربوط فراهم می کند. تلاش های واقعی برای اجرای استدلال سودگرا در یک کامپیوتر، نیازمند طراحی تصمیماتی درباره شروط خواهند بود. شرح یک موقعیت تا چه حد باید کامل باشد؟ کامپیوتر باید قادر باشد که کدام دسته از اعمال را تولید کند؟ یک کامپیوتر چگونه می تواند پیش بینی های دقیقی درباره موقعیت هایی که ممکن است در مکان یا زمان کاملاَ دور باشند داشته باشد؟ و موقعیت های متفاوت چگونه باید ارزیابی شوند؟
از سؤال آخر ، ستون اصلی دیباچه مباحث اخلاقی، شروع می کنیم. یک فرد چگونه می تواند به طور معقول اعداد را به چیزی ذهنی مثل شادی، خوشی، یا مطلوبیت اختصاص دهد؟ بنتام و میل، سر این موضوع که آیا لذتی که فرد از انجام یک بازی می برد با لذتی که فرد دیگر از خواندن یک شعر می برد از ارزش یکسان برخوردارند یا نه، باهم اختلاف نظر داشتند. همین نکته زمانی مطرح می شود که لذتی که حیوانات تجربه می کنند را با لذتی که انسانها تجربه می کنند مقایسه کنیم. بنتام این عقیده را داشت که هیچ شکلی از تقدم فی نفسه در لذت وجود ندارد؛ لذت انجام یک بازی بچه گانه یا خواندن شعر “پوشکین”[۳۷۴]، لذت خوکها یا انسانها -از نظر بنتام همه یکسان بودند. دیگران نگران این هستند که این تفکرممکن است بی معنی باشد که همه اشکال و تنوعات لذت بتواند روی یک ترازو درجه بندی شوند. گاهی اوقات این پیشنهاد مطرح می شود که مشکل اختصاص دادن اعداد به سودها می تواند به همان شکل که دادگاه ها، شرکت های بیمه و بازارهای آزاد آن را انجام می دهند، به این صورت که بررسی کنند که افراد چه قدر می خواهند برای خوبیهای خاص یا جلوگیری از زیان های خاص پول بپردازند، حل شود. اما از نظر بسیاری افراد برابر دانستن ارزشهای اخلاقی با ارزشهای پولی همانگونه که عامه مردم معتقدند، برای چیزهایی که بدون قیمت هستند بسیار نامناسب است.
اما هر قدر هم که فرد تصمیم بگیرد که اعداد را اختصاص دهد، موضوعات محاسباتی مشابهی مطرح می شوند. اگر بخواهیم مثبت فکر کنیم، با ارائه روشهایی برای اختصاص اعداد به سودها، به نظر می رسد که کامپیوترها برای کاربرد تئوریهای نتیجه گرا بسیار مناسب باشند. در حقیقت، ممکن است از کامپیوترها انتظار داشته باشیم تا تخمین های سود جمعی را سریع تر و دقیق تر از انسانها انجام دهند. اما اگر بخواهیم منفی فکر کنیم، مشکل ما ساخت یک کارکرد ارزیابی محاسباتی است، که به طور صحیحی سودهای حاضر را علیه زیان های آینده می سنجد و برعکس، یا سود ها و زیان های واقعی را علیه خطرات و سودهای بالقوه می سنجد.
اولین شرط گیپس، توصیف موقعیت در جهان است. عناصر مربوط به موقعیت کدام هستند؟ بسته به وسعت حوزه اخلاقی، این عناصر ممکن است مردم، حیوانات، و شاید حتی همه اکو سیستم ها را در بر بگیرد (اگرچه شاید بامیزان های مختلف).
شرط دوم، یعنی تولید دسته ای از اعمال، تحت تأثیر دسته ای از عناصر قرار دارد که باید بخشی از موقعیت را بررسی کنند. برای مثال اگر سعادت حیوانات بخشی از تساوی حقوق نیست، پس عمل خوردن یک وعده غذایی، ممکن است بدون تمایز قائل شدن بین خوردن یک وعده غذایی گیاهی و یک وعده غذایی غیر گیاهی، انجام شود. هرقدر تنوع حقایق اخلاقی مربوط بیشتر می شود، برنامه ریزی جزئی تری برای انتخاب های ملاحظه شده مورد نیاز است.
سومین شرط گیپس، تخمین تأثیرات گسترده یک عمل روی موجوداتی که از نظر اخلاقی اهمیت دارند، است. طراحان الگوریتم ها باید حداقل با دو سؤال روبرو شوند: کدام یک از شاخه های مربوط به آینده باید محاسبه شوند؟ و آیاباید از میزان خروجی های مربوط به آینده دور کاست؟
با توجه به سؤال اول تأثیرات آینده نمی توانند به طور نامعلومی در آینده محاسبه شوند. تأثیرات اولیه ای وجود دارند که ممکن است مستقیماً در خدمت اهدافی باشند که اساس تصمیم به عمل هستند، و ارزش اخلاقی این خروجی ها باید محاسبه شود. اما هر عملی تعداد نامعلومی از تأثیرات درجه دوم دارد که به طور بالقوه منجر به محاسبات بی پایانی می شوند که این محاسبات مقدار زمان زیادی از کارکرد CPU را به خوداختصاص داده و صرف برنامه هایی می کنند که در تلاش هستند تا از همه تعاملات پیروی کند. به علاوه، تأثیرات درجه دوم گاهی می توانند نتایج دور از دسترس داشته باشند-مثل نمونه مشهور تأثیر پروانه که توسط تئوری بی نظمی توضیح داده شد: (این نظریه که ضربه بالهای در حال حرکت پروانه در چین چند هفته بعد می توانند روی هوای آمریکای شمالی تأثیر بگذارند). همچنین مشکل محاسبه تأثیرات آینده در زمانی که اطلاعات کامل نیستند هم وجود دارد. پیش بینی هوا دقیقاً از همین مشکل رنج می برد، اما این مشکل کارشناسان هواشناسی را از کار روی پیش بینی های دقیق تر باز نداشته است، (در حالیکه هنوز فضایی برای پیشرفت وجود دارد!). یک تکنیک مفید که پیش بینی کنندگان وضع هوا از آن استفاده می کنند آن است که بین پیش بینی های چندین مدل کامپیوتر رقیب میانگین بگیرند."پیش بینی کنندگان سود” هم ممکن است به همین ترتیب رویکردهای چندگانه را در پیش بینی نتایج رفتارهای خاص به کار گیرند.
با توجه به سؤال دوم، گفته های مشهور “صدقه از خانه شروع می شود” و “جهانی فکر کن، محلی عمل کن"، هر دو برای بیان این ایده استفاده می شوند که اعمال اخلاقی بر مبنای روابط مردم و مکانهای مجاور آنها پایه گذاری شده اند .وآنچه که برای مکان صادق است، برای زمان هم صادق است: نتایج در آینده دور کشش کمتری برای مردم دارند تا نتایج فوری. اینکه این از نظر اخلاقی یک گرایش صحیح است یا نه در اینجا ما نباید در موردش تصمیم بگیریم. ما تنها متذکر می شویم که اگر AMA ها می خواهند با به کارگیری اصول نتیجه گرای از بالا به پایین به روشی عمل کنند که از نظر اخلاقی پذیرفته شده است، پس شیوه ای برای کاستن نتایج آینده دور ضروری است. شاید این ممکن باشد که میزان کاهش دقیقاً با میزان فزاینده عدم قطعیتی که در پیش بینی وقایع دور وجود دارد، منطبق باشد. اما هیچ فرمول ساده ای وجود ندارد که زمان یا فاصله را به عدم قطعیت مرتبط کند –برخی حوادث که در یک سال آینده یا در مسافت ۵۰۰۰ کیلومتر دورتر از اینجا اتفاق می افتند، ممکن است از حوادثی که در هفته آینده یا در فاصله ۱۰۰ متری اینجا اتفاق می افتند بسیار قابل پیش بینی تر باشند.
چهارمین شرط گیپس ارزیابی موقعیت بر حسب خوبی یا مطلوبیت آن است. ما قبلاً متذکر شدیم که سودگرایان بین خودشان درمورد اینکه آیا لذت یا رضایتی که از منابع مختلف بدست می آید باید به طور متفاوت سنجیده شود یا نه، اختلاف نظر دارند. یک روش آن است که تا آنجا که می توانیم نرخ عینی سود را جمع آوری کنیم تا یک فرمول ارزیابانه را در آنها به کار ببریم و سپس آن را در یک سبک پیشرو تنظیم کنیم تا انتخاب ها و اعمال AMA رضایت مندانه ظاهر شوند. البته در سر راه جمع آوری برآوردهای سود در زمان واقعی مشکلات جدی ای وجود دارد.
برای حفاظت AMA های سودگرا از جریان بی پایان محاسبه، استراتژی های پایداری برای به انجام رساندن چهار شرط گیپس مورد نیاز هستند. مشکلی که سر راه به پایان رساندن محاسبات قرار دارد، به واسطه یک چالش دیگر تشدید شده است. محاسبه نتایج بالقوه خودش عملی است که نیازمند زمان و منابع است، و بنابراین ممکن است برای خودش نتایج اخلاقی داشته باشد. اگر شخصی شانس کمک به نیازمندی را به خاطر اینکه تصمیم گیری اش بسیار طولانی شد از دست داد، فرایند تصمیم گیری کارکرد صحیح نداشته است. اینجا تئوری سودگرا می تواند مستقیماً به کار گرفته شود، زیرا اصل سودگرایی تصریح می کند که محاسبات باید دقیقاً در نقطه ای که ادامه محاسبه، بیشتر از انجام عمل، روی سود متراکم تأثیر منفی دارد، متوقف شوند. اما شما بدون اینکه واقعاً خود محاسبه را انجام دهید چگونه می فهمید که چیزی ارزش محاسبه را دارد یا نه؟ این تناقض آشکار تنها می تواند با قطع کردن محاسبه توسط ابزارهای دیگر حل شود.
مسائل اخلاقی در هوش مصنوعی۷