اخلاق هوش مصنوعی
اخلاق هوش مصنوعی (به انگلیسی: Ethics of artificial intelligence) بخشی از اخلاق تکنولوژی است که به صورت خاص به ربات و هوش مصنوعی مربوط میشود، و بیشتر راجع به نحوه رفتار و عملکرد انسان با هوش مصنوعی و بالعکس آن است. در اخلاق هوش مصنوعی به بررسی حقوق رباتها و درستی یا نادرستی بر جایگزین شدن آنها در نقشهای انسانی میپردازیم.
روباتیک
اصطلاح «رباتیک» در سال ۲۰۰۲ ابداع شد. با اشاره به سیرت ساختن، شکل دادن، رفتار کردن و استفاده کردن از رباتها. و به عبارت دیگر دربارهٔ این که چگونه رباتها میتوانند برای انسان مفید یا مضر باشند صحبت میکند. بنابر پیشبینی و با توجه به روند زیاد شدن تعداد رباتها گمان میرود که تا سال ۲۰۳۰ تعداد رباتها به شکل قابل توجهی زیاد شود همانطور که رشد ۲۴ درصدی را در سال ۲۰۱۴ در تعداد رباتها مشاهده شد.
حقوق رباتها
حقوق رباتها انتظار اخلاقی آنها در قبال جامعه و دیگر ماشینها است و به مانند حقوق بشر یا حقوق حیوانات میباشد و ممکن است شامل حق زندگی، آزادی، آزادی اندیشه، آزادی بیان و برابری در برابر قانون باشد. این موضوع توسط اندیشکده موسسهای برای آینده و وزارت تجارت و صنعت انگلستان در حال پیگیری است.
کارشناسان اختلاف نظر دارند که آیا قوانین خاص و دقیق به زودی مورد نیاز خواهد بود یا با آسودگی در آینده دور میتوان به آن فکر کرد. گلن مک گی گفته بود به نظر میرسد تا سال ۲۰۲۰ ممکن است به اندازه کافی روبات انسان نما وجود داشته باشد. ری کورزویل تاریخ احتمالی این واقعه را در سال ۲۰۲۹ میبیند. گروه دیگری از دانشمندان در جلسه ای در سال ۲۰۰۷ به این نتیجه رسیدند که حداقل ۵۰ سال طول خواهد کشید تا بشر بتواند سیستمی با هوش سطح بالا تولید کند و موجودات هوشمند انسان ساز وجود داشته باشند.
قوانین سال ۲۰۰۳ مسابقه جایزه لوبنر به صراحت این مشکل را دربارهٔ مالکیت و حقوق رباتها مطرح کرده بود:
قانون شماره ۶۱. اگر در هر سالی، یک پروژه نرمافزار متن باز وارد شده از طرف دانشگاه سوری یا دانشگاه کمبریج برنده مدال نقره یا مدال طلا شود، آنگاه مدال و جایزه نقدی مسابقه به افرادی اهدا خواهد شد که مسئولیت توسعه آن پروژه یا نرمافزار را داشتهاند. اگر هیچ فردی به این عنوان تشخیص داده نشد یا اختلاف نظری میان تعداد دو یا بیشتر کاندیدا برای مسئول بودن پروژه وجود داشت. مدال و جایزه نقدی نگه داشته خواهد شد تا زمانی که آن پروژه به صورت قانونی دارای صاحب شود و آنگاه مدال و جایزه به صورت قانونی اهدا خواهد شد.
تهدید انسان
تهدید حریم خصوصی
الکساندر سولژنیتسین در رمان اولین دایره تکنولوژی تشخیص گفتار را توصیف کرد که در خدمت حکومت استبدادی بود و مکالمات انسانها را تهدید میکرد. اگر یک برنامه هوش مصنوعی وجود داشته باشد که توانایی درک طبیعی زبان و گفتار (مثلاً زبان انگلیسی) را داشته باشد پس به صورت نظری با قدرت پردازش مناسب میتواند به هر مکالمه تلفنی گوش بدهد و هر ایمیلی را در جهان بخواند و آن را درک کند و به برنامه اپراتور دقیقاً آنچه گفته شدهاست و دقیقاً آن کس که آن را گفتهاست را گزارش دهد. برنامه هوش مصنوعی مانند این مورد میتواند به دولتها یا نهادها کمک کند تا مخالفان خود را سرکوب کنند و کاملاً یک تهدید برای حریم خصوصی محسوب میشود.
تهدید نسل بشر
همانطور که در بسیاری از فیلمها و داستانهای علمی تخیلی دیده میشود. همواره فکر تهدید نسل بشر توسط رباتها در هنگام بلوغ فکری و هوشی آنها بعد از مطرح شدن هوش مصنوعی وجود داشته. اما بعد از انتشار برخی از پیشبینیها مانند جایگزین شدن ۴۵ درصدی سربازان انسانی نظامی به سربازان ربات تا سال ۲۰۲۵ این نگرانیها شکل جدی تری به خود گرفت. از آن جا که تا سال ۲۰۳۰ احتمال دارد درصد بسیار زیادی از کارگران و مجریان اجتماع رباتها باشند در صورت شورش یا اغتشاشی از جانب آنها ممکن است نسل و نژاد انسان به خطر بی افتد. در این صورت شاید باید قوانینی مبنی بر محدود کردن دایره تفکر، احساس، خودمختاری و آزادی رباتها بنا گذاشت.
تهدید کرامت انسانی
یوسف ویزینبام در سال ۱۹۷۶ بیان کرد که تکنولوژی هوش مصنوعی نباید به جای انسان در موقعیتهای که نیاز به توجه و مراقبت و احترام دارند استفاده شوند مانند هر یک از این موارد:
- یک نماینده خدمات مشتری (در حال حاضر از تکنولوژی هوش مصنوعی برای تلفنهای گویا استفاده میشود)
- یک درمانگر
- دایه برای افراد مسن یا کودکان
- یک سرباز
- یک قاضی
- یک افسر پلیس
ویزینبام توضیح میدهد که ما در این موقعیتها نیاز به احساس همدلی و درک متقابل از فرد داریم. اگر در این کارها ماشینها جای انسان را بگیرند ما خود را نسبت به آنها بیگانه میدانیم، احساس کم ارزشی و فرسودگی میکنیم. هوش مصنوعی اگر در این راه استفاده شود یک تهدید برای کرامت انسانی محسوب میشود.
پاملامککوردوک در هنگام سخنرانی با زنان بیان کرد "من میخواهم شانسم را با یک کامپیوتر بی طرف امتحان کنم " که به این اشاره میکرد که قضاوت یک کامپیوتر به عنوان یک قاضی یا پلیس بیطرف است و غرایز انسانی در آن دیده نمیشود. بنیانگذار هوش مصنوعی جان مک کارتی نتیجهگیری اخلاقی ویزینبام را نقد میکند. "هنگامی که اخلاقیات انسان مبهم و ناکامل است، موجب میشود که گاهی استبداد را فرا خواند ".
بیل هیبارد مینویسد: «کرامت انسانی مستلزم آن است که ما برای خلاص شدن از جهل نسبت به موجودات جهان تلاش کنیم و هوش مصنوعی برای این تلاش لازم است.»
شفافیت و متن باز
بیل هیبارد میگوید که به دلیل این که هوش مصنوعی تأثیر عمیقی بر انسانیت دارد، بنابراین توسعه دهندگان هوش مصنوعی نماینده انسانیت در آینده هستند و به همین دلیل باید تعهد اخلاقی آنها در تلاششان به وضوح مشخص باشد. بن گویرتزل و دیوید هارت OpenCog را به عنوان یک منبع باز برای توسعه هوش مصنوعی ایجاد کردند. OpenAI یک شرکت تحقیقاتی هوش مصنوعی غیرانتفاعی ایجاد شده توسط ایلان ماسک، سام آلتمن و افرادی دیگر است که به منظور توسعه هوش مصنوعی به صورت منبع باز برای بهبود آینده بشریت فعالیت میکند. و همچنین تعداد بسیار زیادی شرکتهای منبع باز دیگر برای این اهداف وجود دارند.
جستارهای وابسته
- آگاهی مصنوعی
- هوش مصنوعی عمومی
- ایثار مؤثر
- وجود خطر
- وجود خطر از هوش مصنوعی پیشرفته
- فلسفه هوش مصنوعی
- دیدگاه هوبرت دریفوس به هوش مصنوعی
- محققان
- سازمان
- مرکز مطالعات وجودی خطر
- مؤسسه آینده بشریت
- مؤسسه زندگی آینده
- مؤسسه تحقیقات دستگاههای اطلاعاتی
پانویس
- ↑ Veruggio, Gianmarco (2007). "The Roboethics Roadmap" (PDF). Scuola di Robotica: 2. Archived from the original (PDF) on 15 August 2011. Retrieved 28 March 2011.
- ↑ «Statistics - IFR International Federation of Robotics». www.ifr.org. بایگانیشده از اصلی در ۲۷ مارس ۲۰۱۶. دریافتشده در ۲۰۱۶-۰۶-۲۷.
- ↑ Evans, Woody (2015). "Posthuman Rights: Dimensions of Transhuman Worlds". Universidad Complutense Madrid. Retrieved 7 April 2016.
- ↑ The American Heritage Dictionary of the English Language, Fourth Edition
- ↑ "Robots could demand legal rights". BBC News. December 21, 2006. Retrieved January 3, 2010.
- ↑ Henderson, Mark (April 24, 2007). "Human rights for robots? We're getting carried away". The Times Online. The Times of London. Retrieved May 2, 2010.
- ↑ McGee, Glenn. "A Robot Code of Ethics". The Scientist. Archived from the original on 9 April 2011. Retrieved 5 June 2016.
- ↑ Kurzweil, Ray (2005). The Singularity is Near. Penguin Books. ISBN 0-670-03384-7.
- ↑ The Big Question: Should the human race be worried by the rise of robots?, Independent Newspaper,
- ↑ Loebner Prize Contest Official Rules — Version 2.0 The competition was directed by David Hamill and the rules were developed by members of the Robitron Yahoo group.
- ↑ (McCorduck 2004, p. 308)
- ↑ "تهدید نژاد انسان به وسیله ربات ها".
- ↑ Naughton، John (۲۰۱۲-۱۲-۰۲). «Could robots soon add to mankind's existential threats?». the Guardian. دریافتشده در ۲۰۱۶-۰۶-۲۷.
- ↑ «Is Artificial Intelligence Really A Threat To Humanity?». ۲۰۱۵-۰۸-۲۸. دریافتشده در ۲۰۱۶-۰۶-۲۷.
- ↑ «Google developing 'kill switch' to stop robot uprising against humans». دریافتشده در ۲۰۱۶-۰۶-۲۷.
- ↑ Joseph Weizenbaum, quoted in (McCorduck 2004، صص. 356, 374–376)
- ↑ Hibbard, Bill (2014): "Ethical Artificial Intelligence".
- ↑ Open Source AI.
- ↑ OpenCog: A Software Framework for Integrative Artificial General Intelligence.
- ↑ Inside OpenAI, Elon Musk’s Wild Plan to Set Artificial Intelligence Free Cade Metz, Wired 27 April 2016.
پیوند به بیرون
- رباتیک: اخلاق در هوش مصنوعی. «چهار محققان برجسته به اشتراک گذاشتن نگرانیهای خود را و راه حل برای کاهش خطرات اجتماعی از ماشینهای هوشمند است.» طبیعتبا ۵۲۱, ۴۱۵–۴۱۸ (۲۸ آوریل ۲۰۱۵) doi:10.1038/521415a
- هوش مصنوعی موضوعات در اخلاق
- حاکم کشنده رفتار: تعبیه اخلاق در ترکیبی مشورتی/واکنش ربات معماری
- مقاله: فلسفه آگاهی و اخلاق در هوش مصنوعی
- 3 قوانین نا امن کمپین - آسیموف قوانین & I, Robot
- اخبار بیبیسی: بازی را در زندگی خود
- کسانی که ترس از روبات ؟ بایگانیشده در ۲۲ مارس ۲۰۱۸ توسط Wayback Machine با یک مقاله در بشریت ترس از هوش مصنوعی است.
- تاریخچه کوتاه از اخلاق کامپیوتر
- ASPCR - جامعه آمریکا برای جلوگیری از ظلم به روبات