هوش مصنوعی ( Artificial intelligence )

هوش مصنوعی یا هوش مصنوعی (هوش مصنوعی) هوش مصنوعی است که در مقابل هوش طبیعی انسان یا حیوان نشان داده می شود. کتب درسی پیشرو در زمینه هوش مصنوعی ، این حوزه را به عنوان مطالعه “عوامل هوشمند” تعریف می کند: هر سیستمی که محیط خود را درک کرده و اقداماتی انجام دهد که شانس خود را برای رسیدن به اهداف خود به حداکثر برساند. تقلید از عملکردهای “شناختی” که انسانها با ذهن انسان مرتبط می کنند ، مانند “یادگیری” و “حل مسئله” ، اما این تعریف توسط محققان اصلی هوش مصنوعی رد می شود.

برنامه های هوش مصنوعی شامل موتورهای جستجوی وب پیشرفته (به عنوان مثال Google) ، سیستم های توصیه (که توسط YouTube ، Amazon و Netflix استفاده می شود) ، درک گفتار انسان (مانند Siri یا Alexa) ، اتومبیل های خودران (به عنوان مثال تسلا) و رقابت در بالاترین سطح در سیستم های بازی استراتژیک (مانند شطرنج و برو) ،با افزایش توانمندی ماشین ها ، وظایفی که به “هوش” نیاز دارند اغلب از تعریف AI حذف می شوند ، پدیده ای که به عنوان اثر AI شناخته می شود.به عنوان مثال ، تشخیص نوری کاراکتر غالباً از مواردی که به عنوان هوش مصنوعی (۴) در نظر گرفته می شود حذف می شود که به یک فناوری معمول تبدیل شده است.

هوش مصنوعی به عنوان یک رشته دانشگاهی در سال ۱۹۵۶ تأسیس شد و در سالهای پس از آن چندین موج خوش بینی را تجربه کرد ، به دنبال آن ناامیدی و از دست دادن بودجه (معروف به “زمستان هوش مصنوعی”) ،  به دنبال رویکردهای جدید ، موفقیت و تمدید بودجه.  تحقیقات هوش مصنوعی بسیاری از روشهای مختلف را در طول عمر خود امتحان کرده و کنار گذاشته اند.

از جمله شبیه سازی مغز ، مدل سازی حل مشکلات انسان ، منطق رسمی ، پایگاه های اطلاعاتی بزرگ دانش و تقلید از رفتار حیوانات. در دهه های اول قرن بیست و یکم ، یادگیری ماشین آماری بسیار ریاضی بر این حوزه تسلط داشت و این تکنیک بسیار موفق بوده و به حل بسیاری از مشکلات چالش برانگیز در صنعت و دانشگاه کمک می کند.

زمینه های فرعی مختلف تحقیق AI حول اهداف خاص و استفاده از ابزارهای خاص متمرکز شده است. اهداف سنتی تحقیقات هوش مصنوعی شامل استدلال ، بازنمایی دانش ، برنامه ریزی ، یادگیری ، پردازش زبان طبیعی ، درک و توانایی حرکت و دستکاری اشیاء است.

اهداف ترم برای حل این مشکلات ، محققان هوش مصنوعی از نسخه های جستجو و بهینه سازی ریاضی ، منطق رسمی ، شبکه های عصبی مصنوعی و روشهای مبتنی بر آمار ، احتمال و اقتصاد استفاده می کنند. هوش مصنوعی همچنین از علوم رایانه ، روانشناسی ، زبان شناسی ، فلسفه و بسیاری از زمینه های دیگر استفاده می کند.
این حوزه بر این فرض بنیان نهاده شده است که هوش بشر “می تواند آنقدر دقیق توصیف شود که بتوان دستگاهی را برای شبیه سازی آن ساخت”. به این مسائل توسط افسانه ، داستان و فلسفه از دوران باستان مورد بررسی قرار گرفته است. داستانهای علمی تخیلی و آینده پژوهی نیز پیشنهاد کرده اند که با پتانسیل و قدرت عظیم خود ، هوش مصنوعی ممکن است به یک خطر وجودی برای بشریت تبدیل شود.

تاریخ
پیش سازها

موجودات مصنوعی با هوش به عنوان ابزارهای قصه گویی در دوران باستان ظاهر می شدند ، و در داستان رایج بودند ، مانند در فرانکشتاین مری شلی یا R.U.R. کارل شاپک . این شخصیت ها و سرنوشت آنها بسیاری از مسائل مشابهی را مطرح کردند که اکنون در اخلاق هوش مصنوعی مورد بحث قرار گرفته است.

مطالعه استدلال مکانیکی یا “رسمی” با فیلسوفان و ریاضیدانان در دوران باستان آغاز شد. مطالعه منطق ریاضی به طور مستقیم به نظریه محاسبه آلن تورینگ منجر شد ، که نشان می داد یک ماشین با به هم ریختن نمادهای ساده مانند “۰” و “۱” ، می تواند هرگونه عمل احتمالی از کسر ریاضی را شبیه سازی کند. این بینش ، که رایانه های دیجیتالی می توانند هرگونه فرایند استدلال رسمی را شبیه سازی کنند ، به عنوان تز Church -Turing شناخته می شود. 

سایبرنتیک و شبیه سازی مغز

تز چرچ تورینگ ، همراه با کشفیات همزمان در نوروبیولوژی ، نظریه اطلاعات و سایبرنتیک ، محققان را بر آن داشت تا امکان ساخت مغز الکترونیکی را در نظر بگیرند. [۲۰] اولین اثری که اکنون به طور کلی به عنوان هوش مصنوعی شناخته می شود ، طراحی رسمی مک کالوچ و پیتز در سال ۱۹۴۳ برای “نورون های مصنوعی” کامل تورینگ بود.تا سال ۱۹۶۰ ، این روش تا حد زیادی کنار گذاشته شد ، اگرچه عناصر آن در دهه ۱۹۸۰ دوباره احیا می شود.

هوش مصنوعی نمادین

هنگامی که دسترسی به رایانه های دیجیتالی در اواسط دهه ۱۹۵۰ امکان پذیر شد ، تحقیقات هوش مصنوعی شروع به کشف این امکان کرد که هوش انسان به دستکاری نمادها کاهش یابد. جان هاجلند این رویکردهای نمادین به هوش مصنوعی را “هوش مصنوعی قدیمی قدیمی” یا “GOFAI” نامید. رویکردهای مبتنی بر سایبرنتیک یا شبکه های عصبی مصنوعی کنار گذاشته شد یا به پس زمینه رانده شد.

زمینه تحقیقات هوش مصنوعی در کارگاهی در کالج دارتموث در سال ۱۹۵۶ متولد شد.شرکت کنندگان بنیانگذاران و رهبران تحقیقات هوش مصنوعی شدند. آنها و دانش آموزانشان برنامه هایی تهیه کردند که مطبوعات آن را توصیف کردند. “حیرت انگیز”: کامپیوترها استراتژی های چکرز را یاد می گرفتند ، مشکلات کلمه ای را در جبر حل می کردند ، قضایای منطقی را اثبات می کردند و انگلیسی صحبت می کردند. دفاع  و آزمایشگاه ها در سراسر جهان تأسیس شده بود. 

محققان در دهه ۱۹۶۰ و ۱۹۷۰ متقاعد شده بودند که رویکردهای نمادین در نهایت موفق به ایجاد دستگاهی با هوش عمومی مصنوعی خواهند شد و این را هدف حوزه خود می دانند.هربرت سیمون پیش بینی کرد ، “ماشین ها قادر خواهند بود در عرض بیست سال هر کاری را که انسان می تواند انجام دهد انجام دهند.”ماروین مینسکی موافقت کرد و نوشت: “ظرف یک نسل … مشکل ایجاد” هوش مصنوعی “بطور اساسی حل خواهد شد.”

آنها نتوانستند دشواری برخی از کارهای باقی مانده را تشخیص دهند. پیشرفت کند شد و در سال ۱۹۷۴ ، در پاسخ به انتقادات سر جیمز لایتیل و فشار مداوم کنگره ایالات متحده برای تأمین بودجه پروژه های پربارتر ، هر دو دولت ایالات متحده و بریتانیا تحقیقات اکتشافی در زمینه هوش مصنوعی را متوقف کردند.چند سال آینده بعداً “زمستان هوش مصنوعی” نامیده می شود ، دوره ای که به دست آوردن بودجه برای پروژه های هوش مصنوعی دشوار بود.

در اوایل دهه ۱۹۸۰ ، تحقیقات هوش مصنوعی با موفقیت تجاری سیستم های متخصص احیا شد ، نوعی برنامه هوش مصنوعی که دانش و مهارت های تحلیلی متخصصان انسانی را شبیه سازی کرد. تا سال ۱۹۸۵ ، بازار هوش مصنوعی به بیش از یک میلیارد دلار رسید. در همان زمان ، پروژه کامپیوتری نسل پنجم ژاپن به دولتهای ایالات متحده و انگلیس الهام بخشید تا بودجه تحقیقات دانشگاهی را بازگردانند. با این حال ، با فروپاشی بازار Lisp Machine در ۱۹۸۷ ، هوش مصنوعی بار دیگر بی اعتبار شد ، و زمستان دوم و طولانی تری آغاز شد.

اولیه ساب سمبولیک

بسیاری از محققان شک کردند که رویکرد نمادین قادر به تقلید از تمام فرآیندهای شناخت انسان ، به ویژه ادراک ، روباتیک ، یادگیری و تشخیص الگو خواهد بود. تعدادی از محققان شروع به بررسی رویکردهای “زیر نمادین” برای مشکلات خاص هوش مصنوعی کردند.  محققان رباتیک ، مانند رودنی بروکس ، هوش مصنوعی نمادین را رد کردند و بر مشکلات مهندسی اساسی تمرکز کردند که به ربات ها اجازه می داد حرکت کنند ، زنده بمانند و محیط خود را بیاموزند.  علاقه به شبکه های عصبی و “ارتباط گرایی” توسط جفری احیا شد. هینتون ، دیوید روملارت و دیگران در اواسط دهه ۱۹۸۰٫

رایانش نرم راه حل هایی را برای مشکلاتی پیدا می کند که نمی توان با اطمینان منطقی کامل آنها را حل کرد و در مواردی که اغلب یک راه حل تقریبی کافی است. رویکردهای محاسبات نرم برای هوش مصنوعی شامل شبکه های عصبی ، سیستم های فازی ، نظریه سیستم خاکستری ، محاسبه تکاملی و بسیاری از ابزارهایی است که از آمار یا بهینه سازی ریاضی گرفته شده است. هوش مصنوعی آماری مدرن (زیر) یک محاسبه نرم است که عمدتا از شبکه های عصبی استفاده می کند.

هوش مصنوعی آماری

هوش مصنوعی به تدریج در اواخر دهه ۱۹۹۰ و اوایل قرن ۲۱ شهرت خود را با یافتن راه حل های خاص برای مشکلات خاص بازگرداند. تمرکز محدود به محققان اجازه می دهد تا نتایج قابل تأیید را تولید کنند ، از روش های ریاضی بیشتر استفاده کنند و با زمینه های دیگر (مانند آمار ، اقتصاد و ریاضیات) همکاری کنند.تا سال ۲۰۰۰ ، راه حل های توسعه یافته توسط محققان Ai به طور گسترده مورد استفاده قرار گرفت ، هر چند در دهه ۹۰ آنها به ندرت به عنوان “هوش مصنوعی” توصیف می شدند.

رایانه های سریعتر ، پیشرفت های الگوریتمی و دسترسی به حجم زیادی از داده ها باعث پیشرفت یادگیری و درک ماشین شد. روشهای یادگیری عمیق تشنه داده ها در سال ۲۰۱۲ بر معیارهای دقت غلبه کردند.  بر اساس گزارش جک کلارک بلومبرگ ، سال ۲۰۱۵ یک سال برجسته برای هوش مصنوعی بود ، زیرا تعداد پروژه های نرم افزاری که از هوش مصنوعی در Google استفاده می کنند از “استفاده پراکنده” در سال ۲۰۱۲ به بیش از ۲۷۰۰ پروژه افزایش یافت. کلارک همچنین داده های واقعی را ارائه می دهد که نشان می دهد بهبود هوش مصنوعی از سال ۲۰۱۲ با نرخ خطای کمتر در وظایف پردازش تصویر پشتیبانی می شود.

او دلیل این امر را افزایش شبکه های عصبی مقرون به صرفه ، به دلیل افزایش زیرساخت های محاسبات ابری و افزایش تحقیقات می داند. ابزارها و مجموعه داده ها.در یک نظرسنجی در سال ۲۰۱۷ ، از هر پنج شرکت یکی گزارش داد که “هوش مصنوعی را در برخی پیشنهادات یا فرآیندها گنجانده است”.

تحقیقات هوش مصنوعی

هوش عمومی مصنوعی

برنارد گوتز و دیگران نگران بودند که هوش مصنوعی دیگر هدف اصلی ایجاد ماشین های همه کاره و کاملاً هوشمند را دنبال نمی کند. هوش مصنوعی آماری برای حل مشکلات خاص ، حتی تکنیک های بسیار موفق مانند یادگیری عمیق ، بسیار مورد استفاده قرار می گیرد. آنها زیر زمینه هوش عمومی مصنوعی (یا “AGI”) را تاسیس کردند که چندین موسسه با بودجه خوب تا دهه ۲۰۱۰ داشت.

اهداف

مشکل کلی شبیه سازی (یا ایجاد) هوش به مشکلات فرعی تقسیم شده است. اینها شامل ویژگی ها یا قابلیت های خاصی است که محققان انتظار دارند یک سیستم هوشمند آنها را نشان دهد. ویژگیهای شرح داده شده در زیر بیشترین توجه را به خود جلب کرده است.

استدلال ، حل مسئله

محققان اولیه الگوریتم هایی را توسعه دادند که از استدلال گام به گام که انسان ها هنگام حل معماها یا استنباط منطقی استفاده می کنند ، تقلید می کردند. در اواخر دهه ۱۹۸۰ و ۱۹۹۰ ، تحقیقات هوش مصنوعی روش هایی را برای برخورد با اطلاعات نامشخص یا ناقص ، با استفاده از مفاهیم احتمالی و اقتصادی توسعه داده بود.

این الگوریتم ها برای حل مشکلات بزرگ استدلالی ناکافی بودند زیرا “انفجار ترکیبی” را تجربه کردند: با بزرگتر شدن مشکلات سرعت آنها به طور نمایی کندتر شد. حتی انسانها به ندرت از استنباط گام به گام استفاده می کنند که تحقیقات اولیه هوش مصنوعی می تواند از آن الگو بگیرد. آنها اکثر مشکلات خود را با استفاده از قضاوت های سریع و شهودی حل می کنند.

بازنمایی دانش

بازنمایی دانش  و مهندسی دانش  محور اصلی تحقیقات کلاسیک هوش مصنوعی هستند. برخی از “سیستم های خبره” سعی در جمع آوری دانش صریح دارند که توسط متخصصان در حوزه ای محدود انجام می شود. علاوه بر این ، برخی از پروژه ها تلاش می کنند “دانش عام” را که افراد عادی می دانند در پایگاه داده ای قرار دهند که حاوی اطلاعات گسترده ای در مورد جهان است.

از جمله مواردی که یک پایگاه دانش عام جامع شامل موارد زیر است: اشیا ، خواص ، دسته ها و روابط بین اشیاء ؛ موقعیت ها ، رویدادها ، حالات و زمان ؛  علل و معلولها دانش درباره دانش (آنچه می دانیم درباره آنچه دیگران می دانند) ؛  و بسیاری از حوزه های دیگر که کمتر مورد تحقیق قرار گرفته اند.

بازنمایی “آنچه وجود دارد” یک هستی شناسی است: مجموعه ای از اشیا ، روابط ، مفاهیم و ویژگیها که به طور رسمی توصیف شده اند تا عوامل نرم افزاری بتوانند آنها را تفسیر کنند. معانی اینها به عنوان مفاهیم منطقی توصیف ، نقشها و افراد مورد استفاده قرار می گیرد و معمولاً به عنوان کلاسها ، ویژگیها و افراد در زبان هستی شناسی وب اجرا می شود.  عمومی ترین هستی شناسی ها آنتولوژی های فوقانی نامیده می شوند ، که سعی می کنند با ایجاد واسطه بین هستی شناسی حوزه ای که دانش خاصی را در مورد یک حوزه دانش خاص (زمینه مورد علاقه یا حوزه مورد توجه) پوشش می دهد.

زمینه ای برای همه دانش های دیگر فراهم آورد. چنین بازنمایی های رسمی از دانش را می توان در نمایه سازی و بازیابی مبتنی بر محتوا ، تفسیر صحنه ،  پشتیبانی تصمیم گیری بالینی ،  کشف دانش (استخراج استنباط های جالب و کاربردی از پایگاه های داده بزرگ) ، و مناطق دیگر. 

از جمله مشکل ترین مشکلات در ارائه دانش می توان به موارد زیر اشاره کرد:

استدلال پیش فرض و مشکل صلاحیت

بسیاری از چیزهایی که مردم می دانند به شکل “مفروضات کار” هستند. به عنوان مثال ، اگر پرنده ای در گفتگو ظاهر شود ، مردم معمولاً از یک حیوان به اندازه مشت تصویر می کنند که آواز می خواند و پرواز می کند. هیچ یک از این موارد در مورد همه پرندگان صادق نیست. جان مک کارتی این مشکل را در سال ۱۹۶۹ به عنوان مشکل صلاحیت تشخیص داد: برای هر قاعده عقلانی که محققان هوش مصنوعی به دنبال آن هستند ، تعداد زیادی استثنا وجود دارد. تقریباً هیچ چیز به سادگی درست یا نادرست آنگونه که منطق انتزاعی ایجاب می کند ، وجود ندارد. تحقیقات هوش مصنوعی تعدادی راه حل برای این مشکل کشف کرده است.

وسعت دانش عقلانی

تعداد حقایق اتمی که افراد عادی می دانند بسیار زیاد است. پروژه های تحقیقاتی که سعی در ایجاد یک پایگاه دانش کامل از دانش عام (به عنوان مثال Cyc) دارند ، به مقادیر بسیار زیادی مهندسی هستی شناسی زحمت می کشند – آنها باید به طور همزمان با یک مفهوم پیچیده ساخته شوند.

بسیاری از آنچه مردم می دانند به عنوان “واقعیت” یا “گزاره” که بتوانند به صورت شفاهی بیان کنند ارائه نمی شود. به عنوان مثال ، یک استاد شطرنج از موقعیت شطرنج خاصی اجتناب می کند زیرا “احساس می کند بیش از حد در معرض دید است” یا یک منتقد هنری می تواند یک نگاه به مجسمه بیندازد و متوجه جعلی بودن آن شود. اینها شهود یا گرایشهای غیرآگاهانه و فرع نمادین در مغز انسان هستند.دانشی از این قبیل زمینه را برای دانش نمادین و آگاهانه آگاه ، پشتیبانی و فراهم می کند.

برنامه ریزی

عوامل هوشمند باید قادر به تعیین اهداف و دستیابی به آنها باشند. آنها به روشی برای تجسم آینده نیاز دارند – نمایشی از وضعیت جهان و قادر به پیش بینی در مورد چگونگی تغییر رفتار آنها در آینده – و همچنین می توانند انتخابهایی را انجام دهند که مطلوبیت (یا “ارزش”) انتخابهای موجود را به حداکثر برساند. . 

در مسائل برنامه ریزی کلاسیک ، عامل می تواند فرض کند که تنها سیستمی است که در جهان عمل می کند و به عامل اجازه می دهد از عواقب اقدامات خود مطمئن باشد.با این حال ، اگر عامل تنها بازیگر نیست ، پس مستلزم آن است که عامل بتواند در شرایط عدم قطعیت استدلال کند. این امر به عاملی نیاز دارد که نه تنها می تواند محیط خود را ارزیابی کرده و پیش بینی کند ، بلکه پیش بینی های خود را نیز ارزیابی کرده و بر اساس ارزیابی خود سازگار می شود.

برنامه ریزی چند عاملی از همکاری و رقابت بسیاری از عوامل برای دستیابی به یک هدف مشخص استفاده می کند. رفتارهای جدید مانند این توسط الگوریتم های تکاملی و هوش ازدحام استفاده می شود.

یادگیری

یادگیری ماشین (ML) ، یک مفهوم اساسی از تحقیقات هوش مصنوعی از آغاز این زمینه ، مطالعه الگوریتم های رایانه است که به طور خودکار از طریق تجربه بهبود می یابند.

یادگیری بدون نظارت توانایی یافتن الگوها در یک جریان ورودی است ، بدون این که نیاز باشد انسان ابتدا ورودی ها را برچسب گذاری کند. یادگیری تحت نظارت شامل طبقه بندی و رگرسیون عددی است ، که نیازمند آن است که انسان ابتدا داده های ورودی را برچسب گذاری کند. طبقه بندی برای تعیین اینکه چه چیزی متعلق به کدام دسته است ، استفاده می شود و پس از مشاهده برنامه ای نمونه ای از چیزها از چند دسته اتفاق می افتد. رگرسیون تلاش برای تولید تابعی است که رابطه بین ورودی ها و خروجی ها را توصیف می کند و پیش بینی می کند که چگونه خروجی ها باید با تغییر ورودی ها تغییر کنند.

هم طبقه بندی کننده ها و هم فراگیران رگرسیونی را می توان به عنوان “تقریب عملکرد” ​​در نظر گرفت که سعی می کنند تابع ناشناخته (احتمالاً ضمنی) را بیاموزند. به عنوان مثال ، طبقه بندی کننده هرزنامه ها را می توان به عنوان یادگیری تابعی در نظر گرفت که از متن یک ایمیل به یکی از دو دسته “spam” یا “spam not” ترسیم می کند. نظریه یادگیری محاسباتی می تواند فراگیران را با پیچیدگی محاسباتی ، با پیچیدگی نمونه (میزان داده مورد نیاز) یا سایر مفاهیم بهینه سازی ارزیابی کند.در یادگیری تقویتی عامل به دلیل پاسخ های خوب پاداش می گیرد و برای پاسخ های بد مجازات می شود. عامل از این دنباله پاداش ها و مجازات ها برای ایجاد یک استراتژی برای فعالیت در فضای مشکل خود استفاده می کند.

پردازش زبان طبیعی

پردازش زبان طبیعی  (NLP) به ماشین ها این امکان را می دهد که زبان انسان را بخوانند و درک کنند. یک سیستم پردازش زبان طبیعی به اندازه کافی قدرتمند ، رابط های کاربری زبان طبیعی و کسب دانش را مستقیماً از منابع نوشته شده توسط انسان ، مانند متن های اخبار ، امکان پذیر می کند. برخی از کاربردهای مستقیم پردازش زبان طبیعی شامل بازیابی اطلاعات ، استخراج متن ، پاسخ به سوالات و ترجمه ماشینی است.  بسیاری از رویکردهای فعلی از فرکانس های همزمانی کلمه برای ساخت نمایش نحوی متن استفاده می کنند. استراتژی های “تشخیص لغات کلیدی” برای جستجو محبوب و مقیاس پذیر هستند اما گنگ هستند. جستجوی عبارت “سگ” فقط ممکن است اسناد را با کلمه واقعی “سگ” مطابقت دهد و سندی را با کلمه “پودل” از دست بدهد. استراتژی های “قرابت لغوی” از واژه هایی مانند “تصادف” برای ارزیابی احساسات یک سند استفاده می کند. رویکردهای آماری مدرن NLP می تواند همه این استراتژی ها را مانند سایر روشها ترکیب کند و اغلب به دقت قابل قبولی در سطح صفحه یا پاراگراف دست می یابد. فراتر از NLP معنایی ، هدف نهایی NLP “روایی” تجسم درک کامل از استدلال منطقی است.تا سال ۲۰۱۹ ، معماری های یادگیری عمیق مبتنی بر ترانسفورماتور می توانند متن منسجمی ایجاد کنند.

ادراک

درک ماشین [۸۴] توانایی استفاده از سنسورها (مانند دوربین ها (طیف مرئی یا مادون قرمز) ، میکروفون ها ، سیگنال های بی سیم و لیدار فعال ، سونار ، رادار و حسگرهای لمسی) برای استنباط جنبه های جهان است. برنامه های کاربردی شامل تشخیص گفتار ،تشخیص چهره و تشخیص اشیا است.  بینایی رایانه ای توانایی تجزیه و تحلیل ورودی بصری است. چنین ورودی معمولاً مبهم است. یک عابر پیاده غول پیکر با ارتفاع پنجاه متر ممکن است پیکسل های مشابهی با یک عابر پیاده عادی نزدیک داشته باشد و از هوش مصنوعی بخواهد که در مورد احتمال و معقول بودن تفاسیر مختلف قضاوت کند ، به عنوان مثال با استفاده از “مدل شی” برای ارزیابی آن. عابران پیاده پنجاه متری وجود ندارد. 

حرکت و دستکاری

هوش مصنوعی به شدت در رباتیک استفاده می شود.  بازوهای رباتیک پیشرفته و دیگر روبات های صنعتی که به طور گسترده در کارخانه های مدرن استفاده می شوند ، می توانند از تجربه یاد بگیرند که چگونه با وجود اصطکاک و لغزش چرخ دنده ، به طور م moveثر حرکت کنند.  یک ربات متحرک مدرن ، وقتی به محیطی کوچک ، ثابت و قابل مشاهده داده شود ، می تواند به راحتی مکان خود را تعیین کرده و محیط آن را ترسیم کند. با این حال ، محیط های پویا ، مانند (در آندوسکوپی) قسمت داخلی بدن تنفسی بیمار ، چالش بیشتری را ایجاد می کند.

برنامه ریزی حرکتی فرایند تجزیه یک کار حرکتی به “بدوی” مانند حرکات مشترک فردی است. چنین حرکتی اغلب شامل حرکت سازگار است ، فرایندی که در آن حرکت مستلزم حفظ تماس فیزیکی با یک جسم است. پارادوکس موراویک به طور کلی بیان می کند که مهارتهای حسی-حرکتی سطح پایین که انسانها آنها را مسلم تلقی می کنند ، برعکس ، برنامه ریزی در یک روبات دشوار است. این پارادوکس به نام هانس موراوک نامگذاری شده است

که در سال ۱۹۸۸ اظهار داشت: “به راحتی می توان کامپیوترها را در سطح بالغ در آزمون های هوشی یا بازی با چکرز نمایش داد و مهارتهای یک کودک یک ساله را در آنها دشوار یا غیرممکن است. به درک و تحرک می رسد “.  این به این دلیل نسبت داده می شود که بر خلاف چکرز ، مهارت ماهرانه میلیون ها سال هدف مستقیم انتخاب طبیعی بوده است. 

هوش اجتماعی

محاسبات عاطفی یک چتر بین رشته ای است که شامل سیستم هایی است که تأثیرات انسان را تشخیص ، تفسیر ، پردازش یا شبیه سازی می کند.به عنوان مثال ، برخی از دستیاران مجازی طوری برنامه ریزی شده اند که محاوره ای صحبت کنند یا حتی طعنه بزنند. این باعث می شود که آنها نسبت به پویایی عاطفی تعامل انسانها حساسیت بیشتری نشان دهند یا تعامل انسان و کامپیوتر را تسهیل کنند.با این حال ، این به کاربران ساده لوح یک تصور غیر واقعی از میزان هوشمند بودن عوامل رایانه موجود می دهد. موفقیت های متوسط ​​مربوط به محاسبات عاطفی شامل تجزیه و تحلیل احساسات متنی و اخیراً تجزیه و تحلیل تأثیر چند حالته است (به تجزیه و تحلیل احساسات چند حالته مراجعه کنید) ، که در آن هوش مصنوعی تأثیرات نمایش داده شده توسط یک موضوع فیلمبرداری را طبقه بندی می کند.

هوش عمومی

هوش عمومی توانایی پذیرش هرگونه مشکل دلخواه است. تحقیقات کنونی هوش مصنوعی ، در بیشتر موارد ، تنها برنامه هایی را تولید کرده است که می توانند دقیقاً یک مشکل را حل کنند. بسیاری از محققان پیش بینی می کنند که چنین “هوش مصنوعی محدود” در حوزه های مختلف فردی در نهایت در دستگاهی با هوش عمومی گنجانده می شود و اکثر مهارتهای محدود ذکر شده در این مقاله را ترکیب می کند و حتی در برخی از موارد حتی از توانایی انسان در بیشتر یا همه این موارد فراتر می رود. زیر شاخه هوش عمومی مصنوعی (یا “AGI”) به طور انحصاری به مطالعه هوش عمومی می پردازد. 

ابزارها
مقاله اصلی: ابزارهای محاسباتی برای هوش مصنوعی
برنامه های کاربردی
مقاله اصلی: کاربردهای هوش مصنوعی
هوش مصنوعی مربوط به هر کار فکری است. تکنیک های مدرن هوش مصنوعی فراگیر هستند و برای فهرست بندی در اینجا بسیار زیاد هستند. اغلب ، هنگامی که یک تکنیک به استفاده اصلی می رسد ، دیگر به عنوان هوش مصنوعی در نظر گرفته نمی شود. این پدیده به عنوان اثر هوش مصنوعی توصیف می شود. 

نمونه های برجسته هوش مصنوعی شامل وسایل نقلیه خودران (مانند هواپیماهای بدون سرنشین و اتومبیل های خودران) ، تشخیص پزشکی ، ایجاد هنر (مانند شعر) ، اثبات قضایای ریاضی ، بازی کردن (مانند شطرنج یا رفتن) ، موتورهای جستجو (مانند جستجوی Google) ، دستیاران آنلاین (مانند Siri) ، تشخیص تصویر در عکس ها ، فیلتر هرزنامه ها ، پیش بینی تاخیر پروازها ،پیش بینی تصمیمات قضایی ، هدف قرار دادن تبلیغات آنلاین ، و انرژی ذخیره سازی

با توجه به این که سایت های رسانه های اجتماعی از تلویزیون به عنوان منبع اخبار برای جوانان و سازمان های خبری برای ایجاد توزیع بیشتر متکی به بسترهای رسانه های اجتماعی هستند ، سبقت می گیرند ،  ناشران اصلی اکنون از فناوری هوش مصنوعی (AI) برای ارسال م storiesثرتر داستان ها و تولید حجم بیشتر استفاده می کنند. ترافیک.

هوش مصنوعی همچنین می تواند Deepfakes ، یک فناوری تغییر دهنده محتوا را تولید کند. ZDNet گزارش می دهد ، “این چیزی را ارائه می دهد که در واقع رخ نداده است” ، اگرچه ۸۸ of از آمریکایی ها معتقدند Deepfakes می تواند بیشتر از فایده باعث آسیب شود ، اما تنها ۴۷ them از آنها معتقدند که می توانند مورد هدف قرار گیرند. رونق سال انتخابات همچنین گفتمان عمومی را برای تهدید فیلم های رسانه های سیاستمدار جعلی باز می کند.

فلسفه

تعریف هوش مصنوعی

مقالات اصلی: فلسفه هوش مصنوعی ، آزمون تورینگ ، کارگاه دارتموث ، فرضیه سیستم های نماد فیزیکی و انتقاد دریفوس از هوش مصنوعی

آلن تورینگ ، در مقاله اصلی ۱۹۵۰ “ماشین های محاسباتی و هوش” ، استدلال کرد که تنها چیزی که اهمیت دارد رفتار خارجی ماشین است (که توسط آزمون معروف تورینگ نشان داده شده است) و نشان داد که همه اعتراضات رایج به این ایده که ” ماشین ها می توانند فکر کنند “وقتی از این منظر به مسئله نگاه کنیم ناپدید می شوند.

تورینگ پیشنهاد داد که سوال از هوشمند بودن ماشین به “آیا ماشین ها می توانند رفتار هوشمندانه ای از خود نشان دهند یا خیر” تغییر کند.از آنجا که ما فقط می توانیم رفتار را ببینیم ، مهم نیست که ماشین آگاه است یا ذهن دارد یا این که هوش فقط یک “شبیه سازی” است و نه “واقعیت”. او خاطرنشان کرد که ما همچنین این چیزها را در مورد افراد دیگر نمی دانیم ، اما ما یک “قرارداد مودبانه” را گسترش می دهیم که آنها در واقع “فکر می کنند”.

در پیشنهاد کارگاه دارتموث در سال ۱۹۵۶ ، جان مک کارتی نوشت: “هر جنبه ای از یادگیری یا هر ویژگی دیگر از هوش را می توان آنقدر دقیق توصیف کرد که می توان از دستگاهی برای شبیه سازی آن استفاده کرد.”با استفاده از کلمه “شبیه سازی” ، مک کارتی هوش مصنوعی را به گونه ای تعریف کرد که از هرگونه بحث درباره اینکه آیا برنامه های آنها می تواند مانند افراد تجربه آگاهانه ذهنی داشته باشد ، جلوگیری می کند.

نیوئل و سایمون فرضیه سیستم های نماد فیزیکی را ارائه کردند: “یک سیستم نماد فیزیکی دارای وسایل لازم و کافی برای انجام اقدامات عمومی هوشمند است.” با این حال ، در دهه ۱۹۹۰ آشکار شد که “دستکاری نماد” برای شبیه سازی هوش انسانی کافی نخواهد بود. ؛ برنامه هایی که راه حل های نمادین دقیقی تولید می کردند ، نمی توانستند مشکلات عقل سلیم ساده را بدون استفاده از میلیاردها سال زمان رایانه حل کنند (محدودیتی که به عنوان “عدم توانایی” شناخته می شود) فیلسوف هوبرت دریفوس از دهه ۱۹۶۰ استدلال کرده بود که تخصص انسان بستگی به غریزه ناخودآگاه دارد تا دستکاری نماد آگاهانه ، و داشتن “احساس” نسبت به موقعیت ، به جای دانش نمادین صریح. اگرچه استدلال های وی در ابتدا برای ارائه مورد تمسخر قرار گرفته و نادیده گرفته شد ، اما سرانجام تحقیقات هوش مصنوعی به توافق رسید.  و هوش مصنوعی مدرن توانایی ما را برای “حدس زدن” بر اساس “تجربه” ما ، و نه بر اساس توصیف و نمادهای دقیق ، شبیه سازی می کند.

س Theالاتی که تحقیقات هوش مصنوعی را از نظر تاریخی تقسیم کرده اند ، بی پاسخ مانده اند و ممکن است مجبور شوند در آینده به تجدید نظر بپردازند.

چند مورد از سوالات دیرینه ای که بی پاسخ مانده اند عبارتند از:
آیا هوش مصنوعی با مطالعه روانشناسی یا نوروبیولوژی ، هوش طبیعی را شبیه سازی می کند؟ یا آیا زیست شناسی انسان به اندازه بیولوژی پرندگان و مهندسی هوانوردی برای تحقیقات هوش مصنوعی بی اهمیت است؟ 

آیا می توان رفتار هوشمند را با استفاده از اصول ساده و زیبا (مانند منطق یا بهینه سازی) توصیف کرد؟ یا لزوماً نیاز به حل تعداد زیادی از مشکلات غیر مرتبط دارد؟
آیا می توانیم برنامه هایی بنویسیم که راه حل های درستی را برای یک مشکل معین (مثلاً با استفاده از منطق و دانش نمادین) پیدا کنند؟ یا از الگوریتم هایی استفاده می کنیم که فقط می توانند به ما راه حل “معقول” (مثلاً روش های احتمالی) بدهند ، اما ممکن است طعمه همان اشتباهات غیرقابل جبرانی شوند که شهود انسان مرتکب می شود؟
آیا هوش مصنوعی باید اهداف هوش عمومی مصنوعی و فوق هوش را مستقیماً دنبال کند؟ یا بهتر است تا آنجا که می توان مشکلات خاص را حل کرد و امیدوار بود که این راه حل ها به طور غیر مستقیم به اهداف بلند مدت این رشته منجر شود؟

آگاهی ماشینی ، احساس و ذهن

آیا یک ماشین می تواند دارای ذهن ، شعور و حالات روانی به همان معنایی باشد که انسانها دارند؟ این سوال به جای رفتار خارجی آن ، تجربیات داخلی دستگاه را در نظر می گیرد.

تحقیقات اصلی جریان هوش مصنوعی بی ربط می داند ، زیرا بر اهداف این زمینه تأثیر نمی گذارد. استوارت راسل و پیتر نورویگ مشاهده می کنند که اکثر محققان هوش مصنوعی “به فرضیه قوی هوش مصنوعی اهمیت نمی دهند – تا زمانی که برنامه کار می کند ، اهمیتی نمی دهند که شما آن را شبیه سازی هوش یا هوش واقعی می نامید.” ، این سوال در فلسفه ذهن مرکزی شده است. همچنین این سوال اصلی مورد بحث در هوش مصنوعی در داستان است.

هوشیاری

مقالات اصلی: مشکل سخت آگاهی ، نظریه ذهن ، و آگاهی مصنوعی

دیوید چالمرز دو مشکل در فهم ذهن تشخیص داد که آنها را مشکلات سخت و آسان آگاهی نامید.  مشکل آسان درک نحوه پردازش سیگنال ها از سوی مغز ، برنامه ریزی و کنترل رفتار است. مشکل سخت این است که چگونه این احساس را توضیح دهید یا اینکه چرا باید اصلاً شبیه هر چیزی باشد. توضیح پردازش اطلاعات انسانی آسان است ، اما توضیح تجربه ذهنی انسان دشوار است. به عنوان مثال ، به راحتی می توان یک فرد کوررنگ را تصور کرد که یاد گرفته است تشخیص دهد کدام اجسام در دیدگاه خود قرمز هستند ، اما مشخص نیست که فرد برای دانستن رنگ قرمز به چه چیزی نیاز دارد.

محاسبه گرایی و کارکردگرایی
محاسبه گرایی در فلسفه ذهن موضعی است که ذهن انسان یک سیستم پردازش اطلاعات است و تفکر نوعی محاسبه است. محاسبه گرایی استدلال می کند که رابطه بین ذهن و بدن مشابه یا مشابه با رابطه بین نرم افزار و سخت افزار است و بنابراین ممکن است راه حلی برای مشکل ذهن و بدن باشد. این موضع فلسفی از کار محققان هوش مصنوعی و دانشمندان شناختی در دهه ۱۹۶۰ الهام گرفته شد و در ابتدا توسط فیلسوفان جری فودور و هیلاری پاتنام پیشنهاد شد.

فرضیه هوش مصنوعی قوی

موضع فلسفی ای که جان سرل آن را “هوش مصنوعی قوی” نامیده است می گوید: “رایانه ای که به طور مناسب برنامه ریزی شده با ورودی ها و خروجی های مناسب دارای ذهن دقیقاً به همان معنایی است که انسانها دارای ذهن هستند.” استدلال اتاق چینی ، که تلاش می کند نشان دهد که حتی اگر یک ماشین رفتار انسان را کاملاً شبیه سازی کند ، باز هم دلیلی وجود ندارد که گمان کنیم ذهن او نیز دارای ذهن است.

حقوق ربات ها

اگر ماشینی دارای ذهن و تجربه ذهنی باشد ، ممکن است دارای هوش (توانایی احساس) نیز باشد ، و اگر چنین باشد ، ممکن است آسیب ببیند ، و بنابراین از حقوق خاصی برخوردار خواهد شد. این مسئله ، که امروزه به عنوان “حقوق روبات” شناخته می شود ، در حال حاضر در حال بررسی است ، به عنوان مثال ، موسسه آینده کالیفرنیا ، اگرچه بسیاری از منتقدان معتقدند که بحث زودهنگام است. برخی از منتقدان ماوراء انسانیت معتقدند که هرگونه حقوق فرضی روبات در طیفی از حقوق حیوانات و حقوق بشر قرار دارد. این موضوع عمیقاً در فیلم مستند Plug & Pray ، ۲۰۱۰ و بسیاری از رسانه های علمی تخیلی مانند Star Trek Next Generation با شخصیت فرمانده داده ، که برای تجزیه و جداسازی برای تحقیق مبارزه می کرد و می خواست “انسان شود” ، عمیقا مورد بحث قرار گرفته است. ، و هولوگرام های روباتیک در وویجر.

آینده هوش مصنوعی
هوش فوق العاده

یک فوق هوش ، فوق هوش یا هوش مافوق بشری یک عامل فرضی است که دارای هوش بسیار فراتر از درخشان ترین و با استعدادترین ذهن بشر است. ابر هوش همچنین ممکن است به شکل یا درجه ای از هوش که چنین مأموری دارد اشاره کند.

 تکینگی تکنولوژیکی و قانون مور

اگر تحقیقات در مورد هوش عمومی مصنوعی به اندازه کافی نرم افزار هوشمند تولید کند ، ممکن است بتواند خود را دوباره برنامه ریزی کرده و بهبود بخشد. نرم افزار بهبود یافته حتی در بهبود خود بهتر عمل می کند و منجر به خود بهبودی بازگشتی می شود. بنابراین هوش جدید می تواند به طور تصاعدی و چشمگیر از انسان ها بیشتر شود. ورنور وینگ نویسنده داستان های علمی تخیلی این سناریو را “تکینگی” نامید.

تکینگی تکنولوژیکی زمانی است که سرعت بخشیدن به پیشرفت فناوری باعث ایجاد یک اثر فرار می شود که در آن هوش مصنوعی از ظرفیت و کنترل فکری انسان فراتر می رود ، بنابراین تمدن را به طور اساسی تغییر داده یا حتی به پایان می رساند. از آنجا که درک قابلیت های چنین هوش ممکن است غیر ممکن باشد ، تکینگی تکنولوژیکی اتفاقی است که فراتر از آن رویدادها غیرقابل پیش بینی یا حتی غیرقابل پیش بینی هستند. 

ری کورزویل از قانون مور (که پیشرفت تصاعدی بی وقفه در فناوری دیجیتال را توصیف می کند) برای محاسبه اینکه کامپیوترهای رومیزی تا سال ۲۰۲۹ دارای قدرت پردازشی یکسانی با مغز انسان خواهند بود و پیش بینی می کند که تکینگی در سال ۲۰۴۵ رخ دهد.

ماوراء انسانیت

طراح روبات ، هانس موراوک ، متخصص سایبرنتیک ، کوین وارویک ، و مخترع ری کورزویل پیش بینی کرده اند که انسانها و ماشینها در آینده به سایبورگهایی تبدیل می شوند که از هر کدام تواناتر و قوی تر هستند. این ایده که فراانسانیسم نامیده می شود ریشه در آلدوس هاکسلی و روبرت اتینگر دارد.

ادوارد فردکین استدلال می کند که “هوش مصنوعی مرحله بعدی تکامل است” ، ایده ای که نخستین بار توسط “داروین در میان ماشین ها” ساموئل باتلر در سال ۱۸۶۳ مطرح شد و توسط جورج دیسون در کتابی با همین نام در سال ۱۹۹۸ گسترش یافت.

ضربه

اثرات اقتصادی بلندمدت هوش مصنوعی نامشخص است. یک نظرسنجی از اقتصاددانان در مورد اینکه آیا افزایش استفاده از روبات ها و هوش مصنوعی باعث افزایش قابل توجه بیکاری درازمدت می شود ، اختلاف نظر دارد ، اما آنها به طور کلی قبول دارند که در صورت توزیع مجدد بهره وری ، می تواند یک سود خالص باشد.

مطالعه ۲۰۱۷ توسط PricewaterhouseCoopers نشان می دهد که جمهوری خلق چین تا سال ۲۰۳۰ با ۲۶٫۱ درصد از تولید ناخالص داخلی بیشترین سود را از هوش مصنوعی می برد. مقاله سفید اتحادیه اروپا در فوریه ۲۰۲۰ در مورد هوش مصنوعی از هوش مصنوعی برای مزایای اقتصادی حمایت می کند ، از جمله “بهبود مراقبت های بهداشتی (به عنوان مثال ، تشخیص دقیق تر ، امکان پیشگیری بهتر از بیماری ها) ، افزایش کارآیی کشاورزی ، کمک به کاهش و سازگاری تغییرات آب و هوایی ، [و] بهبود کارایی سیستم های تولید از طریق تعمیر و نگهداری پیش بینی “، در حالی که خطرات احتمالی را تصدیق می کند.

رابطه بین اتوماسیون و اشتغال پیچیده است. در حالی که اتوماسیون مشاغل قدیمی را حذف می کند ، از طریق آثار خرد اقتصادی و کلان اقتصادی نیز مشاغل جدیدی ایجاد می کند.برخلاف موجهای قبلی اتوماسیون ، بسیاری از مشاغل طبقه متوسط ​​ممکن است با هوش مصنوعی حذف شوند. اکونومیست اظهار می کند که “نگرانی که هوش مصنوعی می تواند با مشاغل یقه سفید در کارهای یقه سفید در طول انقلاب صنعتی انجام دهد” “ارزش جدی گرفتن دارد.” [۱۴۳] برآوردهای ذهنی از خطر بسیار متفاوت است.

به عنوان مثال ، مایکل آزبورن و کارل بندیکت فری تخمین می زنند که ۴۷ درصد مشاغل ایالات متحده در معرض خطر بالای اتوماسیون بالقوه هستند ، در حالی که یک گزارش OECD تنها ۹ درصد از مشاغل ایالات متحده را به عنوان “ریسک بالا” طبقه بندی می کند.

مشاغلی که در معرض خطر شدید قرار دارند ، از افراد غیر قانونی گرفته تا آشپزهای فست فود ، در حالی که تقاضای شغل برای مشاغل مرتبط با مراقبت از مراقبت های بهداشتی شخصی گرفته تا روحانیت افزایش می یابد نویسنده مارتین فورد و دیگران فراتر رفته و استدلال می کنند که بسیاری از مشاغل معمولی ، تکراری و (برای هوش مصنوعی) قابل پیش بینی هستند. فورد هشدار می دهد که این مشاغل ممکن است در چند دهه آینده به صورت خودکار انجام شود و بسیاری از مشاغل جدید حتی با آموزش مجدد “برای افراد با توانایی متوسط ​​قابل دسترسی نیست”.

اقتصاددانان خاطرنشان می کنند که در گذشته فناوری به جای کاهش کل اشتغال ، بیشتر تمایل داشته است ، اما اذعان دارند که “ما در قلمرو ناشناخته ای هستیم” با هوش مصنوعی.
اثرات منفی بالقوه هوش مصنوعی و اتوماسیون یک مسئله مهم برای کمپین ریاست جمهوری اندرو یانگ در سال ۲۰۲۰ در ایالات متحده بود.

ایراکلی بریدزه ، رئیس مرکز هوش مصنوعی و روباتیک در UNICRI ، سازمان ملل متحد ، اظهار داشت که “من فکر می کنم برنامه های خطرناک برای هوش مصنوعی ، از دیدگاه من ، جنایتکاران یا سازمان های تروریستی بزرگی است که از آن برای ایجاد اختلال در فرآیندهای بزرگ استفاده می کنند. از طریق جنگ دیجیتالی ، [تروریست ها ممکن است باعث آسیب شوند] ، یا می تواند ترکیبی از روباتیک ، هواپیماهای بدون سرنشین ، با هوش مصنوعی و موارد دیگر باشد که می تواند واقعاً خطرناک باشد. و البته خطرات دیگر ناشی از مواردی مانند اگر تعداد زیادی از افراد شغل خود را از دست بدهند و راه حلی پیدا نکنیم ، بسیار خطرناک خواهد بود. مواردی مانند سیستم های تسلیحاتی خودکار کشنده باید به درستی اداره شوند – در غیر این صورت امکان سوء استفاده گسترده وجود دارد.

خطرات ناشی از هوش مصنوعی محدود

استفاده گسترده از هوش مصنوعی می تواند عواقب ناخواسته ای داشته باشد که خطرناک یا نامطلوب است. دانشمندان موسسه آینده زندگی ، در میان دیگران ، برخی از اهداف تحقیقاتی کوتاه مدت را توضیح دادند تا ببینند چگونه هوش مصنوعی بر اقتصاد ، قوانین و اخلاق مرتبط با هوش مصنوعی تأثیر می گذارد و چگونه خطرات امنیتی هوش مصنوعی را به حداقل برساند. در دراز مدت ، دانشمندان پیشنهاد کرده اند که بهینه سازی عملکرد را ادامه دهند و خطرات احتمالی امنیتی را که همراه با فناوری های جدید به حداقل می رسد ، به حداقل برسانند.

برخی نگران سوگیری الگوریتمی هستند ، اینکه برنامه های هوش مصنوعی ممکن است ناخواسته پس از پردازش داده هایی که تعصب را نشان می دهند ، جانبدار شوند. الگوریتم ها در حال حاضر کاربردهای متعددی در سیستم های حقوقی دارند. یک نمونه از این موارد COMPAS است ، یک برنامه تجاری که به طور گسترده توسط دادگاه های ایالات متحده برای ارزیابی احتمال تبدیل مجدد متهم مورد استفاده قرار می گیرد. ProPublica ادعا می کند که میزان خطر تکرار جرم از سوی COMPAS برای متهمان سیاه پوست بسیار بیشتر از متهمان سفیدپوست است. 

خطرات هوش مصنوعی عمومی

استفان هاوکینگ ، فیزیکدان ، بیل گیتس ، بنیانگذار مایکروسافت ، یووال نوح هراری ، استاد تاریخ و ایلان ماسک ، بنیانگذار SpaceX نگرانی خود را درباره احتمال پیشرفت هوش مصنوعی تا حدی که انسانها نمی توانند آن را کنترل کنند ابراز کرده اند ، و هاوکینگ با این نظریه که می تواند “پایان را به پایان برساند” ابراز نگرانی کرده است. از نسل بشر “.

توسعه هوش مصنوعی کامل می تواند پایان نسل بشر را رقم بزند. هنگامی که انسان ها هوش مصنوعی را توسعه می دهند ، خود به خود بلند می شود و با سرعت فزاینده ای خود را دوباره طراحی می کند. انسانها ، که با تکامل بیولوژیکی کند محدود شده اند ، نمی توانند رقابت کنند و جایگزین می شوند.

– استفان هاوکینگ

فیلسوف نیک باستروم در کتاب خود فوق العاده استدلال می کند که هوش مصنوعی تهدیدی برای بشریت خواهد بود. او استدلال می کند که هوش مصنوعی به اندازه کافی هوشمند ، اگر اقداماتی را بر اساس دستیابی به هدف انتخاب کند ، رفتارهای همگرا از جمله به دست آوردن منابع یا محافظت از خود در برابر تعطیلی را نشان می دهد. اگر اهداف این هوش مصنوعی بطور کامل منعکس کننده اهداف بشریت نباشند – یکی از مثالها این است که هوش مصنوعی برای محاسبه هر چه بیشتر ارقام pi – ممکن است به بشریت آسیب برساند تا منابع بیشتری بدست آورد.

یا از تعطیل شدن خود جلوگیری کند ، و در نهایت برای دستیابی بهتر به هدف خود به بوستروم همچنین بر دشواری انتقال ارزشهای بشریت به هوش مصنوعی پیشرفته تأکید می کند. او از مثال فرضی استفاده از هوش مصنوعی برای خنداندن انسان ها برای نشان دادن یک تلاش اشتباه استفاده می کند. باستروم معتقد است ، اگر هوش مصنوعی در آن سناریو فوق العاده شود ، ممکن است به روش هایی متوسل شود که اکثر انسان ها برای آن وحشتناک هستند ، مانند قرار دادن “الکترودهایی در عضلات صورت انسان ها که باعث ایجاد خنده های مداوم و تند” می شود.

زیرا این کار کارآمد خواهد بود. راهی برای رسیدن به هدفش لبخند زدن به انسان.در کتاب خود سازگار با انسان ، استوارت جی راسل ، محقق هوش مصنوعی ، برخی از نگرانی های بوستروم را تکرار می کند ، در حالی که روشی را برای توسعه ماشین های مفید ارائه می دهد که بر عدم قطعیت و احترام به انسان تمرکز دارد.

نگرانی در مورد خطر ناشی از هوش مصنوعی منجر به اهدا و سرمایه گذاری های برجسته شده است. گروهی از تیتان های برجسته فناوری از جمله پیتر تیل ، خدمات وب آمازون و ماسک مبلغ یک میلیارد دلار به OpenAI ، یک شرکت غیر انتفاعی با هدف حمایت از توسعه هوش مصنوعی اختصاص داده اند. نظر کارشناسان در زمینه هوش مصنوعی مختلط است ، با بخش های قابل توجهی که هم نگران هستند و هم در معرض خطر احتمالی هوش مصنوعی فوق بشری نیستند. دیگر رهبران صنعت فناوری معتقدند که هوش مصنوعی در شکل فعلی خود مفید است و به کمک انسان ادامه خواهد داد.

مارک هرد ، مدیرعامل اوراکل اظهار داشته است که هوش مصنوعی “در واقع مشاغل بیشتری ایجاد خواهد کرد ، نه مشاغل کمتری” ، زیرا برای مدیریت سیستم های هوش مصنوعی به انسان نیاز است.مارک زاکربرگ ، مدیرعامل فیس بوک معتقد است که هوش مصنوعی “مقدار زیادی از موارد مثبت” را باز می کند ، مانند درمان بیماری ها و افزایش ایمنی خودروهای خودران.

در ژانویه ۲۰۱۵ ، ماسک ۱۰ میلیون دلار به موسسه آینده زندگی اهدا کرد تا تحقیقات مربوط به درک تصمیم گیری هوش مصنوعی را تامین کند. هدف این موسسه “رشد خردمندی است که با آن مدیریت می کنیم” قدرت رو به رشد فناوری. ماسک همچنین به شرکت های توسعه دهنده هوش مصنوعی مانند DeepMind و Vicarious کمک مالی می کند تا “فقط مراقب آنچه در هوش مصنوعی می گذرد.  من فکر می کنم به طور بالقوه یک نتیجه خطرناک در آنجا وجود دارد.” 

برای تحقق خطر هوش مصنوعی پیشرفته و غیرقابل کنترل ، هوش مصنوعی فرضی باید بر تمام بشریت غلبه کند یا از آن خارج فکر کند ، که اقلیتی از کارشناسان معتقدند این احتمال در آینده به اندازه کافی زیاد است که ارزش تحقیق ندارد.استدلالهای متضاد دیگر حول محور این است که انسانها از دیدگاه یک هوش مصنوعی به طور ذاتی یا همگرا دارای ارزش هستند. 

ماشینهای اخلاقی

ماشینهای دارای هوش بالقوه می توانند از هوش خود برای جلوگیری از آسیب و به حداقل رساندن خطرات استفاده کنند. آنها می توانند از استدلال اخلاقی برای انتخاب بهتر اقدامات خود در جهان استفاده کنند. به این ترتیب ، برای تدوین سیاست هایی برای تنظیم و تنظیم هوش مصنوعی و روباتیک نیاز به سیاست گذاری است. تحقیقات در این زمینه شامل اخلاق ماشینی ، عوامل اخلاقی مصنوعی ، هوش مصنوعی دوستانه و بحث در مورد ایجاد چارچوب حقوق بشر نیز در حال مذاکره است.

جوزف وایزنباوم در کامپیوتر قدرت و دلیل انسانی نوشت که برنامه های کاربردی هوش مصنوعی ، بر اساس تعریف ، نمی توانند همدلی واقعی انسان را با موفقیت شبیه سازی کنند و استفاده از فناوری هوش مصنوعی در زمینه هایی مانند خدمات به مشتریان یا روان درمانی [r] بسیار نادرست است. وایزن باوم همچنین از این که محققان هوش مصنوعی (و برخی از فیلسوفان) مایل بودند ذهن انسان را چیزی بیش از یک برنامه کامپیوتری (موضعی که امروزه به عنوان محاسبات شناخته می شود) در نظر بگیرند ، ناراحت بود. از نظر وایزنباوم ، این نکات نشان می دهد که تحقیقات هوش مصنوعی باعث کاهش ارزش زندگی انسان می شود. 

عوامل اخلاقی مصنوعی

وندل والاخ مفهوم عوامل اخلاقی مصنوعی (AMA) را در کتاب خود به نام Moral Machines معرفی کرد برای والاک ، AMAs به عنوان بخشی از چشم انداز تحقیقاتی هوش مصنوعی به عنوان دو س centralال اصلی که به عنوان “آیا انسانیت می خواهد رایانه هایی که تصمیمات اخلاقی می گیرند “و” رباتهای ((Ro) Really Be Moral Be Moral “)  از نظر والاچ ، این پرسش بر این موضوع متمرکز نیست که آیا ماشین ها می توانند معادل رفتار اخلاقی را نشان دهند ، بر خلاف محدودیت هایی که ممکن است جامعه در توسعه AMA ها ایجاد کند. 

اخلاق ماشین

حوزه اخلاق ماشین با ارائه اصول اخلاقی به ماشین ها ، یا روشی برای کشف راهی برای حل معضلات اخلاقی که ممکن است با آن روبرو شوند ، و آنها را قادر می سازد تا از طریق تصمیم گیری اخلاقی خود به شیوه ای مسئولانه از نظر اخلاقی عمل کنند. این حوزه در سمپوزیوم AAAI پاییز ۲۰۰۵ در زمینه اخلاق ماشین مشخص شد: “تحقیقات گذشته در مورد رابطه بین فناوری و اخلاق عمدتا بر استفاده مسئولانه و غیرمسئولانه انسان از فناوری متمرکز شده است ، و تعداد کمی از مردم به نحوه رفتار انسان ها علاقه مند هستند. در همه موارد ، فقط انسانها به استدلال اخلاقی پرداخته اند. زمان آن فرا رسیده است.

که به برخی ماشینها بعد اخلاقی اضافه کنیم. به رسمیت شناختن پیامدهای اخلاقی رفتار ماشینها ، و همچنین تحولات اخیر و بالقوه در ماشین بر خلاف هک رایانه ، مسائل مربوط به مالکیت نرم افزار ، مسائل مربوط به حریم خصوصی و سایر موضوعاتی که معمولاً به اخلاق رایانه نسبت داده می شود ، اخلاق ماشین به رفتار ماشین ها در قبال کاربران انسانی و سایر ماشین ها توجه دارد. تحقیقات در زمینه اخلاق ماشین برای کاهش نگرانی در مورد سیستم های خودمختار – می توان استدلال کرد که تصور ماشین های خودگردان بدون چنین بعد ریشه همه ترسها در مورد هوش ماشین است.

علاوه بر این ، بررسی اخلاق ماشینی می تواند کشف مشکلات مربوط به نظریه های اخلاقی فعلی را امکان پذیر کند و تفکر ما در مورد اخلاق را پیش ببرد. ” این زمینه را می توان در نسخه جمع آوری شده “اخلاق ماشین”  یافت که از سمپوزیوم AAAI پاییز ۲۰۰۵ در اخلاق ماشین نشأت می گیرد. 

هوش مصنوعی بدخواه و دوستانه

دانشمند علوم سیاسی چارلز T. روبین معتقد است که هوش مصنوعی را نه می توان طراحی کرد و نه می توان آن را خیرخواهانه تضمین کرد.او استدلال می کند که “هر گونه خیرخواهی به اندازه کافی پیشرفته ممکن است از بدخواهی قابل تشخیص نباشد”. انسانها نباید تصور کنند که ماشینها یا روباتها با ما رفتار مطلوبی خواهند کرد زیرا هیچ دلیل پیشینی برای این باور وجود ندارد که آنها با سیستم اخلاقی ما که همراه با زیست شناسی خاص ما (که هوش مصنوعی آنها را به اشتراک نمی گذارد) تکامل یافته است ، دلسوز باشند. نرم افزارهای فوق هوشمند ممکن است لزوماً تصمیم به حمایت از تداوم وجود بشریت نگیرند و متوقف کردن آنها بسیار دشوار خواهد بود. این موضوع اخیراً در نشریات دانشگاهی به عنوان منبع واقعی خطرات برای تمدن ، انسان و سیاره زمین مورد بحث قرار گرفته است.

یک پیشنهاد برای مقابله با این موضوع این است که اطمینان حاصل شود که اولین هوش مصنوعی به طور کلی “هوش مصنوعی دوستانه” است و قادر به کنترل هوش مصنوعی توسعه یافته خواهد بود. برخی سوال می کنند که آیا این نوع چک در واقع می تواند باقی بماند؟

رودنی بروکس ، محقق برجسته هوش مصنوعی می نویسد: “من فکر می کنم این یک نگرانی است که در چند صد سال آینده نگران این باشیم که در حال توسعه هوش مصنوعی مخرب هستیم. من فکر می کنم این نگرانی ناشی از یک اشتباه اساسی در عدم تمایز بین پیشرفت های اخیر بسیار واقعی است. در جنبه ای خاص از هوش مصنوعی و عظمت و پیچیدگی ایجاد هوش ارادی حساس. “

سلاح های مستقل کشنده نگران کننده است. در سال ۲۰۱۵ ، بیش از پنجاه کشور در حال تحقیق روی روبات های میدان جنگ هستند ، از جمله ایالات متحده ، چین ، روسیه و انگلستان. بسیاری از افرادی که نگران خطر هوش مصنوعی فوق العاده هستند نیز می خواهند استفاده از سربازان مصنوعی و هواپیماهای بدون سرنشین را محدود کنند. 

مقررات

تنظیم هوش مصنوعی توسعه سیاست ها و قوانین بخش عمومی برای ارتقاء و تنظیم هوش مصنوعی (AI) است بنابراین به تنظیم گسترده تر الگوریتم ها مربوط می شود. چشم انداز نظارتی و سیاست گذاری برای هوش مصنوعی یک مسئله در حال ظهور در حوزه های قضایی در سطح جهان ، از جمله در اتحادیه اروپا است. مقررات برای تشویق هوش مصنوعی و مدیریت خطرات مرتبط ضروری است. تنظیم هوش مصنوعی از طریق سازوکارهایی مانند تابلوهای بازبینی نیز می تواند به عنوان ابزار اجتماعی برای نزدیک شدن به مشکل کنترل هوش مصنوعی در نظر گرفته شود. 

با توجه به نگرانی های مربوط به بهره برداری از داده ها ، اتحادیه اروپا نیز سیاست هوش مصنوعی را تدوین کرد ، با گروهی که روش هایی را برای اطمینان از اطمینان در استفاده از هوش مصنوعی مورد مطالعه قرار دادند. اینها در دو مقاله سفید در بحبوحه همه گیری COVID-19 منتشر شد. یکی از سیاست های مربوط به هوش مصنوعی ، رویکرد اروپایی به تعالی و اعتماد است.

در داستان

موجودات مصنوعی با قابلیت تفکر از دوران باستان به عنوان ابزارهای قصه گویی ظاهر می شدند ،و موضوعی دائمی در داستان های علمی تخیلی بوده اند.

یک حرکت مشترک در این آثار با فرانکشتاین مری شلی آغاز شد ، جایی که یک خلقت انسانی تهدیدی برای اربابان خود می شود. این شامل آثاری مانند آرتور سی کلارک و استنلی کوبریک ۲۰۰۱: یک ادیسه فضایی (هر دو ۱۹۶۸) ، با HAL 9000 ، کامپیوتر قاتل مسئول سفینه فضایی Discovery One ، و همچنین The Terminator (1984) و The Matrix (1999 ) در مقابل ، رباتهای وفادار کمیاب مانند گورت از روزی که زمین ایستاد (۱۹۵۱) و اسقف از بیگانگان (۱۹۸۶) در فرهنگ عامه کمتر برجسته هستند.

ایزاک آسیموف سه قانون روباتیک را در بسیاری از کتابها و داستانها معرفی کرد ، که مهمترین آنها مجموعه “Multivac” درباره یک کامپیوتر فوق العاده هوشمند به همین نام است. قوانین آسیموف اغلب در جریان بحثهای غیر اخلاقی ماشین مطرح می شود ؛در حالی که تقریباً همه محققان هوش مصنوعی با قوانین آسیموف از طریق فرهنگ عامه آشنا هستند ، آنها به طور کلی قوانین را به دلایل زیادی بی فایده می دانند ، که یکی از آنها ابهام آنها است.

جهت مطالعه موارد مرتبط با علوم کامپیوتر و الکترونیک:

دیدگاهتان را بنویسید