بهراد ایکس

نوشته‌های یک انسان کنجکاو

نوشته‌های یک انسان کنجکاو

بهراد ایکس

بهراد هستم. اینجا جاییه که دل‌نوشته‌ها و چیزهای شخصیم رو می‌نویسم. نوشته‌های جدی‌ترم رو توی پادکستم با عنوان «رادیو می‌» می‌تونید گوش بدید.

اطلاعات بیشتر در بخشِ "کمی دربارهٔ من".

درضمن خوشحال می‌شم که از این جعبه‌ٔ پایینی هم استفاده کنید.

آخرین نظرات

۲ مطلب با کلمه‌ی کلیدی «هوش مصنوعی» ثبت شده است

نظریهٔ بازی یکی از حوزه‌های شگفتی‌آفرین ریاضیست که بر فیلد‌های مختلفی مانند اقتصاد، جامعه‌شناسی، زیست‌شناسی و (صدالبته) علوم کامپیوتر تاثیر گذاشته است. راه‌های بسیاری برای تعریف نظریهٔ بازی وجود دارد ولی شاید بتوان نظریهٔ بازی را در ساده‌ترین و گویا‌ترین حالت ممکن در جملهٔ زیر خلاصه کرد:
 
نظریهٔ بازی عبارت است از احتمالات به همراه مشوّق‌ها (incentives).
 
بازی‌ها نقشی کلیدی در تکامل هوش مصنوعی بازی می‌کنند، حتی برای کسانی هم که تازه شروع به یادگیریِ یادگیری ماشینی می‌کنند. از همین روی شاهد افزایش محبوبیت رویکردهایی مانند Reinforcement Learning (یادگیری تقویتی) و یا Imitation Learning (یادگیری تقلیدی) هستیم.
در تئوری، هر سامانهٔ هوش مصنوعیِ چندعامله (Multi-agent) را می‌توان گیمیفای (Gamify) کرد. شاخه‌ای از ریاضیات که فرمول‌بندی‌های این بازی را انجام می‌دهد، نظریهٔ بازی نام دارد. ما در آن دسته از سامانه‌های هوش مصنوعی و یادگیری عمیق که در آن عامل‌های مختلف (agents) باید با یکدیگر در تعامل باشند تا به هدف مشخصی نائل شوند، از نظریهٔ بازی استفاده می‌کنیم.
تاریخچهٔ نظریهٔ بازی و هوش مصنوعی با هم پیوند خورده. بسیاری از پژوهش‌های فعلیِ نظریهٔ بازی به فعالیت‌های پیشتازان علوم کامپیوتر مانند الن تیورینگ (Alan Turing) یا جان فون نیومن (John Von Neumann) باز می‌گردد. مبحث معروف «تعادل نَش (Nash Equilibrium)» که در فیلم یک ذهن زیبا (A beautiful mind) با بازی راسل کرو هم به آن پرداخته شده، سنگ بنای تعاملات (interactions) سامانه‌های هوش مصنوعی مدرن است. برای داشتن درکی واضح‌تر از تلفیق نظریهٔ بازی و هوش مصنوعی، بهترین کار شناختن انواع «بازی» است که ما در معاملات اقتصادی یا مناسبات اجتماعی با آن روبرو می‌شویم. در نظریهٔ بازی، محیط بازی همانند اهداف و مشوّق‌های بازیکن‌ها متنوع است.
اما چگونه می‌توان اصول نظریهٔ بازی را با سیستم‌های هوش مصنوعی تلفیق کرد؟ این یک چالش است و در مباحثی مانند یادگیری تقویتی چند عامله (Multi-agent Reinforcement learning) به آن پرداخته می‌شود.
شرط لازم برای آن که یک سناریوی هوش مصنوعی، کاندیدای مناسبی برای استفاده از نظریهٔ بازی باشد، این است که بیش از یک شرکت‌کننده (Participant) داشته باشد. برای مثال یک سامانهٔ پیش‌بینی فروش (مانند سامانهٔ اینشتین شرکت Salesforce) کاندید مناسبی نیست، چون که فقط یک شرکت‌کننده (بخوانید هدف یا مشوّق که همان افزایش فروش است) دارد. به هر حال، در سامانه‌های چندعامله (Multi-agent)، نظریهٔ بازی به صورت شگفتی‌آوری می‌تواند بهینه باشد. معماریِ دینامیکِ بازی در یک سامانهٔ هوش مصنوعی می‌تواند در دو گامِ اساسی خلاصه شود:
 
طراحی شرکت‌کننده (Participant): نظریهٔ بازی می‌تواند برای بهینه‌سازی تصمیم شرکت‌کننده در راستای افزایش سودمندی (utility) استفاده شود.
طراحی سازوکار (Mechanism): «نظریهٔ بازیِ معکوس (Inverse game theory)» بر روی طراحی بازی برای گروهی از شرکت‌کنندگان «آگاه (Intelligent)» تمرکز دارد. برای مثال، می‌توان مزایده را مثالی کلاسیک از یک مکانیسم در نظر گرفت.

 

5 مدل بازی که هر متخصص داده‌ای باید آن‌ها را بشناسد

فرض کنید شما می‌خواهید یک سامانهٔ هوش مصنوعی که از چند عامل (agent) تشکیل شده و این عامل‌ها با یکدیگر همکاری و رقابت خواهند کرد (تا به هدف مشخصی برسند) را مدل‌سازی کنید. این یک مثال کلاسیک از نظریهٔ بازی است. شناخت انواع مختلفِ دینامیکِ نظریهٔ بازی در یک محیط، گامی کلیدی در طراحی سیستم‌های هوش مصنوعی گیمیفای شده و بهینه است. در سطوح بالا، 5 دسته‌بندی برای سناریو‌های مختلف نظریهٔ بازی داریم.
 

 

متقارن و نامتقارن (Symmetric vs Asymmetric)

یکی از ساده‌ترین دسته‌بندی‌ها برای بازی‌ها، دسته‌بندی آن‌ها بر اساس تقارن آن‌هاست. یک سامانهٔ متقارن، سامانه‌ایست که در آن بازیکن‌ها اهداف یکسانی دارند و نتیجهٔ بازی را استراتژی بازیکن‌ها رقم می‌زند؛ مثل شطرنج.
بسیاری از وضعیت‌هایی که در دنیای واقعی با آن‌ها مواجه می‌شویم، (از دیدگاه ریاضی) نامتقارن‌اند، چرا که شرکت‌کننده‌ها اهداف متفاوت و حتی اهداف متضاد دارند. مذاکرات تجاری نمونه‌ای از بازی‌های نامتقارن‌اند، چرا که هر کدام از طرفین مذاکره، اهداف متفاوتی دارند و نتایج خود را از دیدگاه‌های متفاوتی می‌سنجند. (برای مثال یکی از طرفین به دنبال بستن قرار داد است در حالی که طرف دیگر در تلاش برای سرمایه‌گذاری کمتر است.)

 

کامل و ناقص (Perfect vs Imperfect)

این دسته‌بندی بر اساس میزان اطلاعات در دسترس صورت می‌گیرد. یک بازی کامل (از منظر اطلاعات) بازی‌ایست که در آن هر شرکت‌کننده می‌تواند تصمیمات و حرکت‌های طرف دیگر را ببیند؛ مثل شطرنج. امروزه تعاملات مدرن اکثراً در محیط‌هایی صورت می‌گیرند که در آن بازیکن‌ها حرکت‌های خود را از یکدیگر پنهان می‌کنند و از دیدگاه نظریهٔ بازی، این محیط‌ها ناقص (Imperfect) هستند. بازی‌های ورق (مثل پوکر) تا سناریوهای ماشین‌های خودران مثال‌هایی از سیستم‌های ناقص‌اند.
ویکی‌پدیا‌ی فارسی این نوع از دسته‌بندی را با عنوان «با آگاهی کامل – بدون آگاهی کامل» معرفی کرده.

 

شراکتی و غیرشراکتی (Cooperative vs Non-Cooperative)

یک بازی شراکتی (یا تعاونی) محیطی‌ست که در آن شرکت‌کننگان می‌توانند برای افزایش و بهبود نتایجشان با یکدیگر وارد همکاری شوند.مذاکرات پیمانی (قراردادی) اغلب در این دسته قرار می‌گیرند. محیط‌های غیرشراکتی، محیط‌هایی هستند که در آن بازیکن‌ها از همکاری با یکدیگر منع شده‌اند؛ مثل جنگ.

 

مقارن و دنباله‌ای (Simultaneous vs Sequential)

یک بازی دنباله‌ای، محیطی‌ست که در آن هر بازیکن اقدامات و حرکت‌های قبلی بازیکن حریف را می‌بیند. بازی‌های کارتی (Board Games) در این دسته قرار می‌گیرند. بازی‌هایی که در آن بازیکن‌ها می‌توانند همزمان (مقارن) با هم حرکت کنند، مقارن نام دارند؛ مثل معاملات کارگزاری‌های بورس.

 

مجموع-صفر و مجموع-ناصفر (Zero-Sum vs Non-Zero-Sum)

بازی مجموع-صفر به سناریوهایی اشاره دارد که در آن سود یک (یا چند) بازیکن به معنای ضرر یک (یا چند) بازیکن دیگر است. بازی‌های مجموع-ناصفر بازی‌هایی هستند که در آن چند بازیکن می‌توانند از تصمیم‌های یک بازیکن سود ببرند. معاملات اقتصادی، که در آن بازیکن با هم همکاری می‌کنند تا ظرفیت بازار خود را افزایش دهند، گونه‌ای از بازی‌های مجموع-ناصفر است.

 

تعادل نَش (Nash Equilibrium)

اکثر سناریوهای هوش مصنوعی، از نوع متقارن هستند و بسیاری از آن‌ها بر اساس یکی معروف‌ترین مباحث ریاضی سدهٔ گذشته مدل‌سازی می‌شوند: تعادل نش. تعادل نش وضعیتی را توصیف می‌کند که در آن هر بازیکن یک استراتژی را انتخاب می‌کند و از تغییر دادن آن (مادامی که سایر بازیکن‌ها استراتژی خود را تغییر نداده‌اند) سودی نمی‌برد. نعادل نش به طرز خارق‌العاده‌ای قدرتمند است ولی در برابر سناریوهای نامتقارن به کار نمی‌آید.
به زبان ساده، تعادل نش فرض می‌کند که هر شرکت‌کننده توان پردازشی نامحدود دارد (که می‌دانیم در دنیای واقعی چنین چیزی ممکن نیست.) همچنین اکثر مدل‌های تعادل نش در آنالیز و برخورد با ریسک ضعیف عمل می‌کنند (که در مواردی مانند بازارهای مالی ضعف بزرگی به شمار می‌آید.) در نتیجه استفاده از تعادل نش در سناریوهای نامتقارن ساده نیست و این مورد در بحث سامانه‌های هوش مصنوعی چندعامله حائز اهمیت است.
 

 

ایده‌هایی نو در نظریهٔ بازی که یادگیری ماشین را تحت تأثیر قرار می‌دهد

1. Mean field Games

تئوری Mean Field Games شاخه‌ای نسبتاً جدید است که از سال 2006 مورد بررسی قرار می‌گیرد. از نظر مفهومی، Mean Field Games از روش‌ها و تکنیک‌هایی برای مطالعهٔ بازی‌هایی تفاضلی (Differential) با جمعیت بالایی از بازیکن‌های منطقی تشکیل یافته‌است که تعادل نشِ تعمیم‌یافته برای مطالعه‌ٔ سیستم‌ها استفاده می‌کند. این بازیکن‌ها صرفاً بر اساس دارایی‌های خود (مانند سرمایه، پول و...) تصمیم نمی‌گیرند، بلکه به توزیع دارایی‌های باقی‌مانده در سیستم بین بازیکن‌های دیگر نیز اهمیت می‌دهد.
یک مثال کلاسیک از کارکرد Mean Field Games، چگونگی رفتار دسته‌ای ماهی‌ها (در حرکت‌کردن و...) ست. از منظر نظری، این پدیده به سختی توجیه می‌شود اما ریشه در این واقعیت دارد که ماهی‌ها به رفتار نزدیک‌ترین دستهٔ اطراف خود واکنش نشان می‌دهند. به عبارت بهتر، هر ماهی به رفتار تک تکِ ماهی‌ها واکنش نشان نمی‌دهد، بلکه ماهی‌های اطراف خود را به صورت یک دسته در نظر می‌گیرد. از این رو ماهی‌ها دسته‌های بزرگی را تشکیل می‌دهند که به سوی مشخصی (به صورت هماهنگ) حرکت می‌کنند.
اگر بخواهیم به زبان ریاضی صحبت کنیم، واکنش هرکدام از ماهی‌ها به اکثریت اطراف خود، تئوری همیلتون-جاکوبی-بلمن (Hamilton-Jacobi-Bellman) و تجمیع رفتار فردی ماهی‌ها (که نشانگر رفتار کلیت دستهٔ ماهی‌هاست) تئوری فوکر-پلانک-کولوموگروف (Fokker-Planck-Kolmogorov) نامیده می‌شود. تئوری Mean Field Games ترکیب این دو تئوریست.
 
 

 

2. بازی‌های کاتوره‌ای (Stochastic games)

ریشه‌های این ایده به دههٔ پنجاه میلادی باز می‌گردد. از نظر مفهومی، بازه‌های کاتوره‌ای (=رندوم) توسط تعداد محدودی بازیکن در در فضای حالتِ (State space) محدود بازی می‌شود و در هر حالت، بازیکن یکی از گزینه‌ها (که می‌دانیم تعداد انتخاب‌ها نیز محدود است) را انتخاب می‌کند و برآیند تصمیم‌ها یک پاداش (یا جزا) برای هر بازیکن مشخص کرده و یک توزیع احتمال موفقیت برای هر بازیکن ترسیم می‌کند.
بگذارید بار دیگر یک مثال کلاسیک بزنیم. میز گردی را تصور کنید که n+1 فیلسوف در دور آن نشسته‌اند (می‌دانیم که n≥1) یک کاسه برنج در وسط میز قرار دارد. بین هر دو فیلسوفی که کنار هم نشسته‌اند، یک چنگال قرار دارد که توسط هر دو فیلسوف قابل دسترسی است. از آن جایی که میز گرد است، به تعداد فیلسوف‌ها چنگال داریم. برای آن که فیلسوف بتواند از کاسه برنج بردارد، باید از هر دو چنگال (که در اطراف او هستند) استفاده کند. از این روی، اگر یک فیلسوف بتواند غذا بخورد، دو فیلسوف اطرافش نخواهند توانست. زندگی هر فیلسوف از دو جزء ساده تشکیل یافته، خوردن و فکر کردن؛ برای زنده ماندن یک فیلسوف، مکرراً، هم باید فکر کند و هم باید غذا بخورد. مأموریت ما، طراحی یک پروتکل است که در آن همهٔ فیلسوف‌ها زنده بمانند.
 
 

 

3. بازی‌های تکاملی (Evolutionary games)

بازی‌های تکاملی، همانطور که از نامش پیداست، از نظریهٔ تکامل داروین الهام می‌گیرد و از دههٔ هفتاد میلادی برای پیش‌بینی نتیجهٔ استراتژی‌های رقابتی مورد استفاده قرار می‌گیرد. از نظر مفهومی، بازی‌های تکاملی، کاربرد مفاهیم نظریهٔ بازی در موقعیت‌هاییست که در آن گروهی از عامل‌ها (agents) با استراتژی‌ها و رویکرد‌های متنوع، در طول زمان در طی یک فرایند تکاملی انتخاب و تکثیر (Selection and Duplication) با یکدیگر وارد تعامل می‌شوند تا یک راه‌حل (نتیجه) پایدار پیدا کنند. ایدهٔ اصلی پشت این تئوری، این است که تعامل اعضاء بازی، رفتار بسیاری از اعضا را شکل می‌دهد، و موفقیت هر عضو به طریقهٔ برخورد استراتژی وی با رفتار رقبایش بستگی دارد. در حالی که تئوری‌های کلاسیک نظریه بازی بر استراتژی‌های استاتیک (نامتغیر با زمان) تکیه‌ دارد، رویکرد تکاملی بر استراتژی‌هایی تمرکز دارد که با مرور زمان تغییر می‌کنند و رفته رفته بهتر و بهتر می‌شوند. در واقع استراتژی‌ای موفق است که در فرایند تکاملی رفته رفته بهبود یابد و تغییر کند.

نظریهٔ بازی، به خاطر تکامل هوش مصنوعی، در حال تجربهٔ یک رزونانس است و ما روز به روز بیشتر با آن در سرویس‌های هوشمند مواجه خواهیم شد.

برگردان از «A Crash Course in Game Theory for Machine Learning: Classic and New Ideas» با اندکی دخل و تصرف.
 
  • ۰ نظر
  • ۱۱ اسفند ۹۸ ، ۱۶:۳۴

آیا هوش مصنوعی باعث نابودی بشر خواهد شد؟

جمعه, ۲۵ آبان ۱۳۹۷، ۱۲:۴۳ ب.ظ


عکس Best Friends از Andy Kelly - ژاپن
سوال بزرگیست، به اندازه‌ای بزرگ که باعث به وجود آمدن قطبیدگی هم در حوزه‌ی صنعت و هم در حوزه‌ی آکادمیک شده است. یک قطب بر این عقیده‌است که هوش مصنوعی هر چه باشد، به هر حال تحت کنترل انسان‌ها خواهد بود و قطب دیگر هم معتقد است هوش مصنوعی باعث و بانی جنگ جهانی سوم و انتقراض بشریت خواهد بود. اما به راستی چه عاملی باعث به وجود آمدن این قطبیدگی شده است؟
(برای مشاهده‌ی برخی از محتوای این صفحه باید به اینترنت آزاد متصل باشید.)

اما قبل از این که وارد خود بحث بشویم، نیاز به دانستن اندکی پیش‌زمینه داریم.

پیش ‌در‌آمدی بر هوش مصنوعی

از لحظه‌ای که آلن تیورینگ رویای ماشین محاسبه‌گر را به واقعیت تبدیل کرد، بحث‌های بسیاری درباره‌ی هوش مصنوعی شکل گرفت. به صورت خلاصه، هوش مصنوعی یعنی یافتن روشی که بتوان مفاهیمی که توسط انسان آموخته می‌شوند را به ماشین یاد دهیم و ماشین (همانند انسان) قدرت تصمیم‌گیری داشته باشد. (بخوانید: آزمون تیورینگ)
یادگیری ماشینی به سه بخش تقسیم شده.
  • یادگیری نظارتی، یا این که شما خود داده و عنوان داده را دارید و ماشین می‌تواند نظم موجود بین داده‌ها و نوع و عنوان آنها را کشف کند. (برای مثال، تعیین قیمت ملک بر اساس موقعیت مکانی)
  • یادگیری غیرنظارتی، یا پیدا کردن نظم موجود بین چند داده‌ی بدون عنوان و مرتب کردن آنها بر اساس شباهت‌ها. (برای مثال، سیستم توصیه‌گر بخش explore در اینستاگرام)
  • یادگیری‌ نیمه‌نظارتی، یا ترکیبی از دو روش بالا. بدین معنا که شما عنوان بعضی از داده‌ها را دارید و بعضی داده‌ها را خیر.
چیزی که واضح است، این است که زیربنا برای ساختن چنین ماشینی، داده و تحلیل آماری، یا به عبارت خلاصه «داده‌کاوی» است و در طی نیم قرن گذشته، روش‌های بسیاری برای این کار ابداع شده‌اند؛ از درخت تصمیم و رگرسیون خطی تا شبکه‌های عصبی کانولوشنی.
عکس از جنگ‌های صلیبی: آیا تاکنون از خود پرسیده‌اید که ریچارد‌ِ شیردل چگونه قلعه‌ی خود را مدیریت می‌کرد؟! (ببینید: مد‌های بهبود‌دهنده‌ی هوش مصنوعی بازی جنگ‌های صلیبی)

توانِ هوش مصنوعی

(بر اساس کتاب Superintelligence) هوش مصنوعی به لحاظ قدرت تصمیم‌گیری و توان به سه دسته (با به تعبیر بهتر، دوره) تقسیم می‌شود. دوره‌ی اول (که هم‌اکنون در این دوره قرار داریم) AI نام دارد، دوره‌ای که در آن تلاش می‌کنیم تا با مسائلی که در اطراف خود می‌بینیم، همانند مسائل بهینه‌سازی برخورد کنیم و با روش‌های ریاضی برای آنها راه‌حل پیدا کنیم. نقطه‌ی قوت کامپیوتر نسبت به ما انسان‌ها در سرعت پردازش داده‌هاست و ما هم تلاش می‌کنیم تا از این نقطه‌ی قوت برای توسعه‌ی الگوریتم‌های یادگیری ماشین استفاده کنیم. اشتباه‌ نکنید، هر الگوریتمی که برای یادگیری ماشین نوشته‌ می‌شود از جنس توابع ریاضی‌ست و هیچ اتفاق عجیب و غریبی در آن نمی‌افتد! تنها مقادیر عظیمی از محاسبات توسط رایانه صورت می‌گیرد. ما در این دوره قادر هستیم با استفاده از همین الگوریتم‌ها انسان را (خودمان را!) در بسیاری از مسائل و مشکلات شکست دهیم.
دوره‌ی دوم، دوره‌ی هوشِ عمومیِ مصنوعی (Artificial General Intelligence یا به صورت مخفف، AGI) نام دارد. در این دوره یک ماشین هوشمند قادر خواهد بود هر کار فکری که انسان قادر به انجام آن هست را انجام دهد و به عبارت بهتر، هوش ماشین هم ارز هوش انسان خواهد بود. تست‌های مختلفی برای این کار تعریف شده (مانند آزمون تیورینگ) و ما موقعی به نقطه‌ی هوش عمومی می‌رسیم که این تست‌ها را با موفقیت پشت سر بگذاریم ولی جالب است بدانید که ما حداقل 2 دهه تا این نقطه فاصله داریم. مشکلات پیش روی ما زیاداند (و در ادامه هم به این موضوع پرداخته شده) اما چیزی که ما را نگران می‌کند این دوره نیست، بلکه دوره‌ی سوم است.
دوره‌ی سوم، دوره‌ای فرضیه‌ایست تحت عنوان فراهوش (Superintelligence) که در آن هوش ماشین از هوش انسان پیشی می‌گیرد، بنابراین ماشین می‌تواند بدون نیاز به انسان خود را بهبود دهد و ما با پدیده‌ای تحت عنوان انفجار هوش مواجه خواهیم شد. این نظریه توسط نیک باستروم (Nick Bostrom)، استاد دانشگاه آکسفورد ارائه شده و این نظریه را در کتابش تحت عنوان Superintelligence نقد و تحلیل کرده است. او معتقد است که ضعف انسان در مدیریت تکینگی فناوری، باعث انقراض نسل بشر خواهد شد. چه از روی قصد و چه از روی سهو! برای مثال ممکن است ما از یک ماشین فراهوشمند بخواهیم تا گرسنگی را در جهان برطرف کند، در یک سناریو ماشین می‌تواند با کشتن انسان‌های گرسنه، گرسنگی را خاتمه دهد!
اگر برای شما فکر کردن به چیزی به چنین پدیده‌ای دیوانه‌وار به نظر می‌رسد، به خاطر آورید که جان فون نیومن و برتراند راسل از حمله‌ی اتمی آمریکا به شوروی (برای جلوگیری از دستیابی شوروی به سلاح هسته‌ای) حمایت کردند! یا به حمله‌ی اتمی آمریکا به هیروشیما و ناکازاکی فکر کنید. برای چنین مواردی، مصلحت اندیشی انسان به نفع «همه‌»ی بشریت تمام نشده! پس این اتفاق می‌تواند توسط ماشین هم بیفتد...
اگر شما هم (مثل من) خوره‌ی فیلم‌های علمی-تخیلی (Sci-fi) باشید، حتمن دستیار HAL 9000 در فیلم 2001: A Space Odyssey را به خاطر دارید. ایده‌ی هوش مصنوعیِ عمومی باعث ایجاد جرقه‌ی طراحی دستیار HAL 9000 توسط استنلی کوبریک و آرتور کلارک شد.
I'm sorry Dave, I'm afraid I can't do that...


خطرات هوش مصنوعی

هوش مصنوعی به طور عمده در دو بخش می‌تواند ما را به خطر بیندازد:
  • مورد اول: برای مواقعی که از هوش مصنوعی برای انجام مأموریت‌های مخرب استفاده می‌شود. سلاح‌های خودکار که برای کشتار انسان‌ها برنامه‌نویسی می‌شوند. چنین سلاح‌هایی به سادگی فشردن یک دکمه غیرفعال نخواهند شد، چرا که کشور‌ها و شرکت‌های سازنده‌ی چنین سلاح‌هایی نمی‌خواهند سلاح‌ها به سادگی غیرفعال شوند. یا برای درک بهتر ماشینی را فرض کنید که از داده‌های خود برای تولید اخبار جعلی استفاده می‌کند. (اگر به تاثیر اخبار فیک بر جامعه اعتقاد ندارید، حتمن پادکست پساحقیقت از استرینگ‌کست را گوش کنید تا ببینید اخبار فیک چگونه می‌تواند باعث رئیس‌جمهور شدن دونالد ترامپ شود!)
  • مورد دوم: هوش مصنوعی مأمور به انجام کاری مفید می‌شود ولی برای انجام دادن این کار مفید، کاری مخرب انجام می‌دهد. مثال خاتمه‌ی گرسنگی در بالا نمونه‌ای از این موارد است. آیا ما و ماشین‌ها به درک مشترک می‌رسیم؟!
هشدار‌های هاوکینگ، ماسک و گیتس هم بیشتر در این حوزه‌ها هستند. این خطرات ما را با این پرسش روبرو می‌سازد که آیا ما قادر به کنترل هوش مصنوعی خواهیم بود؟ ما هنوز جواب روشنی برای این پرسش‌ نداریم. برای درک بهتر این پاسخ، باید ابتدا موانع ما در راه رسیدن به تکینگی را بشناسیم.

موانع، در سر راه هوش مصنوعی عمومی (تکینگی)

مانع اول: الگوریتمِ جامعِ یادگیری

پدرو دومینگوز (Pedro Domingos) در کتاب The Master Algorithm این باور را شرح می‌دهد که در راه رسیدن به تکینگی، ابتدا باید الگوریتمی را کشف کنیم که بدون نظارت انسان قادر به یادگیری باشد. او در کتابش شکل پایین را آورده و در توضیحش می‌نویسد که این اَبَرالگوریتم باید بتواند همه‌ی شاخه‌های هوش مصنوعی را به هم ربط دهد.

آیا رسیدن به چنین الگوریتمی ممکن است؟ ما باز هم پاسخ روشنی به این پرسش‌ نداریم.

مانع دوم: توان پردازش داده‌ها

دستگاه هوشمند باید بتواند ترابایت‌ها داده‌ را پردازش کند. پردازش این حجم از داده (با سخت‌افزار‌های فعلی) ممکن است سال‌ها (و یا حتی قرن‌ها) طول بکشد، چرا که الگوریتم‌های یادگیریِ فعلی آنقدرها هم که فکرش را می‌کنید بهینه نیستند. از طرف دیگر ما هنوز الگوریتم جامع را کشف نکرده‌ایم ولی می‌توان گفت که آن الگوریتم‌ هم آنقدر‌ها که فکرش را می‌کنیم بهینه نخواهد بود! پس در نتیجه ابزار‌های فعلی ما برای پردازش این حجم از داده‌ها کافی نیستند. مطالعات آماری به ما می‌گویند که در سال 2030 به سخت‌افزار لازم برای چنین پردازشی دست خواهیم یافت. ولی این این سخت‌افزار از چه نوع خواهد بود؟ پردازنده‌ی کوانتومی؟ آیا می‌توانیم این سخت‌افزار‌ها را در ابعاد کوچک نیز تولید کنیم؟ ما جواب روشنی به این پرسش نداریم.

مانع سوم: مسئله‌ی آگاهی (Consciousness)

موقعی که شما Call of Duty بازی می‌کنید، شما فردی هستید که سرباز را کنترل می‌کند؛ شما از دریچه‌ی کامپیوترتان آن سرباز را کنترل می‌کنید. چه چیزی ما را کنترل می‌کند؟ این پرسشی‌ست که فلاسفه هم بار‌ها آن را تکرار کرده‌اند؛ منشاء آگاهی بشر چیست؟ چه نیرویی ما را کنترل می‌کند؟ آیا ما واقعاً مختاریم؟
آیا ما می‌توانیم ماشینِ آگاه تولید کنیم؟ ماشینی که با استقلال کامل از انسان، توانایی فکر کردن و تصمیم‌گیری داشته باشد و برای کنترل شدن محتاج انسان نباشد.
در پایان فصل اول سریال وست‌ورلد، پس از آن که دلورس هزارتو (maze) را کشف می‌کند و از برنارد درباره‌ی آن می‌پرسد، برنارد در جواب به او می‌گوید که: «تو یک ربات نیستی، تو انسانی.» منظور برنارد این بود که دلورس موجودی بی‌روح نیست، بلکه آگاهی دارد.

ما دهه‌هاست که درگیر شناخت ریشه‌ی آگاهی در خودمان هستیم و حدود 20000 مقاله‌ هم در این باره نوشته‌ایم ولی حتی 1٪ هم به پاسخ نزدیک نشده‌ایم! دیدن این ویدئو از Michio Kaku شما را بیشتر و بهتر با مسئله آشنا می‌کند.


نتیجه‌گیری

شاید تصورات فعلی ما از آینده‌ی هوش مصنوعی روشن و خوش‌بینانه نباشد، ولی باید در نظر داشته باشیم که ما دهه‌ها و قرن‌ها تا رسیدن به آن نقطه فاصله داریم. ما هنوز پاسخ‌های روشنی به پرسش‌هایی بزرگ همچون آگاهی را نیافته‌ایم و راه بسیار طولانی‌ای تا آن نقطه باقی مانده.
این جدول تصویر روشنی را از مسئله‌ی هوش مصنوعی به ما ارائه می‌دهد.
نکته‌ای که باید به آن توجه داشت این است که هوش مصنوعی (حداقل تا امروز) فواید زیادی برای ما داشته و پس از تکینگی هم این چنین خواهد بود؛ پس بهتر است تنها از بعدِ بدبینی به ماجرا نگاه نکنیم.



لطفا این پست را با دوستانتان به اشتراک بگذارید و حتما نظرتان را راجب این پست بگویید.
ممنون بابت وقتتان.