هوش مصنوعي مانند حيوانات به حفاظت اخلاقي نياز دارد

بهترين اخبار فناوري - ساختمان - ورزشي - بازار - فروش و ....

هوش مصنوعي مانند حيوانات به حفاظت اخلاقي نياز دارد

هوش مصنوعي روز‌به‌روز نفوذش را در زندگي مردم افزايش مي‌دهد و كارشناسان، لزوم قانون‌گذاري و ايجاد محدوديت را براي آن بالا مي‌دانند.

هوش مصنوعي روز‌به‌روز نفوذش را در زندگي مردم افزايش مي‌دهد و كارشناسان، لزوم قانون‌گذاري و ايجاد محدوديت را براي آن بالا مي‌دانند.


دانشگاه‌هاي متعددي در سرتاسر جهان پيرامون هوش مصنوعي تحقيق مي‌كنند. شركت‌ها و سازمان‌هايي همچون Allen Institute و غول‌هاي فناوري همچون گوگل و فيسبوك را هم به فهرست محققان اين حوزه‌ اضافه كنيد. نتيجه‌ي تحقيقات همه‌جانبه، به احتمال زياد در آينده‌ي نزديك به ظهور يك هوش مصنوعي مي‌انجامد كه از لحاظ پيچيدگي ادراك و شناخت، نزديك به حيواناتي همچون موش و سگ خواهد بود.

اكنون نوبت به اين مسئله رسيده است كه چرايي و چگونگي اجراي حفاظت‌هاي اخلاقي را براي هوش مصنوعي بررسي كنيم. آيا هوش مصنوعي نيز استحقاق حفاظت‌هاي قانوني اهداشده به حيوانات را دارد؟


بحث‌هايي كه تاكنون پيرامون «حقوق هوش مصنوعي» يا «حقوق ربات‌ها» بيان شده‌اند، عموما به تعهدات و وظايف اخلاقي هوش مصنوعي با هوشياري در سطح انسان يا بالاتر اشاره دارند. به‌عنوان مثال مي‌توان به نمونه‌هاي سينمايي همچون حقوق درويدها در سري فيلم‌هاي استار ترك يا شخصيت دولورس در سريال وست‌ورلد اشاره كرد.

منتهي تفكر در اين مسير، ظاهرا شروع صحيحي براي بررسي چالش نخواهد بود و شايد پيامدهاي اخلاقي عظيمي به‌همراه داشته باشد.


مقاله‌هاي مرتبط:
چگونه از عملكرد مخرب هوش مصنوعي پيشگيري كنيم؟گرفتاري هوش مصنوعي در دام وهم و خيال چه تبعاتي دارد؟بشر احتمالا در آينده‌ي بسيار نزديك به هوش مصنوعي با پيچيدگي هوش انساني دست پيدا نخواهد كرد؛ هوشي كه نيازمند بررسي‌هاي اخلاقي شبيه به انسان باشد.

ازطرفي، ساختن هوش مصنوعي با پيچيدگي نزديك به هوشي پايين‌تر از انسان، دور از انتظار نيست. درنتيجه بايد ملاحظاتي با سطح پايين‌تر از مسائل اخلاقي انساني براي آن‌ها در نظر گرفته شود.


امروزه احتياط بالايي پيرامون چگونگي انجام تحقيق با استفاده از حيوانات مدنظر قرار مي‌گيرد. به‌عنوان مثال كميته‌هاي حفاظت از حيوانات، پروپوزال‌هاي تحقيقي را بررسي مي‌كنند تا هيچ‌گونه كشتار يا شكنجه‌ي غيرالزامي در جريان تحقيقات روي آن‌ها انجام نشود.

اگر در برخي از تحقيقات پزشكي، سلول‌هاي بنيادي انساني يا مهم‌تر از آن، سلول‌هاي مغزي انساني دخيل باشند، نظارت و بازرسي‌هاي عميق‌تر نيز مي‌شود. درواقع تحقيقات زيست پزشكي تحت بررسي‌هاي موشكافانه‌ي عميقي انجام مي‌شوند.

درمقابل، تحقيقات هوش مصنوعي كه شايد مستلزم برخي از همان ريسك‌هاي اخلاقي بالا باشند، تحت هيچ‌گونه بررسي قانوني يا سازماني قرار ندارند. برخي كارشناسان مي‌گويند شايد اين تحقيقات هم به چارچوب‌هاي اخلاقي بيشتر نياز داشته باشند.


موش
در نگاه اول به‌نظر مي‌رسد هوش مصنوعي تا زمان دستيابي به هوشياري واقعي، نيازي به حفاظت‌هاي اخلاقي نداشته باشد. منظور از هوشياري واقعي، جرياني هوشمندانه از تجربه با لذت و رنج واقعي است.

چنين تصوري منطقي به‌نظر مي‌رسد، اما به‌هرحال يك سؤال بي‌پاسخ در آن وجود دارد: ما چگونه مي‌توانيم از ساختن هوشي با توانايي تجربه‌ي واقعي مطمئن شويم؟ بله، اگر هوش مصنوعي ساخته‌شده مانند دولورس يا ديگر شخصيت‌هاي فيلم و سريال باشد، توانايي شكايت كردن و دفاع كردن از خود را خواهد داشت و قطعا پيرامون حقوق خود، بحث و مجادله مي‌كند.

ازطرفي اگر هوش مصنوعي توانايي تكلم را نداشته (مانند موش و سگ) يا به‌هر دليلي قادر به ابراز نظر پيرامون حالت‌هاي دروني خود نباشد، توانايي اعلام رنج كشيدن را نيز نخواهد داشت.


چالشي كه در بالا مطرح شد، يك پيچيدگي را در بررسي‌ها پيرامون هوش مصنوعي ايجاد مي‌كند. مطالعات علمي پرامون هوشياري، هنوز اجماعي براي تعريف هوشياري ندارند. درواقع هنوز نمي‌توانيم وجود يا عدم وجود هوشياري را تعريف كنيم.


چالش اصلي، نبودن اجماعي براي تعريف هوشياري استهوشياري در برخي از ديدگاه‌هاي ليبرال تنها نيازمند توانايي پردازش اطلاعات با سازمان‌دهي مناسب است. به‌عنوان مثال مي‌توان به مدل‌هاي اطلاعاتي انعطاف‌پذير يك سيستم در ارتباط با اجسام موجود در محيط اشاره كرد؛ مدل‌هايي كه داراي ظرفيت‌هاي هدايت‌شده‌ي توجه و برنامه‌‌ريزي‌هاي عملياتي بلندمدت هستند. دنياي علم احتمالا در شُرف دستيابي به چنين هوشياري قرار دارد.


تعريف هوشياري در ديدگاه‌هاي محافظه‌كارانه نيازمند قابليت‌هاي زيستي خاصي است. به‌عنوان مثال مي‌توان به مغزي شبيه به مغز پستانداران با جزئيات ساختاري سطح پايين‌تر اشاره كرد. قطعا پيشرفت‌هاي علمي حتي به ساختن چنين هوشياري نزديك هم نشده‌اند.


صحت هيچ‌يك از اظهارنظرهاي بالا قابل تأييد يا رد نيست و نمي‌توان هيچ‌كدام را بر ديگري برتر دانست. ازطرفي اگر ديدگاه ليبرال را صحيح در نظر بگيريم، به‌زودي توانايي ساخت هوش مصنوعي پايين‌تر از انسان را در مقياس فراوان خواهيم داشت كه به حفاظت اخلاقي نياز دارند. ريسك اخلاقي در همين شرايط خود را نشان مي‌هد.

 


خطر هوش مصنوعي
مبحث پيرامون ريسك‌ها و خطرهاي هوش مصنوعي، عموما روي ريسك‌هاي متمركز مي‌شوند كه شايد فناوري‌هاي هوش مصنوعي جديد براي انسان‌ها ايجاد كنند. به‌عنوان مثال مي‌توان به همان داستان‌هاي علمي-تخيلي اشغال جهان و ازبين‌بردن نژاد بشر اشاره كرد.

در بهترين حالت نيز ريسك در دست گرفتن كنترل نظام‌هايي همچون نظام بانكي مطرح مي‌شود. خطر انسان براي هوش مصنوعي ازطريق بدرفتاري با آن‌ها، عموما در مباحث پيرامون خطرها مطرح نمي‌شود. 


در هيچ‌يك از مباحث، خطر انسان براي هوش مصنوعي بررسي نمي‌شودشايد بررسي كنوني شبيه به داستان‌هاي علمي-تخيلي باشند.

ازطرفي محققان و جامعه‌ي فعال هوش مصنوعي در مسير توسعه‌ي هوش مصنوعي هوشيار يا سيستم‌هاي هوش مصنوعي عظيم هستند. به همين دليل احتمالا دستيابي به سيستم كاملا هوشيار رخ خواهد داد و بايد جنبه‌هاي اخلاقي آن نيز در نظر گرفته شود.

تحقيقات در آن حوزه، نيازمند بررسي‌هاي موشكافانه‌ي اخلاقي هستند كه شبيه به بررسي‌هاي انجام‌شده در ارتباط با تحقيق روي حيوانات يا نمونه‌هايي از بافت‌هاي عصبي انسان هستند. 


حفاظت‌هاي مناسب اخلاقي از نمونه‌هاي حيواني و انساني در تحقيقات زيست‌پزشكي، زماني پياده‌سازي شدند كه اولين تخلفات جدي اخلاقي در تحقيقات فاش شدند. به‌عنوان مثال مي‌توان به تشريح غيرالزامي حيوانات زنده، جرم‌هاي جنگي نازي‌ها در حوزه‌ي پزشكي و تحقيقات بحث‌برانگيز دانشگاه تاسكيگي آمريكا روي بيماري سفليس اشاره كرد.


هوش مصنوعي
دستيابي به هوشياري مصنوعي واقعي، دور از انتظار نخواهد بودباتوجه به رخدادهاي پيش‌آمده در گذشته، احتمالا محققان امروزي شانس عملكرد بهتر را نسبت به هوش مصنوعي دارند. به‌عنوان راهكارهاي كاربردي مي‌توان به راه‌اندازي كميته‌هاي نظارتي براي بررسي و اعتبارسنجي تحقيقات هوش مصنوعي اشاره كرد.

كميته‌هاي آن‌چناني دقيقا مانند كميته‌هاي نظارت بر تحقيقات حيواني يا سلول‌هاي بنيادي، بايد تركيبي از اعضاي دانشمند و غير دانشمند داشته باشند. طراحان هوش مصنوعي، محققان هوشياري، اخلاق‌شناسان و اعضاي علاقه‌مند به مباحث مذكور، بايد در كميته‌هاي نظارتي حضور داشته باشند.


كميته‌هاي نظارت بر تحقيقات هوش مصنوعي، موظف به تشخيص و بررسي ريسك‌هاي اخلاقي طراحي‌هاي جديد در حوزه‌ي هوش مصنوعي خواهند بود. آن‌ها بايد داراي دركي پيچيده و عميق از مشكلات اخلاقي و علمي پيش‌رو باشند. درواقع اعضاي ناظر بايد بتوانند چالش‌ها و ريسك‌هاي اخلاقي را در برابر مزيت پيش‌برد تحقيقات، مقايسه و تحليل كنند.


اگر زماني كميته‌هاي نظارت بر تحقيقات هوش مصنوعي تشكيل شوند، احتمالا داوري بر تمامي تحقيقات موجود در اين حوزه را در دست خواهند گرفت. البته اكنون هيچ‌يك از تحقيقات ما براساس هيچ تعريفي از هوشياري به هوشياري واقعي نزديك نشده‌اند، اما احتمال دستيابي به آن دور از ذهن نيست. درنتيجه شايد بهتر باشد پيش از رد شدن از مرز اخلاقي و ساختن هوشياري واقعي، براي كنترل چالش‌هاي اخلاقي آن آماده باشيم.

سايت زوميت

تا كنون نظري ثبت نشده است
ارسال نظر آزاد است، اما اگر قبلا در مونوبلاگ ثبت نام کرده اید می توانید ابتدا وارد شوید.