هوش مصنوعي روزبهروز نفوذش را در زندگي مردم افزايش ميدهد و كارشناسان، لزوم قانونگذاري و ايجاد محدوديت را براي آن بالا ميدانند.
هوش مصنوعي روزبهروز نفوذش را در زندگي مردم افزايش ميدهد و كارشناسان، لزوم قانونگذاري و ايجاد محدوديت را براي آن بالا ميدانند.
دانشگاههاي متعددي در سرتاسر جهان پيرامون هوش مصنوعي تحقيق ميكنند. شركتها و سازمانهايي همچون Allen Institute و غولهاي فناوري همچون گوگل و فيسبوك را هم به فهرست محققان اين حوزه اضافه كنيد. نتيجهي تحقيقات همهجانبه، به احتمال زياد در آيندهي نزديك به ظهور يك هوش مصنوعي ميانجامد كه از لحاظ پيچيدگي ادراك و شناخت، نزديك به حيواناتي همچون موش و سگ خواهد بود.
اكنون نوبت به اين مسئله رسيده است كه چرايي و چگونگي اجراي حفاظتهاي اخلاقي را براي هوش مصنوعي بررسي كنيم. آيا هوش مصنوعي نيز استحقاق حفاظتهاي قانوني اهداشده به حيوانات را دارد؟
بحثهايي كه تاكنون پيرامون «حقوق هوش مصنوعي» يا «حقوق رباتها» بيان شدهاند، عموما به تعهدات و وظايف اخلاقي هوش مصنوعي با هوشياري در سطح انسان يا بالاتر اشاره دارند. بهعنوان مثال ميتوان به نمونههاي سينمايي همچون حقوق درويدها در سري فيلمهاي استار ترك يا شخصيت دولورس در سريال وستورلد اشاره كرد.
منتهي تفكر در اين مسير، ظاهرا شروع صحيحي براي بررسي چالش نخواهد بود و شايد پيامدهاي اخلاقي عظيمي بههمراه داشته باشد.
مقالههاي مرتبط:
چگونه از عملكرد مخرب هوش مصنوعي پيشگيري كنيم؟گرفتاري هوش مصنوعي در دام وهم و خيال چه تبعاتي دارد؟بشر احتمالا در آيندهي بسيار نزديك به هوش مصنوعي با پيچيدگي هوش انساني دست پيدا نخواهد كرد؛ هوشي كه نيازمند بررسيهاي اخلاقي شبيه به انسان باشد.
ازطرفي، ساختن هوش مصنوعي با پيچيدگي نزديك به هوشي پايينتر از انسان، دور از انتظار نيست. درنتيجه بايد ملاحظاتي با سطح پايينتر از مسائل اخلاقي انساني براي آنها در نظر گرفته شود.
امروزه احتياط بالايي پيرامون چگونگي انجام تحقيق با استفاده از حيوانات مدنظر قرار ميگيرد. بهعنوان مثال كميتههاي حفاظت از حيوانات، پروپوزالهاي تحقيقي را بررسي ميكنند تا هيچگونه كشتار يا شكنجهي غيرالزامي در جريان تحقيقات روي آنها انجام نشود.
اگر در برخي از تحقيقات پزشكي، سلولهاي بنيادي انساني يا مهمتر از آن، سلولهاي مغزي انساني دخيل باشند، نظارت و بازرسيهاي عميقتر نيز ميشود. درواقع تحقيقات زيست پزشكي تحت بررسيهاي موشكافانهي عميقي انجام ميشوند.
درمقابل، تحقيقات هوش مصنوعي كه شايد مستلزم برخي از همان ريسكهاي اخلاقي بالا باشند، تحت هيچگونه بررسي قانوني يا سازماني قرار ندارند. برخي كارشناسان ميگويند شايد اين تحقيقات هم به چارچوبهاي اخلاقي بيشتر نياز داشته باشند.
موش
در نگاه اول بهنظر ميرسد هوش مصنوعي تا زمان دستيابي به هوشياري واقعي، نيازي به حفاظتهاي اخلاقي نداشته باشد. منظور از هوشياري واقعي، جرياني هوشمندانه از تجربه با لذت و رنج واقعي است.
چنين تصوري منطقي بهنظر ميرسد، اما بههرحال يك سؤال بيپاسخ در آن وجود دارد: ما چگونه ميتوانيم از ساختن هوشي با توانايي تجربهي واقعي مطمئن شويم؟ بله، اگر هوش مصنوعي ساختهشده مانند دولورس يا ديگر شخصيتهاي فيلم و سريال باشد، توانايي شكايت كردن و دفاع كردن از خود را خواهد داشت و قطعا پيرامون حقوق خود، بحث و مجادله ميكند.
ازطرفي اگر هوش مصنوعي توانايي تكلم را نداشته (مانند موش و سگ) يا بههر دليلي قادر به ابراز نظر پيرامون حالتهاي دروني خود نباشد، توانايي اعلام رنج كشيدن را نيز نخواهد داشت.
چالشي كه در بالا مطرح شد، يك پيچيدگي را در بررسيها پيرامون هوش مصنوعي ايجاد ميكند. مطالعات علمي پرامون هوشياري، هنوز اجماعي براي تعريف هوشياري ندارند. درواقع هنوز نميتوانيم وجود يا عدم وجود هوشياري را تعريف كنيم.
چالش اصلي، نبودن اجماعي براي تعريف هوشياري استهوشياري در برخي از ديدگاههاي ليبرال تنها نيازمند توانايي پردازش اطلاعات با سازماندهي مناسب است. بهعنوان مثال ميتوان به مدلهاي اطلاعاتي انعطافپذير يك سيستم در ارتباط با اجسام موجود در محيط اشاره كرد؛ مدلهايي كه داراي ظرفيتهاي هدايتشدهي توجه و برنامهريزيهاي عملياتي بلندمدت هستند. دنياي علم احتمالا در شُرف دستيابي به چنين هوشياري قرار دارد.
تعريف هوشياري در ديدگاههاي محافظهكارانه نيازمند قابليتهاي زيستي خاصي است. بهعنوان مثال ميتوان به مغزي شبيه به مغز پستانداران با جزئيات ساختاري سطح پايينتر اشاره كرد. قطعا پيشرفتهاي علمي حتي به ساختن چنين هوشياري نزديك هم نشدهاند.
صحت هيچيك از اظهارنظرهاي بالا قابل تأييد يا رد نيست و نميتوان هيچكدام را بر ديگري برتر دانست. ازطرفي اگر ديدگاه ليبرال را صحيح در نظر بگيريم، بهزودي توانايي ساخت هوش مصنوعي پايينتر از انسان را در مقياس فراوان خواهيم داشت كه به حفاظت اخلاقي نياز دارند. ريسك اخلاقي در همين شرايط خود را نشان ميهد.
خطر هوش مصنوعي
مبحث پيرامون ريسكها و خطرهاي هوش مصنوعي، عموما روي ريسكهاي متمركز ميشوند كه شايد فناوريهاي هوش مصنوعي جديد براي انسانها ايجاد كنند. بهعنوان مثال ميتوان به همان داستانهاي علمي-تخيلي اشغال جهان و ازبينبردن نژاد بشر اشاره كرد.
در بهترين حالت نيز ريسك در دست گرفتن كنترل نظامهايي همچون نظام بانكي مطرح ميشود. خطر انسان براي هوش مصنوعي ازطريق بدرفتاري با آنها، عموما در مباحث پيرامون خطرها مطرح نميشود.
در هيچيك از مباحث، خطر انسان براي هوش مصنوعي بررسي نميشودشايد بررسي كنوني شبيه به داستانهاي علمي-تخيلي باشند.
ازطرفي محققان و جامعهي فعال هوش مصنوعي در مسير توسعهي هوش مصنوعي هوشيار يا سيستمهاي هوش مصنوعي عظيم هستند. به همين دليل احتمالا دستيابي به سيستم كاملا هوشيار رخ خواهد داد و بايد جنبههاي اخلاقي آن نيز در نظر گرفته شود.
تحقيقات در آن حوزه، نيازمند بررسيهاي موشكافانهي اخلاقي هستند كه شبيه به بررسيهاي انجامشده در ارتباط با تحقيق روي حيوانات يا نمونههايي از بافتهاي عصبي انسان هستند.
حفاظتهاي مناسب اخلاقي از نمونههاي حيواني و انساني در تحقيقات زيستپزشكي، زماني پيادهسازي شدند كه اولين تخلفات جدي اخلاقي در تحقيقات فاش شدند. بهعنوان مثال ميتوان به تشريح غيرالزامي حيوانات زنده، جرمهاي جنگي نازيها در حوزهي پزشكي و تحقيقات بحثبرانگيز دانشگاه تاسكيگي آمريكا روي بيماري سفليس اشاره كرد.
هوش مصنوعي
دستيابي به هوشياري مصنوعي واقعي، دور از انتظار نخواهد بودباتوجه به رخدادهاي پيشآمده در گذشته، احتمالا محققان امروزي شانس عملكرد بهتر را نسبت به هوش مصنوعي دارند. بهعنوان راهكارهاي كاربردي ميتوان به راهاندازي كميتههاي نظارتي براي بررسي و اعتبارسنجي تحقيقات هوش مصنوعي اشاره كرد.
كميتههاي آنچناني دقيقا مانند كميتههاي نظارت بر تحقيقات حيواني يا سلولهاي بنيادي، بايد تركيبي از اعضاي دانشمند و غير دانشمند داشته باشند. طراحان هوش مصنوعي، محققان هوشياري، اخلاقشناسان و اعضاي علاقهمند به مباحث مذكور، بايد در كميتههاي نظارتي حضور داشته باشند.
كميتههاي نظارت بر تحقيقات هوش مصنوعي، موظف به تشخيص و بررسي ريسكهاي اخلاقي طراحيهاي جديد در حوزهي هوش مصنوعي خواهند بود. آنها بايد داراي دركي پيچيده و عميق از مشكلات اخلاقي و علمي پيشرو باشند. درواقع اعضاي ناظر بايد بتوانند چالشها و ريسكهاي اخلاقي را در برابر مزيت پيشبرد تحقيقات، مقايسه و تحليل كنند.
اگر زماني كميتههاي نظارت بر تحقيقات هوش مصنوعي تشكيل شوند، احتمالا داوري بر تمامي تحقيقات موجود در اين حوزه را در دست خواهند گرفت. البته اكنون هيچيك از تحقيقات ما براساس هيچ تعريفي از هوشياري به هوشياري واقعي نزديك نشدهاند، اما احتمال دستيابي به آن دور از ذهن نيست. درنتيجه شايد بهتر باشد پيش از رد شدن از مرز اخلاقي و ساختن هوشياري واقعي، براي كنترل چالشهاي اخلاقي آن آماده باشيم.
سايت زوميت
- چهارشنبه ۰۶ آذر ۹۸ | ۰۹:۴۴
- ۶ بازديد
- ۰ نظر