«پایان بشریت!» همدان پیام
 
 
پنجشنبه - 13 بهمن 1401 - شماره 4521
 
امروز : جمعه ، 20 مهر 1403

Today : Thu, October 10, 2024




ارتباط با سرویس ها - پذیرش آگهی * شعار سال ۱۴۰۳ جهش تولید با مشارکت مردم
ورود کاربران


عکس چاپخانه
logo-samandehi
 
کد مطلب:  132416 تاریخ انتشار:  1402-03-15 - 10:05 تعداد بازدید:  904
ارسال به دوستان
نسخه چاپی

نگاه مجله تایم به هوش مصنوعی:
«پایان بشریت!»

گزارش ویژه


اختصاص یافتن طرح جلد مجله تایم (Time) به تیتر «پایان بشریت» خبرساز شده است. جدیدترین گزارش منتشرشده از سوی این مجله به هوش مصنوعی اختصاص یافته و آن را پایانی برای بشریت عنوان کرده است. تیتری جسورانه و شاید کمی بی‌انصافانه نسبت به فناوری ساختارشکن هوش مصنوعی که به زعم بسیاری، اگرچه چالش‌ها و ریسک‌های خودش را دارد، اما می‌تواند در صورت کنترل در خدمت بشریت باشد تا روبه‌روی آن.

تایم در این شماره خود با پرداختن به این سؤال که «پایان بشریت… چقدر واقعیت دارد؟!» به توسعه بی‌حد و مرز مدل‌های مولد مبتنی بر هوش مصنوعی طی چند سال اخیر و به‌ویژه چند ماه اخیر پرداخته و اعتراف کرده که ظاهراً، دیگر پنجره‌ای نیست که هوش مصنوعی قادر به باز کردن آن نباشد.

بر اساس این گزارش، قابلیت‌ها و رخنه فناوری هوش مصنوعی در زندگی و بطن جامعه هفته به هفته در حال بیشتر شدن است و ماشین‌ها اکنون به لطف این فناوری قادرند شعر و متون ادبی لطیف بنگارند، در آزمون‌های رسمی و مهم به جای دانش‌آموزان و دانشجویان شرکت کنند، تداعی‌کننده هنرهای بدیع باشند، در مورد مسائل علمی پیشرفته و پزشکی اظهار نظر کنند و حتی انسان‌ها را قضاوت کنند.

دقیقاً به همین خاطر است که تایم می‌گوید کارشناسان از این فناوری وحشت کرده‌اند. این مجله ادعا می‌کند بیش از ۵۵۰ کارشناس و متخصص فعال در حوزه فناوری هوش مصنوعی را مورد بررسی و ارزیابی قرار داده و قریب به نیمی از آنها معتقد بوده‌اند که در صورت ادامه این روند، هوش مصنوعی در سطوح بالاتر پتانسیل ایجاد اثراتی بسیار بد و زیان‌بار (حتی در حد نابودی بشریت) را خواهد داشت.

در 30 می بود که جمعی از دانشمندان، متخصصان، فعالان صنعت و فرهیختگان از سراسر جهان گرد آمده و طی امضای بیانیه‌ای خواهان توقف دست‌کم موقت محصولات هوش مصنوعی مولد شرکت‌هایی نظیر اوپن ای‌آی (Open AI)، دیپ‌مایند (DeepMind) و آنتروپیک (Anthropic) شدند. آنها در این بیانیه ضمن تذکر در مورد هوش مصنوعی خواستار احتیاط در خصوص این فناوری و محصولات مبتنی بر آن شده و اذعان کردند که «کنترل خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی در کنار سایر مقیاس‌های اجتماعی باشد… درست مانند همه‌گیری و جنگ هسته‌ای!»

اما چرا باید یک فناوری تا این حد ترسناک باشد و همه را به تکاپو بیندازد؟ تعدادی از غول‌های فناوری، متخصصان و فعالان صنعت به سختی در حال کار روی محصولات هوش مصنوعی خود هستند تا از قافله رقابت عقب نمانند و در جبهه دیگر، عده‌ای نیز به سختی در تلاش‌اند تا جهان را از خطرات بالقوه اما سهمگین توسعه این فناوری آگاه کنند. هرچند که جبهه و رویکرد عده‌ای هم هنوز در هاله‌ای از ابهام است؛ مثل ایلان ماسک که هم در امضای بیانیه ۳۰ مِی جزو افراد فعال و تأثیرگذار بوده و هم شرکت هوش مصنوعی خودش را اخیراً راه‌اندازی کرده است.

ساده‌ترین استدلال برای این وحشت از نظر مجله تایم، روی کار آمدن «افرادی مصنوعی» است که افرادی فراانسانی با هوشی بسیار فراتر و غنی‌تر از هوش انسانی هستند، در حالی که از ویژگی‌های برتر انسانی نظیر وجدان و عواطف بهره‌ای نبرده‌اند. موجودی را متصور شوید که قادر است همه‌کار بکند و اگر روزی اهدافش با منافع بشری در تضاد باشد، به راحتی قابلیت این را خواهد داشت که به طور مستقل اهدافش را دنبال کرده و حتی به نسل بشر خاتمه دهد.

البته بخش قابل توجهی از این حساسیت‌ها و وحشت‌ها نه صرفاً برای حذف و توقف این محصولات، که برای روی کار آمدن سازمان‌ها، افراد، شرکت‌ها یا آژانس‌هایی است که مسئولیت‌پذیری بالایی در این زمینه دارند. به عقیده تایم، در صورتی که متخصصان و نهادهای مسئول دست به کار نشده و زمام فناوری را به دست نگیرند، این احتمال بسیار بالا خواهد بود که کنترل آن به دست نااهلان و افراد غیرمسئول بیفتد و در آن صورت است که دیگر نمی‌توان اثرات زیان‌بار یا شاید مرگبار فناوری را کنترل کرد.

هوش مصنوعی یک مسابقه تسلیحاتی است؟!

به عقیده تایم، راهکار کنترل این فناوری جدید که به شدت در حال پیشروی و تسخیر قلب‌ها و مغزهاست، نه توقف آن، که سپردن آن به نهادها و متخصصان مسئول است. تایم بر این باور است که فناوری، در صورتی که در یک آزمایشگاه در ایالات متحده آمریکا و تحت نظارت و کنترل دقیق نهادهای رگولاتوری یا دست‌کم یک آژانس ویژه توسعه یافته و مدیریت شود، بسیار بهتر از این خواهد بود که در آزمایشگاه‌های چینی توسعه یابد که هیچ نظارت و چهارچوبی ندارند.

شاید از این منظر بتوان نبرد فناوری هوش مصنوعی را به نبردهای تسلیحاتی کلاسیک تشبیه کرد. هر دو طرف نبرد تمام انرژی و سرمایه خود را صرف ساخت سلاح می‌کنند، اما نمی‌توانند از هم پیشی گرفته و پیروز میدان باشند… از طرفی هم هر کس بخواهد پا پس بگذارد قافله را خواهد باخت پس راهی جز ادامه دادن ندارد! هر دو می‌دانند که دیگر نباید پا را فراتر از این بگذارند ولی چاره‌ای هم جز این ندارند!

البته این نبرد تسلیحاتی کلاسیک، شکل بسیار ساده‌ای از نبردی است که هوش مصنوعی به راه انداخته است. نکته اینجاست که در مورد جنگ‌های تسلیحاتی دو راه بیشتر وجود ندارد:
یا یکی از دو طرف پیشروی کرده (یا به دلیل عقب‌نشینی دیگری) پیروز میدان می‌شود.
یا صلح بین طرفین درمی‌گیرد و جنگ پایان می‌یابد.

اما در مورد هوش مصنوعی این امکان وجود دارد که پیروز میدان خود هوش مصنوعی باشد! در واقع احتمال اینکه هر دو طرف مغلوب این جنگ مدرن باشند بسیار زیاد است. شاید اینکه یکی از طرفین انتخاب کند بازنده میدان (بازنده که نه… درواقع نفر دوم بازی) باشد بسیار بهتر از آن است که بپذیرد یک فناوری فرابشری همه‌چیز را در دست بگیرد. این بازی به قدری پیچیده و متفاوت و عجیب است که شاید حتی آن‌ کس که بازی را ترک کرده برنده بازی باشد.

تایم در این گزارش مدعی شده که بهترین رویکرد در حال حاضر می‌تواند رویکرد فردی هر یک از ما (احتیاط هر یک از ما در استفاده از این فناوری یا توسعه آن) باشد تا زمانی که یک قدرت یا نهاد، کنترل و مدیریت فناوری را عهده‌دار شود. شاید درست مثل انرژی اتمی که همه باید در توسعه یا استفاده از آن محتاط باشند و یک آژانس مسئول نیز وظیفه کنترل، مدیریت و نظارت بر آن را بر عهده گیرد.

نویسنده: ثریا حقی

 


بازگشت
نظرات بینندگان :
نظر شما :
   
نام*
ایمیل* ایمیل محفوظ می باشد
نظر*
کد امنیتی*
کد امنیتی

اخبار مرتبط
 
 
 
گزارش گزارش ویژه یادداشت تحلیل سرمقاله ضمیمه(پیام_آدینه) دانلود
صفحه نخست آخرین اخبار درباره ما ارتباط با ما  پیوندها ویژه_نامه راهنما
نشر و نقل مطالب فقط با ذکر نام روزنامه همدان پیام بلامانع است.

 
روزنامه همدان پیام ( اجتماعي، فرهنگي، اقتصادي، سياسي، ورزشی )
صاحب امتياز و مدير مسئول: نصرت ا... طاقتي احسن  -  سردبير: يدا... طاقتي احسن
نشاني: همدان، خيابان شريعتي، ابتداي خيابان مهديه، ساختمان پيام
تلفن: 38264433 (081)  -  فکس: 38279013 (081)  -  سازمان نیازمندی: 38264400 (081)  - ايميل: info@hamedanpayam.com