خیال خام کنترل ایمن هوش مصنوعی
به گزارش کنکوری، دکتر رومن وی یامپولسکی از کارشناسان برجسته هوش مصنوعی می گوید ما با یک رویداد تقریبا تضمین شده با پتانسیل ایجاد یک فاجعه وجودی روبرو می باشیم.
به گزارش کنکوری به نقل از ایسنا، یک متخصص در زمینه هوش مصنوعی، بررسی کاملی روی ادبیات علمی در مورد هوش مصنوعی انجام داده و به این نتیجه رسیده است که هیچ مدرکی برای پشتیبانی از این تصور وجود ندارد که هوش مصنوعی را میتوان به صورت ایمن کنترل کرد.
علاوه بر این، حتی اگر مکانیسم ها یا روش هایی برای کنترل هوش مصنوعی پیشنهاد شده باشد، دکتر رومن وی یامپولسکی(Roman V. Yampolskiy) اعتقاد دارد که این اقدامات برای تضمین ایمنی کافی نخواهند بود.
به نقل از آی ای، دکتر یامپولسکی دانشیار دانشگاه لوئیزویل(Louisville) است که نتایج تحقیقات خویش را در کتابی با عنوان «هوش مصنوعی غیر قابل توضیح، غیر قابل پیشبینی، غیر قابل کنترل» منتشر نموده است.
کار او در زمینه «ایمنی هوش مصنوعی» تا حدی توسط ایلان ماسک و موسسه آینده زندگی(FLI) که توسط مکس تِگمارک استاد دانشگاه MIT و ژان تالین یکی از بنیانگذاران اسکایپ تاسیس شده است، پشتیبانی شده است.
موسسه آینده زندگی همان موسسه ای است که برای توسعه ابزارهای هوش مصنوعی قدرتمندتر از GPT-4 درخواست نمود این پروژه با یک توقف شش ماهه روبرو شود.
نامه سرگشاده این موسسه توسط بیشتر از 33 هزار نفر همچون ایلان ماسک، استیو وزنیاک هم بنیانگذار اپل، یوشوا بنجیو(Yoshua Bengio) پدرخوانده هوش مصنوعی و سایر کارشناسان امضا شده است.
نگرانی در مورد مدیریت و تنظیم مقررات در مقابل خطرات هوش مصنوعی
با نفوذ ابزارهای جدید هوش مصنوعی در بازار ظرف یک سال گذشته، دکتر یامپولسکی پیشنهاد می دهد که سیستم های هوش مصنوعی پیشرفته به سبب غیر قابل پیشبینی بودن و استقلال ذاتی، با وجود مزایای بالقوه شان، همیشه خطراتی را به همراه خواهند داشت.
دکتر یامپولسکی در یک بیانیه مطبوعاتی اظهار داشت: چرا خیلی از پژوهشگران تصور می کنند که مشکل کنترل هوش مصنوعی قابل حل است؟ تا آنجایی که ما می دانیم، هیچ گواهی برای آن وجود ندارد، هیچ مدرکی وجود ندارد. پیش از شروع کوشش برای ساخت یک هوش مصنوعی کنترل شده، مهم می باشد که نشان دهیم مشکل قابل حل است.
وی ادامه داد: این همراه با آماری که نشان داده است توسعه اَبَرهوش مصنوعی یک رویداد تقریبا تضمین شده است، نشان داده است که ما باید از تلاشهای ایمنی قابل توجهی در زمینه هوش مصنوعی حمایت نماییم.
توسعه ابرهوش مصنوعی اجتناب ناپذیر است
از آنجاییکه هوش مصنوعی در حالت ابرهوشمندی می تواند به تنهایی یاد بگیرد، تطبیق یابد و به صورت نیمه مستقل عمل کند، اطمینان از ایمن بودن آن، بخصوص با وجود افزایش قابلیت های آن به صورت فزاینده ای چالش برانگیز می شود.
میتوان اظهار داشت که هوش مصنوعی فوق هوشمند «ذهن» خویش را خواهد داشت. پس چگونه آنرا کنترل کنیم؟ آیا قوانین رباتیک آیزاک آسیموف که رفتار اخلاقی بین انسان و ربات را برقرار می کند، هنوز در دنیای امروز اعمال می شود؟
دکتر یامپولسکی که حوزه اصلی مورد علاقه او ایمنی هوش مصنوعی است، توضیح داد: ما با یک رویداد حدودا تضمین شده با پتانسیل ایجاد یک فاجعه وجودی روبرو می باشیم.
وی ادامه داد: جای تعجب نیست که بسیاری این را مهم ترین مشکلی که بشریت تاکنون با آن روبرو بوده است، توصیف می کنند. نتیجه می تواند رفاه یا انقراض بشر باشد.
یکی از چالش های اصلی، تصمیم گیری های بالقوه و شکست موجودات فوق هوشمند است که پیشبینی و تهدید آنها را دشوار می کند.
علاوه بر این، فقدان قابلیت توضیح در تصمیمات هوش مصنوعی نگرانی هایی را ایجاد می کند، چونکه درک این تصمیمات برای کاهش تصادفات و تضمین نتایج بدون سوگیری، بخصوص در زمینه های حیاتی مانند مراقبت های بهداشتی و مالی که هوش مصنوعی در آن نفوذ کرده است، بسیار اهمیت دارد.
با افزایش استقلال هوش مصنوعی، کنترل انسان روی آن کاهش پیدا می کند که منجر به نگرانی های ایمنی می شود. دکتر یامپولسکی ایجاد تعادل بین توانایی و کنترل هوش مصنوعی را پیشنهاد و اذعان می کند که ابرهوش ذاتاً فاقد قابلیت کنترل است.
او همینطور در رابطه با اهمیت همسویی هوش مصنوعی با ارزش های انسانی بحث می کند و روش هایی را برای به حداقل رساندن خطرها مانند اصلاح پذیری، شفافیت هوش مصنوعی و طبقه بندی بعنوان قابل کنترل یا غیرقابل کنترل پیشنهاد می دهد.
با توجه به این چالش ها، دکتر یامپولسکی ادامه تحقیقات و سرمایه گذاری در ایمنی و امنیت هوش مصنوعی را تشویق و تاکید می کند که باآنکه دستیابی به هوش مصنوعی صد درصد ایمن امکان دارد دست نیافتنی باشد، اما کوشش برای بهبود ایمنی آن همواره پرارزش است.
منبع: كنكوری
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب