
مدیران ارشد هوش مصنوعی از جمله سام آلتمن، مدیر عامل OpenAI، روز سهشنبه به دیگر کارشناسان و اساتیدی پیوستند که سیاستگذاران را ترغیب میکنند تا این فناوری را یکی از جدیترین خطرات برای بشریت در آینده ببینند.
بیش از 350 امضاکننده در نامه ای 23 کلمه ای که توسط مرکز غیرانتفاعی ایمنی هوش مصنوعی (CAIS) منتشر شد، نوشتند: «کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی مانند بیماری های همه گیر و جنگ هسته ای باشد».
دن هندریکس، مدیر اجرایی CAIS در مصاحبهای به سیبیسی نیوز گفت، رقابت در این صنعت به نوعی «مسابقه تسلیحاتی هوش مصنوعی» منجر شده است.
او گفت: «این می تواند تشدید شود و مانند مسابقه تسلیحات هسته ای، ما را به طور بالقوه به آستانه فاجعه برساند.
اما او تصریح کرد که مشاغل یا شرکتهای خاصی ممکن است در ابتدا ناپدید شوند، زیرا اتوماسیون مبتنی بر هوش مصنوعی به جای نیروی انسانی انتخاب میشود.
پیشرفتهای اخیر در هوش مصنوعی ابزارهایی ایجاد کرده است که حامیان میگویند میتوانند در برنامههای کاربردی از تشخیص پزشکی گرفته تا نوشتن خلاصههای حقوقی مورد استفاده قرار گیرند، اما این نگرانی را ایجاد کرده است که این فناوری میتواند منجر به نقض حریم خصوصی، کمپینهای اطلاعات غلط قدرتمند شود و منجر به مشکلاتی در مورد «ماشینهای هوشمند» شود که خودشان فکر میکنند. .
“راه های زیادی وجود دارد که [AI] هندریکس میگوید: «ممکن است اشتباه شود.» و توضیح داد که نیاز به بررسی ابزارهای هوش مصنوعی ممکن است برای اهداف عمومی و ابزارهایی که میتوانند با اهداف مخرب مورد استفاده قرار گیرند.
او همچنین نگرانی خود را درباره توسعه مستقل هوش مصنوعی مطرح کرد.
او گفت: “تشخیص اینکه آیا یک هوش مصنوعی هدفی متفاوت از هدف ما دارد یا نه، دشوار است، زیرا به طور بالقوه می تواند آن را پنهان کند. این کاملاً دور از ذهن نیست.”
سام آلتمن، مدیر عامل OpenAI از قانونگذاران در واشنگتن خواست تا قبل از اینکه خیلی دیر شود، حوزه در حال رشد هوش مصنوعی را تنظیم کنند. آلتمن، که شرکتش ابزار چت بات رایگان ChatGPT را ایجاد کرده است، آخرین پیشگام هوش مصنوعی است که در مورد خطرات احتمالی فناوری هشدار می دهد که برخی از ترس می توانند به زودی از هوش انسانی پیشی بگیرند.
“پدرخوانده های هوش مصنوعی” در میان منتقدان
هندریکس و امضا کنندگان CAISstatementare خواستار همکاری بین المللی و برخورد با هوش مصنوعی به عنوان “اولویت جهانی برای رسیدگی به این خطرات” هستند.
او گفت: «ما توانستیم همین کار را با سلاحهای هستهای انجام دهیم.» البته انجام این کار دشوار است، اما فکر میکنم این کاری است که باید انجام دهیم، در غیر این صورت اوضاع میتواند بسیار بد شود.
این نامه همزمان با نشست شورای تجارت و فناوری ایالات متحده و اتحادیه اروپا در سوئد بود که در آن انتظار میرود سیاستمداران درباره تنظیم مقررات هوش مصنوعی صحبت کنند.
علاوه بر آلتمن، امضاکنندگان شامل مدیران عامل شرکتهای هوش مصنوعی DeepMind و Anthropic و مدیران مایکروسافت و گوگل بودند.
جفری هینتون، دانشمند کامپیوتر بریتانیایی-کانادایی و یوشوا بنجیو، استاد علوم کامپیوتر دانشگاه د مونترال، دو تن از سه به اصطلاح “پدرخوانده هوش مصنوعی” که جایزه تورینگ 2018 را به خاطر کارشان در زمینه یادگیری عمیق و اساتیدی از موسسات مختلف از هاروارد تا دانشگاه Tsinghua چین
هینتون پیشتر به رویترز گفته بود که هوش مصنوعی میتواند تهدیدی «فوریتر» برای بشریت نسبت به تغییرات آب و هوایی باشد. او اخیراً از سمت خود در گوگل استعفا داد تا آزادانه تر در مورد نگرانی های خود در مورد توسعه سریع هوش مصنوعی صحبت کند.
بیانیه ای از CAIS متا را که سومین پدرخوانده هوش مصنوعی، یان لیکان، در آنجا کار می کند، به دلیل امضا نکردن نامه متمایز می کند.
بنژیو و الون ماسک، همراه با بیش از 1000 کارشناس و مدیر صنعت دیگر، قبلاً در ماه آوریل به خطرات بالقوه برای جامعه اشاره کرده بودند.
هفته گذشته، آلتمن به هوش مصنوعی اتحادیه اروپا اولین تلاشها برای ایجاد مقرراتی برای هوش مصنوعی به عنوان مقررات بیش از حد اشاره کرد و تهدید کرد که اروپا را ترک خواهد کرد. او ظرف چند روز پس از انتقاد سیاستمداران، موضع خود را تغییر داد.
اورسولا فون در لاین، رئیس کمیسیون اروپا روز پنجشنبه با آلتمن دیدار خواهد کرد.
جفری هینتون، پیشگام هوش مصنوعی کانادایی-بریتانیایی، می گوید که گوگل را به دلیل اکتشافات اخیر در مورد هوش مصنوعی ترک کرده است که باعث شده متوجه شود این هوش مصنوعی تهدیدی برای بشریت است. Adrienne Arsenault، خبرنگار ارشد CBC با “پدرخوانده هوش مصنوعی” در مورد خطرات موجود و اینکه آیا راهی برای اجتناب از آنها وجود دارد صحبت می کند.