از آنجایی که دولت ها برای رسیدگی به نگرانی ها در مورد صنعت هوش مصنوعی مولد به سرعت در حال پیشرفت عجله دارند، کارشناسان در این زمینه می گویند نظارت بیشتری بر روی داده هایی که برای آموزش سیستم ها استفاده می شود مورد نیاز است.
اوایل این ماه، آژانس حفاظت از دادههای ایتالیا تحقیقاتی درباره OpenAI راهاندازی کرد و ChatGPT، چت ربات مبتنی بر هوش مصنوعی خود را به طور موقت ممنوع کرد. روز سه شنبه، کمیسر حریم خصوصی کانادا نیز از تحقیقات OpenAI خبر داد. هر دو آژانس به نگرانی هایی در مورد حفظ حریم خصوصی داده ها اشاره کردند.
کاترینا اینگرام، موسس شرکت مشاوره Ethically Aligned AI مستقر در ادمونتون، می گوید: «شاید بگویید، شاید کمی احساس سنگینی به نظر برسد.
از سوی دیگر، یک شرکت تصمیم گرفت که این فناوری را در جهان رها کند و به همه اجازه دهد با عواقب آن مقابله کنند.
نگرانی در مورد ChatGPT، شفافیت
از زمانی که در اواخر سال گذشته منتشر شد، توانایی ChatGPT برای نوشتن همه چیز از توییت گرفته تا کدهای کامپیوتری، سؤالاتی را در مورد استفاده بالقوه آن در آموزش و تجارت ایجاد کرده است. محصولات مشابه هوش مصنوعی توسط مایکروسافت و گوگل در هفته های اخیر راه اندازی شده اند.
کارشناسان میگویند که این سیستمهای مولد برای ارائه پاسخ یا تولید خروجی با استفاده از دادههایی که آشکارا در اینترنت در دسترس هستند آموزش دیدهاند و همیشه مشخص نیست که چه نوع اطلاعاتی شامل آن میشود.
ترزا اسکاسا، رئیس پژوهشی کانادا در حقوق و سیاست اطلاعات و استاد حقوق در دانشگاه می گوید: “یکی از چالش ها در حال حاضر این است که من فکر می کنم ممکن است به اندازه کافی در مورد آنچه در زیر سرپوش می گذرد ندانیم. تحقیقات می تواند به روشن شدن آن کمک کند.” دانشگاه اتاوا
فقدان شفافیت، سازمانها و دولتها را بر آن داشته است تا خواهان کاهش سرعت و حتی توقف راهاندازی پروژههای جدید هوش مصنوعی باشند.
OpenAI با درخواست ایتالیا موافقت کرد و مدیر عامل شرکت سام آلتمن توییت کرد“ما فکر می کنیم که از تمام قوانین حفظ حریم خصوصی پیروی می کنیم.” کشورهای اتحادیه اروپا از جمله فرانسه و ایرلند گفته اند که یافته های ایتالیا در مورد این موضوع را بررسی خواهند کرد، در حالی که آلمان گفت که می تواند این سرویس را مسدود کند. سوئد ممنوعیت ChatGPT را رد کرده است.
OpenAI یک پست وبلاگ منتشر کرد چهارشنبه رویکرد خود به ایمنی و دقت را تشریح می کند. در این پست همچنین آمده است که “برخی” داده های آموزشی شامل اطلاعات شخصی است. طبق این پست، داده ها برای ردیابی کاربران یا تبلیغ برای آنها استفاده نمی شود، بلکه برای “مفیدتر کردن” محصولات استفاده می شود.
این شرکت در این پست گفت که اقداماتی که انجام دادهاند «احتمال ایجاد پاسخهایی که شامل اطلاعات شخصی افراد خصوصی در مدلهای ما باشد را به حداقل میرساند».
در اواخر ماه گذشته، OpenAI گفت که “مشکل مهم” را برطرف کرده است که سابقه مکالمه برخی از کاربران را در معرض زیرمجموعه کوچکی از کاربران دیگر قرار می دهد.
چه داده هایی جمع آوری شده است؟
کارشناسان میگویند در مورد آنچه شرکتهای داده برای آموزش مدلهای زبان بزرگی که زیربنای سیستمهایی مانند OpenAI’sChatGPT هستند، استفاده میکنند، شفافیت وجود ندارد.
به گفته اینگرام، این سیستمها با دادههایی آموزش داده میشوند که کاربران بهطور خاص در اختیار شرکت قرار ندادهاند. OpenAI میگوید از «مجموعه گستردهای» از دادهها، از جمله محتوای دارای مجوز، «محتوای تولید شده توسط بازبینهای انسانی» و محتوایی که به صورت عمومی در اینترنت در دسترس است استفاده میکند. .
اینگرام گفت: «ما با هیچ یک از اینها موافقت نکردیم. “اما به عنوان محصول جانبی زندگی در عصر دیجیتال، ما درگیر این هستیم.”
او گفت که اطلاعاتی که مستقیماً از طریق ChatGPT به OpenAI ارائه میشود ممکن است برای آموزش هوش مصنوعی نیز استفاده شود، اما در شرایط خدمات محصول افشا شده است.
CBC News سوالات OpenAI در مورد آنچه در داده های مورد استفاده برای آموزش محصولات آنها گنجانده شده است پرسید. در پاسخ، آنها پیوندی به پست وبلاگ منتشر شده در چهارشنبه ارائه کردند.
نسخه جدید یک جنجال قدیمی
فیلیپ داوسون، رئیس خطمشی آرمیلا AI، یک شرکت فناوری که محصولات کاهش ریسک را به شرکتهایی که از هوش مصنوعی استفاده میکنند، ارائه میکند، میگوید نگرانیهای در حال ظهور در مورد حفظ حریم خصوصی دادهها در هوش مصنوعی ادامه نگرانیهای طولانی مدت در مورد ردیابی آنلاین توسط شبکههای اجتماعی و شرکتهای وب است.
“این نسخه جدیدی از یک بحث قدیمی است. و واقعاً برخی از اجزای سازنده مدل های زبان بزرگ را زیر سوال می برد، که در واقع همه چیز مربوط به حجم عظیمی از داده هایی است که این مدل ها بر روی آنها آموزش دیده اند و قدرت محاسباتی که این آموزش را امکان پذیر می کند. ،” او گفت.
داوسون خاطرنشان کرد که شرکتها شروع به ارائه اطلاعات بیشتر در مورد مجموعه دادههای مورد استفاده برای آموزش سیستمهای هوش مصنوعی کردهاند، بهخصوص که شرکتهایی که از هوش مصنوعی استفاده میکنند به دنبال اجتناب از خطرات احتمالی هستند، اما هیچ الزامی برای انجام این کار وجود ندارد.
Chatbot ممکن است اطلاعات نادرستی ارائه دهد
مشخص نیست که آیا داده های شخصی حساس می تواند در خروجی یک سیستم هوش مصنوعی مولد ظاهر شود یا خیر. با این حال، نگرانی هایی در مورد ارائه اطلاعات نادرست ChatGPT در پاسخ به سوالات مطرح شده است.
در یک مثال، یک شهردار استرالیایی روز چهارشنبه گفت که اگر OpenAI اطلاعات نادرست به اشتراک گذاشته شده درباره او توسط ChatGPT را تصحیح نکند، ممکن است از او شکایت کند.
برایان هود، شهردار هپبورن شایر، پس از اینکه اعضای مردم به او اطلاع دادند که چت بات او را به عنوان یکی از طرفین مجرم در رسوایی رشوه خواری خارجی که مربوط به بانک مرکزی استرالیا بود، نامیده است، نگران شهرت خود شد.
وکلای هود گفتند که در حالی که او برای شرکت تابعه کار می کرد، او فردی بود که به مقامات از پرداخت رشوه به مقامات خارجی برای برنده شدن در قراردادهای چاپ ارز اطلاع داد.
OpenAI هشدار می دهد که ChatGPT “ممکن است اطلاعات نادرستی در مورد افراد تولید کند.”
آیا ممنوعیت هوش مصنوعی لازم است؟
اسکاسا گفت که قبلاً سابقه ای برای مواردی از جمع آوری داده های اینترنتی وجود دارد که قانون حریم خصوصی را نقض می کند. در سال 2021، شرکت فناوری آمریکایی هوش مصنوعی Clearview قوانین حریم خصوصی کانادا را با جمع آوری عکس ها نقض کرد کانادایی ها بدون اطلاع یا رضایت آنها.
بخشی از چالش شرکت های فناوری، تنظیم کننده ها و مصرف کنندگان این است که قوانین از یک حوزه قضایی به حوزه قضایی دیگر متفاوت است. در حالی که یک شرکت آمریکایی که دادههای آنلاین را برای آموزش مدلهای زبان بزرگ جمعآوری میکند ممکن است در ایالات متحده مشروع باشد، قوانین مشابه ممکن است در اروپا اعمال نشود.
اسکاسا میگوید: «ما میتوانیم هر قانونی که بخواهیم در کانادا داشته باشیم، اما در نهایت با فناوریای روبرو هستیم که از کشور دیگری میآید و ممکن است با هنجارهای متفاوتی عمل کند.»
کانادا قوانین قوی تری در مورد استفاده از داده های شخصی در نظر می گیرد
یک قانون پیشنهادی کانادا، لایحه C-27، که در حال حاضر در حال خواندن دوم در مجلس عوام است. هدف آن تقویت قوانین در مورد نحوه استفاده از داده های شخصی توسط شرکت های فناوری است. قانون دادهها و هوش مصنوعی که در کنار C-27 ارائه شده است، همچنین از شرکتهای فناوری میخواهد اسنادی در مورد نحوه توسعه سیستمهای هوش مصنوعی خود ارائه کنند و مطابقت با پادمانهای تجویز شده را گزارش دهند.
اتحادیه اروپا همچنین در حال توسعه یک چارچوب نظارتی برای هوش مصنوعی است که سناریوهای استفاده پرخطر و غیرقابل قبول را با هدف محافظت از کاربران ترسیم می کند.
اما بسیاری از کارشناسان می گویند که ممنوعیت AI مولد یا توقف، مانند آنچه هفته گذشته در نامه سرگشاده ای که توسط گروهی از کارشناسان هوش مصنوعی، مدیران صنعت و مدیر عامل تسلا، ایلان ماسک امضا شد، پیشنهاد شد، لزوما راه حل نیست.
اینگرام گفت: “من فکر می کنم ممنوعیت در بهترین حالت یک راه حل کوتاه مدت است.”
“ما باید روند نظارتی را تسریع کنیم و کمی سریعتر در این زمینه حرکت کنیم. و ما باید گفتگوهای بیشتری با سهامداران داشته باشیم، از جمله فقط افراد عادی که در زندگی روزمره خود به طرق مختلف با هوش مصنوعی روبرو می شوند.”
مقابله با تهدیدات هوش مصنوعی یک چالش است
روز پنجشنبه، در پاسخ به ممنوعیت تنظیم کننده حریم خصوصی ایتالیا، OpenAI گفت که قصد ندارد مانع توسعه هوش مصنوعی شود، اما اهمیت احترام به قوانین با هدف حفاظت از داده های شخصی شهروندان در آن کشور و اتحادیه اروپا را تکرار کرد. .
تا زمانی که مقررات قویتر وضع نشده باشد، اسکاسا، استاد حقوق، نگران است که پرداختن به تهدیدات بالقوه هوش مصنوعی یک چالش باشد.
او گفت: «نیاز است دولت چیزی را ایجاد کند که واکنش ما را ساختار دهد تا پارامترهای قانونی را تعیین کنیم که به ما در اداره هوش مصنوعی کمک کند.»
من مطمئناً فکر میکنم که این یک موضوع بسیار مبرم است که تا زمانی که آن چارچوبها را ایجاد نکنیم، پاسخگویی به هوش مصنوعی و شکل دادن به آن بسیار دشوار خواهد بود.»