چرا رگولاتورها در کانادا و ایتالیا در حال بررسی استفاده ChatGPT از اطلاعات شخصی هستند

از آنجایی که دولت ها برای رسیدگی به نگرانی ها در مورد صنعت هوش مصنوعی مولد به سرعت در حال پیشرفت عجله دارند، کارشناسان در این زمینه می گویند نظارت بیشتری بر روی داده هایی که برای آموزش سیستم ها استفاده می شود مورد نیاز است.

اوایل این ماه، آژانس حفاظت از داده‌های ایتالیا تحقیقاتی درباره OpenAI راه‌اندازی کرد و ChatGPT، چت ربات مبتنی بر هوش مصنوعی خود را به طور موقت ممنوع کرد. روز سه شنبه، کمیسر حریم خصوصی کانادا نیز از تحقیقات OpenAI خبر داد. هر دو آژانس به نگرانی هایی در مورد حفظ حریم خصوصی داده ها اشاره کردند.

کاترینا اینگرام، موسس شرکت مشاوره Ethically Aligned AI مستقر در ادمونتون، می گوید: «شاید بگویید، شاید کمی احساس سنگینی به نظر برسد.

از سوی دیگر، یک شرکت تصمیم گرفت که این فناوری را در جهان رها کند و به همه اجازه دهد با عواقب آن مقابله کنند.

نگرانی در مورد ChatGPT، شفافیت

از زمانی که در اواخر سال گذشته منتشر شد، توانایی ChatGPT برای نوشتن همه چیز از توییت گرفته تا کدهای کامپیوتری، سؤالاتی را در مورد استفاده بالقوه آن در آموزش و تجارت ایجاد کرده است. محصولات مشابه هوش مصنوعی توسط مایکروسافت و گوگل در هفته های اخیر راه اندازی شده اند.

کارشناسان می‌گویند که این سیستم‌های مولد برای ارائه پاسخ یا تولید خروجی با استفاده از داده‌هایی که آشکارا در اینترنت در دسترس هستند آموزش دیده‌اند و همیشه مشخص نیست که چه نوع اطلاعاتی شامل آن می‌شود.

زن خندان با ژاکت کش باف پشمی مشکی و تی شرت سبز در مقابل دیوار آجری قرمز ایستاده است.
کاترینا اینگرام موسس شرکت مشاوره اخلاقی هوش مصنوعی Ethically Aligned AI است. او معتقد است که با پیشرفت سریع محصولات هوش مصنوعی، نظارت بیشتری لازم است. (جانی اتو)

ترزا اسکاسا، رئیس پژوهشی کانادا در حقوق و سیاست اطلاعات و استاد حقوق در دانشگاه می گوید: “یکی از چالش ها در حال حاضر این است که من فکر می کنم ممکن است به اندازه کافی در مورد آنچه در زیر سرپوش می گذرد ندانیم. تحقیقات می تواند به روشن شدن آن کمک کند.” دانشگاه اتاوا

فقدان شفافیت، سازمان‌ها و دولت‌ها را بر آن داشته است تا خواهان کاهش سرعت و حتی توقف راه‌اندازی پروژه‌های جدید هوش مصنوعی باشند.

OpenAI با درخواست ایتالیا موافقت کرد و مدیر عامل شرکت سام آلتمن توییت کرد“ما فکر می کنیم که از تمام قوانین حفظ حریم خصوصی پیروی می کنیم.” کشورهای اتحادیه اروپا از جمله فرانسه و ایرلند گفته اند که یافته های ایتالیا در مورد این موضوع را بررسی خواهند کرد، در حالی که آلمان گفت که می تواند این سرویس را مسدود کند. سوئد ممنوعیت ChatGPT را رد کرده است.

OpenAI یک پست وبلاگ منتشر کرد چهارشنبه رویکرد خود به ایمنی و دقت را تشریح می کند. در این پست همچنین آمده است که “برخی” داده های آموزشی شامل اطلاعات شخصی است. طبق این پست، داده ها برای ردیابی کاربران یا تبلیغ برای آنها استفاده نمی شود، بلکه برای “مفیدتر کردن” محصولات استفاده می شود.

این شرکت در این پست گفت که اقداماتی که انجام داده‌اند «احتمال ایجاد پاسخ‌هایی که شامل اطلاعات شخصی افراد خصوصی در مدل‌های ما باشد را به حداقل می‌رساند».

در اواخر ماه گذشته، OpenAI گفت که “مشکل مهم” را برطرف کرده است که سابقه مکالمه برخی از کاربران را در معرض زیرمجموعه کوچکی از کاربران دیگر قرار می دهد.

تماشا | کارشناسان می گویند چگونه هوش مصنوعی می تواند نیروی کار را مختل کند:

آیا ChatGPT برای شغل شما آمده است؟

با قدرتمندتر شدن هوش مصنوعی، جوئل بلیت، کارشناس فناوری مخرب، و دارا کاپلان، مدیر روابط عمومی، چگونگی تأثیر برنامه‌هایی مانند ChatGPT بر مشاغل یقه سفید و ایجاد اختلال در نیروی کار را همانطور که می‌دانیم، بررسی می‌کنند.

چه داده هایی جمع آوری شده است؟

کارشناسان می‌گویند در مورد آنچه شرکت‌های داده برای آموزش مدل‌های زبان بزرگی که زیربنای سیستم‌هایی مانند OpenAI’sChatGPT هستند، استفاده می‌کنند، شفافیت وجود ندارد.

به گفته اینگرام، این سیستم‌ها با داده‌هایی آموزش داده می‌شوند که کاربران به‌طور خاص در اختیار شرکت قرار نداده‌اند. OpenAI می‌گوید از «مجموعه گسترده‌ای» از داده‌ها، از جمله محتوای دارای مجوز، «محتوای تولید شده توسط بازبین‌های انسانی» و محتوایی که به صورت عمومی در اینترنت در دسترس است استفاده می‌کند. .

اینگرام گفت: «ما با هیچ یک از اینها موافقت نکردیم. “اما به عنوان محصول جانبی زندگی در عصر دیجیتال، ما درگیر این هستیم.”

او گفت که اطلاعاتی که مستقیماً از طریق ChatGPT به OpenAI ارائه می‌شود ممکن است برای آموزش هوش مصنوعی نیز استفاده شود، اما در شرایط خدمات محصول افشا شده است.

CBC News سوالات OpenAI در مورد آنچه در داده های مورد استفاده برای آموزش محصولات آنها گنجانده شده است پرسید. در پاسخ، آنها پیوندی به پست وبلاگ منتشر شده در چهارشنبه ارائه کردند.

نسخه جدید یک جنجال قدیمی

عکس سیاه و سفید مردی که پلیور خاکستری پوشیده است.
فیلیپ داوسون رئیس خط مشی هوش مصنوعی آرمیلا و مشاور مدیریت هوش مصنوعی است. (فیلیپ داوسون/لینکدین)

فیلیپ داوسون، رئیس خط‌مشی آرمیلا AI، یک شرکت فناوری که محصولات کاهش ریسک را به شرکت‌هایی که از هوش مصنوعی استفاده می‌کنند، ارائه می‌کند، می‌گوید نگرانی‌های در حال ظهور در مورد حفظ حریم خصوصی داده‌ها در هوش مصنوعی ادامه نگرانی‌های طولانی مدت در مورد ردیابی آنلاین توسط شبکه‌های اجتماعی و شرکت‌های وب است.

“این نسخه جدیدی از یک بحث قدیمی است. و واقعاً برخی از اجزای سازنده مدل های زبان بزرگ را زیر سوال می برد، که در واقع همه چیز مربوط به حجم عظیمی از داده هایی است که این مدل ها بر روی آنها آموزش دیده اند و قدرت محاسباتی که این آموزش را امکان پذیر می کند. ،” او گفت.

داوسون خاطرنشان کرد که شرکت‌ها شروع به ارائه اطلاعات بیشتر در مورد مجموعه داده‌های مورد استفاده برای آموزش سیستم‌های هوش مصنوعی کرده‌اند، به‌خصوص که شرکت‌هایی که از هوش مصنوعی استفاده می‌کنند به دنبال اجتناب از خطرات احتمالی هستند، اما هیچ الزامی برای انجام این کار وجود ندارد.

Chatbot ممکن است اطلاعات نادرستی ارائه دهد

مشخص نیست که آیا داده های شخصی حساس می تواند در خروجی یک سیستم هوش مصنوعی مولد ظاهر شود یا خیر. با این حال، نگرانی هایی در مورد ارائه اطلاعات نادرست ChatGPT در پاسخ به سوالات مطرح شده است.

در یک مثال، یک شهردار استرالیایی روز چهارشنبه گفت که اگر OpenAI اطلاعات نادرست به اشتراک گذاشته شده درباره او توسط ChatGPT را تصحیح نکند، ممکن است از او شکایت کند.

برایان هود، شهردار هپبورن شایر، پس از اینکه اعضای مردم به او اطلاع دادند که چت بات او را به عنوان یکی از طرفین مجرم در رسوایی رشوه خواری خارجی که مربوط به بانک مرکزی استرالیا بود، نامیده است، نگران شهرت خود شد.

وکلای هود گفتند که در حالی که او برای شرکت تابعه کار می کرد، او فردی بود که به مقامات از پرداخت رشوه به مقامات خارجی برای برنده شدن در قراردادهای چاپ ارز اطلاع داد.

OpenAI هشدار می دهد که ChatGPT “ممکن است اطلاعات نادرستی در مورد افراد تولید کند.”

چهره ای پوشیده به صفحه کامپیوتر که پیام هایی را روی صفحه نمایش می دهد نگاه می کند.
ChatGPT یک ربات چت است که می تواند به درخواست های نوشته شده پاسخ دهد. هوش مصنوعی که زیربنای این محصول است، بر روی داده‌های در دسترس عموم که از سراسر اینترنت جمع‌آوری شده‌اند، آموزش داده می‌شود. (نیکلاس مترلینک/گتی ایماژ)

آیا ممنوعیت هوش مصنوعی لازم است؟

اسکاسا گفت که قبلاً سابقه ای برای مواردی از جمع آوری داده های اینترنتی وجود دارد که قانون حریم خصوصی را نقض می کند. در سال 2021، شرکت فناوری آمریکایی هوش مصنوعی Clearview قوانین حریم خصوصی کانادا را با جمع آوری عکس ها نقض کرد کانادایی ها بدون اطلاع یا رضایت آنها.

بخشی از چالش شرکت های فناوری، تنظیم کننده ها و مصرف کنندگان این است که قوانین از یک حوزه قضایی به حوزه قضایی دیگر متفاوت است. در حالی که یک شرکت آمریکایی که داده‌های آنلاین را برای آموزش مدل‌های زبان بزرگ جمع‌آوری می‌کند ممکن است در ایالات متحده مشروع باشد، قوانین مشابه ممکن است در اروپا اعمال نشود.

اسکاسا می‌گوید: «ما می‌توانیم هر قانونی که بخواهیم در کانادا داشته باشیم، اما در نهایت با فناوری‌ای روبرو هستیم که از کشور دیگری می‌آید و ممکن است با هنجارهای متفاوتی عمل کند.»

زن خندان با گوشواره های آویز قرمز و بلوز سیاه و سفید.
ترزا اسکاسا، کرسی تحقیقاتی کانادا در حقوق و سیاست اطلاعات و استاد حقوق در دانشگاه اتاوا است. (ارسال شده توسط ترزا اسکاسا)

کانادا قوانین قوی تری در مورد استفاده از داده های شخصی در نظر می گیرد

یک قانون پیشنهادی کانادا، لایحه C-27، که در حال حاضر در حال خواندن دوم در مجلس عوام است. هدف آن تقویت قوانین در مورد نحوه استفاده از داده های شخصی توسط شرکت های فناوری است. قانون داده‌ها و هوش مصنوعی که در کنار C-27 ارائه شده است، همچنین از شرکت‌های فناوری می‌خواهد اسنادی در مورد نحوه توسعه سیستم‌های هوش مصنوعی خود ارائه کنند و مطابقت با پادمان‌های تجویز شده را گزارش دهند.

اتحادیه اروپا همچنین در حال توسعه یک چارچوب نظارتی برای هوش مصنوعی است که سناریوهای استفاده پرخطر و غیرقابل قبول را با هدف محافظت از کاربران ترسیم می کند.

اما بسیاری از کارشناسان می گویند که ممنوعیت AI مولد یا توقف، مانند آنچه هفته گذشته در نامه سرگشاده ای که توسط گروهی از کارشناسان هوش مصنوعی، مدیران صنعت و مدیر عامل تسلا، ایلان ماسک امضا شد، پیشنهاد شد، لزوما راه حل نیست.

اینگرام گفت: “من فکر می کنم ممنوعیت در بهترین حالت یک راه حل کوتاه مدت است.”

“ما باید روند نظارتی را تسریع کنیم و کمی سریعتر در این زمینه حرکت کنیم. و ما باید گفتگوهای بیشتری با سهامداران داشته باشیم، از جمله فقط افراد عادی که در زندگی روزمره خود به طرق مختلف با هوش مصنوعی روبرو می شوند.”

مقابله با تهدیدات هوش مصنوعی یک چالش است

روز پنجشنبه، در پاسخ به ممنوعیت تنظیم کننده حریم خصوصی ایتالیا، OpenAI گفت که قصد ندارد مانع توسعه هوش مصنوعی شود، اما اهمیت احترام به قوانین با هدف حفاظت از داده های شخصی شهروندان در آن کشور و اتحادیه اروپا را تکرار کرد. .

تا زمانی که مقررات قوی‌تر وضع نشده باشد، اسکاسا، استاد حقوق، نگران است که پرداختن به تهدیدات بالقوه هوش مصنوعی یک چالش باشد.

او گفت: «نیاز است دولت چیزی را ایجاد کند که واکنش ما را ساختار دهد تا پارامترهای قانونی را تعیین کنیم که به ما در اداره هوش مصنوعی کمک کند.»

من مطمئناً فکر می‌کنم که این یک موضوع بسیار مبرم است که تا زمانی که آن چارچوب‌ها را ایجاد نکنیم، پاسخگویی به هوش مصنوعی و شکل دادن به آن بسیار دشوار خواهد بود.»