شرط کلیدی گوگل برای استفاده از هوش مصنوعی چیست؟
به گزارش تجارت نیوز،
گوگل با بهروزرسانی سیاست ممنوعیت استفاده از هوش مصنوعی مولد خود، اعلام کرد ابزارهای هوش مصنوعی این شرکت از این پس میتوانند در حوزههای پرریسک مانند بهداشت و رفاه اجتماعی استفاده شوند، به شرطی که بر فرایند تصمیمگیری نظارت انسانی شود.
این سیاست جدید که روز سهشنبه اعلام شد، به طور صریح اجازه میدهد مشتریان از هوش مصنوعی گوگل برای تصمیمگیریهای خودکار در مواردی که حقوق افراد تحت تاثیر قرار میگیرد، بهره ببرند.
نظارت انسانی، شرط کلیدی برای استفاده از هوش مصنوعی
حوزههای پرریسک عبارت از استخدام، مسکن، بیمه و رفاه اجتماعی است که تصمیمها در این زمینهها ممکن است پیامدهای جدی داشته باشد. پیشتر، زبان سیاستهای گوگل به گونهای بود که استفاده از هوش مصنوعی مولد در این حوزهها را بهکل ممنوع میکرد. اما اکنون گوگل تاکید دارد استفاده از این فناوری همیشه تحت نظارت انسانی امکانپذیر بوده و تغییرات اخیر صرفاً برای شفافسازی بیشتر انجام شده است.
یک سخنگوی گوگل توضیح داد نظارت انسانی از ابتدا جزو اصول سیاست این شرکت بوده و اکنون با ارائه مثالهای واضحتر، این سیاست برای کاربران مفهومتر شده است.
در این فرایند، تصمیمگیری خودکار به معنای نتایجی است که به وسیله سیستمهای هوش مصنوعی بر اساس دادههای واقعی و استنباطی تولید میشوند؛ مانند تایید وام یا ارزیابی صلاحیت متقاضیان شغل.
مقایسه با سیاستهای رقبا
سیاست جدید گوگل در مقایسه با سیاستهای سختگیرانهتری که رقبا مانند OpenAI و Anthropic اتخاذ کردهاند، انعطافپذیرتر به نظر میرسد. OpenAI بهصراحت استفاده از خدماتش را در تصمیمگیریهای خودکار در حوزههایی مانند اعتبارسنجی، استخدام، مسکن و آموزش ممنوع کرده است.
Anthropic نیز استفاده از هوش مصنوعی در حوزههای پرریسک را تنها با نظارت متخصصان مجاز میداند و از کاربران میخواهد استفاده از هوش مصنوعی را در این زمینهها به صورت شفاف اعلام کنند.
نگرانیها درباره سوگیری و چارچوبهای نظارتی
سیستمهای هوش مصنوعی که در حوزههای حساس به کار میروند، به دلیل احتمال بروز سوگیری و نتایج تبعیضآمیز، تحت نظارت دقیق قرار دارند. تحقیقات نشان دادهاند مدلهای هوش مصنوعی میتوانند سوگیریهای تاریخی را تداوم ببخشند و برای گروههای به حاشیه راندهشده نتایج نابرابر به دست دهند.
برای مثال، سازمانهایی مانند دیدهبان حقوق بشر خواستار ممنوعیت سیستمهای امتیازدهی اجتماعی شدهاند و آنها را تهدیدی برای حریم خصوصی و عدالت اجتماعی میدانند.
چارچوبهای نظارتی در اتحادیه اروپا و آمریکا
در سطح جهانی، نظارت بر سیستمهای هوش مصنوعی حساس در حال تشدید است. در اتحادیه اروپا، قانون هوش مصنوعی استفاده از این سیستمها در حوزههایی مانند اعتبارسنجی و استخدام را تحت نظارت گسترده قرار داده و توسعهدهندگان را ملزم به ثبت این سیستمها در پایگاه داده ویژه و گزارشدهی به مقامات کرده است.
در ایالات متحده، ایالتهایی مانند کلرادو و شهرهایی همچون نیویورک نیز مقررات خاصی وضع کردهاند. کلرادو اخیراً قانونی تصویب کرده که توسعهدهندگان را ملزم میکند اطلاعات دقیقی درباره قابلیتها و محدودیتهای سیستمهای هوش مصنوعی ارائه کنند. نیویورک نیز الزاماتی برای ممیزی سوگیری در ابزارهای استخدامی تصویب کرده است.
تعادل میان نوآوری و مسئولیتپذیری
سیاست جدید گوگل تلاش دارد تعادلی میان امکانپذیر کردن نوآوریهای فناورانه و رفع نگرانیهای موجود درباره سوءاستفاده از هوش مصنوعی برقرار کند. این شرکت با الزام به نظارت انسانی در حوزههای حساس، میخواهد اطمینان حاصل کند که ابزارهای هوش مصنوعی مولد مسئولانه به کار گرفته میشوند و در عین حال فرصتهای جدیدی در حوزههایی مانند بهداشت، استخدام و رفاه اجتماعی مهیا میکنند.
- برچسب ها: