شرط کلیدی گوگل برای استفاده از هوش مصنوعی چیست؟

  • توسط: admin


به گزارش تجارت نیوز،

گوگل با به‌روزرسانی سیاست ممنوعیت استفاده از هوش مصنوعی مولد خود، اعلام کرد  ابزارهای هوش مصنوعی این شرکت از این پس می‌توانند در حوزه‌های پرریسک مانند بهداشت و رفاه اجتماعی استفاده شوند، به شرطی که بر فرایند تصمیم‌گیری نظارت انسانی شود.

این سیاست جدید که روز سه‌شنبه اعلام شد، به‌ طور صریح اجازه می‌دهد مشتریان از هوش مصنوعی گوگل برای تصمیم‌گیری‌های خودکار در مواردی که حقوق افراد تحت تاثیر قرار می‌گیرد، بهره ببرند.

نظارت انسانی، شرط کلیدی برای استفاده از هوش مصنوعی

حوزه‌های پرریسک عبارت از استخدام، مسکن، بیمه و رفاه اجتماعی است که تصمیم‌ها در این زمینه‌ها ممکن است پیامدهای جدی داشته باشد. پیش‌تر، زبان سیاست‌های گوگل به‌ گونه‌ای بود که استفاده از هوش مصنوعی مولد در این حوزه‌ها را به‌‌کل ممنوع می‌کرد. اما اکنون گوگل تاکید دارد  استفاده از این فناوری همیشه تحت نظارت انسانی امکان‌پذیر بوده و تغییرات اخیر صرفاً برای شفاف‌سازی بیشتر انجام شده است.

یک سخنگوی گوگل توضیح داد نظارت انسانی از ابتدا جزو اصول سیاست این شرکت بوده و اکنون با ارائه مثال‌های واضح‌تر، این سیاست برای کاربران مفهوم‌تر شده است.

در این فرایند، تصمیم‌گیری خودکار به معنای نتایجی است که به وسیله سیستم‌های هوش مصنوعی بر اساس داده‌های واقعی و استنباطی تولید می‌شوند؛ مانند تایید وام یا ارزیابی صلاحیت متقاضیان شغل.

مقایسه با سیاست‌های رقبا

سیاست جدید گوگل در مقایسه با سیاست‌های سخت‌گیرانه‌تری که رقبا مانند OpenAI و Anthropic اتخاذ کرده‌اند، انعطاف‌پذیرتر به نظر می‌رسد. OpenAI به‌صراحت استفاده از خدماتش را در تصمیم‌گیری‌های خودکار در حوزه‌هایی مانند اعتبارسنجی، استخدام، مسکن و آموزش ممنوع کرده است.

Anthropic نیز استفاده از هوش مصنوعی در حوزه‌های پرریسک را تنها با نظارت متخصصان مجاز می‌داند و از کاربران می‌خواهد استفاده از هوش مصنوعی را در این زمینه‌ها به‌ صورت شفاف اعلام کنند.

نگرانی‌ها درباره سوگیری و چارچوب‌های نظارتی

سیستم‌های هوش مصنوعی که در حوزه‌های حساس به کار می‌روند، به دلیل احتمال بروز سوگیری و نتایج تبعیض‌آمیز، تحت نظارت دقیق قرار دارند. تحقیقات نشان داده‌اند مدل‌های هوش مصنوعی می‌توانند سوگیری‌های تاریخی را تداوم ببخشند و برای گروه‌های به حاشیه رانده‌شده نتایج نابرابر به دست دهند.

برای مثال، سازمان‌هایی مانند دیده‌بان حقوق بشر خواستار ممنوعیت سیستم‌های امتیازدهی اجتماعی شده‌اند و آنها را تهدیدی برای حریم خصوصی و عدالت اجتماعی می‌دانند.

چارچوب‌های نظارتی در اتحادیه اروپا و آمریکا

در سطح جهانی، نظارت بر سیستم‌های هوش مصنوعی حساس در حال تشدید است. در اتحادیه اروپا، قانون هوش مصنوعی استفاده از این سیستم‌ها در حوزه‌هایی مانند اعتبارسنجی و استخدام را تحت نظارت گسترده قرار داده و توسعه‌دهندگان را ملزم به ثبت این سیستم‌ها در پایگاه داده ویژه و گزارش‌دهی به مقامات کرده است.

در ایالات متحده، ایالت‌هایی مانند کلرادو و شهرهایی همچون نیویورک نیز مقررات خاصی وضع کرده‌اند. کلرادو اخیراً قانونی تصویب کرده که توسعه‌دهندگان را ملزم می‌کند اطلاعات دقیقی درباره قابلیت‌ها و محدودیت‌های سیستم‌های هوش مصنوعی ارائه کنند. نیویورک نیز الزاماتی برای ممیزی سوگیری در ابزارهای استخدامی تصویب کرده است.

تعادل میان نوآوری و مسئولیت‌پذیری

سیاست جدید گوگل تلاش دارد تعادلی میان امکان‌پذیر کردن نوآوری‌های فناورانه و رفع نگرانی‌های موجود درباره سوءاستفاده از هوش مصنوعی برقرار کند. این شرکت با الزام به نظارت انسانی در حوزه‌های حساس، می‌خواهد اطمینان حاصل کند که ابزارهای هوش مصنوعی مولد مسئولانه به کار گرفته می‌شوند و در عین حال فرصت‌های جدیدی در حوزه‌هایی مانند بهداشت، استخدام و رفاه اجتماعی مهیا می‌کنند.

  • برچسب ها:
  • اشتراک گزاری:

مطالب مرتبط

ارسال نظر

شما اولین نفری باشید که در مورد پست مربوطه نظر ارسال میکنید...
شبکه های اجتماعی ما
لینک های مفید