خبر/

راه‌حل اوپن‌ای‌آی برای کاهش سوءاستفاده از مدل‌های هوش مصنوعی

1404/01/26 - 13:16 - کد خبر: 134343 نسخه چاپی

نصر: دسترسی به مدل‌های هوش مصنوعی آینده اوپن‌ای‌آی ممکن است نیازمند یک شناسه تاییدشده باشد. اطلاعات صفحه پشتیبانی که هفته گذشته در وب‌سایت اوپن‌ای‌آی منتشر شدند، نشان می‌دهد این شرکت ممکن است به زودی از سازمان‌ها بخواهد تا فرآیند تایید هویت را برای دسترسی به برخی مدل‌های هوش مصنوعی آینده تکمیل کنند.

به گزارش نصر، در صفحه پشتیبانی آمده است که فرآیند تایید به نام سازمان، روش جدیدی برای توسعه‌دهندگان برای باز کردن قفل دسترسی به پیشرفته‌ترین مدل‌ها و قابلیت‌ها در پلتفرم اوپن‌ای‌آی است. راستی‌آزمایی به یک شناسه دولتی از یکی از کشورهایی نیاز دارد که توسط API اوپن‌ای‌آی پشتیبانی می‌شود. به گفته اوپن‌ای‌آی، شناسه تنها می‌تواند هر ۹۰ روز یک سازمان را تایید کند و همه سازمان‌ها واجد شرایط تایید نیستند.
در صفحه پشتیبانی آمده است: «ما در اوپن‌ای‌آی مسوولیت خود را جدی می‌گیریم تا اطمینان حاصل کنیم که هوش مصنوعی هم به‌طور گسترده در دسترس است و هم با خیال راحت استفاده می‌شود. متاسفانه اقلیت کوچکی از توسعه‌دهندگان عمدا از APIهای اوپن‌ای‌آی در جهت مخالف خط‌مشی‌ ما استفاده می‌کنند. ما در حال اضافه کردن فرآیند تایید برای کاهش استفاده ناامن از هوش مصنوعی هستیم و در عین حال به ارائه مدل‌های پیشرفته برای جامعه توسعه‌دهندگان گسترده‌تر ادامه می‌دهیم.» 
این فرآیند جدید تایید می‌تواند برای تقویت امنیت در محصولات اوپن‌ای‌آی به دلیل پیچیده‌تر شدن و توانمندتر شدن آنها باشد. اوپن‌ای‌آی چندین گزارش را درباره تلاش‌های خود برای شناسایی و از مدل‌های این شرکت منتشر کرده است. همچنین این کار ممکن است با هدف جلوگیری از سرقت IP صورت گرفته باشد. براساس گزارش بلومبرگ، در اوایل سال جاری اوپن‌ای‌آی در حال بررسی این موضوع بود که آیا یک گروه مرتبط با شرکت چینی دیپ‌سیک در اواخر سال ۲۰۲۴ مقادیر زیادی داده را احتمالا برای آموزش مدل‌های خود از طریق API آن استخراج کرده و شرایط اوپن‌ای‌آی را نقض کرده است یا خیر. اوپن‌ای‌آی تابستان گذشته دسترسی به خدمات خود را در چین مسدود کرد.
انتهای پیام/
راه‌حل اوپن‌ای‌آی برای کاهش سوءاستفاده از مدل‌های هوش مصنوعی روزنامه دنیای اقتصاد

ثبت نظر

نمایش 0 نظر

پژوهشیار