امروز: 25 فروردین 1404
قیمت تتر:
85,201 تومان

متا از چارچوبی برای محدود کردن سیستم‌های پرخطر هوش مصنوعی رونمایی کرد

متا از چارچوبی برای محدود کردن سیستم‌های پرخطر هوش مصنوعی رونمایی کرد، سیستم های پر خطر هوش مصنوعی ، شرکت متا ، deepseek، OpenAI

با توجه به پیشرفت گسترده هوش مصنوعی، متا سیاست های جدیدی برای محدود کردن سیستم های پر خطر هوش مصنوعی را رونمایی کرده است که در این خبر که به بررسی انواع هوش مصنوعی و دسته بندی آن و جلوگیری از خطرات احتمالی در حملات سایبری و بیولوژیکی می پردازیم. 

متا از چارچوبی برای محدود کردن سیستم‌های پرخطر هوش مصنوعی رونمایی کرد

سایت متا سیاست جدیدی به نام فریمورک هوش مصنوعی مرزی را معرفی کرده است که رویکرد خود را برای محدود کردن توسعه و انتشار سیستم‌های هوش مصنوعی پرخطر تشریح می‌کند. با توجه به اخبار هوش مصنوعی، این چارچوب به نگرانی‌ها در مورد خطرات فناوری پیشرفته هوش مصنوعی، به ویژه در امنیت سایبری و امنیت زیستی رسیدگی خواهد کرد. این شرکت بیان می‌کند که برخی از مدل‌های هوش مصنوعی ممکن است برای عرضه بسیار پرخطر باشند و پیش از استقرار بیشتر، نیازمند حفاظت‌های داخلی هستند از این رو محدود کردن سیستم های پر خطر هوش مصنوعی قبل از اینکه خطری ایجاد کنند بسیار حائز اهمیت است.

متا در یک پرونده اخیر، سیستم های هوش مصنوعی را بر اساس خطرات احتمالی به دو دسته طبقه بندی کرد. این دسته بندی ها پرخطر و بحرانی هستند که هر کدام بر اساس میزان آسیب احتمالی تعریف می شوند. مدل‌های هوش مصنوعی که ریسک بالایی دارند ممکن است به حملات سایبری یا بیولوژیکی کمک کنند.

با این حال، هوش مصنوعی پر خطر می تواند دارای آسیب جدی باشد، متا اظهار داشت که چنین سیستم های هوش مصنوعی  می توانند به عواقب فاجعه باری منجر شوند. طبق اخبار هوش مصنوعی، متا توسعه هر سیستمی را که به عنوان ریسک حیاتی طبقه بندی می شود، متوقف می کند و اقدامات امنیتی بیشتری را برای جلوگیری از دسترسی غیرمجاز اجرا می کند.

مدل‌های هوش مصنوعی پرخطر به صورت داخلی محدود می‌شوند و کار بیشتر برای کاهش خطرات قبل از انتشار انجام می‌شود. این چارچوب نشان دهنده تمرکز شرکت بر به حداقل رساندن تهدیدهای بالقوه مرتبط با هوش مصنوعی است. این اقدامات امنیتی در بحبوحه نگرانی های اخیر در مورد حریم خصوصی داده های هوش مصنوعی انجام می شود.

در جدیدترین اخبار هوش مصنوعی، DeepSeek، یک استارت آپ چینی، از اپ استور اپل و پلی استور گوگل در ایتالیا حذف شده است. مقام حفاظت از داده های کشور در حال بررسی شیوه های جمع آوری داده های خود است.

 

محدود کردن هوش مصنوعی پر خطر توسط شرکت متا

اقدامات امنیتی سختگیرانه تر هوش مصنوعی

اقدامات امنیتی سختگیرانه تر هوش مصنوعی

برای تعیین سطوح ریسک سیستم هوش مصنوعی، متا بر ارزیابی‌های محققان داخلی و خارجی تکیه خواهد کرد. با این حال، این شرکت بیان می‌کند که هیچ آزمایش واحدی نمی‌تواند ریسک را به طور کامل اندازه‌گیری کند و ارزیابی کارشناسان را به یک عامل کلیدی در تصمیم‌گیری تبدیل می‌کند. این چارچوب یک فرآیند بررسی ساختاریافته را با تصمیم گیرندگان ارشد که بر طبقه بندی ریسک نهایی نظارت دارند، ترسیم می کند.

برای هوش مصنوعی پرخطر، متا قصد دارد قبل از در نظر گرفتن انتشار، اقدامات کاهشی را ارائه کند. این رویکرد از سوء استفاده سیستم‌های هوش مصنوعی با حفظ عملکرد مورد نظرشان جلوگیری می‌کند. اگر یک مدل هوش مصنوعی به‌عنوان پرخطر طبقه‌بندی شود، توسعه تا زمانی که اقدامات ایمنی بتواند استقرار کنترل‌شده را تضمین کند، به‌طور کامل تعلیق می‌شود.

 

توسعه مدل هوش مصنوعی باز توسط شرکت متا ، هوش مصنوعی DeepSeek

 

مدل توسعه هوش مصنوعی باز توسط شرکت متا

متا یک مدل توسعه هوش مصنوعی باز را دنبال کرده است که امکان دسترسی گسترده تر به مدل های هوش مصنوعی Llama خود را فراهم می کند. این استراتژی؛ منجر به پذیرش گسترده، با میلیون ها بارگیری ثبت شده، شده است. با این حال، نگرانی‌هایی در مورد سوء استفاده احتمالی، از جمله گزارش‌هایی مبنی بر اینکه یک دشمن ایالات متحده از Llama برای توسعه یک چت بات دفاعی استفاده کرده است، ظاهر شده است.

با چارچوب هوش مصنوعی مرزی، شرکت متا با حفظ تعهد خود به توسعه هوش مصنوعی باز، به این نگرانی‌ها رسیدگی می‌کند. در همین حال، در حالی که ایمنی هوش مصنوعی همچنان یک موضوع نگران کننده است، OpenAI به توسعه خود ادامه داده است. در دیگر اخبار هوش مصنوعی، OpenAI ChatGPT Gov را معرفی کرد، یک مدل هوش مصنوعی ایمن که برای سازمان های دولتی ایالات متحده طراحی شده است. این پرتاب در حالی انجام می شود که DeepSeek جذابیت پیدا می کند و متا اقدامات امنیتی خود را افزایش می دهد و رقابت در فضای هوش مصنوعی را تشدید می کند.

اولین دیدگاه را بنویسید