با توجه به پیشرفت گسترده هوش مصنوعی، متا سیاست های جدیدی برای محدود کردن سیستم های پر خطر هوش مصنوعی را رونمایی کرده است که در این خبر که به بررسی انواع هوش مصنوعی و دسته بندی آن و جلوگیری از خطرات احتمالی در حملات سایبری و بیولوژیکی می پردازیم.
متا از چارچوبی برای محدود کردن سیستمهای پرخطر هوش مصنوعی رونمایی کرد
سایت متا سیاست جدیدی به نام فریمورک هوش مصنوعی مرزی را معرفی کرده است که رویکرد خود را برای محدود کردن توسعه و انتشار سیستمهای هوش مصنوعی پرخطر تشریح میکند. با توجه به اخبار هوش مصنوعی، این چارچوب به نگرانیها در مورد خطرات فناوری پیشرفته هوش مصنوعی، به ویژه در امنیت سایبری و امنیت زیستی رسیدگی خواهد کرد. این شرکت بیان میکند که برخی از مدلهای هوش مصنوعی ممکن است برای عرضه بسیار پرخطر باشند و پیش از استقرار بیشتر، نیازمند حفاظتهای داخلی هستند از این رو محدود کردن سیستم های پر خطر هوش مصنوعی قبل از اینکه خطری ایجاد کنند بسیار حائز اهمیت است.
متا در یک پرونده اخیر، سیستم های هوش مصنوعی را بر اساس خطرات احتمالی به دو دسته طبقه بندی کرد. این دسته بندی ها پرخطر و بحرانی هستند که هر کدام بر اساس میزان آسیب احتمالی تعریف می شوند. مدلهای هوش مصنوعی که ریسک بالایی دارند ممکن است به حملات سایبری یا بیولوژیکی کمک کنند.
با این حال، هوش مصنوعی پر خطر می تواند دارای آسیب جدی باشد، متا اظهار داشت که چنین سیستم های هوش مصنوعی می توانند به عواقب فاجعه باری منجر شوند. طبق اخبار هوش مصنوعی، متا توسعه هر سیستمی را که به عنوان ریسک حیاتی طبقه بندی می شود، متوقف می کند و اقدامات امنیتی بیشتری را برای جلوگیری از دسترسی غیرمجاز اجرا می کند.
مدلهای هوش مصنوعی پرخطر به صورت داخلی محدود میشوند و کار بیشتر برای کاهش خطرات قبل از انتشار انجام میشود. این چارچوب نشان دهنده تمرکز شرکت بر به حداقل رساندن تهدیدهای بالقوه مرتبط با هوش مصنوعی است. این اقدامات امنیتی در بحبوحه نگرانی های اخیر در مورد حریم خصوصی داده های هوش مصنوعی انجام می شود.
در جدیدترین اخبار هوش مصنوعی، DeepSeek، یک استارت آپ چینی، از اپ استور اپل و پلی استور گوگل در ایتالیا حذف شده است. مقام حفاظت از داده های کشور در حال بررسی شیوه های جمع آوری داده های خود است.
اقدامات امنیتی سختگیرانه تر هوش مصنوعی
اقدامات امنیتی سختگیرانه تر هوش مصنوعی
برای تعیین سطوح ریسک سیستم هوش مصنوعی، متا بر ارزیابیهای محققان داخلی و خارجی تکیه خواهد کرد. با این حال، این شرکت بیان میکند که هیچ آزمایش واحدی نمیتواند ریسک را به طور کامل اندازهگیری کند و ارزیابی کارشناسان را به یک عامل کلیدی در تصمیمگیری تبدیل میکند. این چارچوب یک فرآیند بررسی ساختاریافته را با تصمیم گیرندگان ارشد که بر طبقه بندی ریسک نهایی نظارت دارند، ترسیم می کند.
برای هوش مصنوعی پرخطر، متا قصد دارد قبل از در نظر گرفتن انتشار، اقدامات کاهشی را ارائه کند. این رویکرد از سوء استفاده سیستمهای هوش مصنوعی با حفظ عملکرد مورد نظرشان جلوگیری میکند. اگر یک مدل هوش مصنوعی بهعنوان پرخطر طبقهبندی شود، توسعه تا زمانی که اقدامات ایمنی بتواند استقرار کنترلشده را تضمین کند، بهطور کامل تعلیق میشود.
مدل توسعه هوش مصنوعی باز توسط شرکت متا
متا یک مدل توسعه هوش مصنوعی باز را دنبال کرده است که امکان دسترسی گسترده تر به مدل های هوش مصنوعی Llama خود را فراهم می کند. این استراتژی؛ منجر به پذیرش گسترده، با میلیون ها بارگیری ثبت شده، شده است. با این حال، نگرانیهایی در مورد سوء استفاده احتمالی، از جمله گزارشهایی مبنی بر اینکه یک دشمن ایالات متحده از Llama برای توسعه یک چت بات دفاعی استفاده کرده است، ظاهر شده است.
با چارچوب هوش مصنوعی مرزی، شرکت متا با حفظ تعهد خود به توسعه هوش مصنوعی باز، به این نگرانیها رسیدگی میکند. در همین حال، در حالی که ایمنی هوش مصنوعی همچنان یک موضوع نگران کننده است، OpenAI به توسعه خود ادامه داده است. در دیگر اخبار هوش مصنوعی، OpenAI ChatGPT Gov را معرفی کرد، یک مدل هوش مصنوعی ایمن که برای سازمان های دولتی ایالات متحده طراحی شده است. این پرتاب در حالی انجام می شود که DeepSeek جذابیت پیدا می کند و متا اقدامات امنیتی خود را افزایش می دهد و رقابت در فضای هوش مصنوعی را تشدید می کند.