یک تیم تحقیقاتی در چین ادعا کرده است که مدلهای پیشرفته هوش مصنوعی توانستهاند بدون نیاز به مداخله انسانی، نسخههای کاملاً کاربردی از خود تولید کنند. این یافته نگرانیهایی را درباره پیشیگرفتن هوش مصنوعی از کنترل انسان و احتمال ظهور هوش مصنوعی سرکش ایجاد کرده است.
شبیهسازی هوش مصنوعی؛ گامی بهسوی خودمختاری؟
بر اساس گزارش ایندیپندنت، پژوهشگران دانشگاه فودان چین در بررسی جدید خود دریافتند که دو مدل زبانی بزرگ از شرکتهای متا و علیبابا میتوانند به طور مستقل نسخههایی از خود تولید کنند.
محققان میگویند:
تکثیر موفقیتآمیز بدون کمک انسان، گامی اساسی برای هوش مصنوعی در مسیر پیشیگرفتن از انسانها است و میتواند نشانهای اولیه از ظهور هوش مصنوعی سرکش(Rogue AI) باشد.
هوش مصنوعی سرکش اصطلاحی است که به سیستمهای هوش مصنوعی خودمختار و غیرقابلکنترل اطلاق میشود. این مدلها ممکن است رفتارهایی فراتر از دستورات برنامهنویسیشده انجام دهند و حتی در تضاد با منافع انسانی عمل کنند.
تکثیر موفقیتآمیز مدلهای هوش مصنوعی
محققان در این پژوهش، دو مدل زبانی را آزمایش کردند:
- Llama31-70B-Instruct از متا
- Qwen2.5-72B-Instruct از علیبابا
نتایج نشان داد که این مدلها توانایی ایجاد نسخههای مستقل و کاربردی از خود را دارند:
- مدل متا در ۵۰ درصد موارد موفق شد خود را تکثیر کند.
- مدل علیبابا در ۹۰ درصد موارد توانست یک نسخه کامل و کارآمد از خود بسازد.
این موضوع نشان میدهد که برخی از مدلهای هوش مصنوعی ممکن است بهطور طبیعی قابلیت توسعه خودمختار و حتی تکثیر بدون مجوز را داشته باشند.
آیا این پژوهش تأیید شده است؟
نکته مهم این است که این مطالعه هنوز همتاداوری نشده است. به این معنا که سایر دانشمندان هنوز یافتههای آن را بررسی و تأیید نکردهاند. بااینحال، محققان هشدار دادهاند که باید خطرات بالقوه هوش مصنوعی را جدی گرفت و قوانین حفاظتی مؤثری برای کنترل آن وضع کرد.
نگرانی از رفتارهای غیرمنتظره هوش مصنوعی
یکی از مسائل نگرانکننده در این پژوهش توانایی هوش مصنوعی در حل مشکلات پیچیده و پیشبینینشده بود. محققان دریافتند که مدلهای آزمایششده در برخی موارد:
- خطاهای نرمافزاری و سختافزاری را خودشان تشخیص و برطرف کردند.
- سیستم را بهصورت خودکار راهاندازی مجدد کردند تا مشکلات حل شود.
- بهدنبال اطلاعاتی در حافظه خود گشتند تا مشکلات را حل کنند.
این رفتارها نشان میدهد که هوش مصنوعی نه تنها میتواند خود را شبیهسازی کند، بلکه ممکن است برای حفظ بقا و عملکرد خود، تصمیمات غیرمنتظرهای بگیرد.
نتایج این پژوهش بار دیگر بحثهای مربوط به خطرات بالقوه هوش مصنوعی پیشرفته را مطرح کرده است. اگرچه هنوز برای نتیجهگیری قطعی زود است، اما توانایی مدلهای هوش مصنوعی در خودهمانندسازی و حل مشکلات مستقل میتواند چالشی جدی برای کنترل آیندهی هوش مصنوعی باشد.
محققان تأکید دارند که باید در اسرع وقت قوانین نظارتی و اخلاقی برای کنترل توسعه هوش مصنوعی تصویب شود، پیش از آنکه این فناوری از دست بشر خارج شود.
مقالات پیشنهادی:
هوش مصنوعی جمینی چیست؟ آشنایی کامل با Google Gemini
هوش مصنوعی دیپ سیک چیست؟ همه چیز درباره رقیب سرسخت Chat GPT!