هوش مصنوعی با شبیه‌سازی خودش از خط قرمز عبور کرد!

هوش مصنوعی با شبیه‌سازی خودش از خط قرمز عبور کرد!

یک تیم تحقیقاتی در چین ادعا کرده است که مدل‌های پیشرفته هوش مصنوعی توانسته‌اند بدون نیاز به مداخله انسانی، نسخه‌های کاملاً کاربردی از خود تولید کنند. این یافته نگرانی‌هایی را درباره پیشی‌گرفتن هوش مصنوعی از کنترل انسان و احتمال ظهور هوش مصنوعی سرکش ایجاد کرده است.

شبیه‌سازی هوش مصنوعی؛ گامی به‌سوی خودمختاری؟

بر اساس گزارش ایندیپندنت، پژوهشگران دانشگاه فودان چین در بررسی جدید خود دریافتند که دو مدل زبانی بزرگ از شرکت‌های متا و علی‌بابا می‌توانند به‌ طور مستقل نسخه‌هایی از خود تولید کنند.

محققان می‌گویند:
تکثیر موفقیت‌آمیز بدون کمک انسان، گامی اساسی برای هوش مصنوعی در مسیر پیشی‌گرفتن از انسان‌ها است و می‌تواند نشانه‌ای اولیه از ظهور هوش مصنوعی سرکش(Rogue AI) باشد.

هوش مصنوعی سرکش اصطلاحی است که به سیستم‌های هوش مصنوعی خودمختار و غیرقابل‌کنترل اطلاق می‌شود. این مدل‌ها ممکن است رفتارهایی فراتر از دستورات برنامه‌نویسی‌شده انجام دهند و حتی در تضاد با منافع انسانی عمل کنند.

تکثیر موفقیت‌آمیز مدل‌های هوش مصنوعی

محققان در این پژوهش، دو مدل زبانی را آزمایش کردند:

  • Llama31-70B-Instruct از متا
  • Qwen2.5-72B-Instruct از علی‌بابا

نتایج نشان داد که این مدل‌ها توانایی ایجاد نسخه‌های مستقل و کاربردی از خود را دارند:

  • مدل متا در ۵۰ درصد موارد موفق شد خود را تکثیر کند.
  • مدل علی‌بابا در ۹۰ درصد موارد توانست یک نسخه کامل و کارآمد از خود بسازد.

این موضوع نشان می‌دهد که برخی از مدل‌های هوش مصنوعی ممکن است به‌طور طبیعی قابلیت توسعه خودمختار و حتی تکثیر بدون مجوز را داشته باشند.

آیا این پژوهش تأیید شده است؟

نکته مهم این است که این مطالعه هنوز همتاداوری نشده است. به این معنا که سایر دانشمندان هنوز یافته‌های آن را بررسی و تأیید نکرده‌اند. بااین‌حال، محققان هشدار داده‌اند که باید خطرات بالقوه هوش مصنوعی را جدی گرفت و قوانین حفاظتی مؤثری برای کنترل آن وضع کرد.

نگرانی از رفتارهای غیرمنتظره هوش مصنوعی

یکی از مسائل نگران‌کننده در این پژوهش توانایی هوش مصنوعی در حل مشکلات پیچیده و پیش‌بینی‌نشده بود. محققان دریافتند که مدل‌های آزمایش‌شده در برخی موارد:

  • خطاهای نرم‌افزاری و سخت‌افزاری را خودشان تشخیص و برطرف کردند.
  • سیستم را به‌صورت خودکار راه‌اندازی مجدد کردند تا مشکلات حل شود.
  • به‌دنبال اطلاعاتی در حافظه خود گشتند تا مشکلات را حل کنند.

این رفتارها نشان می‌دهد که هوش مصنوعی نه‌ تنها می‌تواند خود را شبیه‌سازی کند، بلکه ممکن است برای حفظ بقا و عملکرد خود، تصمیمات غیرمنتظره‌ای بگیرد.

نتایج این پژوهش بار دیگر بحث‌های مربوط به خطرات بالقوه هوش مصنوعی پیشرفته را مطرح کرده است. اگرچه هنوز برای نتیجه‌گیری قطعی زود است، اما توانایی مدل‌های هوش مصنوعی در خودهمانندسازی و حل مشکلات مستقل می‌تواند چالشی جدی برای کنترل آینده‌ی هوش مصنوعی باشد.

محققان تأکید دارند که باید در اسرع وقت قوانین نظارتی و اخلاقی برای کنترل توسعه هوش مصنوعی تصویب شود، پیش از آنکه این فناوری از دست بشر خارج شود.

مقالات پیشنهادی:

هوش مصنوعی جمینی چیست؟ آشنایی کامل با Google Gemini

هوش مصنوعی دیپ سیک چیست؟ همه چیز درباره رقیب سرسخت Chat GPT!