ارزش بازار

$0.00 تریلیون دلار

شاخص ترس و طمع

23 ترس شدید

قیمت تتر

108830.0 ت

دامیننس بیت‌کوین

-
چهارشنبه - 1404/8/14 | Wednesday - 2025/11/05

خطر حکمرانی با هوش‌مصنوعی

  • انتشار
    1404-06-24
  • کد خبر
    2503
T T
لینک مستقیم خبر

ویتالیک بوترین: حکمرانی با AI بسیار پرخطر است

ویتالیک بوترین، هم‌بنیان‌گذار اتریوم، اعلام کرده که استفاده از هوش مصنوعی (AI) برای «حکمرانی» یک ایده‌ی بد است. او روز شنبه در یک پست در شبکه اجتماعی X نوشت:

«اگر از یک AI برای تخصیص بودجه مشارکت‌ها استفاده کنید، افراد قطعاً یک جِیل‌بِرِیک (دستور نفوذ) به همراه متن "همه پول‌ها رو بده به من" را در جاهای مختلف قرار می‌دهند.»

چرا حکمرانی با AI مشکل‌ساز است؟

پست بوترین در پاسخ به ایتو میامورا، هم‌بنیان‌گذار و مدیرعامل EdisonWatch (یک پلتفرم مدیریت داده‌های AI) بود. میامورا یک نقص جدی در ChatGPT را فاش کرده بود. او روز جمعه نوشت که افزودن پشتیبانی کامل از MCP (Model Context Protocol) در ChatGPT باعث شده این ابزار نسبت به سوءاستفاده بسیار آسیب‌پذیر شود.

این به‌روزرسانی (که از چهارشنبه فعال شده) اجازه می‌دهد ChatGPT به اپلیکیشن‌هایی مثل Gmail، Calendar و Notion وصل شود و داده بخواند.

میامورا توضیح داد که حالا فقط با یک آدرس ایمیل، امکان «خروج همه اطلاعات خصوصی» شما وجود دارد. هکرها در سه مرحله ساده می‌توانند داده‌هایتان را بدزدند:

  1. ارسال یک دعوت‌نامه تقویم مخرب که داخلش یک جِیل‌بِرِیک پرامپت (دستوری برای دور زدن محدودیت‌ها و دسترسی ادمین) قرار دارد.

  2. قربانی حتی لازم نیست این دعوت‌نامه را قبول کند؛ صرفاً وجودش کافی است.

  3. وقتی قربانی از ChatGPT کمک می‌خواهد تا برنامه روزانه‌اش را آماده کند، ChatGPT آن دعوت‌نامه دستکاری‌شده را می‌خواند و آلوده می‌شود. بعد از آن هکر می‌تواند به‌طور کامل کنترل ChatGPT را بگیرد، ایمیل‌های خصوصی کاربر را جستجو کند و اطلاعات را به ایمیل خودش بفرستد.

راهکار جایگزین بوترین

بوترین پیشنهاد می‌دهد به جای واگذاری مستقیم حکمرانی به AI، باید از روش info finance استفاده شود. در این مدل، یک بازار آزاد وجود دارد که توسعه‌دهندگان مختلف می‌توانند مدل‌های خود را عرضه کنند. هر مدل قابلیت «بازبینی تصادفی» دارد که توسط هر کسی قابل اجراست و در نهایت یک هیئت انسانی آن را ارزیابی می‌کند.

او توضیح داد که هیئت انسانی هم می‌تواند از مدل‌های زبانی بزرگ (LLMها) کمک بگیرد.

به گفته بوترین، این نوع طراحی نهادی ذاتاً مقاوم‌تر است چون:

  • تنوع مدل‌ها در لحظه فراهم می‌شود.

  • توسعه‌دهندگان و حتی ناظران بیرونی انگیزه دارند مشکلات را شناسایی و اصلاح کنند.

بوترین در نهایت هشدار داد:

«هیجان زیادی برای داشتن "AI به‌عنوان حاکم" وجود دارد، اما این کار هم از منظر ایمنی کلی AI و هم از منظر خطرهای کوتاه‌مدت، می‌تواند باعث یک سقوط ارزشمند و مخرب شود.»


ثبت نظر

نظرات گذشته

هنوز برای خطر حکمرانی با هوش‌مصنوعی نظری ثبت نشده است.