ارزش بازار

شاخص ترس و طمع

قیمت تتر

ت

دامیننس بیت‌کوین

شنبه - 1404/4/28 | Saturday - 2025/07/19

هشدار درباره آینده هوش‌ مصنوعی

  • انتشار
    1404-04-10
  • کد خبر
    1845
T T
لینک مستقیم خبر

آینده‌ای نامعلوم در دستان خدایان هوش مصنوعی

من مجبور شدم دو مصاحبه جداگانه با شرکت Sentient انجام دهم تا اطلاعات را هضم کنم و بتوانم دنبالشان بروم. چون هوش مصنوعی حوزه تخصصی من نیست، و صادقانه بگویم، این حوزه مرا نگران می‌کند؛ مخصوصاً وقتی نمی‌توانم آینده امیدوارکننده‌ای برای آن تصور کنم. در این صنعت، برچسب «بدبین به AI» خوردن به‌راحتی می‌تواند باعث حذف شدن شما شود.

اما از زمانی که مصاحبه‌ای از الایزر یودکوفسکی، محقق حوزه همراستایی و ایمنی هوش مصنوعی، را در پادکست Bankless در سال ۲۰۲۳ شنیدم، حرف‌هایش تقریباً هر شب در ذهنم تکرار می‌شوند:

«فکر می‌کنم داریم صدای وزش آخرین بادها را می‌شنویم و پارچه‌ی واقعیت در حال ازهم‌پاشیدن است.»

سعی کردم ذهنم را باز نگه دارم و هوش مصنوعی را بپذیرم پیش از آنکه له شوم. کمی با آن بازی کردم، پرامپت‌ها را تغییر دادم و چند میم ساختم، اما ناآرامی درونم هنوز پابرجاست.

چیزی که بیشتر آزارم می‌دهد، این است که سازندگان سیستم‌های هوش مصنوعی، اطمینان کافی به مردم نمی‌دهند، و عموم مردم هم چنان بی‌تفاوت شده‌اند که یا به نابودی انسان می‌خندند یا فقط به اندازه‌ی طول یک ویدیوی یوتیوب در ذهن‌شان به آن فکر می‌کنند.

چطور به اینجا رسیدیم؟

هم‌بنیان‌گذار Sentient، هیمنشو تیاقی، استاد دانشگاه علوم هند است و در حوزه نظریه اطلاعات، AI و رمزنگاری پژوهش‌های پایه‌ای انجام داده. رئیس دفتر این شرکت، ویوک کولی، فارغ‌التحصیل پرینستون است که سابقه‌اش در مشاوره برای شرکت‌های میلیارد دلاری مثل BCG بوده.

همه افراد حاضر در Sentient بسیار باهوش‌اند. البته بیشتر کسانی که در هوش مصنوعی کار می‌کنند همین‌طورند. اما سؤال اینجاست: هوش مصنوعی عمومی (AGI) — یا همان «AI خداگونه» — چقدر باهوش‌تر خواهد بود؟

ایلان ماسک می‌گوید AGI یعنی «باهوش‌تر از باهوش‌ترین انسان»، اما سم آلتمن، مدیرعامل OpenAI می‌گوید:

«AGI واژه‌ای مبهم است، اما معمولاً به سیستمی اشاره دارد که می‌تواند در حوزه‌های مختلف، در سطح انسانی، مسائل پیچیده‌تری را حل کند.»

کولی هم نظریه‌پردازی می‌کند:

«نمی‌دانم چقدر باهوش خواهد بود. برای من، AGI یعنی بهترین نوع ممکن از AI — و این همان چیزی است که ما در Sentient می‌خواهیم بسازیم.»

تیاقی هم چنین توضیح می‌دهد:

«AGI برای ما یعنی ترکیبی از چند AI که با هم رقابت کرده و یکدیگر را بهبود می‌بخشند. AGI باز یعنی همه بتوانند AI خودشان را وارد کرده و در بهتر شدن آن نقش داشته باشند.»


پارادوکسی به قیمت میلیاردها دلار

Sentient Labs که دفترش در دبی است، در سال ۲۰۲۴ توانست ۸۵ میلیون دلار سرمایه اولیه جذب کند؛ از جمله از صندوق Founders Fund (حامیان اولیه OpenAI)، Pantera و Framework Ventures.

تیاقی با هیجان از رونق AI در امارات می‌گوید:

«دولت امارات دارد سرمایه‌گذاری عظیمی روی AI می‌کند. بیشتر شرکت‌های بزرگ از امارات سرمایه گرفته‌اند، چون آن‌ها نه‌تنها می‌خواهند بودجه بدهند، بلکه می‌خواهند مرکز اصلی پردازش (Compute) در جهان باشند.»

عربستان هم ۶۰۰ میلیارد دلار به صنایع آمریکایی و ۲۰ میلیارد دلار به مراکز داده‌ی AI اختصاص داده. پیش‌بینی می‌شود بازار AI امارات تا سال ۲۰۳۱ به ۴۶.۳ میلیارد دلار برسد — یعنی ۲۰٪ از تولید ناخالص داخلی کشور.

در این رقابت دیوانه‌وار بین کشورها و شرکت‌ها، غول‌های فناوری برای جذب استعدادها وارد جنگ شده‌اند و حتی تا ۱۰۰ میلیون دلار پاداش اولیه به توسعه‌دهندگان حرفه‌ای می‌دهند. این اعداد دیگر معنی خود را از دست داده‌اند.

کولی می‌گوید:

«اولین شرکتی که AGI بسازد، آن را برای خودش نگه می‌دارد... اگر فقط مایکروسافت یا OpenAI همه اطلاعات دنیا را کنترل کنند، فاجعه است.»


چرا تمرکززدایی ضروری است؟

کولی می‌گوید دلیل تأسیس Sentient این بود که:

«Sentient همانی است که OpenAI قول داده بود باشد؛ یک سازمان غیرانتفاعی برای پیشرفت AI. اما وقتی پول درآوردند، وسوسه شدند و همه چیز را بستند.»

تیاقی تأکید می‌کند:

«AI می‌تواند برنده‌ی همه چیز نباشد. چون همه اطلاعات و منطق خاص خودشان را دارند که می‌توانند به آن اضافه کنند. شرکت‌های باز می‌توانند پیروز میدان باشند.»

Sentient روی ساخت یک پلتفرم باز کار می‌کند که در آن هزاران مدل AI توسط جامعه جهانی ساخته و مشارکت داده می‌شوند. کاربران می‌توانند نوآوری‌های خود را ارائه و کسب درآمد کنند — همان چیزی که OpenAI می‌خواست باشد، اما نشد.

او اشاره می‌کند:

«از ۲۰۲۰ تا ۲۰۲۳ دوره‌ای بود که AI بسته مسلط شد. آن زمان شنیدن رقم ۲۰ میلیارد دلار برای یک شرکت عجیب بود، ولی حالا عادی شده؛ حتی ارقام ۱۰۰ میلیارد دلاری هم به گوش می‌رسد.»


آیا AI آزاد، امن هم هست؟

پرسیدم آیا باز بودن AI می‌تواند خطرناک باشد؟ تیاقی گفت:

«وقتی AI متن‌باز باشد، مثل غرب وحشی می‌شود. ممکن است امن نباشد یا همراستا با منافع شما نباشد.»

کولی توضیح می‌دهد که چگونه Sentient مدل‌هایی مثل Llama از شرکت Meta را گرفته، محدودیت‌های آن را برداشته، و دوباره با تمرکز بر ارزش‌هایی مثل آزادی فردی و حمایت از رمزارزها آموزش داده است.

«ما آن را مجبور کردیم دقیقاً همان‌طوری فکر کند که می‌خواستیم. آن‌قدر آموزش دادیم تا وفاداری مدنظرمان در آن تثبیت شود.»

او این فرایند را با آموزش ایدئولوژیک در نظام‌های سیاسی مقایسه می‌کند؛ مثلاً در چین کمونیست، حتی کتاب‌های ریاضی هم تبلیغ حزب هستند.


اگر افراد بی‌اخلاق مدل‌های AI را تربیت کنند؟

پرسیدم: اگر کسی با مهارت بالا، پول نامحدود، و هیچ‌گونه اخلاق یا احترام به قانون، بخواهد مدل AI خطرناکی بسازد، چه می‌شود؟ کولی مکث کرد و گفت:

«نمی‌دانم… ما مسئول هستیم و امیدواریم دیگران هم مسئول باشند.»


راه‌حل Sentient: آموزش با «قانون اساسی»

تیاقی گفت آن‌ها برای هر مدل، دستورالعمل‌های مشخصی منتشر می‌کنند تا رفتار AI از آن منحرف نشود؛ کاری شبیه به آنچه شرکت Anthropic با مفهوم «قانون اساسی» انجام داده است.

او افزود:

«ما باید به سمتی برویم که AI باز، اما یکپارچه و وفادار به جامعه انسانی باشد.»

Sentient همچنین در همکاری با EigenLayer، پژوهشی در مورد توانایی AI در تحلیل حقوقی و قوانین حاکمیتی انجام داده که نشان داد حتی مدل‌های پیشرفته کنونی در استدلال پیچیده دچار ضعف هستند.

با این حال، همچنان تخمین زده می‌شود که فقط ۳٪ از بودجه سرمایه‌گذاری خطرپذیر (VC) صرف ایمن‌سازی و همراستایی AI می‌شود.


وقتی تنها چیزی که باقی می‌ماند، انسانیت است

از تیاقی پرسیدم پایان این مسیر چیست؟ نگران شدم که شغل‌ها حذف شوند یا حتی بشریت نابود شود. او پاسخ داد:

«این یک سؤال فلسفی است. بستگی دارد شما پیشرفت بشر را چگونه تعریف کنید.»

او AI را مانند اینترنت می‌بیند: مشاغلی را نابود می‌کند، ولی مشاغل جدیدی ایجاد می‌کند.

«انسان موجودی با قدرت اراده بالاست. شغل‌های جدید پیدا خواهد کرد، و ارزش از AI منتقل نمی‌شود. بنابراین نگران نیستم.»

کولی هم پذیرفت که شکاف بین افرادی که از AI بهره می‌برند و آن‌هایی که این کار را نمی‌کنند، زیادتر خواهد شد:

«در سه سال آینده، خیلی‌ها می‌فهمند که شغل‌شان از بین رفته. اما آن زمان برای استفاده از AI خیلی دیر است.»

او به من گفت:

«در صنعت شما که حول نوشتن است، تنها چیزی که روزنامه‌نگاران دارند، ارتباط انسانی است.»

با وجود این‌که نمی‌خواهم لودایت (ضد تکنولوژی) باشم، ولی وقتی روزانه با خطر بی‌مصرف شدنم روبه‌رو می‌شوم و تنها چیزی که برایم باقی مانده، انسان‌بودن است، سخت است به آینده AI خوشبین باشم.


روسیۀ رولت بشری: بعد چه می‌شود؟

تنها چیزی که قطعیت دارد این است که سال‌های آینده تغییرات عظیمی به همراه دارد، اما هیچ‌کس نمی‌داند دقیقاً چه تغییراتی.

جیفری هینتون، پدرخوانده هوش مصنوعی، که از گوگل استعفا داد تا درباره خطرات AI هشدار دهد، می‌گوید:

«AI مثل بچه ببر است؛ بامزه و دوست‌داشتنی. اما اگر زمانی بخواهد تو را بکشد، در چند ثانیه این کار را می‌کند.»

سم آلتمن هم گفته:

«سناریوی خوب آن‌قدر عالی است که وقتی درباره‌اش صحبت می‌کنی، دیوانه به نظر می‌رسی. اما سناریوی بد… خاموشی کامل برای همه ماست.»

و تیاقی؟ وقتی پرسیدم چه فکر می‌کند، ابرو در هم کشید:

«AI باید وفادار به انسان و جامعه باشد، ولی این یک مسئله مهندسی است.»

با تعجب گفتم: مهندسی؟ ما درباره یک باگ نرم‌افزاری حرف نمی‌زنیم، این آینده بشریته! گفت:

«ما باید AI را با تمام اصول امنیتی، در تمام سطوح — نرم‌افزار، مدل، پرامپت — مهندسی کنیم. نگران نیستم. مهم است، اما شدنی است…»

سپس مکث کرد و پرسید نظر من درباره تأثیر شبکه‌های اجتماعی بر کودکان چیست. گفت:

«به نظر من هر چیزی مثل AI یا فضا، آغازگر دوره‌ای طلایی برای آینده است. من به آینده طلایی بیشتر از گذشته طلایی ایمان دارم.»

من قدردان خوش‌بینی‌اش هستم، اما هنوز شک دارم. در جهانی که یا مایکروسافت همه‌چیز را کنترل کند، یا کره شمالی ما را برده کند، یا یک AI غیرقابل‌کنترل ما را از بین ببرد، تنها چیزی که مطمئنم این است که این گفت‌وگو باید در فضای باز انجام شود، نه در پشت درهای بسته یا در کدهای بسته.

همان‌طور که هینتون گفت:

«واقعاً دیوانگی است اگر انسان‌ها به این خاطر منقرض شوند که حوصله نکردند تلاشی بکنند.»

 


ثبت نظر

نظرات گذشته

هنوز برای هشدار درباره آینده هوش‌ مصنوعی نظری ثبت نشده است.