من مجبور شدم دو مصاحبه جداگانه با شرکت Sentient انجام دهم تا اطلاعات را هضم کنم و بتوانم دنبالشان بروم. چون هوش مصنوعی حوزه تخصصی من نیست، و صادقانه بگویم، این حوزه مرا نگران میکند؛ مخصوصاً وقتی نمیتوانم آینده امیدوارکنندهای برای آن تصور کنم. در این صنعت، برچسب «بدبین به AI» خوردن بهراحتی میتواند باعث حذف شدن شما شود.
اما از زمانی که مصاحبهای از الایزر یودکوفسکی، محقق حوزه همراستایی و ایمنی هوش مصنوعی، را در پادکست Bankless در سال ۲۰۲۳ شنیدم، حرفهایش تقریباً هر شب در ذهنم تکرار میشوند:
«فکر میکنم داریم صدای وزش آخرین بادها را میشنویم و پارچهی واقعیت در حال ازهمپاشیدن است.»
سعی کردم ذهنم را باز نگه دارم و هوش مصنوعی را بپذیرم پیش از آنکه له شوم. کمی با آن بازی کردم، پرامپتها را تغییر دادم و چند میم ساختم، اما ناآرامی درونم هنوز پابرجاست.
چیزی که بیشتر آزارم میدهد، این است که سازندگان سیستمهای هوش مصنوعی، اطمینان کافی به مردم نمیدهند، و عموم مردم هم چنان بیتفاوت شدهاند که یا به نابودی انسان میخندند یا فقط به اندازهی طول یک ویدیوی یوتیوب در ذهنشان به آن فکر میکنند.
چطور به اینجا رسیدیم؟
همبنیانگذار Sentient، هیمنشو تیاقی، استاد دانشگاه علوم هند است و در حوزه نظریه اطلاعات، AI و رمزنگاری پژوهشهای پایهای انجام داده. رئیس دفتر این شرکت، ویوک کولی، فارغالتحصیل پرینستون است که سابقهاش در مشاوره برای شرکتهای میلیارد دلاری مثل BCG بوده.
همه افراد حاضر در Sentient بسیار باهوشاند. البته بیشتر کسانی که در هوش مصنوعی کار میکنند همینطورند. اما سؤال اینجاست: هوش مصنوعی عمومی (AGI) — یا همان «AI خداگونه» — چقدر باهوشتر خواهد بود؟
ایلان ماسک میگوید AGI یعنی «باهوشتر از باهوشترین انسان»، اما سم آلتمن، مدیرعامل OpenAI میگوید:
«AGI واژهای مبهم است، اما معمولاً به سیستمی اشاره دارد که میتواند در حوزههای مختلف، در سطح انسانی، مسائل پیچیدهتری را حل کند.»
کولی هم نظریهپردازی میکند:
«نمیدانم چقدر باهوش خواهد بود. برای من، AGI یعنی بهترین نوع ممکن از AI — و این همان چیزی است که ما در Sentient میخواهیم بسازیم.»
تیاقی هم چنین توضیح میدهد:
«AGI برای ما یعنی ترکیبی از چند AI که با هم رقابت کرده و یکدیگر را بهبود میبخشند. AGI باز یعنی همه بتوانند AI خودشان را وارد کرده و در بهتر شدن آن نقش داشته باشند.»
پارادوکسی به قیمت میلیاردها دلار
Sentient Labs که دفترش در دبی است، در سال ۲۰۲۴ توانست ۸۵ میلیون دلار سرمایه اولیه جذب کند؛ از جمله از صندوق Founders Fund (حامیان اولیه OpenAI)، Pantera و Framework Ventures.
تیاقی با هیجان از رونق AI در امارات میگوید:
«دولت امارات دارد سرمایهگذاری عظیمی روی AI میکند. بیشتر شرکتهای بزرگ از امارات سرمایه گرفتهاند، چون آنها نهتنها میخواهند بودجه بدهند، بلکه میخواهند مرکز اصلی پردازش (Compute) در جهان باشند.»
عربستان هم ۶۰۰ میلیارد دلار به صنایع آمریکایی و ۲۰ میلیارد دلار به مراکز دادهی AI اختصاص داده. پیشبینی میشود بازار AI امارات تا سال ۲۰۳۱ به ۴۶.۳ میلیارد دلار برسد — یعنی ۲۰٪ از تولید ناخالص داخلی کشور.
در این رقابت دیوانهوار بین کشورها و شرکتها، غولهای فناوری برای جذب استعدادها وارد جنگ شدهاند و حتی تا ۱۰۰ میلیون دلار پاداش اولیه به توسعهدهندگان حرفهای میدهند. این اعداد دیگر معنی خود را از دست دادهاند.
کولی میگوید:
«اولین شرکتی که AGI بسازد، آن را برای خودش نگه میدارد... اگر فقط مایکروسافت یا OpenAI همه اطلاعات دنیا را کنترل کنند، فاجعه است.»
چرا تمرکززدایی ضروری است؟
کولی میگوید دلیل تأسیس Sentient این بود که:
«Sentient همانی است که OpenAI قول داده بود باشد؛ یک سازمان غیرانتفاعی برای پیشرفت AI. اما وقتی پول درآوردند، وسوسه شدند و همه چیز را بستند.»
تیاقی تأکید میکند:
«AI میتواند برندهی همه چیز نباشد. چون همه اطلاعات و منطق خاص خودشان را دارند که میتوانند به آن اضافه کنند. شرکتهای باز میتوانند پیروز میدان باشند.»
Sentient روی ساخت یک پلتفرم باز کار میکند که در آن هزاران مدل AI توسط جامعه جهانی ساخته و مشارکت داده میشوند. کاربران میتوانند نوآوریهای خود را ارائه و کسب درآمد کنند — همان چیزی که OpenAI میخواست باشد، اما نشد.
او اشاره میکند:
«از ۲۰۲۰ تا ۲۰۲۳ دورهای بود که AI بسته مسلط شد. آن زمان شنیدن رقم ۲۰ میلیارد دلار برای یک شرکت عجیب بود، ولی حالا عادی شده؛ حتی ارقام ۱۰۰ میلیارد دلاری هم به گوش میرسد.»
آیا AI آزاد، امن هم هست؟
پرسیدم آیا باز بودن AI میتواند خطرناک باشد؟ تیاقی گفت:
«وقتی AI متنباز باشد، مثل غرب وحشی میشود. ممکن است امن نباشد یا همراستا با منافع شما نباشد.»
کولی توضیح میدهد که چگونه Sentient مدلهایی مثل Llama از شرکت Meta را گرفته، محدودیتهای آن را برداشته، و دوباره با تمرکز بر ارزشهایی مثل آزادی فردی و حمایت از رمزارزها آموزش داده است.
«ما آن را مجبور کردیم دقیقاً همانطوری فکر کند که میخواستیم. آنقدر آموزش دادیم تا وفاداری مدنظرمان در آن تثبیت شود.»
او این فرایند را با آموزش ایدئولوژیک در نظامهای سیاسی مقایسه میکند؛ مثلاً در چین کمونیست، حتی کتابهای ریاضی هم تبلیغ حزب هستند.
اگر افراد بیاخلاق مدلهای AI را تربیت کنند؟
پرسیدم: اگر کسی با مهارت بالا، پول نامحدود، و هیچگونه اخلاق یا احترام به قانون، بخواهد مدل AI خطرناکی بسازد، چه میشود؟ کولی مکث کرد و گفت:
«نمیدانم… ما مسئول هستیم و امیدواریم دیگران هم مسئول باشند.»
راهحل Sentient: آموزش با «قانون اساسی»
تیاقی گفت آنها برای هر مدل، دستورالعملهای مشخصی منتشر میکنند تا رفتار AI از آن منحرف نشود؛ کاری شبیه به آنچه شرکت Anthropic با مفهوم «قانون اساسی» انجام داده است.
او افزود:
«ما باید به سمتی برویم که AI باز، اما یکپارچه و وفادار به جامعه انسانی باشد.»
Sentient همچنین در همکاری با EigenLayer، پژوهشی در مورد توانایی AI در تحلیل حقوقی و قوانین حاکمیتی انجام داده که نشان داد حتی مدلهای پیشرفته کنونی در استدلال پیچیده دچار ضعف هستند.
با این حال، همچنان تخمین زده میشود که فقط ۳٪ از بودجه سرمایهگذاری خطرپذیر (VC) صرف ایمنسازی و همراستایی AI میشود.
وقتی تنها چیزی که باقی میماند، انسانیت است
از تیاقی پرسیدم پایان این مسیر چیست؟ نگران شدم که شغلها حذف شوند یا حتی بشریت نابود شود. او پاسخ داد:
«این یک سؤال فلسفی است. بستگی دارد شما پیشرفت بشر را چگونه تعریف کنید.»
او AI را مانند اینترنت میبیند: مشاغلی را نابود میکند، ولی مشاغل جدیدی ایجاد میکند.
«انسان موجودی با قدرت اراده بالاست. شغلهای جدید پیدا خواهد کرد، و ارزش از AI منتقل نمیشود. بنابراین نگران نیستم.»
کولی هم پذیرفت که شکاف بین افرادی که از AI بهره میبرند و آنهایی که این کار را نمیکنند، زیادتر خواهد شد:
«در سه سال آینده، خیلیها میفهمند که شغلشان از بین رفته. اما آن زمان برای استفاده از AI خیلی دیر است.»
او به من گفت:
«در صنعت شما که حول نوشتن است، تنها چیزی که روزنامهنگاران دارند، ارتباط انسانی است.»
با وجود اینکه نمیخواهم لودایت (ضد تکنولوژی) باشم، ولی وقتی روزانه با خطر بیمصرف شدنم روبهرو میشوم و تنها چیزی که برایم باقی مانده، انسانبودن است، سخت است به آینده AI خوشبین باشم.
روسیۀ رولت بشری: بعد چه میشود؟
تنها چیزی که قطعیت دارد این است که سالهای آینده تغییرات عظیمی به همراه دارد، اما هیچکس نمیداند دقیقاً چه تغییراتی.
جیفری هینتون، پدرخوانده هوش مصنوعی، که از گوگل استعفا داد تا درباره خطرات AI هشدار دهد، میگوید:
«AI مثل بچه ببر است؛ بامزه و دوستداشتنی. اما اگر زمانی بخواهد تو را بکشد، در چند ثانیه این کار را میکند.»
سم آلتمن هم گفته:
«سناریوی خوب آنقدر عالی است که وقتی دربارهاش صحبت میکنی، دیوانه به نظر میرسی. اما سناریوی بد… خاموشی کامل برای همه ماست.»
و تیاقی؟ وقتی پرسیدم چه فکر میکند، ابرو در هم کشید:
«AI باید وفادار به انسان و جامعه باشد، ولی این یک مسئله مهندسی است.»
با تعجب گفتم: مهندسی؟ ما درباره یک باگ نرمافزاری حرف نمیزنیم، این آینده بشریته! گفت:
«ما باید AI را با تمام اصول امنیتی، در تمام سطوح — نرمافزار، مدل، پرامپت — مهندسی کنیم. نگران نیستم. مهم است، اما شدنی است…»
سپس مکث کرد و پرسید نظر من درباره تأثیر شبکههای اجتماعی بر کودکان چیست. گفت:
«به نظر من هر چیزی مثل AI یا فضا، آغازگر دورهای طلایی برای آینده است. من به آینده طلایی بیشتر از گذشته طلایی ایمان دارم.»
من قدردان خوشبینیاش هستم، اما هنوز شک دارم. در جهانی که یا مایکروسافت همهچیز را کنترل کند، یا کره شمالی ما را برده کند، یا یک AI غیرقابلکنترل ما را از بین ببرد، تنها چیزی که مطمئنم این است که این گفتوگو باید در فضای باز انجام شود، نه در پشت درهای بسته یا در کدهای بسته.
همانطور که هینتون گفت:
«واقعاً دیوانگی است اگر انسانها به این خاطر منقرض شوند که حوصله نکردند تلاشی بکنند.»
ثبت نظر