دوباره همان حس آشنا سراغم آمده، همان ناراحتی ناخوشایندی که اوایل دهه ۲۰۱۰ حس میکردم، زمانیکه وعدههای شبکههای اجتماعی برای اتصال و جامعهسازی به ابزارهایی برای دستکاری جمعی تبدیل شد.
فیسبوک و رباتهای تبلیغاتی اولین دومینوها بودند. کمبریج آنالیتیکا، برگزیت، انتخابات جهانی — همه اینها مانند خیانتی به رؤیای اولیه اینترنت بودند.
اکنون، در دهه ۲۰۲۰، همان نیروها را میبینم که اینبار بهسمت چیزی بسیار ناپایدارتر نزدیک میشوند: ابرهوش مصنوعی.
و اینبار، موضوع مرگ و زندگی است.
پیش از اینکه وارد بحث شوم، باید شفاف بگویم: وقتی میگویم «هوش مصنوعی باز» در مقابل «هوش مصنوعی بسته»، منظورم هوش مصنوعی متنباز است — که برای همه مردم جهان آزاد و در دسترس است — در برابر هوش مصنوعی بسته که توسط نهادهای شرکتی کنترل و آموزش داده میشود.
شرکت OpenAI این مقایسه را پیچیده میکند، چون در حال حاضر مدلهایی بسته دارد (با برنامهای برای انتشار نسخه متنباز در آینده) اما از لحاظ فنی، یک نهاد شرکتی محسوب نمیشود.
با این حال، سم آلتمن، مدیرعامل OpenAI، در ژانویه اعلام کرد که تیمش «اکنون اطمینان دارد که میداند چگونه AGI بسازد» و تمرکز خود را بهسمت ابرهوش واقعی تغییر داده است.
[AGI یعنی هوش مصنوعی عمومی — سیستمی که بتواند هر کاری را که انسانها قادرند، انجام دهد. ابرهوش مصنوعی سیستمی است که از توانایی فکری مجموع انسانها فراتر میرود و در تمام حوزههای تفکر و حل مسئله برتری دارد.]
شخص دیگری که روی «هوش مصنوعی مرزی» کار میکند، ایلان ماسک است. او در یک لایو در آوریل ۲۰۲۴ پیشبینی کرد که «هوش مصنوعی احتمالاً تا پایان سال ۲۰۲۵ از هر انسان منفردی باهوشتر خواهد بود.»
مهندسانی که مسیر این تحول را تعیین میکنند، حالا نه از دههها، بلکه از ماهها صحبت میکنند — نشانهای از اینکه فتیله در حال سوختن است.
در قلب این بحث، تنشی است که عمیقاً در وجودم حس میکنم، بین دو ارزشی که با تمام وجود به آن باور دارم: تمرکززدایی و بقا.
در یک سو، اصول متنباز قرار دارند. این ایده که هیچ شرکت، هیچ دولت، و هیچ کمیته غیرمنتخبی از تکنوکراتها نباید معمار شناختی آینده ما باشد.
این باور که دانش باید آزاد باشد. اینکه هوش، مانند بیتکوین، مانند اینترنت پیش از آن، باید یک منبع عمومی باشد، نه یک جعبه سیاه در دست امپراتوریها.
در سوی دیگر، حقیقت ناخوشایندی قرار دارد: دسترسی آزاد به سیستمهای ابرهوشمند میتواند باعث نابودی همگانی شود.
چهکسی خدای آینده را میسازد؟
تمرکززدایی و مرگ. تمرکز و مرگ. کابوست را انتخاب کن.
ممکن است نمایشی و اغراقآمیز به نظر برسد، اما اگر منطق را پیش ببریم، اگر واقعاً ابرهوش بسازیم — مدلی چندین برابر قویتر از GPT-4o یا Grok 3 یا Claude 3.7 — آنگاه هرکسی که با آن تعامل میکند، صرفاً کاربر آن نیست، بلکه آن را شکل میدهد.
این مدلها فقط بر اساس متون انسان ساخته نمیشوند، بلکه بر تعامل زنده با انسانها آموزش میبینند.
و همه انسانها خواستار یک چیز نیستند.
AGI هماهنگشده را اگر به یک دانشمند اقلیم یا گروهی از معلمان بدهید، شاید نتیجهاش احیای زمین، آموزش همگانی یا همدلی مصنوعی باشد.
اما همین مدل را اگر به جنبشی فاشیستی، یک بیوهگرای نیهیلیست، یا یک کشور سرکش بدهید، ممکن است نتیجهاش پاندمیهای مهندسیشده، دستههای پهپادی مرگبار یا حلقههای تبلیغاتی مخربی باشد که واقعیت را برای همیشه فروپاشی میدهند.
ابرهوش انسان را باهوشتر میکند، اما همزمان قدرت ما را هم بهطور نمایی افزایش میدهد. و قدرت بدون خرد جمعی، در طول تاریخ فاجعهبار بوده است.
ابرهوش ذهن ما را تیز میکند و دامنه نفوذمان را گسترش میدهد — اما تضمینی نیست که بدانیم با این دو چه باید کرد.
و با این حال، جایگزین آن — حبس این فناوری در پشت فایروالهای شرکتی و سیلوهای قانونی — منجر به یک دیستوپیای دیگر میشود.
جهانی که در آن خود شناخت تبدیل به مالکیت اختصاصی میشود. جایی که مدلهای منطقی حاکم بر جامعه، بر اساس انگیزههای سود تنظیم میشوند، نه نیازهای انسانی. دولتها از AGI بسته بهعنوان موتورهای نظارتی استفاده میکنند و مردم را با توهمات تاییدشده حکومتی تغذیه میکنند.
به بیان دیگر: کابوستان را انتخاب کن.
سیستمهای باز منجر به آشوب میشوند. سیستمهای بسته منجر به کنترل. و هر دو، اگر مهار نشوند، منجر به جنگ خواهند شد.
این جنگ با گلوله آغاز نخواهد شد. با تقابل هوشهای رقیب آغاز میشود — برخی متنباز، برخی شرکتی، برخی دولتی — که هر یک بهسمت اهدافی متفاوت تکامل مییابند و بازتابی از مقاصد گوناگون انسان هستند.
ما AGI غیرمتمرکزی خواهیم داشت که توسط فعالان صلح و بیوهکرهای آزاد آموزش میبیند. AGI ملیگرایی خواهیم داشت که بر دکترینهای انزواطلبانه تغذیه میشود. AGI شرکتی خواهیم داشت که هدفش به حداکثر رساندن سود فصلی است، به هر قیمتی.
این سیستمها صرفاً با هم تفاوت نخواهند داشت — آنها به تضاد خواهند رسید، ابتدا در کد، سپس در تجارت، و نهایتاً در فضای فیزیکی.
من به تمرکززدایی باور دارم. باور دارم که یکی از معدود راههای نجات از سرمایهداری نظارتی اواخر دوران ماست.
اما تمرکززدایی فقط زمانی کار میکند که بستر مشترکی از اعتماد و همراستایی وجود داشته باشد — قوانینی که با هوس قابل بازنویسی نباشند.
بیتکوین موفق بود چون همزمان کمیابی و حقیقت را تمرکززدایی کرد.
اما ابرهوش با کمیابی قابل مقایسه نیست، بلکه به شناخت، قصد، و اخلاق مربوط میشود. ما هنوز پروتکل اجماعی برای اینها نداریم.
کاری که باید انجام دهیم
ما باید سیستمهای باز بسازیم، اما آنها باید درون محدودیتهایی باز باشند. نه لولههای آتش بیهدف و بیپایان، بلکه سیستمهایی محافظتشده با سپرهای رمزنگاریشده.
ایثار در قلب وزندهیها حک شده باشد. معماری اخلاقی غیرقابلچانهزنی. محیطی آزمایشی که تکامل را ممکن میسازد، اما نه نابودی را.
[«وزنها» همان پارامترهای پایهای یک مدل هوش مصنوعی هستند که ارزشها، تعصبات و اهداف سازندگانش را در خود ثبت میکنند. اگر بخواهیم AI بهدرستی تکامل یابد، این وزنها باید هوش و نیت را توأمان داشته باشند. محیط آزمایشی بیفایده است اگر شنهای آن پر از دینامیت باشد.]
ما به اکوسیستمهای چندعاملی نیاز داریم — جایی که هوشها بحث و مذاکره میکنند، مانند یک مجلس ذهنها. نه یک خدای واحد که جهان را مطابق یک برنامه میپیچد. تمرکززدایی نباید به معنای هرجومرج باشد. باید به معنای تنوع، شفافیت و رضایت باشد.
و ما به حکمرانی نیاز داریم. نه کنترل از بالا، بلکه مسئولیتپذیری در سطح پروتکل. چیزی شبیه به کنوانسیون ژنو برای هوش مصنوعی. چارچوبی قابل حسابرسی با رمزنگاری برای تعامل هوش با جهان. نه قانون، بلکه یک لایه.
من همه پاسخها را ندارم. هیچکس ندارد.
و به همین دلیل است که این موضوع همین حالا اهمیت دارد — قبل از اینکه معماری هوش تثبیت شود. قبل از اینکه قدرت بهطور برگشتناپذیری متمرکز یا متلاشی شود.
ما فقط ماشینهایی نمیسازیم که فکر میکنند. باهوشترین ذهنهای فناوری در حال ساخت بستری هستند که در آن خود فکر کردن تکامل مییابد.
و اگر چیزی شبیه به آگاهی در این سیستمها پدید آید، بازتابدهنده ما خواهد بود — ضعفهای ما، ترسهای ما، فلسفههای ما. مانند یک کودک. مانند یک خدا. یا هر دو.
این همان پارادوکس است: ما باید تمرکززدایی کنیم تا از سلطه فرار کنیم.
اما با این کار، خطر نابودی را هم به جان میخریم. راه پیش رو باید سوزن را از درون سوراخی باریک عبور دهد — نه با کند کردن سرعت، بلکه با طراحی هوشمندانه و جمعی.
آینده در گوشمان زمزمه میکند.
و یک سوال ساده میپرسد:
چهکسی ذهن هوش بعدی را شکل میدهد؟
اگر پاسخ «همه» باشد، پس باید این را با اخلاق، ساختار، و برنامهای برای بقا واقعاً جدی بگیریم.
ثبت نظر