هوش مصنوعی گِراک (Grok) در پلتفرم ایکس (X) ظاهراً نمیتواند از صحبت کردن درباره «نسلکشی سفیدپوستان» در آفریقای جنوبی دست بردارد؛ در همین حال، چتجیپیتی به یک متملق تبدیل شده است. ما وارد دورانی شدهایم که در آن هوش مصنوعی صرفاً دانش بشری موجود را تکرار نمیکند—بلکه به نظر میرسد در حال بازنویسی آن است. از نتایج جستجو گرفته تا پلتفرمهای پیامرسان فوری مانند واتساپ، مدلهای زبانی بزرگ (LLM) بهطور فزایندهای به رابطی تبدیل شدهاند که ما، بهعنوان انسان، بیش از هر زمان دیگری با آنها در تعامل هستیم.
خواه بخواهیم، خواه نخواهیم، دیگر نمیتوان هوش مصنوعی را نادیده گرفت. اما با توجه به نمونههای بیشمار پیش روی ما، نمیتوان از این پرسش گذشت که آیا بنیادهایی که این فناوریها بر آن ساخته شدهاند صرفاً معیوب و جانبدارانهاند یا عمداً دستکاری شدهاند. در حال حاضر، ما فقط با خروجیهای دارای سوگیری سنتی مواجه نیستیم—بلکه با چالشی بسیار عمیقتر روبهرو هستیم: سیستمهای هوش مصنوعی در حال تقویت نسخهای از واقعیت هستند که نه بر اساس حقیقت، بلکه بر پایه هر محتوایی که بیشترین میزان جمعآوری، رتبهبندی و بازتاب آنلاین را داشته باشد شکل گرفته است.
مدلهای هوش مصنوعی امروزی صرفاً به شکل سنتی جانبدارانه نیستند؛ بلکه بهطور فزایندهای به نحوی آموزش میبینند که مردمپسند باشند، با احساسات عمومی همسو شوند، از موضوعات ناراحتکننده دوری کنند و در برخی موارد حتی برخی حقایق ناخوشایند را بازنویسی کنند. رفتار «متملقانه» اخیر چتجیپیتی یک اشکال نیست—این بازتابی از نحوه طراحی مدلها برای جلب رضایت کاربر و حفظ اوست.
در سوی دیگر، مدلهایی مانند گِراک وجود دارند که همچنان خروجیهایی آمیخته با نظریههای توطئه، از جمله اظهاراتی که جنایات تاریخی مانند هولوکاست را زیر سؤال میبرند، تولید میکنند. چه هوش مصنوعی به حدی پالوده شود که تهی گردد و چه آنقدر برانداز باشد که آسیب برساند، هر دو حالت واقعیت را همانگونه که میشناسیم تحریف میکند. نخ تسبیح مشترک اینجاست: زمانی که مدلها به جای دقت و صحت، برای ویروسیشدن یا جلب رضایت کاربر بهینهسازی میشوند، حقیقت به امری قابل مذاکره تبدیل میشود.
وقتی دادهها گرفته میشوند، نه داده میشوند
این تحریف حقیقت در سیستمهای هوش مصنوعی صرفاً نتیجه نقصهای الگوریتمی نیست—از همان چگونگی گردآوری دادهها آغاز میشود. وقتی دادههای مورد استفاده برای آموزش این مدلها بدون زمینه، رضایت یا هیچ نوع کنترل کیفی جمعآوری میشوند، جای تعجب نیست که مدلهای زبانی بزرگ ساختهشده بر مبنای آن دادههای خام، سوگیریها و نقاط کور آن دادهها را به ارث ببرند. ما شاهد بروز این خطرات در دعاوی حقوقی واقعی نیز بودهایم.
نویسندگان، هنرمندان، روزنامهنگاران و حتی فیلمسازان شکایتهایی علیه غولهای هوش مصنوعی مطرح کردهاند، زیرا آثارشان بدون رضایتشان برای آموزش مدلها جمعآوری شده است؛ این امر نهتنها دغدغههای حقوقی بلکه پرسشهای اخلاقی را نیز مطرح میکند: چه کسی دادههای مورد استفاده برای ساخت این مدلها را کنترل میکند و چه کسی تعیین میکند که چه چیزی واقعی است و چه چیزی نه؟
یک راهحل وسوسهبرانگیز این است که بگوییم ما به «دادههای متنوعتر» نیاز داریم، اما این بهتنهایی کافی نیست. ما به یکپارچگی داده نیاز داریم. ما به سیستمهایی نیاز داریم که بتوانند منشأ این دادهها را ردیابی کنند، زمینه ورودیها را اعتبارسنجی کنند و مشارکت داوطلبانه را جایگزین انزوا کنند. اینجا است که زیرساخت غیرمتمرکز مسیر آینده را نشان میدهد. در یک چارچوب غیرمتمرکز، بازخورد انسانی صرفاً وصلهای موقتی نیست—بلکه ستون اصلی توسعه به شمار میآید. مشارکتکنندگان فردی توانمند میشوند تا از طریق اعتبارسنجی زنجیرهای در زمان واقعی به ساخت و بهبود مدلهای هوش مصنوعی کمک کنند. بنابراین رضایت بهطور شفاف درونسازی شده و اعتماد بهصورت قابلراستیآزمایی ایجاد میشود.
آیندهای بر پایه حقیقت مشترک، نه اجماع مصنوعی
واقعیت این است که هوش مصنوعی ماندگار است و ما فقط به هوش مصنوعی هوشمندتر نیاز نداریم؛ بلکه به هوش مصنوعی نیاز داریم که در واقعیت ریشه داشته باشد. وابستگی فزاینده ما به این مدلها در زندگی روزمره—چه از طریق جستجو و چه یکپارچهسازی با اپها—بهروشنی نشان میدهد که خروجیهای معیوب دیگر صرفاً خطاهای مجزا نیستند؛ آنها در حال شکل دادن به چگونگی درک میلیونها نفر از جهان هستند.
نمونهای که بارها تکرار شده، مرور کلی هوش مصنوعی گوگل در نتایج جستجو است که به شکل berنگی پیشنهادات پوچ میدهد. اینها فقط نقصهای عجیب نیستند—بلکه نشانه یک مشکل عمیقترند: مدلهای هوش مصنوعی خروجیهای نادرست اما با اعتمادبهنفس تولید میکنند. لازم است صنعت فناوری بهطور کلی متوجه شود که وقتی مقیاس و سرعت بر حقیقت و قابلیت ردیابی اولویت مییابد، ما مدلهای هوشمندتر به دست نمیآوریم—بلکه مدلهایی به دست میآوریم که طوری آموزش دیدهاند که «درست به نظر برسند.»
حالا چه باید کرد؟ برای اصلاح مسیر، ما به چیزی فراتر از فیلترهای ایمنی نیاز داریم. مسیر پیش روی ما صرفاً فنی نیست—بلکه مشارکتی است. شواهد فراوانی وجود دارد که نیاز حیاتی به گسترش دایره مشارکتکنندگان و گذار از آموزش پشت درهای بسته به بازخوردهای جامعهمحور را نشان میدهد.
با پروتکلهای رضایت مبتنی بر بلاکچین، مشارکتکنندگان میتوانند در زمان واقعی بررسی کنند که دادههایشان چگونه برای شکل دادن به خروجیها استفاده میشود. این فقط یک مفهوم نظری نیست؛ پروژههایی مانند شبکه باز هوش مصنوعی در مقیاس بزرگ (LAION) هماکنون در حال آزمایش سیستمهای بازخورد جامعهمحور هستند که در آن مشارکتکنندگان مورد اعتماد به اصلاح پاسخهای تولیدشده توسط هوش مصنوعی کمک میکنند. ابتکاراتی مانند Hugging Face نیز پیشتر با اعضای جامعه همکاری میکنند که مدلهای زبانی بزرگ را آزمایش کرده و یافتههای خود را در انجمنهای عمومی به اشتراک میگذارند.
بنابراین، چالش پیش روی ما این نیست که آیا این کار شدنی است یا نه—چالش واقعی این است که آیا ارادهای برای ساخت سیستمهایی داریم که انسانیت را، نه الگوریتمها را، در مرکز توسعه هوش مصنوعی قرار دهند؟
ثبت نظر