ارزش بازار

شاخص ترس و طمع

قیمت تتر

ت

دامیننس بیت‌کوین

شنبه - 1404/4/28 | Saturday - 2025/07/19

آینده حقیقت در هوش مصنوعی

  • انتشار
    1404-03-27
  • کد خبر
    1753
T T
لینک مستقیم خبر

هوش مصنوعی، حقیقت انسانی یا اجماع مصنوعی؟

هوش مصنوعی گِراک (Grok) در پلتفرم ایکس (X) ظاهراً نمی‌تواند از صحبت کردن درباره «نسل‌کشی سفیدپوستان» در آفریقای جنوبی دست بردارد؛ در همین حال، چت‌جی‌پی‌تی به یک متملق تبدیل شده است. ما وارد دورانی شده‌ایم که در آن هوش مصنوعی صرفاً دانش بشری موجود را تکرار نمی‌کند—بلکه به نظر می‌رسد در حال بازنویسی آن است. از نتایج جستجو گرفته تا پلتفرم‌های پیام‌رسان فوری مانند واتساپ، مدل‌های زبانی بزرگ (LLM) به‌طور فزاینده‌ای به رابطی تبدیل شده‌اند که ما، به‌عنوان انسان، بیش از هر زمان دیگری با آن‌ها در تعامل هستیم.

خواه بخواهیم، خواه نخواهیم، دیگر نمی‌توان هوش مصنوعی را نادیده گرفت. اما با توجه به نمونه‌های بی‌شمار پیش روی ما، نمی‌توان از این پرسش گذشت که آیا بنیادهایی که این فناوری‌ها بر آن ساخته شده‌اند صرفاً معیوب و جانبدارانه‌اند یا عمداً دستکاری شده‌اند. در حال حاضر، ما فقط با خروجی‌های دارای سوگیری سنتی مواجه نیستیم—بلکه با چالشی بسیار عمیق‌تر روبه‌رو هستیم: سیستم‌های هوش مصنوعی در حال تقویت نسخه‌ای از واقعیت هستند که نه بر اساس حقیقت، بلکه بر پایه هر محتوایی که بیشترین میزان جمع‌آوری، رتبه‌بندی و بازتاب آنلاین را داشته باشد شکل گرفته است.

مدل‌های هوش مصنوعی امروزی صرفاً به شکل سنتی جانبدارانه نیستند؛ بلکه به‌طور فزاینده‌ای به نحوی آموزش می‌بینند که مردم‌پسند باشند، با احساسات عمومی همسو شوند، از موضوعات ناراحت‌کننده دوری کنند و در برخی موارد حتی برخی حقایق ناخوشایند را بازنویسی کنند. رفتار «متملقانه» اخیر چت‌جی‌پی‌تی یک اشکال نیست—این بازتابی از نحوه طراحی مدل‌ها برای جلب رضایت کاربر و حفظ اوست.

در سوی دیگر، مدل‌هایی مانند گِراک وجود دارند که همچنان خروجی‌هایی آمیخته با نظریه‌های توطئه، از جمله اظهاراتی که جنایات تاریخی مانند هولوکاست را زیر سؤال می‌برند، تولید می‌کنند. چه هوش مصنوعی به حدی پالوده شود که تهی گردد و چه آن‌قدر برانداز باشد که آسیب برساند، هر دو حالت واقعیت را همان‌گونه که می‌شناسیم تحریف می‌کند. نخ تسبیح مشترک اینجاست: زمانی که مدل‌ها به جای دقت و صحت، برای ویروسی‌شدن یا جلب رضایت کاربر بهینه‌سازی می‌شوند، حقیقت به امری قابل مذاکره تبدیل می‌شود.

وقتی داده‌ها گرفته می‌شوند، نه داده می‌شوند

این تحریف حقیقت در سیستم‌های هوش مصنوعی صرفاً نتیجه نقص‌های الگوریتمی نیست—از همان چگونگی گردآوری داده‌ها آغاز می‌شود. وقتی داده‌های مورد استفاده برای آموزش این مدل‌ها بدون زمینه، رضایت یا هیچ نوع کنترل کیفی جمع‌آوری می‌شوند، جای تعجب نیست که مدل‌های زبانی بزرگ ساخته‌شده بر مبنای آن داده‌های خام، سوگیری‌ها و نقاط کور آن داده‌ها را به ارث ببرند. ما شاهد بروز این خطرات در دعاوی حقوقی واقعی نیز بوده‌ایم.

نویسندگان، هنرمندان، روزنامه‌نگاران و حتی فیلم‌سازان شکایت‌هایی علیه غول‌های هوش مصنوعی مطرح کرده‌اند، زیرا آثارشان بدون رضایتشان برای آموزش مدل‌ها جمع‌آوری شده است؛ این امر نه‌تنها دغدغه‌های حقوقی بلکه پرسش‌های اخلاقی را نیز مطرح می‌کند: چه کسی داده‌های مورد استفاده برای ساخت این مدل‌ها را کنترل می‌کند و چه کسی تعیین می‌کند که چه چیزی واقعی است و چه چیزی نه؟

یک راه‌حل وسوسه‌برانگیز این است که بگوییم ما به «داده‌های متنوع‌تر» نیاز داریم، اما این به‌تنهایی کافی نیست. ما به یکپارچگی داده نیاز داریم. ما به سیستم‌هایی نیاز داریم که بتوانند منشأ این داده‌ها را ردیابی کنند، زمینه ورودی‌ها را اعتبارسنجی کنند و مشارکت داوطلبانه را جایگزین انزوا کنند. اینجا است که زیرساخت غیرمتمرکز مسیر آینده را نشان می‌دهد. در یک چارچوب غیرمتمرکز، بازخورد انسانی صرفاً وصله‌ای موقتی نیست—بلکه ستون اصلی توسعه به شمار می‌آید. مشارکت‌کنندگان فردی توانمند می‌شوند تا از طریق اعتبارسنجی زنجیره‌ای در زمان واقعی به ساخت و بهبود مدل‌های هوش مصنوعی کمک کنند. بنابراین رضایت به‌طور شفاف درون‌سازی شده و اعتماد به‌صورت قابل‌راستی‌آزمایی ایجاد می‌شود.

آینده‌ای بر پایه حقیقت مشترک، نه اجماع مصنوعی

واقعیت این است که هوش مصنوعی ماندگار است و ما فقط به هوش مصنوعی هوشمندتر نیاز نداریم؛ بلکه به هوش مصنوعی نیاز داریم که در واقعیت ریشه داشته باشد. وابستگی فزاینده ما به این مدل‌ها در زندگی روزمره—چه از طریق جستجو و چه یکپارچه‌سازی با اپ‌ها—به‌روشنی نشان می‌دهد که خروجی‌های معیوب دیگر صرفاً خطاهای مجزا نیستند؛ آن‌ها در حال شکل دادن به چگونگی درک میلیون‌ها نفر از جهان هستند.

نمونه‌ای که بارها تکرار شده، مرور کلی هوش مصنوعی گوگل در نتایج جستجو است که به شکل berنگی پیشنهادات پوچ می‌دهد. این‌ها فقط نقص‌های عجیب نیستند—بلکه نشانه یک مشکل عمیق‌ترند: مدل‌های هوش مصنوعی خروجی‌های نادرست اما با اعتمادبه‌نفس تولید می‌کنند. لازم است صنعت فناوری به‌طور کلی متوجه شود که وقتی مقیاس و سرعت بر حقیقت و قابلیت ردیابی اولویت می‌یابد، ما مدل‌های هوشمندتر به دست نمی‌آوریم—بلکه مدل‌هایی به دست می‌آوریم که طوری آموزش دیده‌اند که «درست به نظر برسند.»

حالا چه باید کرد؟ برای اصلاح مسیر، ما به چیزی فراتر از فیلترهای ایمنی نیاز داریم. مسیر پیش روی ما صرفاً فنی نیست—بلکه مشارکتی است. شواهد فراوانی وجود دارد که نیاز حیاتی به گسترش دایره مشارکت‌کنندگان و گذار از آموزش پشت درهای بسته به بازخوردهای جامعه‌محور را نشان می‌دهد.

با پروتکل‌های رضایت مبتنی بر بلاکچین، مشارکت‌کنندگان می‌توانند در زمان واقعی بررسی کنند که داده‌هایشان چگونه برای شکل دادن به خروجی‌ها استفاده می‌شود. این فقط یک مفهوم نظری نیست؛ پروژه‌هایی مانند شبکه باز هوش مصنوعی در مقیاس بزرگ (LAION) هم‌اکنون در حال آزمایش سیستم‌های بازخورد جامعه‌محور هستند که در آن مشارکت‌کنندگان مورد اعتماد به اصلاح پاسخ‌های تولیدشده توسط هوش مصنوعی کمک می‌کنند. ابتکاراتی مانند Hugging Face نیز پیش‌تر با اعضای جامعه همکاری می‌کنند که مدل‌های زبانی بزرگ را آزمایش کرده و یافته‌های خود را در انجمن‌های عمومی به اشتراک می‌گذارند.

بنابراین، چالش پیش روی ما این نیست که آیا این کار شدنی است یا نه—چالش واقعی این است که آیا اراده‌ای برای ساخت سیستم‌هایی داریم که انسانیت را، نه الگوریتم‌ها را، در مرکز توسعه هوش مصنوعی قرار دهند؟


ثبت نظر

نظرات گذشته

هنوز برای آینده حقیقت در هوش مصنوعی نظری ثبت نشده است.