بیاید با یه مثال غیرسیاسی از پروپاگاندا شروع کنیم تا بهتر بفهمیم اصلا پروپاگاندا چطور کار میکنه.
احتمالا شنیدید که میگن «هر بار استفاده از ChatGPT معادل مصرف یه بطری آب هست». این ادعا نادرسته، اما سوال مهمتر اینه که از کجا اومده؟
اگه ادعا رو باز کنیم، زنجیرهی استدلالش معمولاً این شکلیه: استفاده از LLM نیاز به GPU داره، GPU در مقیاس بالا گرما تولید میکنه، برای خنکسازی از آب استفاده میشه، پس استفاده از مدل باعث مصرف آب میشه.
مشکل اینجاست که این زنجیره، چند واقعیت کلیدی رو نادیده میگیره. برای اکثر LLMها، در زمان inference (یعنی زمانی که مدل استفاده میشه، نه آموزش داده میشه)، هزینهی محاسباتی بسیار پایینه و گرمای قابلتوجهی هم تولید نمیشه. مصرف انرژی و آب اصلی مربوط به فاز آموزش و زیرساختهای دیتاسنتریه، نه هر بار پرسیدن یه سوال.
پروپاگاندا دقیقا همینجا کار میکنه: با وصل کردن چند گزارهی «درست ولی ناقص»، یه نتیجهی ساده، شوکهکننده و غلط ساخته میشه که بهراحتی تو ذهن میمونه.
اما این پروپاگاندا چطور پخش شد و چه کاربردی داشت؟
یکی از اولین افرادی که بهطور غیرمستقیم به این ایده دامن زد، سم آلتمن بود؛ جایی که گفت «مودب بودن با مدلها هزینه رو بالا میبره». این جمله زیاد نقل شد، اما معمولا بدون توضیح زمینهاش.
چرا آلتمن چنین حرفی زد؟
از دید آلتمن (و هر کسی که مدل زبانی در مقیاس بزرگ اجرا میکنه)، هر توکن ورودی هزینه داره. این هزینه از اینجا میاد که برای هر فراخوانی LLM باید محاسباتی روی GPU انجام بشه: ضرب ماتریسها، دسترسی به حافظه، و در نهایت مصرف انرژی. پس وقتی شما بهجای «جواب بده» مینویسید «لطفا اگر ممکنه با جزئیات جواب بدی، ممنون»، تعداد توکنها بیشتر میشه و در نتیجه هزینهی inference کمی بالا میره.
اما این «کمی» دقیقا همون جاییه که روایت منحرف میشه.
افزایش هزینهی ناشی از چند توکن اضافه، در مقیاس هر درخواست ناچیزه. این حرف آلتمن نه دربارهی بحران آب بود، نه دربارهی فاجعهی زیستمحیطی؛ بلکه دربارهی هزینهی عملیاتی در مقیاس بسیار بزرگ برای شرکتی بود که روزانه صدها میلیون درخواست پردازش میکنه.
پروپاگاندا اینجا شکل میگیره: یه دغدغهی واقعی داخلی کسبوکار («هزینهی توکن در مقیاس») تبدیل میشه به یه ادعای اخلاقی بیرونی («کاربرها دارن آب زمین رو هدر میدن»).
کاربردش چیه؟
انتقال مسئولیت از زیرساخت و طراحی سیستم به رفتار فردی کاربر
ایجاد حس گناه شخصی بهجای بحث ساختاری
سادهسازی یک سیستم پیچیده به یک جملهی ویروسی و ترسناک
در نهایت، این روایت بیشتر از اینکه دربارهی آب یا محیطزیست باشه، دربارهی کنترل روایته: اینکه چه کسی مقصر دیده میشه، و چه کسی از زیر سوال رفتن معاف میمونه.
این ادعا و روایتهای مشابه، بهمرور باعث شد خیلیها به این نتیجه برسن که «هر استفادهای از AI ذاتا غیراخلاقیه»، چون به گرم شدن زمین کمک میکنه. نکتهی جالب اینه که همین منطق تقریبا هیچوقت برای بازی کردن به کار نمیره، در حالی که شرایط از نظر فنی بسیار شبیهه.
برای یادآوری:
در بازیهای پیچیده، فرایند رندرینگ - چه در زمان ساخت بازی (بهویژه cutsceneها) و چه در زمان اجرا - بهشدت از GPU استفاده میکنه و مصرف انرژی بالایی داره.
این محاسبات دقیقا همون نوع محاسبات عددی سنگینی هستن که در inference مدلهای زبانی هم انجام میشن.
تنها تفاوت اصلی اینه که این مصرف انرژی در بازیها معمولاً توی خونهها اتفاق میافته، نه توی دیتاسنترها.
و همین تفاوت ظاهرا کافیه تا قضاوت اخلاقی عوض بشه. مصرف برق وقتی متمرکز، قابل اندازهگیری و به یک «شرکت» نسبت داده میشه، تبدیل به مسئلهی اخلاقی میشه؛ اما وقتی همون مصرف بهصورت پراکنده و شخصی اتفاق میافته، بهعنوان «تفریح» دیده میشه.
در واقع مسئله نه AIه، نه GPU، نه حتی انرژی؛ مسئله اینه که کجا مصرف دیده میشه و به چه کسی نسبت داده میشه.
واقعیت اینه که ایجاد حس گناه دربارهی «هزینه» باعث نمیشه مردم از AI استفاده نکنن؛ فقط باعث میشه کمتر ازش استفاده کنن، کوتاهتر بنویسن، و توکن کمتری مصرف کنن. نتیجهی نهایی هم جالبه: هزینهی فردی کاربر تغییری نمیکنه (قیمت اشتراک همونه)، اما هزینهی عملیاتی شرکتها پایین میاد.
پس این روایت عملا به نفع کی تموم میشه؟
اما سؤال مهمتر اینه: چی شد که این ادعا انقدر فراگیر شد؟
نکتهی کلیدی اینه که پخشکنندههای اصلی این روایت، نه حامیان AI، بلکه اتفاقا مخالفانش بودن. از دید اونها، لازم نبود ادعا کاملا دقیق باشه؛ «نهچندان غلط بودن» و همسو بودن با باور قبلیشون کافی بود. جملهای از آلتمن، که در زمینهی هزینهی توکن و مقیاس گفته شده بود، تبدیل شد به یک مرجع اخلاقی.
آدمهایی که از این صنعت بدشون میاومد، شروع کردن به ارجاع دادن به همون حرف. بعد، با بزرگنمایی تدریجی و حذف جزئیات فنی، روایت کمکم اینطوری جا افتاد که «هر استفاده از AI معادل مصرف یک بطری آبه». در حالی که حتی اگر مصرف آب رو در نظر بگیریم، بخش عمدهی اون مربوط به مرحلهی آموزش (training) و زیرساختهای دیتاسنتریه، نه inference و هر بار استفادهی کاربر. چیزی که اتفاقا باعث تمسخر کسایی که دید فنی به قضیه دارن هم میشه و کل حرکت حفاظت از طبیعت - که به خودی خود اشتباه نیست - رو بیشتر زیر سوال میبره.
این دقیقا همون مکانیسم کلاسیک پروپاگانداست: یه گزارهی محدود و زمینهدار، از دست صاحبش خارج میشه، ساده میشه، اخلاقی میشه، و در نهایت به یک «حقیقت بدیهی» تبدیل میشه - بیاینکه کسی دیگه بپرسه: دقیقا کی، کجا، و در چه مقیاسی؟
میدونم مخاطب من میتونه این طرز فکر رو بسط بده به مسائل سیاسی اطرافش.
مرسی که خوندید.