پروپاگاندا چطور کار می‌کنه

January 26, 2026

بیاید با یه مثال غیرسیاسی از پروپاگاندا شروع کنیم تا بهتر بفهمیم اصلا پروپاگاندا چطور کار می‌کنه.

احتمالا شنیدید که می‌گن «هر بار استفاده از ChatGPT معادل مصرف یه بطری آب هست». این ادعا نادرسته، اما سوال مهم‌تر اینه که از کجا اومده؟

اگه ادعا رو باز کنیم، زنجیره‌ی استدلالش معمولاً این شکلیه: استفاده از LLM نیاز به GPU داره، GPU در مقیاس بالا گرما تولید می‌کنه، برای خنک‌سازی از آب استفاده می‌شه، پس استفاده از مدل باعث مصرف آب می‌شه.

مشکل اینجاست که این زنجیره، چند واقعیت کلیدی رو نادیده می‌گیره. برای اکثر LLMها، در زمان inference (یعنی زمانی که مدل استفاده می‌شه، نه آموزش داده می‌شه)، هزینه‌ی محاسباتی بسیار پایینه و گرمای قابل‌توجهی هم تولید نمی‌شه. مصرف انرژی و آب اصلی مربوط به فاز آموزش و زیرساخت‌های دیتاسنتریه، نه هر بار پرسیدن یه سوال.

پروپاگاندا دقیقا همین‌جا کار می‌کنه: با وصل کردن چند گزاره‌ی «درست ولی ناقص»، یه نتیجه‌ی ساده، شوکه‌کننده و غلط ساخته می‌شه که به‌راحتی تو ذهن می‌مونه.

اما این پروپاگاندا چطور پخش شد و چه کاربردی داشت؟

یکی از اولین افرادی که به‌طور غیرمستقیم به این ایده دامن زد، سم آلتمن بود؛ جایی که گفت «مودب بودن با مدل‌ها هزینه رو بالا می‌بره». این جمله زیاد نقل شد، اما معمولا بدون توضیح زمینه‌اش.

چرا آلتمن چنین حرفی زد؟

از دید آلتمن (و هر کسی که مدل زبانی در مقیاس بزرگ اجرا می‌کنه)، هر توکن ورودی هزینه داره. این هزینه از اینجا میاد که برای هر فراخوانی LLM باید محاسباتی روی GPU انجام بشه: ضرب ماتریس‌ها، دسترسی به حافظه، و در نهایت مصرف انرژی. پس وقتی شما به‌جای «جواب بده» می‌نویسید «لطفا اگر ممکنه با جزئیات جواب بدی، ممنون»، تعداد توکن‌ها بیشتر می‌شه و در نتیجه هزینه‌ی inference کمی بالا می‌ره.

اما این «کمی» دقیقا همون جاییه که روایت منحرف می‌شه.

افزایش هزینه‌ی ناشی از چند توکن اضافه، در مقیاس هر درخواست ناچیزه. این حرف آلتمن نه درباره‌ی بحران آب بود، نه درباره‌ی فاجعه‌ی زیست‌محیطی؛ بلکه درباره‌ی هزینه‌ی عملیاتی در مقیاس بسیار بزرگ برای شرکتی بود که روزانه صدها میلیون درخواست پردازش می‌کنه.

پروپاگاندا اینجا شکل می‌گیره: یه دغدغه‌ی واقعی داخلی کسب‌وکار («هزینه‌ی توکن در مقیاس») تبدیل می‌شه به یه ادعای اخلاقی بیرونی («کاربرها دارن آب زمین رو هدر می‌دن»).

کاربردش چیه؟

انتقال مسئولیت از زیرساخت و طراحی سیستم به رفتار فردی کاربر

ایجاد حس گناه شخصی به‌جای بحث ساختاری

ساده‌سازی یک سیستم پیچیده به یک جمله‌ی ویروسی و ترسناک

در نهایت، این روایت بیشتر از اینکه درباره‌ی آب یا محیط‌زیست باشه، درباره‌ی کنترل روایته: اینکه چه کسی مقصر دیده می‌شه، و چه کسی از زیر سوال رفتن معاف می‌مونه.

این ادعا و روایت‌های مشابه، به‌مرور باعث شد خیلی‌ها به این نتیجه برسن که «هر استفاده‌ای از AI ذاتا غیراخلاقیه»، چون به گرم شدن زمین کمک می‌کنه. نکته‌ی جالب اینه که همین منطق تقریبا هیچ‌وقت برای بازی کردن به کار نمی‌ره، در حالی که شرایط از نظر فنی بسیار شبیهه.

برای یادآوری:

در بازی‌های پیچیده، فرایند رندرینگ - چه در زمان ساخت بازی (به‌ویژه cutsceneها) و چه در زمان اجرا - به‌شدت از GPU استفاده می‌کنه و مصرف انرژی بالایی داره.

این محاسبات دقیقا همون نوع محاسبات عددی سنگینی هستن که در inference مدل‌های زبانی هم انجام می‌شن.

تنها تفاوت اصلی اینه که این مصرف انرژی در بازی‌ها معمولاً توی خونه‌ها اتفاق می‌افته، نه توی دیتاسنترها.

و همین تفاوت ظاهرا کافیه تا قضاوت اخلاقی عوض بشه. مصرف برق وقتی متمرکز، قابل اندازه‌گیری و به یک «شرکت» نسبت داده می‌شه، تبدیل به مسئله‌ی اخلاقی می‌شه؛ اما وقتی همون مصرف به‌صورت پراکنده و شخصی اتفاق می‌افته، به‌عنوان «تفریح» دیده می‌شه.

در واقع مسئله نه AIه، نه GPU، نه حتی انرژی؛ مسئله اینه که کجا مصرف دیده می‌شه و به چه کسی نسبت داده می‌شه.

واقعیت اینه که ایجاد حس گناه درباره‌ی «هزینه» باعث نمی‌شه مردم از AI استفاده نکنن؛ فقط باعث می‌شه کمتر ازش استفاده کنن، کوتاه‌تر بنویسن، و توکن کمتری مصرف کنن. نتیجه‌ی نهایی هم جالبه: هزینه‌ی فردی کاربر تغییری نمی‌کنه (قیمت اشتراک همونه)، اما هزینه‌ی عملیاتی شرکت‌ها پایین میاد.

پس این روایت عملا به نفع کی تموم می‌شه؟

اما سؤال مهم‌تر اینه: چی شد که این ادعا انقدر فراگیر شد؟

نکته‌ی کلیدی اینه که پخش‌کننده‌های اصلی این روایت، نه حامیان AI، بلکه اتفاقا مخالفانش بودن. از دید اون‌ها، لازم نبود ادعا کاملا دقیق باشه؛ «نه‌چندان غلط بودن» و هم‌سو بودن با باور قبلی‌شون کافی بود. جمله‌ای از آلتمن، که در زمینه‌ی هزینه‌ی توکن و مقیاس گفته شده بود، تبدیل شد به یک مرجع اخلاقی.

آدم‌هایی که از این صنعت بدشون می‌اومد، شروع کردن به ارجاع دادن به همون حرف. بعد، با بزرگ‌نمایی تدریجی و حذف جزئیات فنی، روایت کم‌کم این‌طوری جا افتاد که «هر استفاده از AI معادل مصرف یک بطری آبه». در حالی که حتی اگر مصرف آب رو در نظر بگیریم، بخش عمده‌ی اون مربوط به مرحله‌ی آموزش (training) و زیرساخت‌های دیتاسنتریه، نه inference و هر بار استفاده‌ی کاربر. چیزی که اتفاقا باعث تمسخر کسایی که دید فنی به قضیه دارن هم میشه و کل حرکت حفاظت از طبیعت - که به خودی خود اشتباه نیست - رو بیشتر زیر سوال می‌بره.

این دقیقا همون مکانیسم کلاسیک پروپاگانداست: یه گزاره‌ی محدود و زمینه‌دار، از دست صاحبش خارج می‌شه، ساده می‌شه، اخلاقی می‌شه، و در نهایت به یک «حقیقت بدیهی» تبدیل می‌شه - بی‌اینکه کسی دیگه بپرسه: دقیقا کی، کجا، و در چه مقیاسی؟

می‌دونم مخاطب من می‌تونه این طرز فکر رو بسط بده به مسائل سیاسی اطرافش.

مرسی که خوندید.