مصاحبه مجله وایرد با یوال نوح هراری و تریستان هریس

توی این ویدیو «نیکلاس تامسون» سردبیر مجله وایرد با «یوال نوح هراری»، تاریخدان و «تریستان هریس» کارمند سابق گوگل در مورد آینده هوش مصنوعی و راهکارهای مقابله با خطراتش حرف می‌زنه.

این مصاحبه رو مجله وایرد سال ۲۰۱۸ با عنوان «When Tech Knows You Better Than You Know Yourself» روی وبسایتش منتشر کرده.

دنبال چی هستیم؟

یوال نوح هراری و تریستان هریس هر دو روی یه موضوع کلیدی تأکید دارن: اگر انتخاب‌های ما بدون اینکه خودمون بفهمیم توسط یه فناوری پیشرفته که در اختیار یه شرکت بزرگ یا یه دستگاه حکومتیه دستکاری بشه دموکراسی بی‌معنی می‌شه.

اون سؤالی که دنبال جوابش هستیم اینه: آیا این انتخاب که معیار مختار بودن ماست قابل هک شدنه؟ اگه بله در صورت هک شدن چی می‌شه؟

جواب کوتاهش اینه: بله قابل هک شدنه و در صورت هک شدن باعث تضعیف انسانیت (Humanity) یا تنزل رتبه (DownGrade) ماست.

جواب مفصلش رو پایین می‌تونی دنبال کنی.

انسانِ مجبور

ما به یک تعبیر انسان دارای اختیار (حق انتخاب بین گزینه‌های مختلف) رو انسان آزاد می‌گیریم و این آزادی رو یکی از الزامات انسان بودنِ انسان در نظر داریم که بدون اون به این موجود نمی‌شه گفت انسان حتی اگه به ظاهر شبیه انسان باشه.

انسان بی‌اختیار مطلق نداریم چون مبنامون رو گذاشتیم رو این که اختیار لازمه ذات این موجوده. ذاتیشه. وقتی ذاتی شد نمی‌شه ازش جدا کنیم مطلقا. اگه جدا کردیم دیگه همون موجود نیست. مثلاً نمی‌شه بگیم این اتوموبیل مطلقا حرکت نمی‌کنه. یکی از مشخصات اصلی اتوموبیل حرکت کردنشه.

اگه انسان مطلقا بی‌اختیار نشد پس مجبور بودن یعنی چی؟ مجبور بودن اینجا که حق انتخاب بین گزینه‌های مختلفه یعنی محدود شدن حوزه‌ی انتخاب انسان. دارای اختیار وسیع بین پنجاه تا گزینه حق انتخاب داره، اما من فقط بین دو تا گزینه. اگه می‌بینی اینو انتخاب کردم چون چاره‌ای نداشتم، مجبور بودم.

تا اینجا اینو داشته باشیم: مجبور بودن انسان رو محدود شدن انتخاب‌هاش گرفتیم. اینم باید در نظر داشته باشیم، این محدود شدن هم نمی‌تونه مطلق بشه تا جایی که دیگه گزینه‌ای نَمونه. این موجودم با این وضعیت جبر مطلق دیگه انسان نیست حتی اگه ریخت و قیافش عین انسان باشه.

محدود کننده‌های انتخاب

گفتیم این انتخاب‌های ماست که نشون می‌ده ما دارای اختیار هستیم، انسانیم، آزادیم. حالا این انتخاب‌های ما توسط صرفا‌ً خودمون بدون دخالت و تاثیر افراد دیگه یا محیط انجام می‌شه یا شبیه یه نوزاد هستیم که پدر و مادر براش انتخاب می‌کنن چون خیر و صلاحش رو می‌دونن و اون نوزاد هیچی نمی‌دونه؟

یا مثل یه بچه‌ای هستیم که از بین گزینه‌هایی که پدر و مادر جلوش می‌ذارن و غیر مستقیم به سمت یکیش تشویقش می‌کنن تا همونو انتخاب می‌کنه؟ یا مثل نوجوونی هستیم که به حرف پدر و مادر گوش نمی‌دیم و هر چی خودمون بخوایم رو انتخاب می‌کنیم؟

یا شاید مثل جوونی باشیم که درگیر اجبار پدر و مادر مباشیم ولی شرایط جامعه ما رو مجبور کنه به اینکه یه شغل خاص یا یه سبک زندگی مشخصی داشته باشیم که مثلاً آینده ما رو تامین کنه. همون چیزی که شاید به بچه‌هامون به عنوان انتخاب منطقی منتقل کنیم.

شایدم به خاطر فشار مالی مجبور باشیم هر چی رئیس می‌گه رو انجام بدیم. مجبور باشیم به انتخاب محدود. خلاصه به غیر از اینا کلی شکل و وضعیت دیگه می‌شه در مورد انتخاب و تحت فشار قرار گرفتن انسان برای انتخاب در نظر گرفت.

تقریباً هر شرایطی رو نگاه کنی می‌بینی ما تحت اجبارهایی هستیم که انتخاب‌های ما رو محدود می‌کنن و به زندگی ما جهت می‌دن که از کنترل ما هم خارجن.

شاید یکی از مهمترین دلایلی که دنبال فناوری‌های جدید و جدیدتر و جدیدترین می‌ریم همین رویای افزایش کنترل روی چیزایی باشه که ما رو تحت جبر خاصی جهت می‌دن. اوه پسر چرا باید روزا انقدر طولاتی باشه. من می‌خوام حق انتخاب داشته باشم، شب خیلی جذابتره‌. چرا همیشه شب نباشه، دموکراسیم هستیم دیگه. یه رفراندوم بذاریم ببینیم اکثریت چی می‌گن!

شاید اینکه دنبال پول بیشتر هستیم دلیلی اصلیش این باشه. پول مثل فناوری باعث افزایش کنترل من می‌شه. دقیقتر با افزایش حق انتخاب‌هام، آزادترم می‌کنه و چی بالاتر از آزادی. می‌شه: پول بیشتر = اختیار بیتشر.

خلاصه که یکی از اون چیزایی که بشر به‌طور کلی مخصوصاً توی یکی دو قرن گذشته عمیقاً داره دنبال می‌کنه باز کردن کمیت و کیفیت حق انتخاب‌هاشه. به یک معنا: آزادی. هر چی که انتخاب‌های منو محدود کنه خوب نیست. من حداقل نسبت به ذهن و بدن خودم هر کاری دوست داشته باشم می‌تونم بکنم، بیرون از خودمم تو واقعیت مجازی هر جور که دلم بخواد می‌چینم.

آیا انسان توسط فناوری قابل دستکاری است؟

تا اینجا دو تا مقدمه داشتیم: اول، نمی‌شه که مطلقا بی‌اختیار بشیم. دوم، قدرت و ثروت حق انتخاب‌های ما رو افزایش می‌ده؛ اختیارمون رو بیشتر می‌کنه.

بیا دو نفر رو توی بیشترین و کمترین حد انتخاب فرض کنیم: نفر اول اونقدر پولداره که برای بیرون غذا خوردن می‌تونه هر رستورانی روی کره زمین رو انتخاب کنه؛ نفر دوم فقط فلافلی‌های نزدیک. دو سرِ طیف.

حالا بیا یه فناوری رو تصور کنیم که ذهن هر دو رو در جهت علاقه‌مند شدن به یه غذاخوری خاص طوری دستکاری کنه خودشون متوجه نشن. مثلاً نفر اول به رستوران کازابلانکادورچ‌اندگابانا تو بیرمنگام تمایل پیدا کنه و نفر دوم به فلافلی حسن‌درآینده دو تا کوچه پایینتر.

این فناوری کارش محدود کردن انتخاب مخاطب هدفه. محدود کردن انتخابش به چیزی که صاحب فناوری می‌خواد. یا ازش خواستن. یا بهش پول دادن که اینو بخواد. خلاصه فناوری بی‌هدف و بی‌صاحب نمی‌شه.

حالا بیا فرض کنیم این وسیله‌ی ما روی این دو نفر جواب بده. اوضاع کدومشون حادتره؟ انتخاب‌های جفتشون محدود شده و تقلیل پیدا کرده به یکی. البته خودشون از این موضوع باخبر نیستن و فکر می‌کنن این تصمیم خودشون بدون دخالت چیز دیگه‌اییه. اونی که ده میلیون حق انتخاب داشته وضعش خرابتره یا اونی که کلاً سه تا حق انتخاب داشته؟

حالا بذار اینو دنبال کنیم که اول آیا ذهن انسان قابل دستکاری هست یا نه؟ دوم آیا فناوری برای این دستکاری ساخته شده؟

انسان، حیوان قابل هک شدن

بی‌ جی فاگ، مدیر انستیتو فناوری‌هلی اقناعی که جدیداً اسمش شده آزمایشگاه تغییر نه تنها معتقده رفتار انسان با دستکاری قابل تغییره، بلکه این کار رو انجام می‌ده. اون طوری که تریستان هریس می‌گه خیلی از افراد تراز بالای سیلسکون‌ولی زیر نظر این استاد آموزش دیدن.

تعداد کسایی که عمقاً معتقد هستن ذهن انسان دستکاری می‌شه کم نیست. ضمن اینکه جریان‌هایی مثل شست‌وشوی ذهنی که بعد از جنگ جهانی دوم خیلی مرسوم شد این موضوع رو طی سالیان گذشته تأیید کرده.

یوال نوح هراری می‌گه اولین قدم اینه که این کشف جدید رو باور کنیم و دست‌کم نگیریم. اینکه انسان حیوانی‌ست قابل هک شدن (Hackable Animal).

به‌نظرم اینکه انسان تحت تأثیر حرف کس دیگه نظرش عوض می‌شه (گول می‌خوره) چیز جدیدی نیست. مگه سقراط و افلاطون و ارسطو با چه کسایی درگیر بودن؟ با کسایی که به «فن خطابه» مسلط بودن. فنی که به‌وسیلۀ اون می‌تونستن مردم رو اقناع کنن. ارسطو چرا علم منطق رو پیش کشید؟ برای تجهیز ذهن افراد در مقابل این اقناع خطبای اون دوره.

اگر بگیم که بشر قرن بیست‌ویکم به فناوری دست پیدا کرده که می‌تونه انسان رو به شکل گسترده و مداوم اقناع کنه و به اون معنایی که گفتیم انتخاب‌هاش رو محدود کنه به‌نظر بهتره تا اینکه بگیم به‌طور کلی تازه کشف کردیم که انسان قابل هک شدنه. می‌شه گفت تازه عموم مردم دارن متوجه می‌شن که انسان قابل هک شدن بود.

چیزی مثل هیپنوتیزم هم به نوعی ذهن انسان رو دستکاری می‌کنه و در جهتی که هیپنوتیزم‌کننده می‌خواد حرکت می‌ده. جادوجمبل‌هایی که تو گذشته‌های دور بودن هم تقریباً همین کارو می‌کردن.

داستان رانده شدن انسان توسط شیطان از بهشت هم تقریباً بر اساس همین جریان دستکاری ذهن اتفاق میفته. آدم توی بهشت یه عالمه انتخاب داره که از یکی نهی شده. موجودی میاد و آدم رو حالا یا توسط همسرش یا توسط حرف زدن مستقیم با خودش ترغیب می‌کنه به انتخاب اون گزینه‌ای که نباید انتخاب می‌کرده. تمایل پیدا می‌کنه به این گزینه و البته در نهایت با پای خودش انتخاب می‌کنه. یه عالمه انتخاب که توسط یه موجود دیگه یکی از اونا که خواست اون موجوده از بقیه در نظر آدم جذابتر می‌شه و به سمت اون متمایل می‌شه. البته این تمایل رو تو جریان روایات مشابه از سمت فرشته‌ها که انسان رو به سمت خوبی‌ها می‌برن هم داریم.

حرفم این نیست که ما با یک فناوری شیطانی روبرو هستیم یا باید فناوری را فرشته‌ایی کنیم. شاید واقعاً شیطانی باشه، شایدم نه، اینجا دنبال اینیم که بگیم: انسان قابل هک شدن است چیز جدیدی نیست. بلکه بهتره بگیم: انسان قابل هک شدن بوده و هست. این یه موضوع قدیمی و ریشه داره که اتفاقاً از پیامبران و حکمای الهی گرفته تا فلاسفه و اندیشمندان بزرگ تاریخ همه این موضوع رو به اشکال مختلف به انسان‌ها گوشزد کردن و راجع بهش هشدار دادن که مراقب باشید!

حالا این موضوع توی چند سال اخیر به شکل خیلی واضح و روشن داره بیرون می‌زنه؛ ضمن اینکه آزمایش‌های خیلی زیادی در مورد اثرات پدیده‌های مختلف روی رفتار ما انجام شده و اینکه ما حیوانات قابل دستکاری شدن هستیم رو اثبات کرده.

آدام آلتر کتاب داری به نام Drunk Tnk Pink که با عنوان بازداشتگاه صورتی توسط انتشارات ترجمان ترجمه و منتشر شده. توی این کتاب عوامل مختلفی که روی رفتار انسان اثر می‌ذارن مثل اسم آدم، محیطی توش هست، نمادهایی که در برابرشون قرار می‌گیره رو گردآوری کرده. تمام نتایج بر اساس مطالعات علمی ثبت شده.

اولین مطالعه که برمی‌گرده به سال ۱۹۷۹ روی ۱۵۳ نفر جوون انجام شده. این افراد مدتی روبری یه مقوای بزرگ آبی سیر قرار می‌گیرن و مدتی روبروی یه مقوای صورتی رنگ. آزمایش‌کننده‌ها ازشون می‌خوان بعد از دیدن هر مقوا دستشون رو کنارشون باز کنن. بعد خیلی عادی به دستشون فشار میارن تا جمع بشن. به شکل خیلی واضح بعد از تماشای مقوای صورتی رنگ مقاومتشون کم می‌شه و دستشون خیلی راحتتر و سریعتر تحت فشار پایین میاد. این آزمایش توی ایالات متحده اونقدر صدا می‌کنه که به‌زودی سلول‌های زندانی‌های خطرناک همه صورتی می‌شن و میزان درگیری و زدوخورد به شکل قابل ملاحظه‌ای کاه پیدا می‌کنه.

فناوری محدودکنندۀ انتخاب

تا اینجا بحث این شد: ما مختاریم (به این معنی که از بین گزینه‌های مختلف یکی رو انتخا کنیم). هر چی حق انتخاب‌های بیشتری داشته باشیم آزادتریم. به نوعی همه دنبال این اختیاریم، می‌خوایم آزادتر باشیم. مختارتر. کنار این فهمیدیم که می‌شه تمایل انسان برای انتخاب یه گزینۀ خاص رو دستکاری کرد. کنار این با آزمایشات متعددی که مخصوصاً توسط علوم اجتماعی انجام شده تأثیرات چیزای مختلف روی انسان رو کشف کردیم.

همونطور که همه می‌دونیم و آقای ویلیام برایان آرتور هم تو کتاب سرشت فناوری راجع بهش مفصل صحبت کرده، ما اول یه پدیده رو کشف می‌کنیم و بر اساس اون پدیده یه فناوری می‌سازیم. اول گرانش رو کشف می‌کنیم و بعد این گرانش می‌شه مبنای یه فناوری و این فناوری جدید باعث کشف عمیقتر همون پدیده یا پدیده‌های دیگه می‌شه و دوباره فناوری جدیدتری بر اساس کشف جدید اخرتاع می‌کنیم و این چرخه مدام جلو می‌ره. بهش می‌گیم اصطلاحاً پیشرفت فناوری.

توی صد سال گذشته ما راجع به تأثیرپذیری انسان از چیزای مختلف کلی چیز کشف کردیم. این کشفیات مبنای ایجاد فناوری‌های جدید در ترکیبشون با چیزای قبلی مثل کامپیوتر، الکتریسیته قرار گرفتن و فناوری‌های جدیدی ساخته شدن. فناوری‌هایی که هدفشون دستکاری انسانه. این سیریه که تو ماجرای پیشرفت علم و فناوری در کنار هم توی این حوزه طی شده.

اینکه این دستکاری در جهت منافع شخص باشه یا تو سطح گسترده، به نفع و صلاح جامعه یا در جهت منافع صاحب فناوری چیزیه که باید بهش توجه کنیم. قبل از اون بذار ببینیم واقعاً همچین فناوری‌هایی الان هستن و اگه هستن چیکار کردن.

سال ۲۰۱۶ توی کشور انگلیس یه همه‌پرسی می‌ذارن مبنی بر اینکه آیا انگلیس در اتحادیه اروپا بماند یا خیر که درنهایت مردم رأی به خروج انگلیس می‌دن و این کشور از اتحادیه اروپا خارج می‌شه. این جریان با عنوان brexit شناخته می‌شه، ترکیب british و exit.

فردای اعلام نتیجۀ همه‌پرسی سردبیر مجله آبزِروِر از خانم کارول کادوالادر می‌خواد که در رابطه با برگزیت به جنوب ولز بره و یه گزارش تهیه کنه. خانم کادوالادر می‌ره شهر اِبی‌وِیل، جایی که بیشترین میزان رأی به خروج انگلیس از اتحادیه اروپا رو داشته. ۶۲% مردم این منطقه رأی به خروج انگلیس داده بودن.

با اینکه توی این شهر اتحادیه اروپا خیلی پروژه‌های بزرگ و گرونی مثل جاده، پل، ورزشگاه و چیزای دیگه درست کرده بود ولی مردمی که به خروج انگلیس رأی داده بودن معتقد بودن اتحادیه اروپا کاری برای اونا انجام نداده، اینکه از دست مهاجرا و پناهنده‌ها خسته شدن در حالی که شهر اِبی‌وِیل کمترین میزان مهاجرت رو بین شهرهای دیگه داشت.

خانم کادوالادر تو ادامۀ تحقیقاتش متوجه می‌شه که شهر به جز یکی دو تا روزنامه منبع اطلاعات خاصی نداره که مردم رو تحت تأثیر قرار داده باشه. این لابلا متوجه می‌شه که مردم توی این مدت تمام اخبارشون رو از فیسبوک دریافت می‌کردن. فیسبوک رو برای به‌دست آوردن مدارک دنبال می‌کنه ولی چیزی به‌دست نمیاره. تمام چیزی که مردم می‌دیدیدن برای اونا شخصی‌سازی شده بوده.

بعد از مدتی که برای خانم کادوالادر و البته انگلیس قطعی می‌شه که عده‌ای برای خارج شدن انگلیس از اتحادیه اروپا مثل آقای اَرون بَنکس و نایجل فِراژ کمپین‌های سنگینی توی فیسبوک اجرا کردن؛ از فیسبوک می‌خوان که میزان هزینه‌ای برای این کمپین‌ها شده، چیزایی که مردم دیدن، کی دیدن، چند بار دیدن و کلی اطلاعات دیگه در مورد این کمپین رو در اختیارشون قرار بده که فیسبوک بعد از کلی فشار فقط یه مقدار خیلی کم از اطلاعات رو در اختیارشون قرار می‌ده. چند بار انگلیس از زاکربرگ می‌خواد که به بریتانیا بره و پاسخگو باشه که زاکربرگ هیچوقت پاشو تو این کشور نمی‌ذاره.

خلاصه با توجه به اسناد و مدارکی که از این ماجرا به‌دست میاد، مشخص می‌شه که جرایم خیلی واضحی در جهت تغییر رأی مردم توی بستر فیسبوک انجام شده که به‌خاطر تاریک بودنِ این فضا و عدم وجود قوانین مشخص بهش رسیدگی نمی‌شه. تنها اتفاق مهم اینه که با افشاگری کریس وایلی محرز می‌شه شرکت کمبریج آنالیتیکا توی جریان رأی‌گیری ریاست جمهوری ترامپ و برگزین نقش داشته و درش تخته می‌شه.

بخش‌بندی انتخاب‌ها

یه نکته‌ای که راجع به انتخاب‌های خودمون بهش دقت کنیم اینه که ما یکی دو تا حق انتخاب نداریم. یه عالمه حق انتخاب داریم که این انتخاب‌ها رو می‌شه بخش‌های مختلف تقسیم کرد. بحث تقسیم‌بندی رو از این جهت می‌گم که حواسمون باشه هر شرکت یا حکومت یا دولت فقط یکی از اجزاء این بخش‌های بزرگ انتخاب‌های ما رو برای محدود کردن به انتخابی که می‌خواد انجام بدیم هدف می‌گیره. یعنی هنوز فناوری نداریم که در تمام جهات انتخاب‌های ما رو محدود و ما رو نسبت به یه چیز خاص متمایل کنه.

مثلاً تو بخش سرگرمی موسیقی دارم، فیلم داریم، شهربازی داریم و کلی بخش کوچیکتر دیگه. هر کدوم از این زیربخش‌ها می‌تونن بازم ریزتر بشن. از اول تاریخ بشر همچین چیزی نبوده، اینکه حق انتخاب‌هامون زیاد شده به‌خاطر اینه که عمقاً توی چند قرن گذشته پیگیر آزادی بیشتر بودیم.

حالا به عنوان یه انسان قرن بیست‌ویکمی که کلی وقت آزاد و کلی گزینه‌ی متفاوت برای انتخاب دارم می‌خوام برم سراغ بخش سرگرمی و زیرگروه تماشای ویدئو. می‌تونم انیمیشن ببینم، فیلم سینمایی ببینیم، تلویزیون ببینم، مسابقۀ ورزشی ببینیم، ویدئوکلیپ‌های تیک‌تاکی نگاه و کلی چیز دیگه. اینو اصطلاحاً می‌گن یه وضعیت دموکراتیزه شده. یعنی انتخاب‌هایی که دوره‌ای فقط در دسترس یه عدۀ خاص بوده الان در اختیار همه‌س.

حالا اگه من بخوام فیلم ببینم آیا بستری که توش می‌خوام فیلم ببینیم یا فیلمی که می‌خوام ببینم حقیقتاً به انتخاب خودمه یا توسط یه فناوری قبلش بدون اینکه بفهمم به ذهنم تزریق شده؟ اینکه تمام انتخاب‌های ما تحت تأثیر محیط و کلی چیز دیگه بدون اینکه ما بدونیم تغییر می‌کنه الان مدنظر نیست، الان حرف سرِ دستکاری عمدی ما توسط یه فناوریه.

همه قائلیم به اینکه کلی انتخاب داریم نسبت به آدمایی که ۱۰۰ سال پیش زندگی می‌کردن. چه اینکه اکثر مواقعی که از عقب‌موندگی کشورمون حرف می‌زنیم هم ناظر به همین داستان هستیم. اونجا ویکند کلی گزینه داری برای گذرنودن وقتت، اینجا باید بشینی تو خونه برنامه‌های دری‌وری صداو سیما رو ببینی یا بری پارک جوج بزنی. نتیجه: خارج بهتره. اینجا فلان رشته دانشگاهی رو اگه بخوای بخونی نمی‌تونی ولی اونجا امکانش رو داری. نتیجه: خارج بهتره.

حالا حرف اینه: از طرفی ما کلی گزینه روبرومون برای انتخاب داریم که نشون می‌ده ما آزادیم و اختیار بیشتری داریم نسبت به انسان‌های قرون گذشته و کشورهایی که همین حق انتخاب‌ها رو هم ندارن و از طرفی با فناوری‌هایی روبرو هستیم که انتخاب‌های ما رو بدون اینکه بفهمیم محدود می‌کنن به اون چیزی که می‌خوان. جالب اینجاست که خیلی از گزینه‌های جدید توسط سرمایه‌گذاران همین فناوری‌های محدود‌کنندۀ انتخاب‌های ما ساخته شده.

من کلی انتخاب تو گروه‌ها و زیرگروه‌های مختلف دارم که فقط به یه سری از اونا تمایل دارم. مطمئناً این جهت‌گیری من تحت تأثیر نطفه، ژنتیک، دوران کودکی، مدرسه و هزار تا چیز دیگه قرار داره ولی آیا این وسط یه حکومت یا شرکت با یه فناوری در حال دستکاری من تو بعضی از این زیرگروه‌ها نیست؟ آیا اون حکومت که در حال محدودکردن انتخاب‌های منه خودش رو تو جایگاه پدر و مادر و رو تو جایگاه نوزادی نمی‌بینه که خیر و صلاح خودش رو نمی‌دونه؟

انتخاب «من» چیست؟

یکی از مشکلات این بحثی که داریم دنبال می‌کنیم اینه که با توجه به تأثیر این همه چیز روی من به عنوان یک فرد انسان چطور می‌شه گفت «من» دارم انتخاب می‌کنم؟ اینکه من از هر چیزی که دوروبرم هست تأثیر می‌گیرم و این روی انتخاب‌های من اثر داره و این آثار منو تغییر می‌ده و در نتیجه روی انتخاب‌های بعدی من هم اثر داره، راجع به این چی بگیم؟

بگیم ما کلاً مجبوریم؟ یا بگیم ما مختاریم؟ یا مجبور مختاریم؟ این همون جاییه که باید به یوال نوح هراری بگیم: اینکه شما می‌گی انسان قرن بیست‌ویکم دچار فقر فلسفیه کاملاً درست می‌گی. دقیقاً یکی از مهمترین تفاوت‌های بزرگترین دولت‌های روی کرۀ زمین به همین جریان جبر و اختیاره. به نظر من غرب بیشتر تمایل به سمت اختیار تمایل پیدا کرده و به همین خاطر تلاشش بیشتر شده و شرق تمایلش بیشتر به سمت جبر بوده و زیادی با قسمت و هر چی خدا بخواد همون می‌شه جلو رفته. بگذریم…

آیا شخصی هست که نشون بدیم و بگیم این آدم اصلاً توسط فناوری‌ها دستکاری نشده تا میزان سنجش و الگوی بقیه قرار بگیره یا همه دستکاری شدم؟ آیا می‌شه کسی رو پیدا کرد که کمترین میزان دستکاری روش انجام شده باشه؟ اگه آره با چه روشی می‌خوایم تشخیص بدیم که میزان دستکاری‌شدگی آدما چقدره؟ آیا دوباره باید بریم سراغ تفتیش عقاید؟

آیا این انتخاب من حقیقتاً همونه که من می‌خوام؟ اگه همونیه که من می‌خوام آین دستکاری نشده؟ آیا درک من از «من کیستم؟» دستکاری نشده؟ اینجا همون جاییه که به این پرسش اساسی می‌رسیم: من کیستم؟ این جا همون جاییه که می‌فهمی ریشه انسانه. اینجا همون جاییه که برات روشن می‌شه هر چی انسان رو یا بهتره بگیم خودت رو بیشتر و بهتر بشناسی می‌تونی عملکرد بهتری داشته باشی.

به نظر می‌رسه راه حل ریشه‌ایه آقای یوال نوح هراری مبنی بر اینکه ما دچار فقر فسلفسی هستیم و باید این فقر رو ریشه‌کن کنیم درست باشه. نظریات فلسفی قرت هجدهمی که تمام بشر رو درگیر خودش کرده دیگه جواب نمی‌ده نمی‌ده. نه نظریات جدید، بلکه به فلاسفه‌ای نیاز داریم که حقیقت رو اونطوری که هست به مردم القا کنن.

حالا اگه یه مالک فناوری بگه: انتخاب تو که بالاخره توسط یه چیزی بیرون از خودت تغییر می‌کنه، حالا چه فرقی داره توسط گفت‌وگو با یه غریبه باشه یا توسط یه فناوری. یه فرقی می‌کنه انتخابت توسط یه نهاد اجتماعی محدود بشه یا توسط یه فناوری. ما هم مثل همون محیطی که دوروبرته، فرقش چیه؟ اینجا بحث دو تا جهت می‌گیره: از این فناوری استفاده کنیم به نفع جامعه. از این فناوری استفاده کنیم به نفع صاحبان اون.

رؤیای دموکراسی

دموکراسی یا هر سیستمی شبیه به دموکراسی که انتخاب مردم رو ملاک قرار می‌ده بر پایۀ همین اصل بنا شده که ما به عنوان انسان دارای اختیار و آزادی هستیم و این آزادی رو نباید از مردم گرفت. باید مردم اختیار سرنوشت خودشون رو داشته باشن. خودشون قانون و قانونگذار و مجری قانون رو انتخاب کنن.

از طرفی حق انتخابمون داره روزبه‌روز بیشتر می‌شه و از طرفی این انتخاب‌ها داره توسط فناوری‌های جدید محدود می‌شه. اگه چیزای که گفتیم درست باشه باید بگیم داریم دچار توهم آزادی و اختیار بیشتر می‌شیم. بیشتر شبیه سراب حق انتخاب‌های بیشتره. این همون چیزیه که یوال نوح هراری معتقده باعث می‌شه دموکراسی تبدیل بشه به یه نمایش. در ظاهر حق انتخاب داریم ولی در باطن این انتخاب ما بدون اینکه بفهمیم و به شکل خیلی نامحسوس داره تعیین می‌شه.

فناوری‌هایی چه تو فضای آنلاین و چه تو فضای حقیقی به‌وسیلۀ حسگرهایی که دارن از ما داده‌هایی دریافت می‌کنن که می‌تونن ما و صد البته نقاط ضعف ما رو بشناسن و به‌سیلۀ این شناخت ما رو به سمت انتخاب خصای که می‌خوان با روش‌های خیلی پیشرفته بدون اینکه ما بفهمیم متمایل یا متنفر کنن.

این فرایند در حالی اتفاق میفته که ما از هیچی اون باخبر نیستیم. از استخراج داده‌ها از ما تا پالایش اونا و در نهایت به کار گرفتنشون علیه ما. نتیجۀ این جریان محدود شدن انتخاب ما به نفع صاحبان اون فناوری و نابود شدنِ دموکراسی از جاییه که کسی فکرش رو نمی‌کرد.

من این کاندیدا رو که تقریباً تمام زندگیم رو توی چهار سال آینده تحت تأثیر قرار می‌ده رو با میل و اختیار خودم انتخاب کردم غافل از اینکه این میل من در اثر مبارزه تبلیغاتی کاندیداها با هم بدون اینکه بفهمم دستکاری شده. راستی مگه مبارزه تبلیغاتی چیزی غیر از اقناع مخاطبانه؟ حالا اگه این پروسه فناورانه بشه اشکالش چیه؟ راستی اگه این یه مسئولیت خطیره چرا دارن سرش با هم مبارزه می‌کنن؟ بگذریم…

من این فیلم رو برای تماشا انتخاب می‌کنم چون تو قسمت پیشنهادهای شخصی‌سازی شده برای من اومده و این فیلم درک من رو از جهان تغییر می‌ده. من یه سری توئیت‌های خاص رو مدام برای خوندن انتخاب می‌کنم که توئیتر تصمیم گرفته برای فقط من نمایش داده بشه و بعد از مدتی گرایش سیاسی من عوض می‌شه و در نهایت باعث می‌شه من دچار محکومیت قضایی بشم و شغلم رو از دست بدم. من یه سری پست اینستاگرامی می‌بینیم که از طریق الگوریتم‌های فیسبوک پشت سر هم برای فقط من نمایش داده شده که باعث می‌شه از تنبلی دست بردارم و یه شغل پردرآمد پیدا کنم و به همسر آرزوهام برسم.

وضعیت ایده‌آل: فناوری به نفع جامعه

خب با این مقدماتی که گفتیم حالا باید بپرسیم راه حل چیه؟ راه حل رو تریستان هریس و یوال نوح هراری و خیلی از افراد فعال تو حوزۀ سلامتی دیجیتال و اقتصاد توجه این می‌دونن که این فناوری‌ها رو نباید نابود کنیم و این نشدنیه پس این فناوری‌ها به‌جای اینکه به نفع صاحبان خودشون کار کنن باید در خدمت جامعه و به نفع اونا کار کنن. تغییر جهت خروجی فناوری‌ها از به «نفع صاحب فناوری» به «نفع مردم». ظاهراً خود فناوری که تو ذاتش با دموکراسی مخالفه باید دموکراتیزه بشه.

خب فرض کنیم این فناوری دیگه در جهت منافع خودش فعالیت نمی‌کنه و از چنگ شرکت‌های خصوصی در میاد و میفته دست نهادهایی که الان وظیفه‌شون خدمت به مردمه. مثل دولت. همین دولتی که تو تمام دنیا عده‌ای معتقدن ریشۀ اصلی مشکلاته.

حالا یه فناوری دولتیِ محدود‌کنندۀ انتخاب‌ها داریم که دنبال هیچ سودی نیست جز منظم شدن و رشد جامعه. یعنی دولت یا هر نهاد دیگه‌ای که وظیفۀ این منفعت برای جامعه رو قبول می‌کنه می‌شه مثل همون پدر و مادری که می‌دونن چی خوبه چی بد و نوزادشون رو از اونا محروم می‌کنن. به احتمال زیاد این جامعه خیلی منظم بشه ولی آیا پیشرفت هم می‌کنه؟

آیا نوزاد موندنِ جامعه به معنی عدم توانایی اونا تو انتخاب نیست. فکر کن یه سری آدم بزرگ داری که توانایی انتخاب و تصمیم‌گیری‌شون در حد یه نوزاده، بدون وجود پدر و مادر نه می‌دونن چی خوبه و چی بد و نه می‌تونن انتخاب کنن. اگر هم انتخاب کنن ممکنه هزار جور بلا سرشون بیاد. فکر کنم این همون جامعه‌ای باشه که آلدوس هاکسلی توی دنیای قشنگ نو تصویر کرده.

سناریو این ریختیه: مردم با روشنگری‌های مثل این مستند می‌فهمن داره چه بلایی سرشون میاد و اعتراض می‌کنن و قانونی تصویب می‌شه که تمام شرکت‌های مجهز به این فناوری‌های محدودکنندۀ انتخاب باید تحت نظارت یه نهاد بالادستی که وظیفه‌ش حفظ امنیت و نظم بخشیدن به جامعه‌س باشن. دولت هم به این ابزار امنیت اجتماعی جدید مجهز می‌شه و در طی چند سال جامعه منظم می‌شه. امنیت عالی.

حالا مردم می‌دونن که انتخاب‌هاشون داره دستکاری می‌شه و از طرفی می‌بینن که چه نتایج جالبی داره. میزان جرم و جرایم کم می‌شه. هر کسی تو سن پایین استعدادش کشف می‌شه و شغلی ور انتخاب می‌کنه که جامعه بهش نیاز داره. آمار طلاق خیلی پایین میاد چون مردم کسایی رو برای ازدواج انتخاب می‌کنن که بیشترین منفعت رو برای جامعه داره و کلی مزیت جذاب دیگه.

یه جامعۀ فوق‌العاده منظم که مردمش دارن تحت هدایت یه فناوری یا هوش مصنوعی دست به انتخاب می‌زنن. می‌دونن که انتخاب‌هاشون داره دستکاری می‌شه ولی نمی‌دونن چجوری. خودشون با اختیار خودشون به این دستکاری تن می‌دن تا جامعۀ منظم‌تری داشته باشن. یه جورایی می‌شه گفت به‌جای اینکه خودشون رو بین هزار تا انتخاب مختلف گیر بندازن یه موجود مصنوعی رو انتخاب می‌کنن که بقیۀ انتخاب‌ها رو اون براشون انجام بده.

این اوج فناوری محدود‌کنندۀ انتخابه. اونقدر این دایرۀ انتخاب‌ها تنگ می‌شه تا فقط و فقط یه انتخاب باقی بمونه. خودِ هوش مصنوعی محدود کنندۀ انتخاب. واقعاً اگه این فناوری بخواد به حد کمال خودش برسه نباید جز این باشه. اینجا همون جاییه که مردم تنها انتخابشون این موجود مصنوعی ساختۀ دست خودشونه که کارش منظم کردن و افزایش رفاه جامعه به وسیلۀ بیشتر کردن تمایل مردم به خودشه.

به‌نظر می‌رسه مردم این عصر همیشه در حال زمزمۀ این بیت از سعی باشن: من از آن روز که در بند توام آزادم، پادشاهم که به دست تو اسیر افتادم.