شکنندگی هوش مصنوعی
چگونه راه حلهای هوش مصنوعی فعلی شکننده هستند و می توانند برای جوامع شکنندگی ایجاد کنند
حسین نوریان، مشاور مدیریت استراتژیک
نسیم طالب یکی از فیلسوفان بزرگ معاصر است که برخی او را بزرگترین فیلسوف زنده میدانند، نظریات نسیم نیکولاس طالب که در کتابهای مهم او شامل قوی سیاه، پوست در بازی و پادشکننده بیان شده، توانسته است انقلابی را عرصه فلسفه کاربردی ایجاد نماید. ایده کلی نسیم طالب در پیش بینی ناپذیر بودن رویدادها در دنیای ما قابل خلاصه شدن است او بیان میدارد که سرنوشت افراد، سازمانها و جوامع بیش از آنکه تحت تاثیر وقایع قابل پیش بینی که ردپایی در اطلاعات از گذشته دارند باشد به قوهای سیاه یا رویدادهایی باز میگردد که از آنها هیچ اطلاعاتی در گذشته وجود ندارد و از اینرو هر تلاشی برای پیش بینیشان محکوم به شکست است.
از نظر نسیم طالب سیستمهایی که در جهان وجود دارد در چهار دسته شکننده، مستحکم، تاب آور و پادشکننده قابل دسته بندی هستند و او به شرحی که در ادامه به آن میپردازیم پدیده هوش مصنوعی به شکلی که اکنون وجود دارد را در دسته سیستمهای شکننده که میتوانند برای افراد و جوامع شکنندگی به دنبال داشته باشند دسته بندی میکند.
نظر نسیم طالب درباره شکنندگی هوش مصنوعی (AI) را میتوان از منظر مفهومیکه او در کتاب پادشکننده (Antifragile) مطرح میکند، تحلیل کرد نسیم طالب در این کتاب سیستمها را به چهار دسته تقسیم میکند:
اول، سیستمهای شکننده (Fragile)
سیستمهایی که در مواجهه با آشوب، استرس، عدم قطعیت و در کل قوهای سیاه آسیب میبینند و عملکردشان مختل میشود مانند یک فنجان چای که ثبات را بسیار دوست میدارد و نسبت به تغییر، لرزش، حرکت و … شکننده است
دوم سیستمهای مقاوم یا مستحکم(Robust)
سیستمهایی که در برابر آشوب، عدم قطعیت و برخی از قوهای سیاه میتوانند تاحدودی مقاوم باقی بمانند اما عملکرد آنها نهایتا شکننده خواهد بود. مانند عظلات انسان که تا حدودی میتواند تغییرات در فشاری که به آن وارد میشود را تحمل کند اما نسبت به بیش از آن شکننده خواهد بود
سوم سیستمهای تاب آور (Resilience)
سیستمهایی که در برابر تغییرات، شوکها، آشوبها و قوهای سیاه مدت زمانی عملکردشان تضعیف میشود و دچار اختلال میشوند اما میتوانند خود را ترمیم کنند و به حالت قبل بازگردند مانند بدن انسان پس از اغلب بیماریها
سیستمهای پادشکنند(Antifragile)
سیستمهایی که از آشوب، تغییرات، قوهای سیاه و عدم قطعیت سود میبرند و قویتر میشوند قابلیتهای آنها ترکیبی از استحکام، تاب آوری و موارد خاص پادشکنندگی است که هر نوع اختلال موجب بهبود عملکردشان میشود مانند بدن انسان در مقابل واکسن که یک اختلال بیرونیای است که البته موجب بهبود عملکرد بدن میشود
از دید طالب، هوش مصنوعی در وضعیت کنونی به دلیل ماهیت طراحیاش ذاتاً شکننده است و میتواند برای مولفههای مختلف جامعه انسانی شکنندگی ایجاد کند نسیم نیکولاس طالب دلایل شکنندگی سیستمهای هوش مصنوعی را شامل موارد زیر میداند
وابستگی هوش مصنوعی به دادههای تاریخی و خطای پیش بینی:
هوش مصنوعی (به ویژه مدلهای یادگیری ماشین) برای آموزش و تصمیم گیری به دادههای تاریخی متکی هستند این دادهها اغلب بازتاب دهنده شرایطی هستند که در یک بازه زمانی خاص و تحت قوانین و شرایط مشخصی تولید شده اند اما جهان واقعی پر از رخدادهای نادرِ غیرقابل پیشبینی (Black Swan Events) است که در دادههای تاریخی وجود ندارند به عنوان مثال یک مدل هوش مصنوعی که برای پیش بینی بازارهای مالی آموزش دیده، ممکن است در مواجهه با یک بحران سیاسی کاملاً جدید (مثل همه گیری کووید ۱۹) به شدت خطا کند، زیرا چنین رویدادی در دادههای آموزشی آن وجود نداشته است. از نظر طالب این وابستگی به دادههای گذشته، هوش مصنوعی را به یک سیستم شکننده تبدیل میکند، زیرا نمیتواند در برابر ناشناختههای ناشناخت (Unknown Unknowns) مقاومت کند به عبارت بهتر هوش مصنوعی نمیتواند قوهای سیاه را پیش بینی کند و از آنجا که بسیاری از افراد برای تصمیم گیریهایشان به بینشهای و پیش بینیهای هوش مصنوعی مراجعه میکنند و آن را کافی میدانند، این تکنولوژی در وضعیت فعلی میتواند موجب ایجاد شکنندگی برای مولفههای مختلف جوامع در سطوح کلان یا خرد بشود
بهینه سازی هوش مصنوعی برای محیطهای ایستا
مدلهای هوش مصنوعی معمولاً برای بهینه سازی در یک محیط با پارامترهای ثابت طراحی میشوند (مثلاً پیروزی در بازی شطرنج با قوانین ثابت) اما جهان واقعی یک محیط پویا است که قوانین آن دائماً تغییر میکنند و اغلب غیرخطی هستند مثلا یک خودروی خودران که در شرایط آب و هوایی عالی آموزش دیده، ممکن است در برف یا مه غلیظ به دلیل ندیدن چنین دادههایی، عملکرد فاجعه باری داشته باشد این فیلسوف معاصر استدلال میکند که سیستمهای پادشکننده باید بتوانند با تغییرات سازگار شوند و حتا از آنها بهره ببرند در حالی که هوش مصنوعی (در شکل کنونی) فاقد این قابلیت است
خطای ناشی از ساده سازی ریاضی در راه حل های هوش مصنوعی
هوش مصنوعی مبتنی بر مدلهای ریاضی است که جهان را به شکل ساده شده و ایدهآل شده بازنمایی میکنند این مدلها اغلب از فرضیههای خطرناک مانند توزیع نرمال (گاوسی) برای توصیف پدیدهها استفاده میکنند، در حالی که بسیاری از رویدادهای واقعی (مثل سقوط بازارهای مالی) از توزیعهای دمکلفت (Fat tailed) پیروی میکنند برای مثلا بحران مالی ۲۰۰۸ نشان داد که مدلهای ریاضی بانکها، احتمال رخدادهایی با اثرات فاجعه بار را دستکم گرفته بودند نیکولاس طالب در کتاب قوی سیاه» (The Black Swan) تأکید میکند که اتکا به مدلهای ریاضی ساده شده، سیستمها را در برابر شوکهای بزرگ آسیب پذیر میکند
عدم وجود سازوکارهای خود ترمیمی
سیستمهای پادشکننده (مثل سیستم ایمنی بدن یا اکوسیستمهای طبیعی) توانایی تکامل و بهبود خودکار در مواجهه با استرس را دارند اما هوش مصنوعی فاقد چنین مکانیسمهایی است: اگر یک مدل هوش مصنوعی با یک خطای اساسی مواجه شود، برای اصلاح آن نیاز به مداخله خارجی (مثلاً بازآموزی با دادههای جدید) دارد برای مثال چتباتهایی مانند GPT 3 نمیتوانند به صورت واقعی از تعاملات خود یاد بگیرند یا خطاهایشان را بدون به روزرسانی مرکزی اصلاح کنند از دید طالب این وابستگی به به روزرسانی متمرکز، هوش مصنوعی را به یک سیستم شکننده تبدیل میکند
خطر تمرکز و وابستگی بیش ازحد در هوش مصنوعی
نسیم طالب در کتاب پوست در باز (Skin in the Game) هشدار میدهد که سیستمهای متمرکز (مثل یک ابرهوش مصنوعی مرکزی) در برابر شوکها آسیب پذیرترند هوش مصنوعی نیز امروزه به شکل فزایندهای متمرکز است برای مثال وابستگی جهانی به مدلهای زبانی بزرگ مثل GPT 4 یا الگوریتمهای توصیه گر شبکههای اجتماعی یک خطای سیستمیدر این مدلها میتواند به سرعت در مقیاس جهانی گسترش یابد در مقابل سیستمهای غیر متمرکز (مثل مجموعه ای از هوشهای مصنوعی تخصصی و مستقل) میتوانند پادشکننده باشند، زیرا شکست یک جزء، کل سیستم را فرو نمیریزد و بقیه سیستمها میتوانند از آن سیستم شکست خورده بیاموزند
نسیم طالب هوش مصنوعی را شکننده میداند زیرا از نظر او هوش مصنوعی کنونی به دادهها و مدلهای ایستا وابسته است و نمیتواند از عدم قطعیت و شوکها سود ببرد برای مقابله با رویدادهای نادر پر اثر طراحی نشده است و فاقد مکانیسمهای خودسازماندهی و تکامل غیرمتمرکز است
راهکار پیشنهادی نسیم طالب برای کاهش شکنندگی سیستمهای هوش مصنوعی
او برای غلبه بر این ضعفها راه حل چنین راه حلهایی را پیشنهاد میکند: برای کاهش شکنندگی هوش مصنوعی باید آن را به سمت سیستمهای غیرمتمرکز، مبتنی بر آزمون و خطا و مجهز به سازوکارهای پوست در بازی سوق داد؛ سیستمهایی که بتوانند در مواجهه با آشوب، خود را بازسازی کنند و حتا قوی تر شوند که این همان مفهوم آنتی فراجایلیتی یا پادشکنندگی است. آیا سیستمهای هوش مصنوعی آینده به اینگونه خواهند بود؟
استفاده از مطالب فوق تنها با ذکر منبع مجاز است
جهت دریافت اطلاعات بیشتر یا مشاوره مدیریت استراتژیک با رویکرد تحول دیجیتال با ما تماس حاصل فرمایید