اعتماد: عصر هوش مصنوعی (AI) نه تنها نزدیک است، البته در حال حاضر گویی خیلی وقت است از راه رسیده است. بدون شک هماکنون هم زندگی ما را متحول کرده و ارزشها، قوانین و هنجارهای اجتماعی ما را بیش از پیش به چالش خواهد کشید. واقعیت این است که ما به یک قرارداد اجتماعی جدید برای ورود به عصر هوش مصنوعی نیاز داریم. دقت کنید اکنون تازه به سرآغاز مسیری رسیدیم که خیلی پیشتر آغاز شده بود، به طور مثال تحقیقات روی شبکههای عصبی سایبرنتیک در قرن گذشته و در آغازین سالهای دهه پنجم قرن بیستم (حدودا سال ۱۹۴۰ میلادی) آغاز شد، اما ترکیب مجموعههای داده عظیم و پیشرفت علوم موازی و رشد قدرت پردازش کامپیوترها منجر به یک اتفاق هیجانانگیز و عمیق در یادگیری ذهن ماشین شد که سایر صنایع را به کل متحول کرد.
این روزها هوش مصنوعی در انواع محصولات مصرفی که ما برای کار و اوقات فراغت استفاده میکنیم حضور پررنگی دارد. به وضوح در مورد پیشرفت چشمگیر هوش مصنوعی تبلیغات وجود دارد و سرمایهداران دست به شانتاژ عمیق خبری در این حوزه میزنند، اما پیشرفتهای بزرگ نیز قابل اغماض نیستند. برخی معتقدند توان اقتصاد مبتنی بر هوش مصنوعی به این معناست که ما در یک حباب حدس و گمان قرار داریم و انتهای راه مشخص نیست. حتی اگر این موضوع صحت داشته باشد، ما هنوز باید بهطور عمومی در مورد تاثیرات اجتماعی میانمدت این فناوریها بحث کنیم. به هر حال، آشوب حباب دات کام (بحران اقتصادی در خلال سالهای ۱۹۹۵ تا ۲۰۰۰ میلادی) در دهه ۱۹۹۰ مانع از تغییر اساسی اینترنت در جامعه مدرن نشد. در واقع، پیشبینی میشود که سال ۲۰۲۴ سالی باشد که ما از صحبت بیشتر در مورد هوش مصنوعی به فراگیر شدن آن در زندگی خود تغییر میکنیم.
خطرات هوش مصنوعی: ترس از منسوخ شدن
مزایای اجتماعی و اقتصادی میتواند بسیار زیاد باشد، اما خطرات ممکن است به همان اندازه قابل توجه باشند. خطرات بالقوه تاثیر هوش مصنوعی بر انتخابات توسط کارشناسان برای سالها پیشبینی شده است و نگرانیها در مورد اختلالات اقتصادی و تغییرات شدید در بازار کار باعث ایجاد اضطراب اضافی در نظم اجتماعی میشود که در حال حاضر هم حتی نشانههایی از استرس شدید را میان افراد شاغل و نیروهای کار نشان میدهد. در اروپا، تقریبا نیمی از افراد خانوادههای در سن کار در کشورهای OECD (سازمان توسعه و همکاری اقتصادی بینالمللی شامل ۳۸ عضو) از نظر مالی شکننده هستند و شبح تاریک از دست دادن شغل به دلیل رشد پدیده هوش مصنوعی در حال حاضر به عنوان یک عامل نگرانکننده برای کارگران در سراسر جهان ثبت شده است.
یک نظرسنجی گالوپ در سال ۲۰۲۳ در ایالاتمتحده نشان داد که ۲۲درصد از کارگران از منسوخ شدن شغل آنها توسط فناوریهای جدید مانند هوش مصنوعی میترسند که نسبت به سال ۲۰۲۱ شاخص این نگرانی ۷درصد افزایش یافته است. این پدیده و به عبارتی ترس جدید به اختصار FOBO نامیده میشود، به این پدیده ترس از منسوخ شدن مشاغل میگویند. در اتحادیه اروپا، ترس از پدیده فوبو ممکن است حتی شدیدتر باشد، زیرا یک نظرسنجی یوروبارومتر در سال ۲۰۱۷ نشان داد که ۷۲درصد از کارگران اروپایی میترسند فناوریهای جدید «شغل مردم را بدزدند.»
مطالعات درخصوص رکود بزرگ و ظهور فاشیسم در دهه ۱۹۳۰ خطراتی را برای جامعه نشان میدهد که بخش عمدهای از جامعه معیشت خود را از دست میدهند. اضطراب گسترده زمینه مساعدی را برای پوپولیستها و عوامفریبی اقتدارگرا برای به دست آوردن قدرت ایجاد میکند و این چالش بزرگی برای دموکراسی است که برابری در جامعه و حاکمیت قانون را به خطر میاندازد.
بیشتر مطالعات در زمینه هوش مصنوعی و بازارهای کار نشان میدهد که تاثیر کلی کمتری بر نرخ اشتغال دارد، اما تعداد قابلتوجهی از کارگران ممکن است به آموزشهای جدید نیاز داشته باشند تا همچنان قابل اشتغال به کار را داشته باشند.
ساعات کار طولانیتر
چه کسی مسوولیت پرداخت این هزینهها را به عهده خواهد گرفت؟ تکلیف افرادی که نمیتوانند یا در این بازآموزی شرکت داده نمیشوند، چیست؟ مطالعهای در سال ۲۰۲۳ توسط گلدمن ساکس نشان داد که تقریبا دوسوم مشاغل در اتحادیه اروپا و ایالاتمتحده تحتتاثیر هوش مصنوعی قرار میگیرند و این میتواند جایگزین یکچهارم مشاغل فعلی شود. همان مطالعه همچنین به افزایش ۷درصدی تولید ناخالص داخلی جهانی و ایجاد مشاغل جدید اشاره میکند که شاید جایگزین بسیاری از موقعیتهای ازدست رفته در دوران گذار شود.
مطالعات مقایسهای توسط سازمان بینالمللی کار، بانک مرکزی اروپا و صندوق بینالمللی پول نیز یافتههای مشابهی را نشان میدهند، اما همین نتایج مطالعه به ندرت به عناوین روشن برای عموم تبدیل میشود. حتی زمانی که آنها آزادانه و بدون جهتگیری منتشر میشوند، مردم به آنها بیاعتماد هستند، زیرا آنان از سمت همان صداهایی میآیند که به آنها اطمینان داده بودند که بخش مالی نیازی به مقررات قوی در پیش از بحران اقتصادی سال ۲۰۰۸ ندارند.
علاوه بر این، بدون مشاهده سیاستهای مشخص برای اطمینان از نتایج مثبت و فراگیر برای انتقال هوش مصنوعی، نمیتوان مردم را به دلیل بدبینی آنها سرزنش کرد. مردم زمانی را به خاطر میآورند که به آنها گفته شد فناوری زندگی آنها را آسانتر میکند، حجم کاری آنها را کاهش میدهد و افراد با اتکا به این فناوریها زمان بیشتری را برای کارهای شخصی خود آزاد میکنند. درعوض آنچه که در عمل اتفاق افتاد کاملا برعکس بود، پیدایش فناوریهای جدید باعث شد آنها حتی ساعتهای طولانیتری کار کنند و کارفرمایان را قادر میسازد تا آنها را دقیقتر زیرنظر داشته باشند و حتی آنها را در زمان استراحتشان موظف به کار کنند.
وحشت از آینده
پدیده فوبو باعث میشود امروزه بسیاری از شهروندان به جای اعتماد به نفس، با ترس و وحشت به آینده نگاه کنند، زیرا بسیاری از پیشبینیهای قبلی آنها اشتباه از آب در آمده است. آنها به دنبال پاسخ هستند و اگر دولتها و نهادها پاسخ دقیق مدنظر آنها را ارایه ندهند، پوپولیستها و بازیگران سیاسی متمایل به اقتدارگرایی میدان را در دست خواهند گرفت. عموم مردم با این پرسش مواجه میشوند که آیا باز هم میتوانم کار کنم؟ آیا برای تغذیه و هزینه اجاره خانه خانوادهام به اندازه کافی درآمد کسب خواهم کرد؟ این برای چه مدت دوام خواهد داشت؟ آیا زندگی من ۱۰ سال دیگر بهتر خواهد شد یا بدتر؟ در مورد زندگی فرزندانم چطور؟ آیا ثروتمندان ثروتمندتر میشوند درحالی که فقیرها فقیر میمانند؟
عصر هوش مصنوعی جنبههایی از زندگی ما را
به گونهای متحول خواهد کرد که ارزشها، قوانین و هنجارهای اجتماعی ما را به راستی به چالشهایی جدید میکشد که پیش از آن هیچ تجربهای از نحوه مواجهه با آن نداریم، اما هنوز مشخص نیست که آیا عصر جدید در جهت برابری و رفاه بیشتر رقم میخورد یا خیر و قضیه کاملا برخلاف تصور عمومی است. باتوجه به تجربیات تاریخی اخیر در حوزه توسعه فناوری و جامعه، چشمانداز روشنی وجود نخواهد داشت مگر اینکه ما یک تلاش آگاهانه و جمعی انجام دهیم. به همین دلیل است که ما به یک قرارداد اجتماعی جدید برای ورود به عصر هوش مصنوعی نیاز داریم.
اختراع آینده
دنیس گابور، برنده جایزه نوبل، نویسنده کتاب «اختراع آینده» (۱۹۶۳) یک جمله طلایی در این خصوص دارد: «آینده را نمیتوان پیشبینی کرد، اما آینده را میتوان اختراع کرد.» درحالی که یک قرارداد اجتماعی ذاتا یک تلاش جمعی برای بحث، ساختن و توافق بر سر هنجارها و ارزشهای اجتماعی است، چند سوال کلیدی را میتوان شناسایی کرد. انسان محصور در حلقه یا انسان در کنترل؟ ممکن است خلبانان خودکار بتوانند هواپیماها را به پرواز درآورند اما انسانها باید همیشه در کابین خلبان باشند. رویکرد انسان تحت کنترل، مسوولیتپذیری انسان را درقبال تصمیمات اتخاذ شده توسط و با هوش مصنوعی که میتواند بر زندگی، سلامت و دارایی تاثیر بگذارد، تضمین میکند. قوانین اتحادیه اروپا در حال حاضر محافظت در برابر نظارت و تصمیمگیری خودکار را ارایه میدهد، اما با فراگیرتر شدن ابزارهای مبتنی بر هوش مصنوعی، ممکن است نیاز به شفافسازی و حتی گسترش این حمایتها داشته باشیم، به ویژه در مواردی که تصمیمات بر کرامت انسانی در استخدام، مراقبتهای بهداشتی، آموزش و پرورش و مسائل مالی تاثیر میگذارند. به عنوان مثال، «مدیریت الگوریتمی کارگران» به خودی خود یک پلتفرم مشکلساز در عصر حاضر است، اکنون باید از خود بپرسیم که آیا از پذیرش مدیریت هوش مصنوعی کارگران در آینده خوشحال خواهیم بود یا این تبدیل به یک نگرانی عمیق خواهد شد؟ و بعد از آن رابطه بین مردم و پدیده هوش مصنوعی چگونه خواهد بود؟ چگونه میتوانیم مردم را از خطر سلطه یک هوش برتر ایمن نگه داریم و اطمینان حاصل کنیم که پیشرفتهای فناوری جدید با ارزشهای جوامع ما همسو هستند؟ در سادهترین عبارت، این به معنای موافقت، تدوین و اجرای مجموعهای از قوانین است که نشان میدهد هوش مصنوعی چه کاری را میتواند انجام دهد و چه کاری را نمیتواند انجام دهد و انسانها چگونه میتوانند از آن استفاده کنند یا ممکن است در جاهایی تصمیم بگیرند که آن را کنار بگذارند. این باید شامل نیاز به رضایت انسان در مورد اینکه چگونه و چه زمانی ممکن است به هوش مصنوعی اجازه داده شود تا در تعاملات یک فرد با دنیای دیجیتال واسطه شود، باشد تا مبادا عاملیت انسانی به خطر بیفتد.
آموزش و هوش مصنوعی
چگونه میتوانیم سیستمهای آموزشی را برای تشویق همکاری انسان و هوش مصنوعی به جای جایگزینی انسان با هوش مصنوعی طراحی کنیم؟ قطعا همهچیز نیازی به استفاده از هوش مصنوعی ندارد و سیستمهای آموزشی باید به آموزش مهارتهای اساسی ادامه دهند. با این وجود، به وضوح آموزش و یادگیری مادامالعمر توسط فناوریهای هوش مصنوعی تغییر مییابند که اجازه میدهد شخصیسازی بیشتر متناسب با رویکردهای یادگیری تکتک دانشآموزان باشد.
دانشآموزان در هر سنی باید آموزش ببینند و با سیستمهای هوش مصنوعی کار کنند، ازجمله نحوه تعامل انتقادی و اخلاقی با الگوریتمهای یادگیری عمیق و سایر فناوریهای هوش مصنوعی. با توجه به تقاضاهای بسیار زیاد در سیستمهای آموزشی، این امر مستلزم سرمایهگذاری عمومی استراتژیک و تمرکز بر آموزش معلمان است.
کارگران و هوش مصنوعی
چگونه میتوانیم یک انتقال عادلانه را برای کارگران تضمین کنیم؟ در بازار کار، نقشهای شغلی باید مانند همیشه با فناوریهای جدید تکامل یابد. این ممکن است به معنای ایجاد موقعیتهای جدیدی باشد که بر همکاری انسان و هوش مصنوعی تمرکز میکند، از جمله اطمینان از اینکه سیستمهای هوش مصنوعی همانطور که درنظر گرفته شده عمل میکنند و مسوولانه استفاده میشوند.
دولتها و بخش خصوصی باید با اتخاذ شیوههای صحیح و آموختهشده از انتقال به یک دوران جدید با حداکثر صیانت از حقوق افراد و همیاری یکدیگر به به کارگران کمک کنند تا در یک گذار عادلانه سازگار شوند که بیشترین بخشها را در معرض پیشگیری از مخاطرات قرار دهند، همچنین به موازات آن مهارتهای گسترده موردنیاز برای اطمینان از استفاده مسوولانه از هوش مصنوعی را توسعه دهند.
ارزشهای انسانی و هوش مصنوعی
از چه تواناییها و چه ارزشهای انسانی میخواهیم محافظت کنیم؟ انسانها برای کار، زندگی نمیکنند بلکه برای رفاه زندگی کار میکنند، اما ما انسانها از داشتن احساس هدف و رسیدن به اهدافمان در زندگی معنا میگیریم. اگر هوش مصنوعی یک صنعت را به شدت تغییر دهد و اکثر کارگران برای کارهای دیگر مناسب نباشند، چگونه میتوانند بدون کار یا دستاوردهای مشابه از زندگی خود معنایی بگیرند؟ هوش مصنوعی در حال حاضر هنر و موسیقی خود را میسازد درحالی که بیشتر انسانها برای انجام فعالیتهای خلاقانه و رضایتبخش کمتر تلاش میکنند.
آیا مهارتهای خاصی وجود دارد که بشر بخواهد آنها را حفظ کند و تا قرنها فعالیت حرفهای و فرهنگی از بین نرود؟ در بسیاری از زمینههای زندگی بشر، ممکن است برای ما کاملا مشروع باشد که بخواهیم از رویکردهای «ارگانیک» یا «زیستی» بدون هوش مصنوعی محافظت کنیم، درست همانطور که برخی از کشورهای اتحادیه اروپا قوانینی در مورد زبانها و تولیدات فرهنگی دارند. حتی اگر بخواهیم به مصرفکنندگان آزادی انتخاب بدهیم، باید درنظر بگیریم که آیا به قوانینی در مورد برچسبگذاری محتوای تولید شده توسط هوش مصنوعی نیاز داریم تا انتخاب مصرفکننده معنادار باشد.
چگونه میتوانیم انتقال هوش مصنوعی را فراگیر کنیم؟ در حال حاضر آگاهی بیشتری در مورد خطرات سوگیری الگوریتمی و تبعیض الگوریتمی وجود دارد، اما این چالشها با پذیرش گسترده فناوریهای یادگیری ماشین تشدید خواهد شد. افزایش تنوع در سراسر اکوسیستم هوش مصنوعی، از بخشهای تحقیقاتی گرفته تا هیاتهای اجرایی، به حمایت از انتقال هوش مصنوعی فراگیرتر و همچنین تمرکز بر تنوع بیشتر در مجموعه دادههای آموزشی کمک میکند.
چگونه از عقب ماندن مردم جلوگیری کنیم؟ این انتقال فناوری ممکن است با امواج قبلی متفاوت باشد، زیرا میتواند بر مشاغل حرفهای بسیار ماهر که قبلا در برابر اتوماسیون «ایمن» تلقی میشدند نیز تاثیر بگذارد.
با پیشرفت تکنولوژی، همه افراد به طور بالقوه درمعرض خطر احساس منسوخ شدن و «جای ماندن» هستند. بنابراین، ما باید همیشه به یاد داشته باشیم که انسانها به خودی خود یک هدف هستند و هر پیشرفتی که مردم را پشت سر بگذارد، پیشرفت نیست. به جای پذیرش این فرض که انسانها باید با اتوماسیون رقابت کنند، سیستمهای رفاهی و حمایتهای کارگری باید برای حمایت از زمان و فضای خلاقانهای که مردم به آن نیاز دارند وفق دهند تا هوش فرهنگی و اجتماعی انسانی غنی و متنوعی را تولید کنند که مدلهای یادگیری عمیق آن را بازسازی کرده و در خروجی هوش مصنوعی ترکیب میکنند.
جعبه سیاه هوش مصنوعی
آیا ترکیبی از خدمات پایه جهانی (UBS) و درآمد پایه جهانی (UBI) وجود دارد که رفاه و کرامت انسان را حفظ کند؟ شاید این میتواند تا حدی توسط نوعی مالیات توسط هوش مصنوعی تامین شود. چگونه میتوانیم تضمین کنیم که «تولیدکنندگان دادهها به عنوان نیروی کار» با پرداخت عوارض و مالیات به طور عادلانه با نیروی کار انسانی رقابت کنند؟ همانطور که «ای گلن ویل» و «جارن لنیر» از پیشگامان فناوری در سال ۲۰۱۸ این نظریه را مطرح میکنند که فناوریهایی مانند الگوریتمهای یادگیری عمیق و شبکههای عصبی امروزی برای انجام کارهای سنگین به «داده به عنوان کار» متکی هستند پس صراحتا این نکته قابل تکرار است که مدلهای یادگیری عمیق بدون دادههای آموزشی تولید شده توسط انسان نمیتوانند کاری را که انجام میدهند تکمیل کنند. حتی دادههای مصنوعی یا دادههای آموزشی تولید شده توسط مدلهای هوش مصنوعی، درنهایت محصول دادههای اولیه انسانی به عنوان نیروی کار است.
تصمیمگیری در سیستمهای هوش مصنوعی مانند یک «جعبه سیاه» درون هواپیماها و زیردریاییهاست، اما سیاستگذاران این عرصه میتوانند با طراحی مقرراتی که چانهزنی جمعی را بین سازمانهایی که نماینده کارگرانی که دادههای آموزشی را ایجاد میکنند و صاحبان مدلهای هوش مصنوعی که به صورت تجاری از این دادهها بهرهبرداری میکنند، تسهیل کنند و این روند به ایجاد شفافیت در مدلهای تعاملی کمک کند.
چگونه میتوانیم سیستمهای هوش مصنوعی پایدار را در یک اقتصاد زنجیروار که به صورت یک چرخه سلسله مراتبی شکل یافته است، جانمایی کنیم؟ الگوریتمهای یادگیری عمیق به منابع محاسباتی قابلتوجهی نیاز دارند که انرژی زیادی دارند و همچنین روی سختافزاری اجرا میشوند که به مواد خام استخراج شده از زمین نیاز دارد. این یکی از دلایلی است که وقتی رویکردهای ارزانتر (ازجمله رویکردهای الگوریتمی ارزانتر) به همان خوبی کار را انجام میدهند، درنظر داشته باشید که هوش مصنوعی به همه چیز اتکای منطقی اقتصادی یا زیست محیطی ندارد. با این حال، در جایی که یک مورد مسوول برای هوش مصنوعی وجود دارد، چگونه میتوانیم اطمینان حاصل کنیم که باعث انتشار کربن و استخراج منابع مخرب زیست محیطی نمیشود؟
در واقع، در صورت استفاده مسوولانه، هوش مصنوعی بهطور بالقوه میتواند به جوامع کمک کند تا انرژی کارآمدتر و پایدارتر شوند.
چه کسی صاحب نوآوریهای ایجاد شده توسط هوش مصنوعی خواهد شد؟ در سال ۲۰۲۱، آفریقای جنوبی اولین کشوری بود که به یک مدل هوش مصنوعی جدید حق اختراع اعطا کرد، اگرچه سایر دفاتر ثبت اختراع در سراسر جهان در این خصوص بسیار محتاطتر عمل کردند. در دسامبر ۲۰۲۳ سرویس گوگل دیپ مایند یک راهحل کاملا جدید برای یک مساله ریاضی ارایه کرد، اما از ثبت حق اختراع نوآوری هوش مصنوعیاش در آن زمان ایالاتمتحده بازماند، یک نکته دیگر که ضرورت دارد مغفول نماند این مثال و پاسخ به پرسش مطرح شد در ادامه آن است: همانطور که سیستمهای هوش مصنوعی شروع به تولید نوآوریهایی مانند داروهای جدید میکنند، چگونه سیستمهای مالکیت معنوی تضمین میکنند که ابزار نوآوری به نفع همه است و صرفا به طور دایمی توسط ثروتمندترینها تسخیر نمیشود؟ آیا به هوش مصنوعی عمومی نیاز داریم؟
همانطور که مدلهای هوش مصنوعی پیچیدهتر میشوند، به منابع محاسباتی بیشتری نیاز خواهند داشت که در حال حاضر به یک مانع اقتصادی برای دسترسی تبدیل شده است.
تاریخچه طولانی موسسات عمومی وجود دارد که برای ارایه دسترسی رایگان یا مقرون بهصرفه به خدمات اطلاعاتی، از کتابخانههای عمومی تا خدمات پخش عمومی، طراحی شدهاند. به جای یک سیستم دو لایه، با پیشرفتهترین هوش مصنوعی پنهان در پشت دیوارهای پرداخت و دسترسی آزاد (یا محدود) به هوش مصنوعی اولیه، آیا همه شهروندان نباید به هوش مصنوعی عمومی پیشرفته دسترسی داشته باشند.
به نظر میرسد با روند کنونی اتحادیه اروپا باید شهروندانش را در یک بحث عمومی گسترده و پویا درمورد سوالات فوق و هر سوال دیگری که پیش میآید، مشارکت دهد.
در کنار سیاستهای سنتی نمایندگی، کنفرانس آینده اروپا و پانلهای شهروندان اروپایی نشان میدهد که چگونه فرآیندهای سیاسی مشورتی ممکن است به شناسایی و حفظ پاسخها در روح دموکراتیک قرارداد اجتماعی که توسط ژان ژاک روسو تدوین شده، کمک کند.
یک ضربالمثل قدیمی از روزهای اولیه محاسبات وجود دارد؛ مثال زباله وارد شده و زباله خارج شده یا همان (GIGO) به این معنی که خروجی یک کامپیوتر فقط به اندازه ورودی داده خوب است به این معنی که خروجیها به کیفیت ورودیها بستگی مستقیم دارند. هوش مصنوعی به سادگی هر چه تمامتر میتواند دایره باطل مثال GIGO را نشان دهد. اگر انسانها را مجبور به رقابت با اتوماسیون کنیم، جامعه را تنزل خواهیم داد که نه تنها دادههای آموزش هوش مصنوعی آینده بلکه زمینه اجتماعی را که شرکتها و دانشمندانی که سیستمهای هوش مصنوعی میسازند از آن بیرون میآیند را نیز تخریب میکنند، این قطعا همان آیندهای است که به فاجعه ختم خواهد شد. اما آیندهای جایگزین وجود دارد که در آن هوش مصنوعی هوش اجتماعی انسان را در یک دایره فضیلتمند گسترش داده و از آن پشتیبانی میکند که به درون خود بازخورد میدهد و شکوفایی بشریت را تشویق میکند، البته خوشبختانه همچنان در آغاز راه هستیم و هنوز فرصت کافی داریم تا آینده و سرنوشتمان را خودمان انتخاب کنیم.
این مطلب را با گفتهای از ژان ژاک روسو درخصوص قرارداد اجتماعی خاتمه میدهیم: «در حقیقت، قوانین همیشه برای مالکان مفید هستند و برای کسانی که چیزی ندارند مضر. از آن نتیجه میشود که دولت اجتماعی تنها زمانی برای مردمان سودمند است که همه چیزی داشته باشند و هیچکس بیش از حد نداشته باشد.»
منبع:
https: //defenddemocracy.eu/a-new-social-contract-for-the-age-of-artificial-intelligence/
مروری بر هستیشناسی در شعر بیژن نجدی
از «رستم و سهراب» تا «اُدیپوس»
سروکله زدن با رمانهای ادبیات روسیه بدون درگیر شدن با اسامی شخصیتهای فراوانی که در کتاب حاضر هستند، غیرممکن است.
هم خودمان و هم بسیاری از اطرافیانمان به شکلهای مختلف درگیر این اختلالات و مشکلات هستیم.
دوگانگی درونی داستایفسکی زندگی بدون خدا را از نزدیک بررسی میکند تا به نفع خدا استدلال کند.