img
img
img
img
img

برای همه به یک اندازه

کریس  کرمیداس کورتنی، جو لیتوبارسکی/ مترجم: کامران مشفق آرانی

اعتماد: عصر هوش مصنوعی (AI) نه تنها نزدیک است، البته در حال حاضر گویی خیلی وقت است از راه رسیده است. بدون شک هم‌اکنون هم زندگی ما را متحول کرده و ارزش‌ها، قوانین و هنجارهای اجتماعی ما را بیش از پیش به چالش خواهد کشید. واقعیت این است که ما به یک قرارداد اجتماعی جدید برای ورود به عصر هوش مصنوعی نیاز داریم. دقت کنید اکنون تازه به سرآغاز مسیری رسیدیم که خیلی پیش‌تر آغاز شده بود، به طور مثال تحقیقات روی شبکه‌های عصبی سایبرنتیک در قرن گذشته و در آغازین سال‌های دهه پنجم قرن بیستم (حدودا سال ۱۹۴۰ میلادی) آغاز شد، اما ترکیب مجموعه‌های داده عظیم و پیشرفت علوم موازی و رشد قدرت پردازش کامپیوترها منجر به یک اتفاق هیجان‌انگیز و عمیق در یادگیری ذهن ماشین شد که سایر صنایع را به کل متحول کرد.

این روزها هوش مصنوعی در انواع محصولات مصرفی که ما برای کار و اوقات فراغت استفاده می‌کنیم حضور پررنگی دارد. به وضوح در مورد پیشرفت چشمگیر هوش مصنوعی تبلیغات وجود دارد و سرمایه‌داران دست به شانتاژ عمیق خبری در این حوزه می‌زنند، اما پیشرفت‌های بزرگ نیز قابل اغماض نیستند. برخی معتقدند توان اقتصاد مبتنی بر هوش مصنوعی به این معناست که ما در یک حباب حدس و گمان قرار داریم و انتهای راه مشخص نیست. حتی اگر این موضوع صحت داشته باشد، ما هنوز باید به‌طور عمومی در مورد تاثیرات اجتماعی میان‌مدت این فناوری‌ها بحث کنیم. به هر حال، آشوب حباب دات کام (بحران اقتصادی در خلال سال‌های ۱۹۹۵ تا ۲۰۰۰ میلادی) در دهه ۱۹۹۰ مانع از تغییر اساسی اینترنت در جامعه مدرن نشد. در واقع، پیش‌بینی می‌شود که سال ۲۰۲۴ سالی باشد که ما از صحبت بیشتر در مورد هوش مصنوعی به فراگیر شدن آن در زندگی خود تغییر می‌کنیم.

خطرات هوش مصنوعی: ترس از منسوخ شدن

مزایای اجتماعی و اقتصادی می‌تواند بسیار زیاد باشد، اما خطرات ممکن است به همان اندازه قابل توجه باشند. خطرات بالقوه تاثیر هوش مصنوعی بر انتخابات توسط کارشناسان برای سال‌ها پیش‌بینی شده است و نگرانی‌ها در مورد اختلالات اقتصادی و تغییرات شدید در بازار کار باعث ایجاد اضطراب اضافی در نظم اجتماعی می‌شود که در حال حاضر هم حتی نشانه‌هایی از استرس شدید را میان افراد شاغل و نیروهای کار نشان می‌دهد. در اروپا، تقریبا نیمی از افراد خانواده‌های در سن کار در کشورهای OECD (سازمان توسعه و همکاری اقتصادی بین‌المللی شامل ۳۸ عضو) از نظر مالی شکننده هستند و شبح تاریک از دست دادن شغل به دلیل رشد پدیده هوش مصنوعی در حال حاضر به عنوان یک عامل نگران‌کننده برای کارگران در سراسر جهان ثبت شده است.

یک نظرسنجی گالوپ در سال ۲۰۲۳ در ایالات‌متحده نشان داد که ۲۲درصد از کارگران از منسوخ شدن شغل آنها توسط فناوری‌های جدید مانند هوش مصنوعی می‌ترسند که نسبت به سال ۲۰۲۱ شاخص این نگرانی ۷درصد افزایش یافته است. این پدیده و به عبارتی ترس جدید به اختصار FOBO نامیده می‌شود، به این پدیده ترس از منسوخ شدن مشاغل می‌گویند. در اتحادیه اروپا، ترس از پدیده فوبو ممکن است حتی شدیدتر باشد، زیرا یک نظرسنجی یوروبارومتر در سال ۲۰۱۷ نشان داد که ۷۲درصد از کارگران اروپایی می‌ترسند فناوری‌های جدید «شغل مردم را بدزدند.»

مطالعات درخصوص رکود بزرگ و ظهور فاشیسم در دهه ۱۹۳۰ خطراتی را برای جامعه نشان می‌دهد که بخش عمده‌ای از جامعه معیشت خود را از دست می‌دهند. اضطراب گسترده زمینه مساعدی را برای پوپولیست‌ها و عوام‌فریبی اقتدارگرا برای به دست آوردن قدرت ایجاد می‌کند و این چالش بزرگی برای دموکراسی است که برابری در جامعه و حاکمیت قانون را به خطر می‌اندازد.

بیشتر مطالعات در زمینه هوش مصنوعی و بازارهای کار نشان می‌دهد که تاثیر کلی کمتری بر نرخ اشتغال دارد، اما تعداد قابل‌توجهی از کارگران ممکن است به آموزش‌های جدید نیاز داشته باشند تا همچنان قابل اشتغال به کار را داشته باشند.

ساعات کار طولانی‌تر

چه کسی مسوولیت پرداخت این هزینه‌ها را به عهده خواهد گرفت؟ تکلیف افرادی که نمی‌توانند یا در این بازآموزی شرکت داده نمی‌شوند، چیست؟ مطالعه‌ای در سال ۲۰۲۳ توسط گلدمن ساکس نشان داد که تقریبا دوسوم مشاغل در اتحادیه اروپا و ایالات‌متحده تحت‌تاثیر هوش مصنوعی قرار می‌گیرند و این می‌تواند جایگزین یک‌چهارم مشاغل فعلی شود. همان مطالعه همچنین به افزایش ۷درصدی تولید ناخالص داخلی جهانی و ایجاد مشاغل جدید اشاره می‌کند که شاید جایگزین بسیاری از موقعیت‌های ازدست رفته در دوران گذار شود.

مطالعات مقایسه‌ای توسط سازمان بین‌المللی کار، بانک مرکزی اروپا و صندوق بین‌المللی پول نیز یافته‌های مشابهی را نشان می‌دهند، اما همین نتایج مطالعه به ندرت به عناوین روشن برای عموم تبدیل می‌شود. حتی زمانی که آنها آزادانه و بدون جهت‌گیری منتشر می‌شوند، مردم به آنها بی‌اعتماد هستند، زیرا آنان از سمت همان صداهایی می‌آیند که به آنها اطمینان داده بودند که بخش مالی نیازی به مقررات قوی در پیش از بحران اقتصادی سال ۲۰۰۸ ندارند.

علاوه بر این، بدون مشاهده سیاست‌های مشخص برای اطمینان از نتایج مثبت و فراگیر برای انتقال هوش مصنوعی، نمی‌توان مردم را به دلیل بدبینی آنها سرزنش کرد. مردم زمانی را به خاطر می‌آورند که به آنها گفته شد فناوری زندگی آنها را آسان‌تر می‌کند، حجم کاری آنها را کاهش می‌دهد و افراد با اتکا به این فناوری‌ها زمان بیشتری را برای کارهای شخصی خود آزاد می‌کنند. درعوض آنچه که در عمل اتفاق افتاد کاملا برعکس بود، پیدایش فناوری‌های جدید باعث شد آنها حتی ساعت‌های طولانی‌تری کار کنند و کارفرمایان را قادر می‌سازد تا آنها را دقیق‌تر زیرنظر داشته باشند و حتی آنها را در زمان استراحت‌شان موظف به کار کنند.

وحشت از آینده

پدیده فوبو باعث می‌شود امروزه بسیاری از شهروندان به جای اعتماد به نفس، با ترس و وحشت به آینده نگاه کنند، زیرا بسیاری از پیش‌بینی‌های قبلی آنها اشتباه از آب در آمده است. آنها به دنبال پاسخ هستند و اگر دولت‌ها و نهادها پاسخ دقیق مدنظر آنها را ارایه ندهند، پوپولیست‌ها و بازیگران سیاسی متمایل به اقتدارگرایی میدان را در دست خواهند گرفت. عموم مردم با این پرسش مواجه می‌شوند که آیا باز هم می‌توانم کار کنم؟ آیا برای تغذیه و هزینه اجاره خانه خانواده‌ام به اندازه کافی درآمد کسب خواهم کرد؟ این برای چه مدت دوام خواهد داشت؟ آیا زندگی من ۱۰ سال دیگر بهتر خواهد شد یا بدتر؟ در مورد زندگی فرزندانم چطور؟ آیا ثروتمندان ثروتمندتر می‌شوند درحالی که فقیرها فقیر می‌مانند؟

عصر هوش مصنوعی جنبه‌هایی از زندگی ما را
به گونه‌ای متحول خواهد کرد که ارزش‌ها، قوانین و هنجارهای اجتماعی ما را به راستی به چالش‌هایی جدید می‌کشد که پیش از آن هیچ تجربه‌ای از نحوه مواجهه با آن نداریم، اما هنوز مشخص نیست که آیا عصر جدید در جهت برابری و رفاه بیشتر رقم می‌خورد یا خیر و قضیه کاملا برخلاف تصور عمومی است. باتوجه به تجربیات تاریخی اخیر در حوزه توسعه فناوری و جامعه، چشم‌انداز روشنی وجود نخواهد داشت مگر اینکه ما یک تلاش آگاهانه و جمعی انجام دهیم. به همین دلیل است که ما به یک قرارداد اجتماعی جدید برای ورود به عصر هوش مصنوعی نیاز داریم.

اختراع آینده

دنیس گابور، برنده جایزه نوبل، نویسنده کتاب «اختراع آینده» (۱۹۶۳) یک جمله طلایی در این خصوص دارد: «آینده را نمی‌توان پیش‌بینی کرد، اما آینده را می‌توان اختراع کرد.» درحالی که یک قرارداد اجتماعی ذاتا یک تلاش جمعی برای بحث، ساختن و توافق بر سر هنجارها و ارزش‌های اجتماعی است، چند سوال کلیدی را می‌توان شناسایی کرد. انسان محصور در حلقه یا انسان در کنترل؟ ممکن است خلبانان خودکار بتوانند هواپیماها را به پرواز درآورند اما انسان‌ها باید همیشه در کابین خلبان باشند. رویکرد انسان تحت کنترل، مسوولیت‌پذیری انسان را درقبال تصمیمات اتخاذ شده توسط و با هوش مصنوعی که می‌تواند بر زندگی، سلامت و دارایی تاثیر بگذارد، تضمین می‌کند. قوانین اتحادیه اروپا در حال حاضر محافظت در برابر نظارت و تصمیم‌گیری خودکار را ارایه می‌دهد، اما با فراگیرتر شدن ابزارهای مبتنی بر هوش مصنوعی، ممکن است نیاز به شفاف‌سازی و حتی گسترش این حمایت‌ها داشته باشیم، به ویژه در مواردی که تصمیمات بر کرامت انسانی در استخدام، مراقبت‌های بهداشتی، آموزش و پرورش و مسائل مالی تاثیر می‌گذارند. به عنوان مثال، «مدیریت الگوریتمی کارگران» به خودی خود یک پلتفرم مشکل‌ساز در عصر حاضر است، اکنون باید از خود بپرسیم که آیا از پذیرش مدیریت هوش مصنوعی کارگران در آینده خوشحال خواهیم بود یا این تبدیل به یک نگرانی عمیق خواهد شد؟ و بعد از آن رابطه بین مردم و پدیده هوش مصنوعی چگونه خواهد بود؟ چگونه می‌توانیم مردم را از خطر سلطه یک هوش برتر ایمن نگه داریم و اطمینان حاصل کنیم که پیشرفت‌های فناوری جدید با ارزش‌های جوامع ما همسو هستند؟ در ساده‌ترین عبارت، این به معنای موافقت، تدوین و اجرای مجموعه‌ای از قوانین است که نشان می‌دهد هوش مصنوعی چه کاری را می‌تواند انجام دهد و چه کاری را نمی‌تواند انجام دهد و انسان‌ها چگونه می‌توانند از آن استفاده کنند یا ممکن است در جاهایی تصمیم بگیرند که آن را کنار بگذارند. این باید شامل نیاز به رضایت انسان در مورد اینکه چگونه و چه زمانی ممکن است به هوش مصنوعی اجازه داده شود تا در تعاملات یک فرد با دنیای دیجیتال واسطه شود، باشد تا مبادا عاملیت انسانی به خطر بیفتد.

آموزش و هوش مصنوعی

چگونه می‌توانیم سیستم‌های آموزشی را برای تشویق همکاری انسان و هوش مصنوعی به جای جایگزینی انسان با هوش مصنوعی طراحی کنیم؟ قطعا همه‌چیز نیازی به استفاده از هوش مصنوعی ندارد و سیستم‌های آموزشی باید به آموزش مهارت‌های اساسی ادامه دهند. با این وجود، به وضوح آموزش و یادگیری مادام‌العمر توسط فناوری‌های هوش مصنوعی تغییر می‌یابند که اجازه می‌دهد شخصی‌سازی بیشتر متناسب با رویکردهای یادگیری تک‌تک دانش‌آموزان باشد.

دانش‌آموزان در هر سنی باید آموزش ببینند و با سیستم‌های هوش مصنوعی کار کنند، ازجمله نحوه تعامل انتقادی و اخلاقی با الگوریتم‌های یادگیری عمیق و سایر فناوری‌های هوش مصنوعی. با توجه به تقاضاهای بسیار زیاد در سیستم‌های آموزشی، این امر مستلزم سرمایه‌گذاری عمومی استراتژیک و تمرکز بر آموزش معلمان است.

کارگران و هوش مصنوعی

چگونه می‌توانیم یک انتقال عادلانه را برای کارگران تضمین کنیم؟ در بازار کار، نقش‌های شغلی باید مانند همیشه با فناوری‌های جدید تکامل یابد. این ممکن است به معنای ایجاد موقعیت‌های جدیدی باشد که بر همکاری انسان و هوش مصنوعی تمرکز می‌کند، از جمله اطمینان از اینکه سیستم‌های هوش مصنوعی همان‌طور که درنظر گرفته شده عمل می‌کنند و مسوولانه استفاده می‌شوند.

دولت‌ها و بخش خصوصی باید با اتخاذ شیوه‌های صحیح و آموخته‌شده از انتقال به یک دوران جدید با حداکثر صیانت از حقوق افراد و همیاری یکدیگر به به کارگران کمک کنند تا در یک گذار عادلانه سازگار شوند که بیشترین بخش‌ها را در معرض پیشگیری از مخاطرات قرار دهند، همچنین به موازات آن مهارت‌های گسترده موردنیاز برای اطمینان از استفاده مسوولانه از هوش مصنوعی را توسعه دهند.

ارزش‌های انسانی و هوش مصنوعی

از چه توانایی‌ها و چه ارزش‌های انسانی می‌خواهیم محافظت کنیم؟ انسان‌ها برای کار، زندگی نمی‌کنند بلکه برای رفاه زندگی کار می‌کنند، اما ما انسان‌ها از داشتن احساس هدف و رسیدن به اهداف‌مان در زندگی معنا می‌گیریم. اگر هوش مصنوعی یک صنعت را به شدت تغییر دهد و اکثر کارگران برای کارهای دیگر مناسب نباشند، چگونه می‌توانند بدون کار یا دستاوردهای مشابه از زندگی خود معنایی بگیرند؟ هوش مصنوعی در حال حاضر هنر و موسیقی خود را می‌سازد درحالی که بیشتر انسان‌ها برای انجام فعالیت‌های خلاقانه و رضایت‌بخش کمتر تلاش می‌کنند.

آیا مهارت‌های خاصی وجود دارد که بشر بخواهد آنها را حفظ کند و تا قرن‌ها فعالیت حرفه‌ای و فرهنگی از بین نرود؟ در بسیاری از زمینه‌های زندگی بشر، ممکن است برای ما کاملا مشروع باشد که بخواهیم از رویکردهای «ارگانیک» یا «زیستی» بدون هوش مصنوعی محافظت کنیم، درست همان‌طور که برخی از کشورهای اتحادیه اروپا قوانینی در مورد زبان‌ها و تولیدات فرهنگی دارند. حتی اگر بخواهیم به مصرف‌کنندگان آزادی انتخاب بدهیم، باید درنظر بگیریم که آیا به قوانینی در مورد برچسب‌گذاری محتوای تولید شده توسط هوش مصنوعی نیاز داریم تا انتخاب مصرف‌کننده معنادار باشد.

چگونه می‌توانیم انتقال هوش مصنوعی را فراگیر کنیم؟ در حال حاضر آگاهی بیشتری در مورد خطرات سوگیری الگوریتمی و تبعیض الگوریتمی وجود دارد، اما این چالش‌ها با پذیرش گسترده فناوری‌های یادگیری ماشین تشدید خواهد شد. افزایش تنوع در سراسر اکوسیستم هوش مصنوعی، از بخش‌های تحقیقاتی گرفته تا هیات‌های اجرایی، به حمایت از انتقال هوش مصنوعی فراگیرتر و همچنین تمرکز بر تنوع بیشتر در مجموعه داده‌های آموزشی کمک می‌کند.

چگونه از عقب ماندن مردم جلوگیری کنیم؟ این انتقال فناوری ممکن است با امواج قبلی متفاوت باشد، زیرا می‌تواند بر مشاغل حرفه‌ای بسیار ماهر که قبلا در برابر اتوماسیون «ایمن» تلقی می‌شدند نیز تاثیر بگذارد.

با پیشرفت تکنولوژی، همه افراد به طور بالقوه درمعرض خطر احساس منسوخ شدن و «جای ماندن» هستند. بنابراین، ما باید همیشه به یاد داشته باشیم که انسان‌ها به خودی خود یک هدف هستند و هر پیشرفتی که مردم را پشت سر بگذارد، پیشرفت نیست. به جای پذیرش این فرض که انسان‌ها باید با اتوماسیون رقابت کنند، سیستم‌های رفاهی و حمایت‌های کارگری باید برای حمایت از زمان و فضای خلاقانه‌ای که مردم به آن نیاز دارند وفق دهند تا هوش فرهنگی و اجتماعی انسانی غنی و متنوعی را تولید کنند که مدل‌های یادگیری عمیق آن را بازسازی کرده و در خروجی هوش مصنوعی ترکیب می‌کنند.

جعبه سیاه هوش مصنوعی

آیا ترکیبی از خدمات پایه جهانی (UBS) و درآمد پایه جهانی (UBI) وجود دارد که رفاه و کرامت انسان را حفظ کند؟ شاید این می‌تواند تا حدی توسط نوعی مالیات توسط هوش مصنوعی تامین شود. چگونه می‌توانیم تضمین کنیم که «تولیدکنندگان داده‌ها به عنوان نیروی کار» با پرداخت عوارض و مالیات به طور عادلانه با نیروی کار انسانی رقابت کنند؟ همان‌طور که «ای گلن ویل» و «جارن لنیر» از پیشگامان فناوری در سال ۲۰۱۸ این نظریه را مطرح می‌کنند که فناوری‌هایی مانند الگوریتم‌های یادگیری عمیق و شبکه‌های عصبی امروزی برای انجام کارهای سنگین به «داده به عنوان کار» متکی هستند پس صراحتا این نکته قابل تکرار است که مدل‌های یادگیری عمیق بدون داده‌های آموزشی تولید شده توسط انسان نمی‌توانند کاری را که انجام می‌دهند تکمیل کنند. حتی داده‌های مصنوعی یا داده‌های آموزشی تولید شده توسط مدل‌های هوش مصنوعی، درنهایت محصول داده‌های اولیه انسانی به عنوان نیروی کار است.

تصمیم‌گیری در سیستم‌های هوش مصنوعی مانند یک «جعبه سیاه» درون هواپیماها و زیردریایی‌هاست، اما سیاست‌گذاران این عرصه می‌توانند با طراحی مقرراتی که چانه‌زنی جمعی را بین سازمان‌هایی که نماینده کارگرانی که داده‌های آموزشی را ایجاد می‌کنند و صاحبان مدل‌های هوش مصنوعی که به صورت تجاری از این داده‌ها بهره‌برداری می‌کنند، تسهیل کنند و این روند به ایجاد شفافیت در مدل‌های تعاملی کمک کند.

چگونه می‌توانیم سیستم‌های هوش مصنوعی پایدار را در یک اقتصاد زنجیروار که به صورت یک چرخه سلسله مراتبی شکل یافته است، جانمایی کنیم؟ الگوریتم‌های یادگیری عمیق به منابع محاسباتی قابل‌توجهی نیاز دارند که انرژی زیادی دارند و همچنین روی سخت‌افزاری اجرا می‌شوند که به مواد خام استخراج شده از زمین نیاز دارد. این یکی از دلایلی است که وقتی رویکردهای ارزان‌تر (ازجمله رویکردهای الگوریتمی ارزان‌تر) به همان خوبی کار را انجام می‌دهند، درنظر داشته باشید که هوش مصنوعی به همه چیز اتکای منطقی اقتصادی یا زیست محیطی ندارد. با این حال، در جایی که یک مورد مسوول برای هوش مصنوعی وجود دارد، چگونه می‌توانیم اطمینان حاصل کنیم که باعث انتشار کربن و استخراج منابع مخرب زیست محیطی نمی‌شود؟
در واقع، در صورت استفاده مسوولانه، هوش مصنوعی به‌طور بالقوه می‌تواند به جوامع کمک کند تا انرژی کارآمدتر و پایدارتر شوند.

چه کسی صاحب نوآوری‌های ایجاد شده توسط هوش مصنوعی خواهد شد؟ در سال ۲۰۲۱، آفریقای جنوبی اولین کشوری بود که به یک مدل هوش مصنوعی جدید حق اختراع اعطا کرد، اگرچه سایر دفاتر ثبت اختراع در سراسر جهان در این خصوص بسیار محتاط‌تر عمل کردند. در دسامبر ۲۰۲۳ سرویس گوگل دیپ مایند یک راه‌حل کاملا جدید برای یک مساله ریاضی ارایه کرد، اما از ثبت حق اختراع نوآوری هوش مصنوعی‌اش در آن زمان ایالات‌متحده بازماند، یک نکته دیگر که ضرورت دارد مغفول نماند این مثال و پاسخ به پرسش مطرح شد در ادامه آن است: همان‌طور که سیستم‌های هوش مصنوعی شروع به تولید نوآوری‌هایی مانند داروهای جدید می‌کنند، چگونه سیستم‌های مالکیت معنوی تضمین می‌کنند که ابزار نوآوری به نفع همه است و صرفا به طور دایمی توسط ثروتمندترین‌ها تسخیر نمی‌شود؟ آیا به هوش مصنوعی عمومی نیاز داریم؟

همان‌طور که مدل‌های هوش مصنوعی پیچیده‌تر می‌شوند، به منابع محاسباتی بیشتری نیاز خواهند داشت که در حال حاضر به یک مانع اقتصادی برای دسترسی تبدیل شده است.

تاریخچه طولانی موسسات عمومی وجود دارد که برای ارایه دسترسی رایگان یا مقرون به‌صرفه به خدمات اطلاعاتی، از کتابخانه‌های عمومی تا خدمات پخش عمومی، طراحی شده‌اند. به جای یک سیستم دو لایه، با پیشرفته‌ترین هوش مصنوعی پنهان در پشت دیوارهای پرداخت و دسترسی آزاد (یا محدود) به هوش مصنوعی اولیه، آیا همه شهروندان نباید به هوش مصنوعی عمومی پیشرفته دسترسی داشته باشند.

به نظر می‌رسد با روند کنونی اتحادیه اروپا باید شهروندانش را در یک بحث عمومی گسترده و پویا درمورد سوالات فوق و هر سوال دیگری که پیش می‌آید، مشارکت دهد.

در کنار سیاست‌های سنتی نمایندگی، کنفرانس آینده اروپا و پانل‌های شهروندان اروپایی نشان می‌دهد که چگونه فرآیندهای سیاسی مشورتی ممکن است به شناسایی و حفظ پاسخ‌ها در روح دموکراتیک قرارداد اجتماعی که توسط ژان ژاک روسو تدوین شده، کمک کند.

یک ضرب‌المثل قدیمی از روزهای اولیه محاسبات وجود دارد؛ مثال زباله وارد شده و زباله خارج شده یا همان (GIGO) به این معنی که خروجی یک کامپیوتر فقط به اندازه ورودی داده خوب است به این معنی که خروجی‌ها به کیفیت ورودی‌ها بستگی مستقیم دارند. هوش مصنوعی به سادگی هر چه تمام‌تر می‌تواند دایره باطل مثال GIGO را نشان دهد. اگر انسان‌ها را مجبور به رقابت با اتوماسیون کنیم، جامعه را تنزل خواهیم داد که نه تنها داده‌های آموزش هوش مصنوعی آینده بلکه زمینه اجتماعی را که شرکت‌ها و دانشمندانی که سیستم‌های هوش مصنوعی می‌سازند از آن بیرون می‌آیند را نیز تخریب می‌کنند، این قطعا همان آینده‌ای است که به فاجعه ختم خواهد شد. اما آینده‌ای جایگزین وجود دارد که در آن هوش مصنوعی هوش اجتماعی انسان را در یک دایره فضیلتمند گسترش داده و از آن پشتیبانی می‌کند که به درون خود بازخورد می‌دهد و شکوفایی بشریت را تشویق می‌کند، البته خوشبختانه همچنان در آغاز راه هستیم و هنوز فرصت کافی داریم تا آینده و سرنوشت‌مان را خودمان انتخاب کنیم.

این مطلب را با گفته‌ای از ژان ژاک روسو درخصوص قرارداد اجتماعی خاتمه می‌دهیم: «در حقیقت، قوانین همیشه برای مالکان مفید هستند و برای کسانی که چیزی ندارند مضر. از آن نتیجه می‌شود که دولت اجتماعی تنها زمانی برای مردمان سودمند است که همه چیزی داشته باشند و هیچ‌کس بیش از حد نداشته باشد.»

منبع:

https: //defenddemocracy.eu/a-new-social-contract-for-the-age-of-artificial-intelligence/

كلیدواژه‌های مطلب: برای این مطلب كلیدواژه‌ای تعریف نشده.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

تازه‌ترين مطالب اين بخش
  شاعری در حضور پروانگی‌های مقدس

مروری بر هستی‌شناسی در شعر بیژن نجدی

  تراژدی و اشتباهات؛ در داستان‌های اساطیری

از «رستم و سهراب» تا «اُدیپوس»

  راهنمای اسم در ادبیات روسیه

سروکله زدن با رمان‌های ادبیات روسیه بدون درگیر شدن با اسامی شخصیت‌های فراوانی که در کتاب حاضر هستند، غیرممکن است.

  بلایی که گوشی‌های هوشمند و شبکه‌های اجتماعی بر سرمان آورده‌اند

هم خودمان و هم بسیاری از اطرافیانمان به شکل‌های مختلف درگیر این اختلالات و مشکلات هستیم.

  داستایفسکی و پرسشی که تمام عمر از آن رنج می‌برد

دوگانگی درونی داستایفسکی زندگی بدون خدا را از نزدیک بررسی می‌کند تا به نفع خدا استدلال کند.