کارشناسان هوش مصنوعي در مورد ماهيت خطرات آن اختلاف نظر دارند
تاریخ انتشار: ۱۰ خرداد ۱۴۰۲ | کد خبر: ۳۷۸۷۵۲۹۴
خبرگزاری آریا-کارشناسان از جمله روسای دو شرکت «اوپن اِی آی» و «گوگل دیپ مایند» هشدار دادهاند که هوش مصنوعی ممکن است به انقراض نوع بشر منجر شود.
به گزارش خبرگزاری آریا به نقل از ایندپندنت ،بیانیهای که دهها کارشناس امضا کردهاند در وبسایت «مرکز ایمنی هوش مصنوعی» منتشر شده است.در این بیانیه آمده است: «تخفیف خطر انقراض در نتیجه هوش مصنوعی باید در کنار سایر خطرات گسترده اجتماعی مانند همهگیری و جنگ هستهای در اولویت جهانی قرار گیرد.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
اما دیگران میگویند که این هشدارها اغراق آمیز است.
سم آلتمن، رئیس شرکت «اوپن اِی آی» که «چت جیپیتی» را طراحی کرده، دیوید هاسابیس، مدیرعامل «گوگل دیپ مایند» و داریو آمودئی رئیس «آنتروپیک» همگی از این بیانیه حمایت کرده اند.
وبسایت مرکز ایمنی هوش مصنوعی شماری از فاجعههای بالقوه هوش مصنوعی را برشمرده است:
امکان به کارگیری سیستمهای هوش مصنوعی به عنوان سلاح وجود دارد - برای مثال میتوان از ابزارهای کشف دارو برای تولید سلاح های شیمیایی استفاده کرد
اطلاعات غلط تولید شده توسط «اِی آی» ممکن است جامعه را بیثبات و «تصمیمگیری جمعی را تضعیف کند»
قدرت هوش مصنوعی ممکن است به تدریج در دست افراد کمتر و کمتری متمرکز شود، که به «رژیمها امکان خواهد داد ارزشهای محدودی را از طریق تجسس و سانسور و سرکوب اعمال کنند»
سستی و ناتوانی، به دلیل تکیه کامل بر هوش مصنوعی «شبیه آنچه در فیلم وال ای به تصویر کشیده شده است»
دکتر جفری هینتون، که پیشتر درباره خطرات یک سیستم هوش مصنوعی فوقالعاده قوی هشدار داده بود، هم از این بیانیه حمایت کرده است.
یوشوا بنجیو، استاد علوم کامپیوتر در دانشگاه مونترال، هم آن را امضا کرده است.
دکتر هینتون، پروفسور بنجیو و یان لیکون استاد دانشگاه نیویورک (ان وای یو) به خاطر دستاوردهای خود در این زمینه اغلب پدرخواندههای هوش مصنوعی شناخته میشوند.
آنها مشترکا برنده جایزه سال 2018 تورینگ شدند که به خاطر خدمات برجسته به علوم کامپیوتر اعطا میشود.
اما پروفسور لیکون که همچنین برای شرکت متا کار میکند، گفته است که این اخطارهای آخرالزمانی اغراقآمیز است. او در توییتی نوشت که «رایج ترین واکنش محققان هوش مصنوعی به این نوع پیشگویی ها درباره آینده ای تیره، یاس و ناباوری است.»
مخالفت برخی کارشناسان درباره خطرات هوش مصنوعی
خیلی دیگر از کارشناسان به همین ترتیب فکر میکنند که ترس از اینکه هوش مصنوعی موجودیت نوع بشر را تهدید کند غیرواقعبینانه است و باعث انحراف از توجه به مسائلی مانند تعصب در سیستمهای هوش مصنوعی میشود که همین حالا هم یک مشکل است.
آرویند نارایانان، دانشمند کامپیوتر در دانشگاه پرینستون، قبلا به بیبیسی گفته است که سناریوهای بروز فاجعه واقعبینانه نیست: «هوش مصنوعی در شکل فعلی اصلا توانایی کافی برای تحقق این خطرات را ندارد. در نتیجه، این باعث انحراف توجه از زیانهای اِی آی در آینده نزدیک میشود.»
الیزابت رنیِریس از «موسسه آکسفورد برای اخلاق در هوش مصنوعی» به بیبیسی نیوز گفت که او بیشتر نگران خطرات در آینده نزدیک است.
او گفت: «پیشرفتها در زمینه هوش مصنوعی سیستمهای خودکار تصمیمگیری که مغرضانه، تبعیضآمیز، طردکننده یا غیرمنصفانه هستند و در عین حال غیرقابل درک و غیرقابل اعتراض هستند را تقویت میکند.»
او افزود که این سیستمها «به افزایش تصاعدی در حجم و گسترش اطلاعات نادرست منجر خواهد شد، در نتیجه باعث ایجاد گسست در واقعیت خواهد شد، اعتماد عمومی را از بین خواهد برد، و به نابرابری بیشتر دامن خواهد زد، به ویژه برای کسانی که در سوی اشتباه شکاف دیجیتالی باقی میمانند.»
خانم رنیریس گفت، بسیاری از ابزارهای هوش مصنوعی اساسا «با گرفتن سواری مجانی» بر روی «کل تجربه بشری تا به امروز» بنا شدهاند. بسیاری با کمک محتوا، متن، هنر و موسیقی خلق شده توسط انسان آموزش دیدهاند و میتوانند از آنها تقلید کنند - و سازندگان این سیستمها «عملا ثروت و قدرت عظیمی را از حوزه عمومی به تعداد کمی از نهادهای خصوصی منتقل کردهاند.»
اما دن هِندریکس، مدیر مرکز ایمنی هوش مصنوعی، به بیبیسی نیوز گفت که خطرات آینده و نگرانیهای امروزی «نباید در تضاد با هم دیده شود.»
وی گفت: «پرداختن به برخی از مسائل کنونی میتواند برای رسیدگی به بسیاری از خطرات آتی مفید باشد.»
در ماه مارس گروهی از کارشناسان از جمله ایلان ماسک، بنیانگذار شرکت تسلا، در نامهای سرگشاده خواستار توقف توسعه نسل بعدی فناوری هوش مصنوعی به صورتی موقتی شدند. توجه رسانهای به موضوع خطرات فرضی این فناوری برای بشر از آن زمان شدت زیادی گرفته است.
آن نامه میپرسید که آیا ما باید «ذهنهایی غیرانسانی بسازیم که در نهایت ممکن است از نظر تعداد و هوش از ما پیشی بگیرند، ما را منسوخ کنند و جایگزین ما شوند.»
در مقابل، بیانیه تازه بسیار کوتا است و برای «باز کردن بحث» طراحی شده است.
این بیانیه خطر هوش مصنوعی در آینده را با خطر ناشی از جنگ هستهای مقایسه میکند.
شرکت «اوپن اِی آی» اخیرا در یک پست وبلاگی گفت که میتوان «سیستمهای ابرهوش» را به همان شکلی که انرژی اتمی کنترل میشود تحت مقررات در آورد: «ما در نهایت به چیزی مانند آژانس بینالمللی انرژی اتمی برای تلاشهای ساخت سیستمهای ابرهوشمند نیاز داریم.»
وضع مقررات جدید برای کنترل هوش مصنوعی
هم سام آلتمن و هم ساندار پیچای، مدیر اجرایی گوگل از جمله رهبران فناوری هستند که اخیرا درباره مقررات هوش مصنوعی با نخست وزیر بریتانیا صحبت کردهاند.
ریشی سوناک در صحبت با خبرنگاران در مورد آخرین هشدار در مورد خطر هوش مصنوعی، بر مزایای آن برای اقتصاد و جامعه تاکید کرد.
او گفت: «اخیرا دیدهایم که این فناوری به افراد معلول کمک میکند راه بروند و به کشف آنتیبیوتیکهای جدید کمک کرده، اما ما باید مطمئن شویم که این کار به نحوی ایمن انجام میشود.»
«به همین دلیل است که هفته گذشته با مدیر عامل شرکتهای بزرگ هوش مصنوعی ملاقات کردم تا در مورد این که چه حفاظ هایی را باید در نظر بگیریم، و چه نوع مقرراتی را باید وضع کنیم تا ایمن بمانیم، صحبت کردم.»
«مردم از گزارشهایی که میگوید هوش مصنوعی سرمنشاء خطرات وجودی، همانند همهگیریها یا جنگهای هستهای است، نگران خواهند شد. من میخواهم به آنها اطمینان داده شود که دولت با دقت به این موضوع را زیر نظر دارد.»
آقای سوناک گفت که او اخیرا این موضوع را با رهبران دیگر در اجلاس گروه 7 متشکل از کشورهای صنعتی مطرح کرده بود و به زودی دوباره آن را در ایالات متحده مطرح خواهد کرد.
گروه 7 اخیرا یک گروه کاری در زمینه هوش مصنوعی ایجاد کرده است.
خطر انقراض بشر توسط هوش مصنوعی به اندازه جنگ هستهای است
مدیران ارشد اجرایی شرکتهای هوش مصنوعی، کارشناسان و اساتید این حوزه خطر هوش مصنوعی برای جامعه را به اندازه خطر همه گیری یا جنگ هستهای دانسته و درخصوص آن هشدار دادند.
به گزارش انگجت، مدیران ارشد اجرایی هوش مصنوعی از جمله سم آلتمن از شرکت «اوپنای آی» و بسیاری از کارشناسان و اساتید حوزه هوش مصنوعی درباره ریسک انقراض بشر در نتیجه گسترش هوش مصنوعی هشدار دادند. به اعتقاد آنها سیاست گذاران باید خطر ناشی از هوش مصنوعی را با ریسک همه گیری ها و جنگ هستهای یکسان بدانند.
بیش از 350 امضا کننده در نامهای که توسط مرکز ایمنی هوش مصنوعی (CAIS) منتشر شده، نوشته اند: خطر انقراض در نتیجه هوش مصنوعی باید همراه دیگر ریسکهای بزرگ مانند همه گیری ها و جنگ هستهای به یک اولویت جهانی تبدیل شود.
علاوه بر آلتمن، مدیر ارشد اجرایی شرکتهای دیپ مایند و آنتروپیک و همچنین مایکروسافت و گوگل این بیانیه را امضا کردند. در کنار آنها جفری هینتون و یوشوا بنجیو (دو نفر از سه پدرخوانده هوش مصنوعی) و همچنین پروفسورهایی از انستیتوهای مختلف از هاروارد گرفته تا دانشگاه تسینگهوا چین نیز نامه را امضا کردند.
البته میان امضا کنندگان بیانیه CAIS نامی از شرکت متا دیده نمیشود چراکه سومین پدرخوانده هوش مصنوعی یعنی یان لی سون در آنجا کار میکند.
انتشار این نامه با ملاقات هیات تجارت و فناوری آمریکا و اتحادیه اروپا در سوئد مصادف شد که قرار بود طی آن درباره قانونمندسازی هوش مصنوعی گفتگو شود.
ایلان ماسک و گروهی از کارشناسان هوش مصنوعی و مدیران صنعتی جزو نخستین افرادی بودند که در ماه آوریل درباره ریسکهای احتمالی فناوری برای جامعه هشدار دادند.
منبع: خبرگزاری آریا
کلیدواژه: هوش مصنوعی بشر تهدید هوش مصنوعی هوش مصنوعی جنگ هسته ای همه گیری سیستم ها اوپن ا
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.aryanews.com دریافت کردهاست، لذا منبع این خبر، وبسایت «خبرگزاری آریا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۸۷۵۲۹۴ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
هزینهها کلانی که هوش مصنوعی روی دست مایکروسافت میگذارد
ایتنا - ساتیا نادلا، مدیرعامل مایکروسافت در این بیانیه گفت که دستیار هوش مصنوعی Copilot (کوپایلوت) تعداد مشترکین پولی خود را در این سه ماهه 35 درصد افزایش داد و به 1.8 میلیون نفر رساند.
مایکروسافت فعلا تصمیم ندارد هزینههای هوش مصنوعی خود را کاهش دهد. این غول فناوری درباره درآمد سه ماهه سوم خود اعلام کرد که به دلیل رشد تقاضا و افزایش میانگین هزینه در پلتفرم ابری خود، Azure، به سرمایه گذاری در هوش مصنوعی و خدمات ابری ادامه خواهد داد.
امی هود، مدیر ارشد مالی مایکروسافت، در این تماس گفت که مخارج سرمایهای (آنچه یک شرکت برای خرید یا نگهداری داراییها خرج میکند) افزایش خواهد یافت. هود گفت: در حال حاضر، تقاضای کوتاهمدت هوش مصنوعی کمی بالاتر از ظرفیت موجود ما است.
این شرکت در سه ماهه سوم نزدیک به 11 میلیارد دلار برای اموال و تجهیزات هزینه کرده است که 66 درصد بیشتر از هزینهای است که در مدت مشابه یک سال قبل خرج کرده بود.
طبق بیانیه درآمد مایکروسافت در سه ماهه سوم از محصولات ابری خود، از جمله Azure (آزور)، 26.7 میلیارد دلار درآمد کسب کرده است. ساتیا نادلا، مدیرعامل این شرکت در این بیانیه گفت که دستیار هوش مصنوعی Copilot (کوپایلوت) تعداد مشترکین پولی خود را در این سه ماهه 35 درصد افزایش داد و به 1.8 میلیون نفر رساند.
درآمد بیشتر از حد انتظار مایکروسافت باعث شد سهام در معاملات بعد از ساعت 4 درصد افزایش یابد. هم درآمد و هم سود هر سهم از برآوردهای وال استریت پیشی گرفت.
برنامههای این شرکت برای هزینههای بیشتر به دنبال سایر تعهدات بزرگ برای توسعه هوش مصنوعی است. این شرکت قصد دارد تا پایان سال به 1.8 میلیون تراشه هوش مصنوعی دست یابد و ظرفیت مرکز داده خود را افزایش دهد.
تمایل مایکروسافت به هوش مصنوعی و مدلهای پایه، نیاز به مراکز داده بیشتر، از جمله شریک مایکروسافت OpenAI، سازنده ChatGPT و GPT-4 را افزایش میدهد. مدلهای هوش مصنوعی باید روی کوههایی از داده آموزش ببینند، که به هزاران واحد پردازش گرافیکی تولید شده توسط شرکتهایی مانند Nvidia نیاز دارد. مایکروسافت در حال طراحی تراشه های خود برای کاهش اتکای خود به Nvidia است.