Web Analytics Made Easy - Statcounter


خبرگزاری آریا-کارشناسان از جمله روسای دو شرکت «اوپن اِی آی» و «گوگل دیپ مایند» هشدار داده‌اند که هوش مصنوعی ممکن است به انقراض نوع بشر منجر شود.
به گزارش خبرگزاری آریا به نقل از ایندپندنت ،بیانیه‌ای که ده‌ها کارشناس امضا کرده‌اند در وبسایت «مرکز ایمنی هوش مصنوعی» منتشر شده است.در این بیانیه آمده است: «تخفیف خطر انقراض در نتیجه هوش مصنوعی باید در کنار سایر خطرات گسترده اجتماعی مانند همه‌گیری و جنگ هسته‌ای در اولویت جهانی قرار گیرد.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

»
اما دیگران می‌گویند که این هشدارها اغراق آمیز است.
سم آلتمن، رئیس شرکت «اوپن اِی آی» که «چت جی‌پی‌تی» را طراحی کرده، دیوید هاسابیس، مدیرعامل «گوگل دیپ مایند» و داریو آمودئی رئیس «آنتروپیک» همگی از این بیانیه حمایت کرده اند.
وبسایت مرکز ایمنی هوش مصنوعی شماری از فاجعه‌های بالقوه هوش مصنوعی را برشمرده است:
امکان به کارگیری سیستم‌های هوش مصنوعی به عنوان سلاح وجود دارد - برای مثال می‌توان از ابزارهای کشف دارو برای تولید سلاح های شیمیایی استفاده کرد
اطلاعات غلط تولید شده توسط «اِی آی» ممکن است جامعه را بی‌ثبات و «تصمیم‌گیری جمعی را تضعیف کند»
قدرت هوش مصنوعی ممکن است به تدریج در دست افراد کمتر و کمتری متمرکز شود، که به «رژیم‌ها امکان خواهد داد ارزش‌های محدودی را از طریق تجسس و سانسور و سرکوب اعمال کنند»
سستی و ناتوانی، به دلیل تکیه کامل بر هوش مصنوعی «شبیه آنچه در فیلم وال ای به تصویر کشیده شده است»
دکتر جفری هینتون، که پیشتر درباره خطرات یک سیستم هوش مصنوعی فوق‌العاده قوی هشدار داده بود، هم از این بیانیه حمایت کرده است.
یوشوا بنجیو، استاد علوم کامپیوتر در دانشگاه مونترال، هم آن را امضا کرده است.
دکتر هینتون، پروفسور بنجیو و یان لیکون استاد دانشگاه نیویورک (ان وای یو) به خاطر دستاوردهای خود در این زمینه اغلب پدرخوانده‌های هوش مصنوعی شناخته می‌شوند.
آنها مشترکا برنده جایزه سال 2018 تورینگ شدند که به خاطر خدمات برجسته به علوم کامپیوتر اعطا می‌شود.
اما پروفسور لیکون که همچنین برای شرکت متا کار می‌کند، گفته است که این اخطارهای آخرالزمانی اغراق‌آمیز است. او در توییتی نوشت که «رایج ترین واکنش محققان هوش مصنوعی به این نوع پیشگویی ها درباره آینده ای تیره، یاس و ناباوری است.»

مخالفت برخی کارشناسان درباره خطرات هوش مصنوعی
خیلی دیگر از کارشناسان به همین ترتیب فکر می‌کنند که ترس از اینکه هوش مصنوعی موجودیت نوع بشر را تهدید کند غیرواقع‌بینانه است و باعث انحراف از توجه به مسائلی مانند تعصب در سیستم‌های هوش مصنوعی می‌شود که همین حالا هم یک مشکل است.
آرویند نارایانان، دانشمند کامپیوتر در دانشگاه پرینستون، قبلا به بی‌بی‌سی گفته است که سناریوهای بروز فاجعه واقع‌بینانه نیست: «هوش مصنوعی در شکل فعلی اصلا توانایی کافی برای تحقق این خطرات را ندارد. در نتیجه، این باعث انحراف توجه از زیان‌های اِی آی در آینده نزدیک می‌شود.»
الیزابت رنیِریس از «موسسه آکسفورد برای اخلاق در هوش مصنوعی» به بی‌بی‌سی نیوز گفت که او بیشتر نگران خطرات در آینده نزدیک است.
او گفت: «پیشرفت‌ها در زمینه هوش مصنوعی سیستم‌های خودکار تصمیم‌گیری که مغرضانه، تبعیض‌آمیز، طردکننده یا غیرمنصفانه هستند و در عین حال غیرقابل درک و غیرقابل اعتراض هستند را تقویت می‌کند.»
او افزود که این سیستم‌ها «به افزایش تصاعدی در حجم و گسترش اطلاعات نادرست منجر خواهد شد، در نتیجه باعث ایجاد گسست در واقعیت خواهد شد، اعتماد عمومی را از بین خواهد برد، و به نابرابری بیشتر دامن خواهد زد، به ویژه برای کسانی که در سوی اشتباه شکاف دیجیتالی باقی می‌مانند.»
خانم رنیریس گفت، بسیاری از ابزارهای هوش مصنوعی اساسا «با گرفتن سواری مجانی» بر روی «کل تجربه بشری تا به امروز» بنا شده‌اند. بسیاری با کمک محتوا، متن، هنر و موسیقی خلق شده توسط انسان آموزش دیده‌اند و می‌توانند از آنها تقلید کنند - و سازندگان این سیستم‌ها «عملا ثروت و قدرت عظیمی را از حوزه عمومی به تعداد کمی از نهادهای خصوصی منتقل کرده‌اند.»
اما دن هِندریکس، مدیر مرکز ایمنی هوش مصنوعی، به بی‌بی‌سی نیوز گفت که خطرات آینده و نگرانی‌های امروزی «نباید در تضاد با هم دیده شود.»
وی گفت: «پرداختن به برخی از مسائل کنونی می‌تواند برای رسیدگی به بسیاری از خطرات آتی مفید باشد.»
در ماه مارس گروهی از کارشناسان از جمله ایلان ماسک، بنیانگذار شرکت تسلا، در نامه‌ای سرگشاده خواستار توقف توسعه نسل بعدی فناوری هوش مصنوعی به صورتی موقتی شدند. توجه رسانه‌ای به موضوع خطرات فرضی این فناوری برای بشر از آن زمان شدت زیادی گرفته است.
آن نامه می‌پرسید که آیا ما باید «ذهن‌هایی غیرانسانی بسازیم که در نهایت ممکن است از نظر تعداد و هوش از ما پیشی بگیرند، ما را منسوخ کنند و جایگزین ما شوند.»
در مقابل، بیانیه تازه بسیار کوتا است و برای «باز کردن بحث» طراحی شده است.
این بیانیه خطر هوش مصنوعی در آینده را با خطر ناشی از جنگ هسته‌ای مقایسه می‌کند.
شرکت «اوپن اِی آی» اخیرا در یک پست وبلاگی گفت که می‌توان «سیستم‌های ابرهوش» را به همان شکلی که انرژی اتمی کنترل می‌شود تحت مقررات در آورد: «ما در نهایت به چیزی مانند آژانس بین‌المللی انرژی اتمی برای تلاش‌های ساخت سیستم‌های ابرهوشمند نیاز داریم.»

وضع مقررات جدید برای کنترل هوش مصنوعی
هم سام آلتمن و هم ساندار پیچای، مدیر اجرایی گوگل از جمله رهبران فناوری هستند که اخیرا درباره مقررات هوش مصنوعی با نخست وزیر بریتانیا صحبت کرده‌اند.
ریشی سوناک در صحبت با خبرنگاران در مورد آخرین هشدار در مورد خطر هوش مصنوعی، بر مزایای آن برای اقتصاد و جامعه تاکید کرد.
او گفت: «اخیرا دیده‌ایم که این فناوری به افراد معلول کمک می‌کند راه بروند و به کشف آنتی‌بیوتیک‌های جدید کمک کرده، اما ما باید مطمئن شویم که این کار به نحوی ایمن انجام می‌شود.»
«به همین دلیل است که هفته گذشته با مدیر عامل شرکت‌های بزرگ هوش مصنوعی ملاقات کردم تا در مورد این که چه حفاظ هایی را باید در نظر بگیریم، و چه نوع مقرراتی را باید وضع کنیم تا ایمن بمانیم، صحبت کردم.»
«مردم از گزارش‌هایی که می‌گوید هوش مصنوعی سرمنشاء خطرات وجودی، همانند همه‌گیری‌ها یا جنگ‌های هسته‌ای است، نگران خواهند شد. من می‌خواهم به آنها اطمینان داده شود که دولت با دقت به این موضوع را زیر نظر دارد.»
آقای سوناک گفت که او اخیرا این موضوع را با رهبران دیگر در اجلاس گروه 7 متشکل از کشورهای صنعتی مطرح کرده بود و به زودی دوباره آن را در ایالات متحده مطرح خواهد کرد.
گروه 7 اخیرا یک گروه کاری در زمینه هوش مصنوعی ایجاد کرده است.

خطر انقراض بشر توسط هوش مصنوعی به اندازه جنگ هسته‌ای است
مدیران ارشد اجرایی شرکت‌های هوش مصنوعی، کارشناسان و اساتید این حوزه خطر هوش مصنوعی برای جامعه را به اندازه خطر همه گیری یا جنگ هسته‌ای دانسته و درخصوص آن هشدار دادند.
به گزارش انگجت، مدیران ارشد اجرایی هوش مصنوعی از جمله سم آلتمن از شرکت «اوپن‌ای آی» و بسیاری از کارشناسان و اساتید حوزه هوش مصنوعی درباره ریسک انقراض بشر در نتیجه گسترش هوش مصنوعی هشدار دادند. به اعتقاد آن‌ها سیاست گذاران باید خطر ناشی از هوش مصنوعی را با ریسک همه گیری ها و جنگ هسته‌ای یکسان بدانند.
بیش از 350 امضا کننده در نامه‌ای که توسط مرکز ایمنی هوش مصنوعی (CAIS) منتشر شده، نوشته اند: خطر انقراض در نتیجه هوش مصنوعی باید همراه دیگر ریسک‌های بزرگ مانند همه گیری ها و جنگ هسته‌ای به یک اولویت جهانی تبدیل شود.
علاوه بر آلتمن، مدیر ارشد اجرایی شرکت‌های دیپ مایند و آنتروپیک و همچنین مایکروسافت و گوگل این بیانیه را امضا کردند. در کنار آن‌ها جفری هینتون و یوشوا بنجیو (دو نفر از سه پدرخوانده هوش مصنوعی) و همچنین پروفسور‌هایی از انستیتو‌های مختلف از هاروارد گرفته تا دانشگاه تسینگهوا چین نیز نامه را امضا کردند.
البته میان امضا کنندگان بیانیه CAIS نامی از شرکت متا دیده نمی‌شود چراکه سومین پدرخوانده هوش مصنوعی یعنی یان لی سون در آنجا کار می‌کند.
انتشار این نامه با ملاقات هیات تجارت و فناوری آمریکا و اتحادیه اروپا در سوئد مصادف شد که قرار بود طی آن درباره قانونمندسازی هوش مصنوعی گفتگو شود.
ایلان ماسک و گروهی از کارشناسان هوش مصنوعی و مدیران صنعتی جزو نخستین افرادی بودند که در ماه آوریل درباره ریسک‌های احتمالی فناوری برای جامعه هشدار دادند.

منبع: خبرگزاری آریا

کلیدواژه: هوش مصنوعی بشر تهدید هوش مصنوعی هوش مصنوعی جنگ هسته ای همه گیری سیستم ها اوپن ا

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.aryanews.com دریافت کرده‌است، لذا منبع این خبر، وبسایت «خبرگزاری آریا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۸۷۵۲۹۴ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

هزینه‌ها کلانی که هوش مصنوعی روی دست مایکروسافت می‌گذارد

ایتنا - ساتیا نادلا، مدیرعامل مایکروسافت در این بیانیه گفت که دستیار هوش مصنوعی Copilot (کوپایلوت) تعداد مشترکین پولی خود را در این سه ماهه 35 درصد افزایش داد و به 1.8 میلیون نفر رساند.
مایکروسافت فعلا تصمیم ندارد هزینه‌های هوش مصنوعی خود را کاهش دهد. این غول فناوری درباره درآمد سه ماهه سوم خود اعلام کرد که به دلیل رشد تقاضا و افزایش میانگین هزینه در پلتفرم ابری خود، Azure، به سرمایه گذاری در هوش مصنوعی و خدمات ابری ادامه خواهد داد.

امی هود، مدیر ارشد مالی مایکروسافت، در این تماس گفت که مخارج سرمایه‌ای (آنچه یک شرکت برای خرید یا نگهداری دارایی‌ها خرج می‌کند) افزایش خواهد یافت. هود گفت: در حال حاضر، تقاضای کوتاه‌مدت هوش مصنوعی کمی بالاتر از ظرفیت موجود ما است.

این شرکت در سه ماهه سوم نزدیک به 11 میلیارد دلار برای اموال و تجهیزات هزینه کرده است  که 66 درصد بیشتر از هزینه‌ای است که در مدت مشابه یک سال قبل خرج کرده بود.

طبق بیانیه درآمد مایکروسافت در سه ماهه سوم از محصولات ابری خود، از جمله Azure (آزور)،  26.7 میلیارد دلار درآمد کسب کرده است. ساتیا نادلا، مدیرعامل این شرکت در این بیانیه گفت که دستیار هوش مصنوعی Copilot (کوپایلوت) تعداد مشترکین پولی خود را در این سه ماهه 35 درصد افزایش داد و به 1.8 میلیون نفر رساند.
 

درآمد بیشتر از حد انتظار مایکروسافت باعث شد سهام در معاملات بعد از ساعت 4 درصد افزایش یابد. هم درآمد و هم سود هر سهم از برآوردهای وال استریت پیشی گرفت.

برنامه‌های این شرکت برای هزینه‌های بیشتر به دنبال سایر تعهدات بزرگ برای توسعه هوش مصنوعی است. این شرکت قصد دارد تا پایان سال به 1.8 میلیون تراشه هوش مصنوعی دست یابد و ظرفیت مرکز داده خود را افزایش دهد.

تمایل مایکروسافت به هوش مصنوعی و مدل‌های پایه، نیاز به مراکز داده بیشتر، از جمله شریک مایکروسافت  OpenAI، سازنده ChatGPT و GPT-4 را افزایش می‌دهد. مدل‌های هوش مصنوعی باید روی کوه‌هایی از داده آموزش ببینند، که به هزاران واحد پردازش گرافیکی تولید شده توسط شرکت‌هایی مانند Nvidia نیاز دارد. مایکروسافت در حال طراحی تراشه های خود برای کاهش اتکای خود به Nvidia است.
 

دیگر خبرها

  • تحقیقات اتحادیه اروپا از متا بر سر کنترل اطلاعات غلط
  • هزینه‌ها کلانی که هوش مصنوعی روی دست مایکروسافت می‌گذارد
  • اپل با هوش مصنوعی به میدان می‌آید
  • رفتار پلیس ایالات متحده با اساتید و دانشجویان ماهیت دروغین دموکراسی غرب را افشا کرد
  • آینده رقابت متا با غول‌های هوش مصنوعی
  • آخرین قوانین کشورها برای مقابله با خطرات هوش مصنوعی
  • شرکت هوش مصنوعی ایلان ماسک سرمایه ۶ میلیارد دلاری جذب می‌کند؟
  • یکپارچه سازی هوش مصنوعی اوپن ای آی و گوگل در آیفون‌های جدید
  • ارزش بازار آلفابت از ۲ تریلیون دلار گذشت
  • اپل دوباره با اوپن‌ای‌آی سر میز مذاکره نشست