در اين بخش مي‌توانيد در مورد کليه مباحث مرتبط با علم و تكنولوژي به بحث بپردازيد
Administrator

Administrator



نماد کاربر
پست ها

15465

تشکر کرده: 10180 مرتبه
تشکر شده: 3920 مرتبه
تاريخ عضويت

جمعه 7 بهمن 1384 19:51

آرشيو سپاس: 30251 مرتبه در 5981 پست

Re: هوشِ مصنوعی پیشرفته تهدیدی برای بشریت

توسط Mahdi1944 » شنبه 9 اسفند 1393 15:17

demorgan عزيز
حرف شما درست هست، اما موضوعي كه پردازش كوانتومي و يا زيستي در كنار هوش مصنوعي به خطري براي انسان تبديل ميكنه اينه كه در حال حاضر سيستم‌هاي پردازش كامپيوتري بر مبناي باينري كار ميكنند. اين روش باعث ميشه نرخ خطا كاهش پيدا كنه و انتخاب‌ها با صحت حداقل 50% انجام بشه. اما نقص اين روش پردازشي افزايش نجومي مصرف انرژي هست. براي مثال قدرتمندترين ابر كامپيوتر باينري جهان در يكي از دانشگاههاي چين، قدرتي معادل 1/120 مغز يك گربه شهري رو داره و توان مصرفي اون هم بسيار بالا هست. در حالي كه پردازش مغزي در انسان در صورتي كه از تمام توان خودش استفاده كنه، چيزي بين 50 تا 100 وات نهايتا مصرف انرژي داره. پس عملا هر چقدر هوش مصنوعي پيشرفت كنه، نتيجه اون چيزي تك بعدي يا محدود خواهد بود. مثلا روبات فوتباليست، كونگفوكار، شطرنج باز و امثال اون و عملا خطري براي انسان محسوب نميشوند. اما در رايانش كوانتومي و يا تلفيق اون با رايانش زيستي ديگه وضعيت به اين شكل نيست، در يك مثال ساده، اگر يك كامپيوتر باينري بخواد قدرت پردازشي در حد مغر انسان داشته باشه، چيزي حدود 17000 مگاوات (حدودا 17 برابر نيروگاه اتمي بوشهر و حدود 30% برق توليدي قعلي در ايران اگر اشتباه نكنم) انرژي لازم داره و گرمايي كه توليد ميكنه هم باعث ميشه نتونه به صورت دائم روشن بمونه و هزينه و انرژي لازم براي خنك سازي اون هم بسيار بالا هست. اما در يك رايانش كوانتومي يا كوانتومي زيستي اين ميزان به زير 100 وات ميرسه كه اگر اون رو در كنار الگوريتمهاي پيشرفته هوش مصنوعي، ديتا ماينينگ، تكست ماينينگ و امثال اون قرار بديم. خواهيم ديد با سنسورها و ابزارهاي ارتباطي كه بين ماشين‌ها در حال رشد هست، اگر مهار نشوند و يا سازكاري كه تضمين كنه اينها به انسان حمله نكرده و مسلط نخواهند شد ارائه نشه، واقعا ديگه صحبت كردن از ترس يا كابوس در مورد اونها يك تخيل در يك فيلم تخيلي نيست و مانند بسياري از تخيلات انسان كه به واقعيت پيوسته، اين نيز به واقعيت خواهد پيوست. پس نگراني بزرگاني مانند بيل گيتس و ايلان مارس (رئيس SpaceX) به هيچ عنوان غير منطقي يا غير واقع بينانه نيست ...
زندگي صحنه يکتاي هنرمندي ماست     هرکسي نغمه خود خواند و از صحنه رود
صحنه پيوسته به جاست     خرم آن نغمه که مردم بسپارند به ياد


 لينکها براي کاربران مهمان قابل دسترسي نيست، براي مشاهده ي لينکها لطفا ثبت نام کرده و وارد شويد  |  لينکها براي کاربران مهمان قابل دسترسي نيست، براي مشاهده ي لينکها لطفا ثبت نام کرده و وارد شويد  |  لينکها براي کاربران مهمان قابل دسترسي نيست، براي مشاهده ي لينکها لطفا ثبت نام کرده و وارد شويد  |  لينکها براي کاربران مهمان قابل دسترسي نيست، براي مشاهده ي لينکها لطفا ثبت نام کرده و وارد شويد 

لطفا سوالات فني را فقط در خود انجمن مطرح بفرماييد، به اين سوالات در PM پاسخ داده نخواهد شد

4 کاربر از این پست سپاسگزاري کرده اند

Captain

Captain



نماد کاربر
پست ها

1879

تشکر کرده: 6269 مرتبه
تشکر شده: 2267 مرتبه
تاريخ عضويت

شنبه 6 مهر 1392 22:47

آرشيو سپاس: 794 مرتبه در 318 پست

Re: هوشِ مصنوعی پیشرفته تهدیدی برای بشریت

توسط SMH » شنبه 9 اسفند 1393 21:52

Mahdi1944,  هرچند یکم سنگین توضیح دادید اما یکم برام جا افتاد و با این وضع باید گفت که واقعا این عمل می تونه بهای سنگینی برای اسان داشته باشه ...
       گر چرخ به كام ما نگردد     


        كاري بكنيم تا نگردد       





2 کاربر از این پست سپاسگزاري کرده اند

Captain

Captain



نماد کاربر
پست ها

972

تشکر کرده: 5156 مرتبه
تشکر شده: 2951 مرتبه
تاريخ عضويت

يکشنبه 12 آبان 1392 19:54

آرشيو سپاس: 0 مرتبه در 0 پست

Re: هوشِ مصنوعی پیشرفته تهدیدی برای بشریت

توسط Hesam - 1994 » دوشنبه 5 مرداد 1394 12:03

آیا شاهد قیام روبات‌های با هوش مصنوعی خواهیم بود؟

 لينکها براي کاربران مهمان قابل دسترسي نيست، براي مشاهده ي لينکها لطفا ثبت نام کرده و وارد شويد 

صحنه‌ای از فیلم ترمیناتور

با پیشرفت روز افزون علم، نفوذ هوش مصنوعی در زندگی ما بیشتر و بیشتر می‌شود. اما شاید نگرانی که در بین عموم وجود داشته باشد، بیش اندازه شدن این نفوذ باشد. آیا هوش مصنوعی می‌تواند روزی علیه بشر قیام کند؟

خانواده‌ای را تصور کنید که در آن مادر از کمک بدون منتی که به او می‌شود لذت می‌برد و فرزند خانواده که بسیار باهوش و سخت‌کوش نیز هست، در حال تفکر است که درس خواندن و پزشک شدن او چه مزیتی دارد؛ وقتی می‌توان تمامی اطلاعات پزشکی را در عرض چند ثانیه به روباتی انتقال داد تا او کارهای یک پزشک را انجام دهد.
تصور این منظره بیشتر از پیش ما را از بزرگ‌ترین خطر موجود برای بشریت، هوش مصنوعی، می‌ترساند. ترس روزی که ماشین‌های دارای هوش مصنوعی بتوانند به طور مجزا تفکر کنند و تصمیم بگیرند و رفتار مطلوبی با خالقان خود نداشته باشند.
نمی‌توان وجود روبات‌ها را صرفا بد یا صرفا خوب دانست؛  اما نگرانی‌ها در مورد این ماشین‌ها همواره وجود دارند که شاید مهم‌ترین آن‌ها نیز درون خانواده‌ای باشند. مانند به هم خوردن روابط، بالا رفتن نرخ بیکاری و کم شدن حس آزادی. حتی این موضوع سوژه‌ی فیلم‌های بسیاری نیز در سال‌های گذشته شده است. جاناتان برکلی فیلنامه نویس می‌گوید:

ما در فیلم‌ها قضاوتی در مورد هوش مصنوعی نمی‌کنیم، بلکه سعی می‌کنیم مزایا و معایب آن‌ها را نشان دهیم تا خود بیننده در مورد این ماشین‌ها قضاوت کند.

سم وینسنت، فیلنامه نویس دیگر می‌گوید:

در وسط فیلم من، این سوال به وجود می‌آید که آیا برای داشتن حسی انسانی نسبت به یک چیز، آن نیز باید انسان باشد؟ سوال برای ما جواب مشخصی دارد؛ خیر.


در این فیلم‌ها روبات‌ها و ماشین‌های انسان مانندی را می‌بینیم که وارد حیات مدرن ما می‌شوند، اما وینسنت و براکلی تشابهاتی بین وابستگی روزمره‌ی ما به لوازم الکترونیکی و این فیلم‌ها می‌بینند. وینسنت می‌گوید:

فناوری زمانی مختص کار و مشاغل بود. اما امروزه ما حضور آن را در تمامی جنبه‌های زندگی حس می‌کنیم. ما با آن خو گرفته‌ایم، درک آن نسبت به ما هر روز بیشتر می‌شود؛ در حالی که ما کمتر از گذشته فناوری را درک می‌کنیم.

او می‌افزاید:

این اتفاقات در حال حاضر جنبه‌ی غیرواقعی دارند و بیشتر زاده‌ی ذهن انسان‌ها هستند، اما از آینده کسی خبر ندارد.

البته اظهارات دانشمندان و سازمان‌های مربوطه نیز به این داستان‌ها دامن زده‌اند. ایلان ماسک مشهور، هوش مصنوعی را بزرگ‌ترین تهدیدی می‌داند که نسل بشریت با آن مواجه شده است. استفان هاوکینگز، فیزیکدان مشهور نیز به این جمع پیوست و پیشرفت تمام عیار هوش مصنوعی را پایانی برای بشریت اعلام کرد. در همان سال نیک بوستروم، کتابی را منتشر کرد و در آن پیش‌بینی‌های تاریکی در مورد آینده‌ی بشریت و هوش مصنوعی انجام داد.
با وجود پیشرفت‌های زیادی که هوش مصنوعی در سال‌های اخیر داشته، این پیشرفت‌ها تنها به زمینه‌ی محدودی خلاصه شده است؛ ساخت الگورینم‌های هوشمند برای انجام کارهای خاص. یک هوش مصنوعی امروزه می‌تواند در سایت خرید و فروش آنلاین به برخی سوالات کاربران پاسخ دهد و یا برای فهم و درک سخنان انسان‌ها به کار گرفته شود؛ اما اگر از آن‌ها کار دیگری بخواهید از انجام آن عاجز خواهند بود. موری شاناهان، استاد روباتیک در کالج سلطنتی لندن می‌گوید:

ما در حال حاضر هیچ ایده‌ای برای ساخت هوش مصنوعی که مانند انسان‌ها فکر و عمل کند، نداریم.

او احتمال طراحی هوش مصنوعی مانند انسان را بین سال‌های ۲۰۲۵ تا ۲۰۵۰ میلادی، محتمل اما با درصدی کم، می‌داند. در نیمه‌ی دوم قرن این طراحی به احتمال زیاد اتفاق خواهد افتاد؛ اما نمی‌توان از به وقوع پیوستن آن، مطمئن بود.شاناهان می‌افزاید:

مشکل اساسی در ساخت چنین روبات‌هایی عدم توانایی آن‌ها در پیش‌بینی واکنش انسان‌ها در رفتار روزمره است. مشکل اساسی دوم عدم وجود خلاقیت در روبات‌ها است که قرار دادن این توانایی در آن بسیار سخت بوده و در حال حاضر غیر ممکن است.

از بین بردن اختلاف بین هوش مصنوعی محدود و هوش مصنوعی کلی، بسیار حیاتی است. انسان‌ها به دلیل داشتن هوش کلی، بسیار موثر عمل می‌کنند؛ چرا که می‌توانند نکته‌ای را از شرایطی خاص یاد بگیرند و آن را در شرایطی دیگر به کار ببرند. قرار دادن این توانایی در روبات‌ها شاید دهه‌های زیادی طول بکشد، اما علم همواره در حال پیشرفت است.


مقاله‌های مرتبط در زمیت:
  •  لينکها براي کاربران مهمان قابل دسترسي نيست، براي مشاهده ي لينکها لطفا ثبت نام کرده و وارد شويد 
  •  لينکها براي کاربران مهمان قابل دسترسي نيست، براي مشاهده ي لينکها لطفا ثبت نام کرده و وارد شويد 
محققان در DeepMind که شرکتی وابسته به گوگل در لندن است، گام‌های کوچکی برای حرکت به سمت کلی سازی هوش مصنوعی برداشته‌اند. آن‌ها در بهمن ماه سال گذشته، روباتی را معرفی کردند که می‌توانست یک بازی را انجام دهد و روش‌های غلبه بر آن را یاد گرفته برای پیروزی در بازی‌های دیگر به کار بگیرد. اما نایجل شدبولت، استاد هوش مصنوعی در دانشگاه ساوتهمپتون می‌گوید:

دانشمندان بزرگ و سازمان‌ها چنان از این خطر سخن می‌گویند که گویا این اتفاق تنها دو دهه با ما فاصله دارد. باید کدها و الگوریتم‌های هوش‌های مصنوعی حاضر را ببینید تا بفهمید که چقدر راه پر پیچ و خمی برای کلی‌سازی آن‌ها در پیش رو داریم.

او می‌افزاید:

آیا ما می‌توانیم سیستم‌هایی طراحی کنیم که باعث انقراض ما شوند؟ قطعا می‌توانیم، ممکن است ما به آن‌ها اختیاراتی بدهیم اما این اختیارات با گذشت زمان از کنترل ما خارج شوند. اما روبات‌ها این کار را به انتخاب خود انجام نخواهند داد. خطر هوش مصنوعی نیست؛ بلکه حماقت و طمع انسان‌ها است.

منبع: Zoomit
لا حول و لا قوة الا بالله العلي العظيم

میتوانید صفحات ما در CCN را دنبال کنید

 لينکها براي کاربران مهمان قابل دسترسي نيست، براي مشاهده ي لينکها لطفا ثبت نام کرده و وارد شويد 

Mahdi1944 از این پست سپاسگزاري کرده است

Captain

Captain



نماد کاربر
پست ها

972

تشکر کرده: 5156 مرتبه
تشکر شده: 2951 مرتبه
تاريخ عضويت

يکشنبه 12 آبان 1392 19:54

آرشيو سپاس: 0 مرتبه در 0 پست

نامه‌ی منع گسترش سلاح‌های هوشمند روباتیک

توسط Hesam - 1994 » چهارشنبه 7 مرداد 1394 08:30

استفن هاوکینگ و ایلان ماسک در کنار ۱۰۰۰ متخصص، نامه‌ی منع گسترش سلاح‌های هوشمند روباتیک را امضا کردند

 لينکها براي کاربران مهمان قابل دسترسي نيست، براي مشاهده ي لينکها لطفا ثبت نام کرده و وارد شويد 

بیش از ۱۰۰۰ نفر از متخصصان در زمینه‌ی هوش مصنوعی نامه‌های را امضا کرده‌اند که در آن از سازمان ملل درخواست شده تا از توسعه‌ی سلاح‌های روباتیک هوشمند جلوگیری کند

بیش از ۱۰۰۰ نفر از متخصصان در زمینه‌ی هوش مصنوعی در جریان برگزاری کنفرانس بین المللی هوش مصنوعی در بوینس آیرس آرژانتین نامه‌ای را به امضای خود در آوردند که طی آن از سازمان ملل متحد خواسته شده تا از توسعه‌ی سلاح‌های روباتیک هوشمند جلوگیری کند.
از جمله‌ی افرادی که این نامه را امضا کرده‌اند می‌توان به استفن هاوکینگ، ایلان ماسک، مدیرعامل اسپیس ایکس و تسلا، پیتر نورویگ، مدیر تحقیقات گوگل، استوارت راسل، دانشمند هوش مصنوعی در دانشگاه برکلی و اریک هورویتز، مدیر اجرایی مایکروسافت اشاره کرد.
در این نامه به این موضوع اشاره شده که توسعه‌ی سلاح‌های هوشمند که قادرند بدون دخالت انسان‌ها اقدام به هدف گیری و شلیک به سوژه‌های خود نمایند، می‌تواند سومین انقلاب را در میدان‌های جنگ شکل دهد همانگونه که پیش از این اختراع اسلحه و بمب‌های اتمی چنین تحولی را در زمینه جنگ افزار صورت داده بودند.
به گفته‌ی این متخصصان، حتی در صورت استفاده‌ی قانونی از سلاح‌های هوشمند در میدان‌های نبرد، امکان دارد که این سلاح‌ها به کلاشینکف‌های آینده تبدیل شوند. به بیان بهتر این دانشمندان پیش بینی می‌کنند که تروریست‌ها با به دست آوردن این سلاح‌ها، از آن‌ها در خلاف صلح جهانی استفاده کنند، همانطور که امروز می‌توان کلاشینکف را در دست تروریست‌ها مشاهده کرد.
براساس اطلاعات ارائه شده توسط دانشمندان در این نامه، برای ساخت سلاح‌های هوشمند همچون سلاح‌های هسته‌ای نیاز به بهره‌گیری از مواد گران قیمت نیست و می‌توان سلاح‌های هوشمند مرگبار را با هزینه‌ی بسیار کمتری ساخت که همین موضوع خطر گسترش استفاده از این نوع سلاح‌ها را بیش از پیش افزایش می دهد.
راسل در این خصوص چنین اظهار نظر کرده است:

خطر دستیابی به سلاح‌های هوشمند مرگبار تنها در مورد جنگ‌های بین کشورها مطرح نیست، بلکه مطمئنا اینگونه سلاح‌ها در اختیار گروه‌های افراطی و تروریستی قرار گرفته و همچون کلاشینکوف در جنگ‌های داخلی و بر علیه غیرنظامیان نیز به کار گرفته خواهد شد.

راسل به این موضوع اشاره می کند که ارتش‌ها با دستیابی به سلاح‌های هوشمند فاصله‌ی چندان زیادی ندارند و احتمالا در آینده‌ی نزدیک یعنی چند سال آینده شاهد استفاده از روبات‌های هوشمند در نیروهای نظامی خواهیم بود.
در حال حاضر سلاح‌های نیمه هوشمند وجود دارند که با بهره‌گیری از قابلیت‌های هوشمند، تصمیم نهایی را در اختیار نیروی انسانی قرار می‌دهند. برای مثال می‌توان به موشک ضد شناور لاکهید مارتین اشاره کرد که قادر است هدف خود را بصورت خودکار شناسایی کند، اما شلیک بر عهده‌ی نیروی انسانی است. براساس گمانه‌های موجود شماری از کشورها در حال حاضر از وجود موشک‌هایی بهره می‌برند که می‌توانند سوژه‌های نظیر کشتی‌ها، تانک‌ها و رادارها را بدون دخالت انسان هدف قرار داده و منهدم کنند.
این نامه‌ی سرگشاده‌ از جمله آخرین اخطارهایی است که دانشمندان و متخصصین در مورد خطرات و تهدیدات ناشی از بکارگیری هوش مصنوعی در موارد نظامی ارائه داده و مشکلات آتی را گوشزد می‌کنند.
در دسامبر ۲۰۱۴ استفن هاوکینگ اعلام کرد که  لينکها براي کاربران مهمان قابل دسترسي نيست، براي مشاهده ي لينکها لطفا ثبت نام کرده و وارد شويد . در ژانویه سال جاری نیز بسیاری از امضاکنندگان این نامه، فراخوانی را به امضا رساندند که در آن انجام تحقیقات هوش مصنوعی مفید و کاربردی در انستیتو Future of life درخواست شده بود. این انستیتو توسط نام‌های شناخته شده در زمینه‌ی هوش مصنوعی، علوم پایه و مورگان فریمن مدیریت می شود.
در اواخر ماه ژانویه و پس از تشکیل انستیتو آینده‌ی حیات، ایلان ماسک ۱۰ میلیون دلار را به عنوان بودجه‌ی مورد نیاز به این موسسه‌ اهدا کرد. در حال حاضر این موسسه ۳۷ پروژه‌ی تحقیقاتی را در دست دارد.
جیرید آدامز، مدیر روابط عمومی آژانس توسعه‌ی تحقیقات پیشرفته‌‌ی دفاعی ضمن اشاره به اینکه وزارت دفاع صریحا توسعه‌ی سلاح‌های هوشمند کشنده را ممنوع اعلام کرده، چنین اظهار نظر کرد:

در حال حاضر آژانس تحقیقاتی وزارت دفاع هیچ نوع تحقیقاتی را در مورد توسعه‌ی سلاح‌های هوشمند که مستقل از انسان کار می‌کنند، در دست ندارد.در حال حاضر تمرکز ما روی توسعه‌ی سیستم‌های نیمه هوشمند است که فرآیند بکارگیری آن‌ها انسان‌ نیز دخیل است.

منبع: Zoomit
لا حول و لا قوة الا بالله العلي العظيم

میتوانید صفحات ما در CCN را دنبال کنید

 لينکها براي کاربران مهمان قابل دسترسي نيست، براي مشاهده ي لينکها لطفا ثبت نام کرده و وارد شويد 

Mahdi1944 از این پست سپاسگزاري کرده است

Captain

Captain



نماد کاربر
پست ها

972

تشکر کرده: 5156 مرتبه
تشکر شده: 2951 مرتبه
تاريخ عضويت

يکشنبه 12 آبان 1392 19:54

آرشيو سپاس: 0 مرتبه در 0 پست

درخشش دانشمندان ایرانی در کنفرانس هوش مصنوعی

توسط Hesam - 1994 » شنبه 10 مرداد 1394 11:23

 لينکها براي کاربران مهمان قابل دسترسي نيست، براي مشاهده ي لينکها لطفا ثبت نام کرده و وارد شويد        
     
پژوهشگران ایرانی در همایش جهانی هوش مصنوعی که مهمترین دانشمندان این رشته در جهان را دور هم جمع می کند و امسال نیز شهر بوینوس آیرس در آرژانتین میزبان آن است خوش درخشیدند.
       
به گزارش  لينکها براي کاربران مهمان قابل دسترسي نيست، براي مشاهده ي لينکها لطفا ثبت نام کرده و وارد شويد   لينکها براي کاربران مهمان قابل دسترسي نيست، براي مشاهده ي لينکها لطفا ثبت نام کرده و وارد شويد ؛ سوبارائو کامبامهاتی استاد دانشگاه اریزونای امریکا و رئیس هیئت علمی و برگزارکننده این کنفرانس گفت:‌ برای نشست امسال مقالات علمی بسیار خوبی از ایران برای ما ارسال شد که بسیاری از انها برای ارائه پذیرفته شدند. این مقالات در کنار کارکرد درخشان دانش اموختگان ایرانی گویای استعداد سرشار و وضع خوب نظام اموزشی ایران است.




صد صاحب نظر بین المللی با ارسال نامه ای به این نشست درباره راه افتادن مسابقه نظامی برای استفاده از هوش مصنوعی و ساخت روبات های قاتل هشدار دادند.ماریا جینی استاد دانشگاه مینیسوتا امریکا در این زمینه گفت: این ماشین ها نخواهند بود که آدم می کشند بلکه ادم ها هستند که ادم می کشند من فکر نمی کنم هوش مصنوعی در این مقطع خطرناک باشد اما می تواند در بیست سال اینده چنین پدیده ای رخ دهد.

اتفاقی که احتمالا موجب می شود نسل بشر به دست ماشین ها منقرض شود. البته دانشمندان تاکید می کنند که اگر نظامیان چشم و گوش ماشینها را برای کشتن ادمها باز نکنند هوش مصنوعی تحولی بزرگ و سازنده در جهان ایجاد می کند.

نشست سال اینده هوش مصنوعی در روزهای نهم تا پانزدهم ژولای در شهر نیویورک برگزار خواهد شد.
لا حول و لا قوة الا بالله العلي العظيم

میتوانید صفحات ما در CCN را دنبال کنید

 لينکها براي کاربران مهمان قابل دسترسي نيست، براي مشاهده ي لينکها لطفا ثبت نام کرده و وارد شويد 

Mahdi1944 از این پست سپاسگزاري کرده است

قبلي

 


  • موضوعات مشابه
    پاسخ ها
    بازديدها
    آخرين پست

چه کسي حاضر است ؟

کاربران حاضر در اين انجمن: بدون كاربران آنلاين و 3 مهمان