عزيز
حرف شما درست هست، اما موضوعي كه پردازش كوانتومي و يا زيستي در كنار هوش مصنوعي به خطري براي انسان تبديل ميكنه اينه كه در حال حاضر سيستمهاي پردازش كامپيوتري بر مبناي باينري كار ميكنند. اين روش باعث ميشه نرخ خطا كاهش پيدا كنه و انتخابها با صحت حداقل 50% انجام بشه. اما نقص اين روش پردازشي افزايش نجومي مصرف انرژي هست. براي مثال قدرتمندترين ابر كامپيوتر باينري جهان در يكي از دانشگاههاي چين، قدرتي معادل 1/120 مغز يك گربه شهري رو داره و توان مصرفي اون هم بسيار بالا هست. در حالي كه پردازش مغزي در انسان در صورتي كه از تمام توان خودش استفاده كنه، چيزي بين 50 تا 100 وات نهايتا مصرف انرژي داره. پس عملا هر چقدر هوش مصنوعي پيشرفت كنه، نتيجه اون چيزي تك بعدي يا محدود خواهد بود. مثلا روبات فوتباليست، كونگفوكار، شطرنج باز و امثال اون و عملا خطري براي انسان محسوب نميشوند. اما در رايانش كوانتومي و يا تلفيق اون با رايانش زيستي ديگه وضعيت به اين شكل نيست، در يك مثال ساده، اگر يك كامپيوتر باينري بخواد قدرت پردازشي در حد مغر انسان داشته باشه، چيزي حدود 17000 مگاوات (حدودا 17 برابر نيروگاه اتمي بوشهر و حدود 30% برق توليدي قعلي در ايران اگر اشتباه نكنم) انرژي لازم داره و گرمايي كه توليد ميكنه هم باعث ميشه نتونه به صورت دائم روشن بمونه و هزينه و انرژي لازم براي خنك سازي اون هم بسيار بالا هست. اما در يك رايانش كوانتومي يا كوانتومي زيستي اين ميزان به زير 100 وات ميرسه كه اگر اون رو در كنار الگوريتمهاي پيشرفته هوش مصنوعي، ديتا ماينينگ، تكست ماينينگ و امثال اون قرار بديم. خواهيم ديد با سنسورها و ابزارهاي ارتباطي كه بين ماشينها در حال رشد هست، اگر مهار نشوند و يا سازكاري كه تضمين كنه اينها به انسان حمله نكرده و مسلط نخواهند شد ارائه نشه، واقعا ديگه صحبت كردن از ترس يا كابوس در مورد اونها يك تخيل در يك فيلم تخيلي نيست و مانند بسياري از تخيلات انسان كه به واقعيت پيوسته، اين نيز به واقعيت خواهد پيوست. پس نگراني بزرگاني مانند بيل گيتس و ايلان مارس (رئيس SpaceX) به هيچ عنوان غير منطقي يا غير واقع بينانه نيست ...
هوشِ مصنوعی پیشرفته تهدیدی برای بشریت
مدیر انجمن: شوراي نظارت

- پست: 15899
- تاریخ عضویت: جمعه ۷ بهمن ۱۳۸۴, ۷:۵۱ ب.ظ
- سپاسهای ارسالی: 72687 بار
- سپاسهای دریافتی: 31681 بار
- تماس:
Re: هوشِ مصنوعی پیشرفته تهدیدی برای بشریت
زندگي صحنه يکتاي هنرمندي ماست هرکسي نغمه خود خواند و از صحنه رود
صحنه پيوسته به جاست خرم آن نغمه که مردم بسپارند به ياد
[External Link Removed for Guests] | [External Link Removed for Guests] | مجله الکترونيکي سنترال کلابز
[External Link Removed for Guests] | [External Link Removed for Guests] | [External Link Removed for Guests]
صحنه پيوسته به جاست خرم آن نغمه که مردم بسپارند به ياد
[External Link Removed for Guests] | [External Link Removed for Guests] | مجله الکترونيکي سنترال کلابز
[External Link Removed for Guests] | [External Link Removed for Guests] | [External Link Removed for Guests]
لطفا سوالات فني را فقط در خود انجمن مطرح بفرماييد، به اين سوالات در PM پاسخ داده نخواهد شد

- پست: 1885
- تاریخ عضویت: شنبه ۶ مهر ۱۳۹۲, ۱۰:۴۷ ب.ظ
- سپاسهای ارسالی: 8864 بار
- سپاسهای دریافتی: 3058 بار
Re: هوشِ مصنوعی پیشرفته تهدیدی برای بشریت
Mahdi1944, هرچند یکم سنگین توضیح دادید اما یکم برام جا افتاد و با این وضع باید گفت که واقعا این عمل می تونه بهای سنگینی برای اسان داشته باشه ...
گر چرخ به كام ما نگردد
كاري بكنيم تا نگردد

كاري بكنيم تا نگردد


- پست: 1062
- تاریخ عضویت: یکشنبه ۱۲ آبان ۱۳۹۲, ۷:۵۴ ب.ظ
- سپاسهای ارسالی: 6153 بار
- سپاسهای دریافتی: 3146 بار
Re: هوشِ مصنوعی پیشرفته تهدیدی برای بشریت
آیا شاهد قیام روباتهای با هوش مصنوعی خواهیم بود؟
[External Link Removed for Guests]
صحنهای از فیلم ترمیناتور
با پیشرفت روز افزون علم، نفوذ هوش مصنوعی در زندگی ما بیشتر و بیشتر میشود. اما شاید نگرانی که در بین عموم وجود داشته باشد، بیش اندازه شدن این نفوذ باشد. آیا هوش مصنوعی میتواند روزی علیه بشر قیام کند؟
خانوادهای را تصور کنید که در آن مادر از کمک بدون منتی که به او میشود لذت میبرد و فرزند خانواده که بسیار باهوش و سختکوش نیز هست، در حال تفکر است که درس خواندن و پزشک شدن او چه مزیتی دارد؛ وقتی میتوان تمامی اطلاعات پزشکی را در عرض چند ثانیه به روباتی انتقال داد تا او کارهای یک پزشک را انجام دهد.
تصور این منظره بیشتر از پیش ما را از بزرگترین خطر موجود برای بشریت، هوش مصنوعی، میترساند. ترس روزی که ماشینهای دارای هوش مصنوعی بتوانند به طور مجزا تفکر کنند و تصمیم بگیرند و رفتار مطلوبی با خالقان خود نداشته باشند.
نمیتوان وجود روباتها را صرفا بد یا صرفا خوب دانست؛ اما نگرانیها در مورد این ماشینها همواره وجود دارند که شاید مهمترین آنها نیز درون خانوادهای باشند. مانند به هم خوردن روابط، بالا رفتن نرخ بیکاری و کم شدن حس آزادی. حتی این موضوع سوژهی فیلمهای بسیاری نیز در سالهای گذشته شده است. جاناتان برکلی فیلنامه نویس میگوید:
[BLOCKQUOTE]
ما در فیلمها قضاوتی در مورد هوش مصنوعی نمیکنیم، بلکه سعی میکنیم مزایا و معایب آنها را نشان دهیم تا خود بیننده در مورد این ماشینها قضاوت کند.
[/BLOCKQUOTE]
سم وینسنت، فیلنامه نویس دیگر میگوید:
[BLOCKQUOTE]
در وسط فیلم من، این سوال به وجود میآید که آیا برای داشتن حسی انسانی نسبت به یک چیز، آن نیز باید انسان باشد؟ سوال برای ما جواب مشخصی دارد؛ خیر.
[/BLOCKQUOTE]

در این فیلمها روباتها و ماشینهای انسان مانندی را میبینیم که وارد حیات مدرن ما میشوند، اما وینسنت و براکلی تشابهاتی بین وابستگی روزمرهی ما به لوازم الکترونیکی و این فیلمها میبینند. وینسنت میگوید:
[BLOCKQUOTE]
فناوری زمانی مختص کار و مشاغل بود. اما امروزه ما حضور آن را در تمامی جنبههای زندگی حس میکنیم. ما با آن خو گرفتهایم، درک آن نسبت به ما هر روز بیشتر میشود؛ در حالی که ما کمتر از گذشته فناوری را درک میکنیم.
[/BLOCKQUOTE]
او میافزاید:
[BLOCKQUOTE]
این اتفاقات در حال حاضر جنبهی غیرواقعی دارند و بیشتر زادهی ذهن انسانها هستند، اما از آینده کسی خبر ندارد.
[/BLOCKQUOTE]
البته اظهارات دانشمندان و سازمانهای مربوطه نیز به این داستانها دامن زدهاند. ایلان ماسک مشهور، هوش مصنوعی را بزرگترین تهدیدی میداند که نسل بشریت با آن مواجه شده است. استفان هاوکینگز، فیزیکدان مشهور نیز به این جمع پیوست و پیشرفت تمام عیار هوش مصنوعی را پایانی برای بشریت اعلام کرد. در همان سال نیک بوستروم، کتابی را منتشر کرد و در آن پیشبینیهای تاریکی در مورد آیندهی بشریت و هوش مصنوعی انجام داد.
با وجود پیشرفتهای زیادی که هوش مصنوعی در سالهای اخیر داشته، این پیشرفتها تنها به زمینهی محدودی خلاصه شده است؛ ساخت الگورینمهای هوشمند برای انجام کارهای خاص. یک هوش مصنوعی امروزه میتواند در سایت خرید و فروش آنلاین به برخی سوالات کاربران پاسخ دهد و یا برای فهم و درک سخنان انسانها به کار گرفته شود؛ اما اگر از آنها کار دیگری بخواهید از انجام آن عاجز خواهند بود. موری شاناهان، استاد روباتیک در کالج سلطنتی لندن میگوید:
[BLOCKQUOTE]
ما در حال حاضر هیچ ایدهای برای ساخت هوش مصنوعی که مانند انسانها فکر و عمل کند، نداریم.
[/BLOCKQUOTE]
او احتمال طراحی هوش مصنوعی مانند انسان را بین سالهای ۲۰۲۵ تا ۲۰۵۰ میلادی، محتمل اما با درصدی کم، میداند. در نیمهی دوم قرن این طراحی به احتمال زیاد اتفاق خواهد افتاد؛ اما نمیتوان از به وقوع پیوستن آن، مطمئن بود.شاناهان میافزاید:
[BLOCKQUOTE]
مشکل اساسی در ساخت چنین روباتهایی عدم توانایی آنها در پیشبینی واکنش انسانها در رفتار روزمره است. مشکل اساسی دوم عدم وجود خلاقیت در روباتها است که قرار دادن این توانایی در آن بسیار سخت بوده و در حال حاضر غیر ممکن است.
[/BLOCKQUOTE]
از بین بردن اختلاف بین هوش مصنوعی محدود و هوش مصنوعی کلی، بسیار حیاتی است. انسانها به دلیل داشتن هوش کلی، بسیار موثر عمل میکنند؛ چرا که میتوانند نکتهای را از شرایطی خاص یاد بگیرند و آن را در شرایطی دیگر به کار ببرند. قرار دادن این توانایی در روباتها شاید دهههای زیادی طول بکشد، اما علم همواره در حال پیشرفت است.

مقالههای مرتبط در زمیت:
[BLOCKQUOTE]
دانشمندان بزرگ و سازمانها چنان از این خطر سخن میگویند که گویا این اتفاق تنها دو دهه با ما فاصله دارد. باید کدها و الگوریتمهای هوشهای مصنوعی حاضر را ببینید تا بفهمید که چقدر راه پر پیچ و خمی برای کلیسازی آنها در پیش رو داریم.
[/BLOCKQUOTE]
او میافزاید:
[BLOCKQUOTE]
آیا ما میتوانیم سیستمهایی طراحی کنیم که باعث انقراض ما شوند؟ قطعا میتوانیم، ممکن است ما به آنها اختیاراتی بدهیم اما این اختیارات با گذشت زمان از کنترل ما خارج شوند. اما روباتها این کار را به انتخاب خود انجام نخواهند داد. خطر هوش مصنوعی نیست؛ بلکه حماقت و طمع انسانها است.
[/BLOCKQUOTE]
منبع: Zoomit
[External Link Removed for Guests]
صحنهای از فیلم ترمیناتور
با پیشرفت روز افزون علم، نفوذ هوش مصنوعی در زندگی ما بیشتر و بیشتر میشود. اما شاید نگرانی که در بین عموم وجود داشته باشد، بیش اندازه شدن این نفوذ باشد. آیا هوش مصنوعی میتواند روزی علیه بشر قیام کند؟
خانوادهای را تصور کنید که در آن مادر از کمک بدون منتی که به او میشود لذت میبرد و فرزند خانواده که بسیار باهوش و سختکوش نیز هست، در حال تفکر است که درس خواندن و پزشک شدن او چه مزیتی دارد؛ وقتی میتوان تمامی اطلاعات پزشکی را در عرض چند ثانیه به روباتی انتقال داد تا او کارهای یک پزشک را انجام دهد.
تصور این منظره بیشتر از پیش ما را از بزرگترین خطر موجود برای بشریت، هوش مصنوعی، میترساند. ترس روزی که ماشینهای دارای هوش مصنوعی بتوانند به طور مجزا تفکر کنند و تصمیم بگیرند و رفتار مطلوبی با خالقان خود نداشته باشند.
نمیتوان وجود روباتها را صرفا بد یا صرفا خوب دانست؛ اما نگرانیها در مورد این ماشینها همواره وجود دارند که شاید مهمترین آنها نیز درون خانوادهای باشند. مانند به هم خوردن روابط، بالا رفتن نرخ بیکاری و کم شدن حس آزادی. حتی این موضوع سوژهی فیلمهای بسیاری نیز در سالهای گذشته شده است. جاناتان برکلی فیلنامه نویس میگوید:
[BLOCKQUOTE]
ما در فیلمها قضاوتی در مورد هوش مصنوعی نمیکنیم، بلکه سعی میکنیم مزایا و معایب آنها را نشان دهیم تا خود بیننده در مورد این ماشینها قضاوت کند.
[/BLOCKQUOTE]
سم وینسنت، فیلنامه نویس دیگر میگوید:
[BLOCKQUOTE]
در وسط فیلم من، این سوال به وجود میآید که آیا برای داشتن حسی انسانی نسبت به یک چیز، آن نیز باید انسان باشد؟ سوال برای ما جواب مشخصی دارد؛ خیر.
[/BLOCKQUOTE]

در این فیلمها روباتها و ماشینهای انسان مانندی را میبینیم که وارد حیات مدرن ما میشوند، اما وینسنت و براکلی تشابهاتی بین وابستگی روزمرهی ما به لوازم الکترونیکی و این فیلمها میبینند. وینسنت میگوید:
[BLOCKQUOTE]
فناوری زمانی مختص کار و مشاغل بود. اما امروزه ما حضور آن را در تمامی جنبههای زندگی حس میکنیم. ما با آن خو گرفتهایم، درک آن نسبت به ما هر روز بیشتر میشود؛ در حالی که ما کمتر از گذشته فناوری را درک میکنیم.
[/BLOCKQUOTE]
او میافزاید:
[BLOCKQUOTE]
این اتفاقات در حال حاضر جنبهی غیرواقعی دارند و بیشتر زادهی ذهن انسانها هستند، اما از آینده کسی خبر ندارد.
[/BLOCKQUOTE]
البته اظهارات دانشمندان و سازمانهای مربوطه نیز به این داستانها دامن زدهاند. ایلان ماسک مشهور، هوش مصنوعی را بزرگترین تهدیدی میداند که نسل بشریت با آن مواجه شده است. استفان هاوکینگز، فیزیکدان مشهور نیز به این جمع پیوست و پیشرفت تمام عیار هوش مصنوعی را پایانی برای بشریت اعلام کرد. در همان سال نیک بوستروم، کتابی را منتشر کرد و در آن پیشبینیهای تاریکی در مورد آیندهی بشریت و هوش مصنوعی انجام داد.
با وجود پیشرفتهای زیادی که هوش مصنوعی در سالهای اخیر داشته، این پیشرفتها تنها به زمینهی محدودی خلاصه شده است؛ ساخت الگورینمهای هوشمند برای انجام کارهای خاص. یک هوش مصنوعی امروزه میتواند در سایت خرید و فروش آنلاین به برخی سوالات کاربران پاسخ دهد و یا برای فهم و درک سخنان انسانها به کار گرفته شود؛ اما اگر از آنها کار دیگری بخواهید از انجام آن عاجز خواهند بود. موری شاناهان، استاد روباتیک در کالج سلطنتی لندن میگوید:
[BLOCKQUOTE]
ما در حال حاضر هیچ ایدهای برای ساخت هوش مصنوعی که مانند انسانها فکر و عمل کند، نداریم.
[/BLOCKQUOTE]
او احتمال طراحی هوش مصنوعی مانند انسان را بین سالهای ۲۰۲۵ تا ۲۰۵۰ میلادی، محتمل اما با درصدی کم، میداند. در نیمهی دوم قرن این طراحی به احتمال زیاد اتفاق خواهد افتاد؛ اما نمیتوان از به وقوع پیوستن آن، مطمئن بود.شاناهان میافزاید:
[BLOCKQUOTE]
مشکل اساسی در ساخت چنین روباتهایی عدم توانایی آنها در پیشبینی واکنش انسانها در رفتار روزمره است. مشکل اساسی دوم عدم وجود خلاقیت در روباتها است که قرار دادن این توانایی در آن بسیار سخت بوده و در حال حاضر غیر ممکن است.
[/BLOCKQUOTE]
از بین بردن اختلاف بین هوش مصنوعی محدود و هوش مصنوعی کلی، بسیار حیاتی است. انسانها به دلیل داشتن هوش کلی، بسیار موثر عمل میکنند؛ چرا که میتوانند نکتهای را از شرایطی خاص یاد بگیرند و آن را در شرایطی دیگر به کار ببرند. قرار دادن این توانایی در روباتها شاید دهههای زیادی طول بکشد، اما علم همواره در حال پیشرفت است.

مقالههای مرتبط در زمیت:
- [External Link Removed for Guests]
- [External Link Removed for Guests]
[BLOCKQUOTE]
دانشمندان بزرگ و سازمانها چنان از این خطر سخن میگویند که گویا این اتفاق تنها دو دهه با ما فاصله دارد. باید کدها و الگوریتمهای هوشهای مصنوعی حاضر را ببینید تا بفهمید که چقدر راه پر پیچ و خمی برای کلیسازی آنها در پیش رو داریم.
[/BLOCKQUOTE]
او میافزاید:
[BLOCKQUOTE]
آیا ما میتوانیم سیستمهایی طراحی کنیم که باعث انقراض ما شوند؟ قطعا میتوانیم، ممکن است ما به آنها اختیاراتی بدهیم اما این اختیارات با گذشت زمان از کنترل ما خارج شوند. اما روباتها این کار را به انتخاب خود انجام نخواهند داد. خطر هوش مصنوعی نیست؛ بلکه حماقت و طمع انسانها است.
[/BLOCKQUOTE]
منبع: Zoomit

- پست: 1062
- تاریخ عضویت: یکشنبه ۱۲ آبان ۱۳۹۲, ۷:۵۴ ب.ظ
- سپاسهای ارسالی: 6153 بار
- سپاسهای دریافتی: 3146 بار
نامهی منع گسترش سلاحهای هوشمند روباتیک
استفن هاوکینگ و ایلان ماسک در کنار ۱۰۰۰ متخصص، نامهی منع گسترش سلاحهای هوشمند روباتیک را امضا کردند
[External Link Removed for Guests]
بیش از ۱۰۰۰ نفر از متخصصان در زمینهی هوش مصنوعی نامههای را امضا کردهاند که در آن از سازمان ملل درخواست شده تا از توسعهی سلاحهای روباتیک هوشمند جلوگیری کند
بیش از ۱۰۰۰ نفر از متخصصان در زمینهی هوش مصنوعی در جریان برگزاری کنفرانس بین المللی هوش مصنوعی در بوینس آیرس آرژانتین نامهای را به امضای خود در آوردند که طی آن از سازمان ملل متحد خواسته شده تا از توسعهی سلاحهای روباتیک هوشمند جلوگیری کند.
از جملهی افرادی که این نامه را امضا کردهاند میتوان به استفن هاوکینگ، ایلان ماسک، مدیرعامل اسپیس ایکس و تسلا، پیتر نورویگ، مدیر تحقیقات گوگل، استوارت راسل، دانشمند هوش مصنوعی در دانشگاه برکلی و اریک هورویتز، مدیر اجرایی مایکروسافت اشاره کرد.
در این نامه به این موضوع اشاره شده که توسعهی سلاحهای هوشمند که قادرند بدون دخالت انسانها اقدام به هدف گیری و شلیک به سوژههای خود نمایند، میتواند سومین انقلاب را در میدانهای جنگ شکل دهد همانگونه که پیش از این اختراع اسلحه و بمبهای اتمی چنین تحولی را در زمینه جنگ افزار صورت داده بودند.
به گفتهی این متخصصان، حتی در صورت استفادهی قانونی از سلاحهای هوشمند در میدانهای نبرد، امکان دارد که این سلاحها به کلاشینکفهای آینده تبدیل شوند. به بیان بهتر این دانشمندان پیش بینی میکنند که تروریستها با به دست آوردن این سلاحها، از آنها در خلاف صلح جهانی استفاده کنند، همانطور که امروز میتوان کلاشینکف را در دست تروریستها مشاهده کرد.
براساس اطلاعات ارائه شده توسط دانشمندان در این نامه، برای ساخت سلاحهای هوشمند همچون سلاحهای هستهای نیاز به بهرهگیری از مواد گران قیمت نیست و میتوان سلاحهای هوشمند مرگبار را با هزینهی بسیار کمتری ساخت که همین موضوع خطر گسترش استفاده از این نوع سلاحها را بیش از پیش افزایش می دهد.
راسل در این خصوص چنین اظهار نظر کرده است:
[BLOCKQUOTE]
خطر دستیابی به سلاحهای هوشمند مرگبار تنها در مورد جنگهای بین کشورها مطرح نیست، بلکه مطمئنا اینگونه سلاحها در اختیار گروههای افراطی و تروریستی قرار گرفته و همچون کلاشینکوف در جنگهای داخلی و بر علیه غیرنظامیان نیز به کار گرفته خواهد شد.
[/BLOCKQUOTE]
راسل به این موضوع اشاره می کند که ارتشها با دستیابی به سلاحهای هوشمند فاصلهی چندان زیادی ندارند و احتمالا در آیندهی نزدیک یعنی چند سال آینده شاهد استفاده از روباتهای هوشمند در نیروهای نظامی خواهیم بود.
در حال حاضر سلاحهای نیمه هوشمند وجود دارند که با بهرهگیری از قابلیتهای هوشمند، تصمیم نهایی را در اختیار نیروی انسانی قرار میدهند. برای مثال میتوان به موشک ضد شناور لاکهید مارتین اشاره کرد که قادر است هدف خود را بصورت خودکار شناسایی کند، اما شلیک بر عهدهی نیروی انسانی است. براساس گمانههای موجود شماری از کشورها در حال حاضر از وجود موشکهایی بهره میبرند که میتوانند سوژههای نظیر کشتیها، تانکها و رادارها را بدون دخالت انسان هدف قرار داده و منهدم کنند.
این نامهی سرگشاده از جمله آخرین اخطارهایی است که دانشمندان و متخصصین در مورد خطرات و تهدیدات ناشی از بکارگیری هوش مصنوعی در موارد نظامی ارائه داده و مشکلات آتی را گوشزد میکنند.
در دسامبر ۲۰۱۴ استفن هاوکینگ اعلام کرد که [External Link Removed for Guests]. در ژانویه سال جاری نیز بسیاری از امضاکنندگان این نامه، فراخوانی را به امضا رساندند که در آن انجام تحقیقات هوش مصنوعی مفید و کاربردی در انستیتو Future of life درخواست شده بود. این انستیتو توسط نامهای شناخته شده در زمینهی هوش مصنوعی، علوم پایه و مورگان فریمن مدیریت می شود.
در اواخر ماه ژانویه و پس از تشکیل انستیتو آیندهی حیات، ایلان ماسک ۱۰ میلیون دلار را به عنوان بودجهی مورد نیاز به این موسسه اهدا کرد. در حال حاضر این موسسه ۳۷ پروژهی تحقیقاتی را در دست دارد.
جیرید آدامز، مدیر روابط عمومی آژانس توسعهی تحقیقات پیشرفتهی دفاعی ضمن اشاره به اینکه وزارت دفاع صریحا توسعهی سلاحهای هوشمند کشنده را ممنوع اعلام کرده، چنین اظهار نظر کرد:
[BLOCKQUOTE]
در حال حاضر آژانس تحقیقاتی وزارت دفاع هیچ نوع تحقیقاتی را در مورد توسعهی سلاحهای هوشمند که مستقل از انسان کار میکنند، در دست ندارد.در حال حاضر تمرکز ما روی توسعهی سیستمهای نیمه هوشمند است که فرآیند بکارگیری آنها انسان نیز دخیل است.
[/BLOCKQUOTE]
منبع: Zoomit
[External Link Removed for Guests]
بیش از ۱۰۰۰ نفر از متخصصان در زمینهی هوش مصنوعی نامههای را امضا کردهاند که در آن از سازمان ملل درخواست شده تا از توسعهی سلاحهای روباتیک هوشمند جلوگیری کند
بیش از ۱۰۰۰ نفر از متخصصان در زمینهی هوش مصنوعی در جریان برگزاری کنفرانس بین المللی هوش مصنوعی در بوینس آیرس آرژانتین نامهای را به امضای خود در آوردند که طی آن از سازمان ملل متحد خواسته شده تا از توسعهی سلاحهای روباتیک هوشمند جلوگیری کند.
از جملهی افرادی که این نامه را امضا کردهاند میتوان به استفن هاوکینگ، ایلان ماسک، مدیرعامل اسپیس ایکس و تسلا، پیتر نورویگ، مدیر تحقیقات گوگل، استوارت راسل، دانشمند هوش مصنوعی در دانشگاه برکلی و اریک هورویتز، مدیر اجرایی مایکروسافت اشاره کرد.
در این نامه به این موضوع اشاره شده که توسعهی سلاحهای هوشمند که قادرند بدون دخالت انسانها اقدام به هدف گیری و شلیک به سوژههای خود نمایند، میتواند سومین انقلاب را در میدانهای جنگ شکل دهد همانگونه که پیش از این اختراع اسلحه و بمبهای اتمی چنین تحولی را در زمینه جنگ افزار صورت داده بودند.
به گفتهی این متخصصان، حتی در صورت استفادهی قانونی از سلاحهای هوشمند در میدانهای نبرد، امکان دارد که این سلاحها به کلاشینکفهای آینده تبدیل شوند. به بیان بهتر این دانشمندان پیش بینی میکنند که تروریستها با به دست آوردن این سلاحها، از آنها در خلاف صلح جهانی استفاده کنند، همانطور که امروز میتوان کلاشینکف را در دست تروریستها مشاهده کرد.
براساس اطلاعات ارائه شده توسط دانشمندان در این نامه، برای ساخت سلاحهای هوشمند همچون سلاحهای هستهای نیاز به بهرهگیری از مواد گران قیمت نیست و میتوان سلاحهای هوشمند مرگبار را با هزینهی بسیار کمتری ساخت که همین موضوع خطر گسترش استفاده از این نوع سلاحها را بیش از پیش افزایش می دهد.
راسل در این خصوص چنین اظهار نظر کرده است:
[BLOCKQUOTE]
خطر دستیابی به سلاحهای هوشمند مرگبار تنها در مورد جنگهای بین کشورها مطرح نیست، بلکه مطمئنا اینگونه سلاحها در اختیار گروههای افراطی و تروریستی قرار گرفته و همچون کلاشینکوف در جنگهای داخلی و بر علیه غیرنظامیان نیز به کار گرفته خواهد شد.
[/BLOCKQUOTE]
راسل به این موضوع اشاره می کند که ارتشها با دستیابی به سلاحهای هوشمند فاصلهی چندان زیادی ندارند و احتمالا در آیندهی نزدیک یعنی چند سال آینده شاهد استفاده از روباتهای هوشمند در نیروهای نظامی خواهیم بود.
در حال حاضر سلاحهای نیمه هوشمند وجود دارند که با بهرهگیری از قابلیتهای هوشمند، تصمیم نهایی را در اختیار نیروی انسانی قرار میدهند. برای مثال میتوان به موشک ضد شناور لاکهید مارتین اشاره کرد که قادر است هدف خود را بصورت خودکار شناسایی کند، اما شلیک بر عهدهی نیروی انسانی است. براساس گمانههای موجود شماری از کشورها در حال حاضر از وجود موشکهایی بهره میبرند که میتوانند سوژههای نظیر کشتیها، تانکها و رادارها را بدون دخالت انسان هدف قرار داده و منهدم کنند.
این نامهی سرگشاده از جمله آخرین اخطارهایی است که دانشمندان و متخصصین در مورد خطرات و تهدیدات ناشی از بکارگیری هوش مصنوعی در موارد نظامی ارائه داده و مشکلات آتی را گوشزد میکنند.
در دسامبر ۲۰۱۴ استفن هاوکینگ اعلام کرد که [External Link Removed for Guests]. در ژانویه سال جاری نیز بسیاری از امضاکنندگان این نامه، فراخوانی را به امضا رساندند که در آن انجام تحقیقات هوش مصنوعی مفید و کاربردی در انستیتو Future of life درخواست شده بود. این انستیتو توسط نامهای شناخته شده در زمینهی هوش مصنوعی، علوم پایه و مورگان فریمن مدیریت می شود.
در اواخر ماه ژانویه و پس از تشکیل انستیتو آیندهی حیات، ایلان ماسک ۱۰ میلیون دلار را به عنوان بودجهی مورد نیاز به این موسسه اهدا کرد. در حال حاضر این موسسه ۳۷ پروژهی تحقیقاتی را در دست دارد.
جیرید آدامز، مدیر روابط عمومی آژانس توسعهی تحقیقات پیشرفتهی دفاعی ضمن اشاره به اینکه وزارت دفاع صریحا توسعهی سلاحهای هوشمند کشنده را ممنوع اعلام کرده، چنین اظهار نظر کرد:
[BLOCKQUOTE]
در حال حاضر آژانس تحقیقاتی وزارت دفاع هیچ نوع تحقیقاتی را در مورد توسعهی سلاحهای هوشمند که مستقل از انسان کار میکنند، در دست ندارد.در حال حاضر تمرکز ما روی توسعهی سیستمهای نیمه هوشمند است که فرآیند بکارگیری آنها انسان نیز دخیل است.
[/BLOCKQUOTE]
منبع: Zoomit

- پست: 1062
- تاریخ عضویت: یکشنبه ۱۲ آبان ۱۳۹۲, ۷:۵۴ ب.ظ
- سپاسهای ارسالی: 6153 بار
- سپاسهای دریافتی: 3146 بار
درخشش دانشمندان ایرانی در کنفرانس هوش مصنوعی
[External Link Removed for Guests]
پژوهشگران ایرانی در همایش جهانی هوش مصنوعی که مهمترین دانشمندان این رشته در جهان را دور هم جمع می کند و امسال نیز شهر بوینوس آیرس در آرژانتین میزبان آن است خوش درخشیدند.
به گزارش [External Link Removed for Guests] [External Link Removed for Guests]؛ سوبارائو کامبامهاتی استاد دانشگاه اریزونای امریکا و رئیس هیئت علمی و برگزارکننده این کنفرانس گفت: برای نشست امسال مقالات علمی بسیار خوبی از ایران برای ما ارسال شد که بسیاری از انها برای ارائه پذیرفته شدند. این مقالات در کنار کارکرد درخشان دانش اموختگان ایرانی گویای استعداد سرشار و وضع خوب نظام اموزشی ایران است.
صد صاحب نظر بین المللی با ارسال نامه ای به این نشست درباره راه افتادن مسابقه نظامی برای استفاده از هوش مصنوعی و ساخت روبات های قاتل هشدار دادند.ماریا جینی استاد دانشگاه مینیسوتا امریکا در این زمینه گفت: این ماشین ها نخواهند بود که آدم می کشند بلکه ادم ها هستند که ادم می کشند من فکر نمی کنم هوش مصنوعی در این مقطع خطرناک باشد اما می تواند در بیست سال اینده چنین پدیده ای رخ دهد.
اتفاقی که احتمالا موجب می شود نسل بشر به دست ماشین ها منقرض شود. البته دانشمندان تاکید می کنند که اگر نظامیان چشم و گوش ماشینها را برای کشتن ادمها باز نکنند هوش مصنوعی تحولی بزرگ و سازنده در جهان ایجاد می کند.
نشست سال اینده هوش مصنوعی در روزهای نهم تا پانزدهم ژولای در شهر نیویورک برگزار خواهد شد.
پژوهشگران ایرانی در همایش جهانی هوش مصنوعی که مهمترین دانشمندان این رشته در جهان را دور هم جمع می کند و امسال نیز شهر بوینوس آیرس در آرژانتین میزبان آن است خوش درخشیدند.
به گزارش [External Link Removed for Guests] [External Link Removed for Guests]؛ سوبارائو کامبامهاتی استاد دانشگاه اریزونای امریکا و رئیس هیئت علمی و برگزارکننده این کنفرانس گفت: برای نشست امسال مقالات علمی بسیار خوبی از ایران برای ما ارسال شد که بسیاری از انها برای ارائه پذیرفته شدند. این مقالات در کنار کارکرد درخشان دانش اموختگان ایرانی گویای استعداد سرشار و وضع خوب نظام اموزشی ایران است.
صد صاحب نظر بین المللی با ارسال نامه ای به این نشست درباره راه افتادن مسابقه نظامی برای استفاده از هوش مصنوعی و ساخت روبات های قاتل هشدار دادند.ماریا جینی استاد دانشگاه مینیسوتا امریکا در این زمینه گفت: این ماشین ها نخواهند بود که آدم می کشند بلکه ادم ها هستند که ادم می کشند من فکر نمی کنم هوش مصنوعی در این مقطع خطرناک باشد اما می تواند در بیست سال اینده چنین پدیده ای رخ دهد.
اتفاقی که احتمالا موجب می شود نسل بشر به دست ماشین ها منقرض شود. البته دانشمندان تاکید می کنند که اگر نظامیان چشم و گوش ماشینها را برای کشتن ادمها باز نکنند هوش مصنوعی تحولی بزرگ و سازنده در جهان ایجاد می کند.
نشست سال اینده هوش مصنوعی در روزهای نهم تا پانزدهم ژولای در شهر نیویورک برگزار خواهد شد.