در اين بخش مي‌توانيد در مورد ديگر مباحث کامپيوتر به بحث بپردازيد
Captain II

Captain II



نماد کاربر
پست ها

985

تشکر کرده: 2 مرتبه
تشکر شده: 83 مرتبه
تاريخ عضويت

شنبه 26 اسفند 1391 18:05

آرشيو سپاس: 7456 مرتبه در 1001 پست

هوش مصنوعی چیست؟

توسط mohammad area51 » پنج شنبه 24 مرداد 1392 23:18

« هوش مصنوعی، دانش ساختن ماشین‌‌ ها یا برنامه‌های هوشمند است. »  

همانگونه که از تعریف فوق-که توسط یکی از بنیانگذاران هوش مصنوعی ارائه شده است- برمی‌آید،حداقل به دو سؤال باید پاسخ داد:
۱ـ هوشمندی چیست؟
۲ـ برنامه‌های هوشمند، چه نوعی از برنامه‌ها هستند؟

تعریف دیگری که از هوش مصنوعی می‌توان ارائه داد به قرار زیر است:
« هوش مصنوعی، شاخه‌ایست از علم کامپیوتر که ملزومات محاسباتی اعمالی همچون ادراک (Perception)، استدلال(reasoning) و یادگیری(learning) را بررسی کرده و سیستمی جهت انجام چنین اعمالی ارائه می‌دهد.»و در نهایت تعریف سوم هوش مصنوعی از قرار زیر است:
«هوش مصنوعی، مطالعه روش‌هایی است برای تبدیل کامپیوتر به ماشینی که بتواند اعمال انجام شده توسط انسان را انجام دهد.»   به این ترتیب می‌توان دید که دو تعریف آخر کاملاً دو چیز را در تعریف نخست واضح کرده‌اند.
۱ـ منظور از موجود یا ماشین هوشمند چیزی است شبیه انسان.


۲ـ ابزار یا ماشینی که قرار است محمل هوشمندی باشد یا به انسان شبیه شود، کامپیوتر است.   هر دوی این نکات کماکان مبهم و قابل پرسشند. آیا تنها این نکته که هوشمندترین موجودی که می‌شناسیم، انسان است کافی است تا هوشمندی را به تمامی اعمال انسان نسبت دهیم؟ حداقل این نکته کاملاً واضح است که بعضی جنبه‌های ادراک انسان همچون دیدن و شنیدن کاملاً ضعیف‌تر از موجودات دیگر است.   علاوه بر این، کامپیوترهای امروزی با روش‌هایی کاملاً مکانیکی(منطقی) توانسته‌اند در برخی جنبه‌های استدلال، فراتر از توانایی‌های انسان عمل کنند.   بدین ترتیب، آیا می‌توان در همین نقطه ادعا کرد که هوش مصنوعی تنها نوعی دغدغه علمی یا کنجکاوی دانشمندانه است و قابلیت تعمق مهندسی ندارد؟(زیرا اگر مهندسی، یافتن روش‌های بهینه انجام امور باشد، به هیچ رو مشخص نیست که انسان اعمال خویش را به گونه‌ای بهینه انجام می‌دهد). به این نکته نیز باز خواهیم گشت.   اما همین سؤال را می‌توان از سویی دیگر نیز مطرح ساخت، چگونه می‌توان یقین حاصل کرد که کامپیوترهای امروزین، بهترین ابزارهای پیاده‌سازی هوشمندی هستند؟
رؤیای طراحان اولیه کامپیوتر از بابیج تا تورینگ، ساختن ماشینی بود که قادر به حل تمامی  مسائل باشد، البته ماشینی که در نهایت ساخته شد(کامپیوتر) به جز دسته ای خاص از مسائلقادر به حل تمامی مسائل بود. اما نکته در اینجاست که این «تمامی مسائل» چیست؟ طبیعتاً چون طراحان اولیه کامپیوتر، منطق‌دانان و ریاضیدانان بودند، منظورشان تمامی مسائل منطقی یا محاسباتی بود. بدین ترتیب عجیب نیست، هنگامی که فون‌نیومان سازنده اولین کامپیوتر، در حال طراحی این ماشین بود، کماکان اعتقاد داشت برای داشتن هوشمندی شبیه به انسان، کلید اصلی، منطق(از نوع به کار رفته در کامپیوتر) نیست، بلکه احتمالاً چیزی خواهد بود شبیه ترمودینامیک!
به هرحال، کامپیوتر تا به حال به چنان درجه‌ای از پیشرفت رسیده و چنان سرمایه‌گذاری عظیمی برروی این ماشین انجام شده است که به فرض این که بهترین انتخاب نباشد هم، حداقل سهل‌الوصول‌ترین و ارزان‌ترین و عمومی‌ترین انتخاب برای پیاده‌سازی هوشمندیست.
بنابراین ظاهراً به نظر می‌رسد به جای سرمایه‌گذاری برای ساخت ماشین‌های دیگر هوشمند، می‌توان از کامپیوترهای موجود برای پیاده‌سازی برنامه‌های هوشمند استفاده کرد و اگر چنین شود، باید گفت که طبیعت هوشمندی ایجاد شده حداقل از لحاظ پیاده‌سازی، کاملاً با طبیعت هوشمندی انسانی متناسب خواهد بود، زیرا هوشمندی انسانی، نوعی هوشمندی بیولوژیک است که با استفاده از مکانیسم‌های طبیعی ایجاد شده، و نه استفاده از عناصر و مدارهای منطقی.   در برابر تمامی استدلالات فوق می توان این نکته را مورد تاُمل و پرسش قرار داد که هوشمندی طبیعی تا بدان جایی که ما سراغ داریم، تنها برمحمل طبیعی و با استفاده از روش های طبیعت ایجاد شده است. طرفداران این دیدگاه تا بدانجا پیش رفته‌اند که حتی ماده ایجاد کننده هوشمندی را مورد پرسش قرار داده اند، کامپیوتر از سیلیکون استفاده می کند، در حالی که طبیعت همه جا از کربن سود برده است.   مهم تر از همه، این نکته است که در کامپیوتر، یک واحد کاملاً پیچیده مسئولیت انجام کلیه اعمال هوشمندانه را بعهده دارد، در حالی که طبیعت در سمت و سویی کاملاً مخالف حرکت کرده است. تعداد بسیار زیادی از واحدهای کاملاً ساده (بعنوان مثال از نورون‌های شبکه عصبی) با عملکرد همزمان خود (موازی) رفتار هوشمند را سبب می شوند. بنابراین تقابل هوشمندی مصنوعی و هوشمندی طبیعی حداقل در حال حاضر تقابل پیچیدگی فوق العاده و سادگی فوق العاده است. این مساُله هم اکنون کاملاً به صورت یک جنجال(debate) علمی در جریان است.
در هر حال حتی اگر بپذیریم که کامپیوتر در نهایت ماشین هوشمند مورد نظر ما نیست، مجبوریم برای شبیه‌سازی هر روش یا ماشین دیگری از آن سود بجوییم.

تاریخ هوش مصنوعی
هوش مصنوعی به خودی خود علمی است کاملاً جوان. در واقع بسیاری شروع هوش مصنوعی را ۱۹۵۰ می‌ دانند زمانی که آلن تورینگ مقاله دوران‌ساز خود را در باب چگونگی ساخت ماشین هوشمند نوشت (آنچه بعدها به تست تورینگ مشهور شد) تورینگ درآن مقاله یک روش را برای تشخیص هوشمندی پیشنهاد می‌کرد. این روش بیشتر به یک بازی شبیه بود.
فرض کنید شما در یک سمت یک دیوار (پرده یا هر مانع دیگر) هستید و به صورت تله تایپ باآن سوی دیوار ارتباط دارید و شخصی از آن سوی دیوار از این طریق با شما در تماس است. طبیعتاً یک مکالمه بین شما و شخص آن سوی دیوار می‌تواند صورت پذیرد. حال اگر پس از پایان این مکالمه، به شما گفته شود که آن سوی دیوار نه یک شخص بلکه (شما کاملاً از هویت شخص آن سوی دیوار بی‌خبرید) یک ماشین بوده که پاسخ شما را می‌داده، آن ماشین یک ماشین هوشمند خواهد بود، در غیر این صورت(یعنی در صورتی که شما در وسط مکالمه به مصنوعی بودن پاسخ پی ببرید) ماشین آن سوی دیوار هوشمند نیست و موفق به گذراندن تست تورینگ نشده است.   باید دقت کرد که تورینگ به دو دلیل کاملاً مهم این نوع از ارتباط(ارتباط متنی به جای صوت) را انتخاب کرد. اول این که موضوع ادراکی صوت را کاملاً از صورت مساُله حذف کند و این تست هوشمندی را درگیر مباحث مربوط به دریافت و پردازش صوت نکند و دوم این که بر جهت دیگری هوش مصنوعی به سمت نوعی از پردازش زبان طبیعی تاکید کند.
در هر حال هر چند تاکنون تلاش‌های متعددی در جهت پیاده سازی تست تورینگ صورت گرفته مانند برنامه Eliza و یا AIML   (زبانی برای نوشتن برنامه‌‌‌‌هایی که قادر به chat کردن اتوماتیک باشند) اما هنوز هیچ ماشینی موفق به گذر از چنین تستی نشده است.
همانگونه که مشخص است، این تست نیز کماکان دو پیش فرض اساسی را در بردارد:
۱ـ نمونه کامل هوشمندی انسان است.
۲ـ مهمترین مشخصه هوشمندی توانایی پردازش و درک زبان طبیعی است.   درباره نکته اول به تفصیل تا بدین جا سخن گفته ایم؛ اما نکته دوم نیز به خودی خود باید مورد بررسی قرارگیرد. این که توانایی درک زبان نشانه هوشمندی است تاریخی به قدمت تاریخ فلسفه دارد. از نخستین روزهایی که به فلسفه(Epistemology) پرداخته شده زبان همیشه در جایگاه نخست فعالیت‌های شناختی قرار داشته است. از یونانیان باستان که لوگوس را به عنوان زبان و حقیقت یکجا به کار می‌بردند تا فیلسوفان امروزین که یا زبان را خانه وجود می‌دانند، یا آن را ریشه مسائل فلسفی می‌خوانند؛ زبان، همواره شاُن خود را به عنوان ممتازترین توانایی هوشمندترین موجودات حفظ کرده است.   با این ملاحظات می‌توان درک کرد که چرا آلن تورینگ تنها گذر از این تست متظاهرانه زبانی را شرط دست‌یابی به هوشمندی می‌داند.   تست تورینگ اندکی کمتر از نیم‌قرن هوش مصنوعی را تحت تاُثیر قرار داد اما شاید تنها در اواخر قرن گذشته بود که این مسئله بیش از هر زمان دیگری آشکار شد که متخصصین هوش مصنوعی به جای حل این مسئله باشکوه ابتدا باید مسائل کم‌اهمیت‌تری همچون درک تصویر (بینایی ماشین) درک صوت و… را حل کنند.به این ترتیب با به محاق رفتن آن هدف اولیه، اینک گرایش‌های جدیدتری در هوش مصنوعی ایجاد شده‌اند.   در سال‌های آغازین AI تمرکز کاملاً برروی توسعه سیستم‌هایی بود که بتوانند فعالیت‌های هوشمندانه(البته به زعم آن روز) انسان را مدل کنند، و چون چنین فعالیت‌هایی را در زمینه‌های کاملاً خاصی مانند بازی‌های فکری، انجام فعالیت‌های تخصصی حرف‌های، درک زبان طبیعی، و…. می‌دانستند طبیعتاً به چنین زمینه‌هایی بیشتر پرداخته شد.
در زمینه توسعه بازی‌ها، تا حدی به بازی شطرنج پرداخته شد که غالباً عده‌ای هوش مصنوعی را با شطرنج همزمان به خاطر می‌آورند. مک‌کارتی که پیشتر اشاره شد، از بنیان‌گذاران هوش مصنوعی است این روند را آنقدر اغراق‌آمیز می‌داند که می‌گوید:
«محدود کردن هوش مصنوعی به شطرنج مانند این است که علم ژنتیک را از زمان داروین تا کنون تنها محدود به پرورش لوبیا کنیم.» به هر حال دستاورد تلاش مهندسین و دانشمندان در طی دهه‌های نخست را می‌توان توسعه تعداد بسیار زیادی سیستم‌های خبره در زمینه‌های مختلف مانند پزشکی عمومی، اورژانس، دندانپزشکی، تعمیرات ماشین،….. توسعه بازی‌های هوشمند، ایجاد مدل‌های شناختی ذهن انسان، توسعه سیستمهای یادگیری،…. دانست. دستاوردی که به نظر می‌رسد برای علمی با کمتر از نیم قرن سابقه قابل قبول به نظر می‌رسد.
افق‌های هوش مصنوعی   در ۱۹۴۳،Mcclutch (روانشناس، فیلسوف و شاعر) و Pitts (ریاضیدان) طی مقاله‌ای، دیده‌های آن روزگار درباره محاسبات، منطق و روانشناسی عصبی را ترکیب کردند. ایده اصلی آن مقاله چگونگی انجام اعمال منطقی به وسیله اجزای ساده شبکه عصبی بود. اجزای بسیار ساده (نورون‌ها) این شبکه فقط از این طریق سیگنال های تحریک (exitory) و توقیف (inhibitory) با هم درتماس بودند. این همان چیزی بود که بعدها دانشمندان کامپیوتر آن را مدارهای (And) و (OR) نامیدند و طراحی اولین کامپیوتر در ۱۹۴۷ توسط فون نیومان عمیقاً از آن الهام می‌گرفت.    امروز پس از گذشته نیم‌قرن از کار Mcclutch و Pitts شاید بتوان گفت که این کار الهام بخش گرایشی کاملاً پویا و نوین در هوش مصنوعی است.   پیوندگرایی (Connectionism) هوشمندی را تنها حاصل کار موازی و هم‌زمان و در عین حال تعامل تعداد بسیار زیادی اجزای کاملاً ساده به هم مرتبط می‌داند.   شبکه‌های عصبی که از مدل شبکه عصبی ذهن انسان الهام گرفته‌اند امروزه دارای کاربردهای کاملاً علمی و گسترده تکنولوژیک شده‌اند و کاربرد آن در زمینه‌های متنوعی مانند سیستم‌های کنترلی، رباتیک، تشخیص متون، پردازش تصویر،… مورد بررسی قرار گرفته است.
علاوه بر این کار بر روی توسعه سیستم‌های هوشمند با الهام از طبیعت (هوشمندی‌های ـ غیر از هوشمندی انسان) اکنون از زمینه‌های کاملاً پرطرفدار در هوش مصنوعی است.    الگوریتم ژنیتک که با استفاده از ایده تکامل داروینی و انتخاب طبیعی پیشنهاد شده روش بسیار خوبی برای یافتن پاسخ به مسائل بهینه سازیست. به همین ترتیب روش‌های دیگری نیز مانند استراتژی‌های تکاملی نیز (Evolutionary Algorithms) در این زمینه پیشنهاد شده اند.    دراین زمینه هر گوشه‌ای از سازو کار طبیعت که پاسخ بهینه‌ای را برای مسائل یافته است مورد پژوهش قرار می‌گیرد. زمینه‌هایی چون سیستم امنیتی بدن انسان (Immun System) که در آن بیشمار الگوی ویروس‌های مهاجم به صورتی هوشمندانه ذخیره می‌شوند و یا روش پیدا کردن کوتاه‌ترین راه به منابع غذا توسط مورچگان (Ant Colony) همگی بیانگر گوشه‌هایی از هوشمندی بیولوژیک هستند.   گرایش دیگر هوش مصنوعی بیشتر بر مدل سازی اعمال شناختی تاُکید دارد (مدل سازی نمادین یا سمبولیک) این گرایش چندان خود را به قابلیت تعمق بیولوژیک سیستم‌های ارائه شده مقید نمی‌کند.   CASE-BASED REASONING یکی از گرایش‌های فعال در این شاخه می‌باشد. بعنوان مثال روند استدلال توسط یک پزشک هنگام تشخیص یک بیماری کاملاً شبیه به CBR است به این ترتیب که پزشک در ذهن خود تعداد بسیار زیادی از شواهد بیماری‌های شناخته شده را دارد و تنها باید مشاهدات خود را با نمونه‌های موجود در ذهن خویش تطبیق داده، شبیه‌ترین نمونه را به عنوان بیماری بیابد.   به این ترتیب مشخصات، نیازمندی‌ها و توانایی‌های CBR به عنوان یک چارچوب کلی پژوهش در هوش مصنوعی مورد توجه قرارگرفته است.
البته هنگامی که از گرایش‌های آینده سخن می‌گوییم، هرگز نباید از گرایش‌های ترکیبی غفلت کنیم. گرایش‌هایی که خود را به حرکت در چارچوب شناختی یا بیولوژیک یا منطقی محدود نکرده و به ترکیبی از آنها می‌اندیشند. شاید بتوان پیش‌بینی کرد که چنین گرایش‌هایی فرا ساختارهای (Meta –Structure) روانی را براساس عناصر ساده بیولوژیک بنا خواهند کرد.


- پیشینه ی هوش مصنوعی:
باید گفت که از این نظر هوش مصنوعی یکی از غنی ترین تاریخ ها را دارد، منتها در قصه ها!  ماشین ها و مخلوقات مصنوعی باشعور، اولین بار در افسانه های یونان باستان مطرح شدند. شبه انسان ها باور داشتند که باید یک تمدن بزرگ را تشکیل دهند؛ تندیس ها و مجسمه های انسان نما در مصر و یونان به حرکت در آمده بودند و … حتی در مواردی این قصه ها، پای جابر بن حیّان و چند تن دیگر را هم به سازندگان موجودات مصنوعی باز کردند.  

از قصه ها که بگذریم ؛ فیلسوف ها و ریاضی دان ها از مدت ها پیش مباحث مربوط به استدلال و منطق را پیش کشیدند و امروزه این مباحث به صورت قرار دادی، به رسمیت پذیرفته شده است. این گونه منطق ها اساس کامپیوتر های دیجیتال و برنامه پذیر شده اند. یکی از افرادی که نقش اساسی و مهمی در این مورد ایفا کرد آقای آلن تورینگ بود.


نظریه تورینگ:

تئوری تورینگ مبتنی بر این بود که می توانیم با استفاده از نشانه ها و اعدادی مانند ۰ و ۱، هر استدلال ریاضی ای را در کامپیوتر عملی کنیم. همزمان با این نظریه کشف های تازه ای در زمینه ی عصب شناسی، نظریه اطلاعات و فرمانشناسی، به وقوع پیوسته بود. این پیشرفت ها الهام بخش گروهی کوچک از پژوهشگران شد تا به طور جدی به مساله ایجاد یک مغز الکترونیکی رسیدگی نمایند.  

- تست تورینگ:  

در سال ۱۹۵۰، آلن تورینگ مقاله ای را در رابطه با هوش مصنوعی منتشر ساخت که بعد ها به تست تورینگ مشهور شد. در این مقاله عنوان شده بود که اگر فردی از پشت یک دیوار یا هر چیز جدا کننده دیگری، با کامپیوتر مکالمه کتبی داشته باشد و نداند که طرف مقابلش انسان نیست و پس از پایان مکالمه نیز متوجه این موضوع نشود، آنگاه می توان کامپیوتر را ماشینی هوشمند نامید زیرا توانسته است که در برابر یک انسان به اندازه کافی از استدلال و منطق استفاده کند. تست تورینگ تا حدی توانست هوش مندی را توجیه کند ولی فقط ((تا حدی))! اما از آن زمان تا کنون ماشینی اختراع نشده است که توانسته باشد این تست را با موفقیت بگذراند. هر چند زبان AIML ابداع شد، اما این زبان هرگز به این حد از هوش مصنوعی دست نیافت.

- و بعد …  

تیمی که در زمینه هوش مصنوعی تحقیق می کردند، در تابستان سال ۱۹۵۶، کنفرانسی را در محوطه کالج دارتموس برگزار کردند. این کنفرانس به همراه افرادی مانند جان مک کارتی، ماروین مینسکی، آلین نویل و هربت سیمون که برای دهه ها پیشتازان تحقیق برای هوش مصنوعی بودند انجام شد. آنها و دانش آموزان آنها، برنامه ای نوشته بودند که حقیقتا برای عده زیادی از مردم شگفت آور بود. این برنامه می توانست مشکلات نوشتاری در جبر را حل کند، استدلال های منطقی را اثبات کند و به زبان انگلیسی سخن بگوید. در اواسط دهه ی ۱۹۶۰، بودجه سنگینی برای دایرکردن آزمایشگاه های تحقیقاتی در گرداگرد دنیا، از سوی حوزه ی دفاعی ایالات متحده آمریکا، اختصاص داده شد. پیشتازان هوش مصنوعی درباره آینده آن در جهان بسیار خوش بین بودند. هربت سیمون پیشبینی کرده بود که در مدت ۲۰ سال، کامپیوتر های هوشمند می توانند، هر کاری را که انسان انجام می دهد، انجام دهند. در واقع مشکلات بزرگی که در آن زمان برای ایجاد هوش مصنوعی وجود داشت، اساسا حل شده بود.  

- زمستانی سخت برای هوش مصنوعی:

علیرغم چیز هایی که در بالا گفته شد، تیم مذکور، در شناخت و رفع برخی از مشکلات هوش مصنوعی با شکست مواجه شد، در سال ۱۹۷۰ در مقابل انتقادات آقای جیمز لایتهیل از انگلستان و فشار های مداوم کنگره برای کم کردن بودجه برای پروژه های بزرگ، دولت های انگلیس و آمریکا تمام پژوهش های به نتیجه نرسیده برای هوش مصنوعی را لغو کردند و در اندک سالیان بعد از آن، به سختی برای هوش مصنوعی، بودجه اختصاص داده می شد. این دوره را زمستان هوش مصنوعی یا A.I winter می نامند.  

به زودی در سال ۱۹۸۰، پژوهش ها بر روی هوش مصنوعی از سر گرفته شد و این امر مدیون این بود که سیستم های هوشمند، به موفقیت های تجاری دست یافتند. سیستم های هوشمند، ترکیب هایی از هوش مصنوعی بودند که مهارت و دانش و توان تجزیه تحلیلی یک متخصص را شبیه سازی می کردند. در سال ۱۹۸۵، هوش مصنوعی به بازار یک میلیارد دلاری دست یافت و در همان زمان پروژه ی کامپیوتر های نسل پنجم ژاپن، که متوقف شده بود، از سر گرفته شد و بودجه ای برای تحقیقات آکادمیک در این زمینه در نظر گرفته شده بود. اما در سال ۱۹۸۷ باز هم چرخ گردان به گونه ای دیگر چرخید و بازار فروش ماشین های پردازش لیست (Lisp Machines) (با زبان Lisp) که با مشکلاتی موجه بودند، نابود شد و در یک ثانیه تمام آبروی هوش مصنوعی را هم با خود برد. پس این بار زمستان طولانی تر و سخت تری برای هوش مصنوعی فرارسید.  

- پس از آن، بهاری نو :  

پس از این مشکلات، در دهه ۱۹۹۰ و نزدیک به قرن بیست و یکم، هوش مصنوعی به یکی از بزرگ ترین موفقیت های خود دست یافت. اگر چه چیز هایی پشت پرده ماندند ولی هوش مصنوعی در زمینه های مهمی مانند استدلال و منطق، داده کاوی، تشخیص های پزشکی و طیف های گسترده ای از تکنولوژی و صنعت به کار گرفته می شد.

- مقایسه، استدلال و حل مسائل:  

خیلی زود توسعه دهندگان هوش مصنوعی به این نتیجه رسیدند که باید در الگوریتم های خود از نحوه حل مساله ((گام به گام)) استفاده کنند. در واقع انسان ها هم معمولا برای حل مواردی از جمله: ساختن پازل و … از این روش استفاده می کنند. آنها همچنین توانستند که پس از دهه های ۸۰ و ۹۰ الگوریتم های موفقیت آمیزی را برای درک داده ها و اطلاعات نا کامل عرضه کنند که این الگوریتم ها از احتمالات، برای درک این اطلاعات استفاده می کردند.  

برای حل مسائل سخت، بیشتر این الگوریتم ها به کامپیوتر های بزرگ و قدرتمندی برای پردازش نیاز داشتند. بسیاری از این الگوریتم ها به مقدار زیادی حافظه (رم) نیاز داشتند و حتی در صورت فراهم آمدن آن، با وجود سخت افزار های آن زمان، مدت مورد نیاز برای پردازش نجومی بود. بنابر این می توان این مساله را دریافت که: جستجو برای الگوریتم های بهتر و موثر تر در آن زمان، از اولویت های اصلی پژوهشگران هوش مصنوعی بود.  


انسان برای حل مسائل خود خیلی سریع عمل می کند. چیزی که باید فهمید این است که اگر چه انسان در جمع و تفریق اعداد از کامپیوتر شکست می خورد، اما مساله فقط جمع و تفریق نیست. در واقع اولین گام برای حل مساله درک آن است و این چیزی است که برای انسان بسیار ساده و برای کامپیوتر ها بسیار سخت است. بر این اساس آنها به تحقیقات زیادی پرداختند و به این نتیجه رسیدند که باید برای بازدهی بیشتر از شبکه های عصبی استفاده کنند. این کار به آنها کمک می کرد تا بتوانند به ساختار اعصاب و مغز انسان و سایر حیوانات نزدیک تر شوند.  

- نمایش معلومات:  

نمایش معلومات و مهندسی معلومات مرکز توجه در پژوهش های هوش مصنوعی بودند. بسیاری از دستگاه های حل مساله برای حل مسائل نیازمند معلومات گسترده و وسیعی بودند این معلومات عبارت می شد از : شناختن اشیاء، خواص و اقلام- شناختن روابط بین اشیاء- درک موقعیت، نوع واقعه و زمان و مکان- علت ها و تاثیر عوامل و بسیاری چیز های دیگر…  

و سخت ترین مشکلات درباره نمایش اطلاعات و معلومات عبارت بود از:  

۱- استدلال پیش فرض و مسائل نسبی:
دانسته ی یک فرد از یک چیز برابر است با پنداشت او از آن چیز، برای مثال وقتی نام پرنده به گوش کسی می خورد، معمولا یک موجود کوچک را به یاد می آورد با صدای زیبا و قابلیت پرواز؛ در حالی که این موضوع برای همه ی پرندگان صدق نمی کند. مثلا پنگوئن هیچکدام از این ویژگی ها را ندارد! جان مک کارتی این موضوع را به عنوان یک مسئله نسبی در سال ۱۹۶۹ کشف کرد. برای هر قضاوت صحیح (در تعریف عام) که محققان هوش مصنوعی، سعی در پیاده سازی آن داشتند، تعداد زیادی استثنا وجود داشت. بنابر این، آنها به این نتیجه دست یافتند که در قضاوت عام، نمی توان یک چیز را مطلقا درست یا غلط دانست بلکه همه چیز نسبی است. مثلا وقتی به شما می گویند که فلان شخص، خوب است یا بد؟ شما اول به مواردی توجه می کنید که مهم تر هستند و بر این اساس در مورد خوبی و بدی قضاوت می کنید. در حالی که هیچ کس مطلقا خوب یا بد نیست! در واقع شما اول به مواردی اهمیت می دهید که مهم تر است. محققان هوش مصنوعی هم با پیاده کردن چنین الگوریتمی توانستند این مشکلات را حل کنند.  

۲- سطح وسیع اطلاعات مورد نیاز برای قضاوت عام:
منظور از قضاوت عام، همان نحوه قضاوتی است که در بالا توضیح داده شد که شما به نکاتی که بیشتر اهمیت دارند، امتیاز بیشتری اختصاص می دهید و آنها را ملاک قضاوت خود قرار می دهید. اما این نوع قضاوت، شاید در زندگی روزمره ما کار عادی ای شده باشد؛ اما در واقع برای کامپیوتر این کار نیاز به اطلاعات پایه ای زیادی در زمینه هستی شناسی و شناخت ویژگی های موجودات دارد. محققان هوش مصنوعی می بایست، مفاهیم دقیق و پیچیده ای را با دست خود، به کامپیوتر می فهماندند. کار بزرگی که انجام شد این بود که توانستند کامپیوتر را قادر سازند که از منابع اطلاعاتی (نظیر اینترنت امروزی) ، مفاهیمی را کسب کند و از این راه به اطلاعات خود در این باره بیافزاید.  

۳- استفاده از زبان Sub-Symbolic برای توضیح بعضی مفاهیم در قضاوت عام:
بسیاری از معلوماتی که مردم دارند، چیز هایی است که نمی توان آن ها را تصویر کرد و یا توضیح داد. برای مثال یک شطرنج باز ماهر، از قرار دادن یک مهره در یک وضعیت خاص پرهیز می کند زیرا احساس می کند که این کار خطرناک است و یا یک کارشناس و منتقد هنری با نگاه کردن به یک مجسمه و یا یک نقاشی تشخیص می دهد که آن جعلی و تقلبی است. پیاده کردن چنین الگوریتم هایی با استفاده از زبان سمبلیک ممکن نبود و باید از زبان دیگری بر پایه Sub-Symbolic استفاده می شد.
روش Sub-Symbolic تا حد زیادی متفاوت است. این روش از شبکه های عصبی برای پردازش اطلاعات استفاده می کند. این شبکه های عصبی از واحد های ورودی، واحد های پنهان و واحد های خروجی تشکیل شده اند که همگی با یکدیگر ارتباط دارند. این واحد ها گاهی سلول عصبی نیز، خطاب می شوند. همانطور که گفته شد، این سلول های عصبی با یک دیگر ارتباط دارند. اما چیزی که باید بدانید این است که اطلاعات در بین این ارتباطات، پردازش می شوند و بر این اساس ممکن است یک سلول عصبی در پردازش اطلاعات موثر و یا کم اثر باشد. در عوض، در شبکه های عصبی تمامی اجزا مهم تلقی می شود. چون هیچ کدام از آنها به تنهایی نمی توانند، اطلاعات را پردازش کنند ولی وقتی تمام اجزا با هم کار کنند، موجب ایجاد یک عملکرد هوشمند می شوند.  

برای این که این روش را بهتر درک کنید، به این مثال توجه نمایید: یک مورچه تنها را در نظر بگیرید، طبعا نه کاری می تواند بکند و نه اثری دارد، اما وقتی مجموعه ای از این مورچه ها جمع می شوند و یک کلونی را تشکیل می دهند، آنگاه جامعه ای از آنها درست می شود که در کلیت، هوشمند و موثر است، به طوری که حتی ما هم با دانستن راز های زندگی جمعی مورچه ها، به فکر فرو می رویم! همین کار را هم می توان با شبکه های عصبی انجام داد و یک شبه مغز را ایجاد کرد.


- برنامه ریزی:  

موجودات و به طور کلی، چیز های هوشمند، باید بتوانند هدف هایی را برای خود تعیین کرده و به آنها دست یابند. برای این کار اولا لازم است که تصوری از آینده خود داشته باشیم. یعنی وضع کنونی هدف مورد نظر را در نظر بگیریم و پیش بینی کنیم که تصمیماتی که خواهیم گرفت، چگونه می تواند بر آن تاثیر بگزارد. پس از این کار باید، برای رسیدن به بهترین نتیجه؛ از بین گزینه هایی که داریم، بهترین و سودمند ترین آنها را انتخاب نماییم.  

پس تصمیم گیری و برنامه ریزی از این روش، کاری است که بدون هوشمندی، نمی توان آن را انجام داد و فقط موجودات هوشمند از پس آن بر می آیند!  

در مسائل کلاسیکی که در مورد برنامه ریزی وجود داشت، عامل هوشمند می توانست فرض کند که تنها یک چیز (هدف مورد نظر) در جهان فعال است و احتمالا می توان نتیجه آن را تغییر داد. بنا بر این هدف مورد نظر تعیین می شد و برای آن راه حل هایی ارائه می گردید. همچنین عامل هوشمند – که میتواند برنامه و یا هر چیز دیگری باشد – به طور مرتب و دائمی چک می کرد که پیشگویی هایش درست باشد و اگر اینطور نبود، راه حل مورد نظر برای هدفش را تغییر می داد.  

در این مورد می توانید یک روبوت را در نظر بگیرید که می خواهد از یک مسیر مارپیچ عبور نماید. این روبوت ابتدا هر یک از این مسیر ها را امتحان می کند و اگر هر کدام از آنها به بن بست، بر خورد، آن را به حافظه می سپارد تا دوباره تکرارش نکند و این عمل را آنقدر ادامه می دهد که راه خودش را بیابد! ( این یک تعریف بسیار ساده بود)  

- یادگیری:  

ایجاد امکان یادگیری برای ماشین ها، همواره از پژوهش های اصلی در زمینه ی هوش مصنوعی بوده است. یادگیری بدون نظارت: قابلیت یادگیری الگو ها، از اطلاعات ورودی را فراهم میکند. یادگیری نظارت شده هم، می تواند هردو امکان: طبقه بندی و عبرت عددی را ایجاد کند.  

طبقه بندی این امکان را می دهد که کامپیوتر بتواند تشخیص دهد که چه چیز هایی را می توان در یک گروه خاص گنجاند. عبرت عددی (Regression takes) نیز به این صورت عمل می کند که بعد از دادن چیز هایی به عنوان ورودی به کامپیوتر و مشخص کردن خروجی دقیق آنها، کامپیوتر می تواند روابط بین ورودی و خروجی را کشف کرده و الگوریتم ها و توابع پیوسته ای را برای آنها تعیین کند. این روش برای به وجود آوردن الگوریتم های بسیار پیچیده، مفید خواهد بود.  

اجازه دهید تا در این مورد مثالی بزنیم: وقتی در حال رانندگی هستید و به عابران پیاده نگاه می کنید، می توانید تا حد زیادی تشخیص دهید که آنها قصد چه کاری را دارند. مثلا می خواهند از خیابان رد شوند یا این که تاکسی بگیرند و یا این که فقط سر جای خود ایستاده اند. خب، این کار برای من و شما نسبتا ساده است اما اساسا برای نوشتن الگوریتم آن برای کامپیوتر، از دست یک انسان کاری ساخته نیست. با استفاده از روش عبرت عددی می توان با روش های خاص این مورد را با مثال های زیادی به کامپیوتر و برنامه ی مربوطه نشان داد و به تدریج الگوریتم مورد نیاز را تحویل گرفت.  

اما چیزی که باید هم اکنون به آن اشاره کرد، عملیات تقویت یادگیری است. این کار به این صورت انجام می پذیرد که تئوری تصمیم گیری کامپیوتر آنالیز شده و برداشت های سودمند آن تئوری، مورد تاکید قرار می گیرند. در واقع کار های درست با تشویق (به صورت اولویت دادن) و کار های غلط با تنبیه (به صورت امتیاز منفی) پاسخ داده می شوند و به همین خاطر یادگیری کامپیوتر به طور مرتب بهبود می یابد.  

یادداشت: آنالیز الگوریتم های یادگیری ماشین ها، شاخه ای از علوم نظری کامپیوتر است که با نام تئوری یادگیری کامپیوتری شناخته می شود.

- پردازش زبان طبیعی:  

پردازش زبان طبیعی یا Natural Language Processing، به ماشین های هوش مند این قابلیت را می دهد که زبان انسان ها را بخوانند و آنها را متوجه شوند. بسیاری از تحقیقات به این نتیجه رسید که برای ایجاد قدرت کافی برای سیستم پردازش زبان طبیعی، نیاز است که اطلاعات زیاد و کاملی را به این سیستم ارائه کنیم که می تواند با استفاده از خواندن متن های موجود در اینترنت انجام شود.  

برنامه هایی که هم اکنون در زمینه پردازش زبان طبیعی درست عمل می کنند، از امکاناتی مانند: بازیابی اطلاعات، جستجو در متن ها و امکان ترجمه ماشینی بهره مند اند.  

- حرکت و جا به جا کردن اجسام: تحقیقات در زمینه روبوتیک، بیش از هر چیزی به هوش مصنوعی وابسته است. روبات ها برای موارد بسیار زیادی نیاز به هوشمندی دارند که از جمله آنها می توان مواردی مانند: مسیر یابی ، جا به جا کردن، این که بدانند کجا هستند، این که درکی از محیط خود داشته باشند و بتوانند برای حرکت به سوی نقطه خاصی، برنامه ریزی نمایند و هدف خود را تعیین کنند. بدین ترتیب هوش مصنوعی برای روبات ها بسیار پر کاربرد است و تقریبا در تمام زمینه های ذکر شده از آن استفاده می نمایند.


- هوش اجتماعی:  

احساسات و مهارت های اجتماعی، دو بخش مهم از هوش مندی را تشکیل می دهند. اولا، باعث می شود که ماشین هوشمند بتواند عکس العمل طرف مقابل را در برابر یک رفتار خاص، تشخیص دهد. که این کار با درک از انگیزه فرد و احساسات او عملی خواهد شد.  

ثانیا؛ برای تعامل بهتر بین انسان و کامپیوتر، ماشین هوشمند باید بتواند که احساساتی را از خود بروز دهد. در بد ترین حالت، این امر باید به صورت نشان دادن احساسات ضعیف در گفتار و با کمال ادب انجام گیرد و در بهترین حالت باید با حساسیت طبیعی و مناسب در برابر انسان همراه باشد. در واقع سعی بر این است که کامپیوتر طوری عمل کند که اگر با لحن بدی با او حرف زدید، با کمال ادب به شما پاسخی مناسب با لحن خودتان دهد. و بالعکس!  

نکته مهم: مساله کمال ادب بسیار مهم است چون کامپیوتر در صورت عدم رعایت این موضوع، موجودیت خودش را به خطر خواهد انداخت و در این صورت نیاز به یک الگوریتم برای کشتی گیری انسان و کامپیوتر (یا ربات) هم به شدت احساس می شود. (معمولا انسان ها اعصاب ندارند و خیلی زود درگیر می شوند.)

نویسنده : بهرامی
منابع:
ویکی پدیا
ایران کلوب
مقاله
تبیان

کاربران زیر از شما کاربر محترم جناب mohammad area51 تشکر کرده اند:
Mahdi1944

 


  • موضوعات مشابه
    پاسخ ها
    بازديدها
    آخرين پست

چه کسي حاضر است ؟

کاربران حاضر در اين انجمن: بدون كاربران آنلاين و 0 مهمان