ورود به سایت ثبت نام در سایت فراموشی کلمه عبور
نام کاربری در این سایت می تواند هم فارسی باشد و هم انگلیسی





اگر فرم ثبت نام برای شما نمایش داده نمی‌شود، اینجا را کلیک کنید.









اگر فرم بازیابی کلمه عبور برای شما نمایش داده نمی‌شود، اینجا را کلیک کنید.





+ پاسخ به موضوع
نمایش نتایج: از 1 به 1 از 1
  1. #1
    تاریخ عضویت
    2018/04/11
    نوشته ها
    1
    0
    Junior Member

    یادگیری هوش مصنوعی از اشتباهات

    الگوریتم جدید هوش مصنوعی مانند انسان از گذشته یاد میگیرد
    در ماه های اخیر، محققان روی توسعه هوش مصنوعی که بهتر یاد می گیرد، تمرکز کرده اند. ماشین ها به لطف تقویت روش های یادگیری OpenAI با الگوریتم های یادگیری می توانند خود را آموزش دهند. الگوریتم جدید به هوش مصنوعی اجازه می دهد از اشتباهات یاد بگیرد و این تقریبا همان کاری که انسان انجام می دهد.
    این توسعه بخاطر یک الگوریتم open-source به نام بازخورد تجربه ادراکی یا Hindsight Experience Replay (HER) است که محققان OpenAI در اوایل هفته آن را منتشر کردند. همانطور که از نام آن پیداست HER به فاکتور "نگاه کردن به ادراکات گذشته" در هوش مصنوعی کمک می کند. با توجه به وبلاگ OpenAI چنین هوش مصنوعی شکست را به عنوان موفقیت در نظر می گیرد.
    محققان نوشتند:
    "بینش کلیدی که HER آن را شکل می دهد همان چیزی است که انسان به وسیله ی درک مستقیم انجام می دهد: ما گرچه در یک هدف خاص موفق نشده ایم، حداقل دستاورد متفاوتی را به دست آورده ایم . پس به جای اینکه برای رسیدن به هدف اول مان دوباره شروع به کار کنیم ، چرا وانمود نکنیم که از همان ابتدا خواستار همین هدف بودیم؟"
    به عبارت ساده تر، یعنی هر تلاش ناموفق به عنوان تلاشهای هوش مصنوعی برای رسیدن به یک هدف به جای هدف دیگر است؛ هدف "مجازی". به عقب برگردید به زمانی که یادگرفتید چطور دوچرخه سواری کنید. در اولین تلاشتان نمی توانستید تعادل خود را حفظ کنید، با این حال، این تلاش ها به شما آموخت که چگونه به درستی سوار دوچرخه شوید و برای تعادل روی یک دوچرخه باید از چه چیزی اجتناب کنید. هر شکستی شما را به هدف خود نزدیکتر کرد چون این روشی است که انسانها با آن یاد می گیرند. یادگیری هوش مصنوعی با پاداش دهی برای هر شکست
    با استفاده از HER، کمپانی OpenAI می خواهد فاکتورهای هوش مصنوعی به همین روش یاد بگیرند. این روش جایگزین سیستم های پاداش‌دهی معمول خواهد شد که دربردارنده‌ی مدل های تقویت یادگیری هستند. برای یاد دادن به هوش مصنوعی که خودش بیاموزد؛ باید با سیستم پاداش کار کرد: یا هوش مصنوعی به هدفش می رسد و یک الگوریتم " کوکی" می گیرد یا نمی گیرد. در مدل دیگر، دادن کوکی بستگی به این دارد که یک هوش مصنوعی چقدر نزدیک است به هدفش برسد. هر دو روش کامل نیستند. روش اول، یادگیری را متوقف می کند چون هوش مصنوعی یا آن را یاد می گیرد یا نمی گیرد. از سوی دیگر، روش دوم، با توجه به IEEE Spectrum می تواند کاملا پیچیده باشد. با یاد دادن هر تلاش به عنوان یک هدف ادراکی، HER به یک فاکتور هوش مصنوعی پاداشی می دهد حتی وقتی که در انجام وظیفه ای خاص واقعا شکست خورده باشد. این به هوش مصنوعی کمک می کند تا سریعتر و بهتر یاد بگیرد. طبق وبلاگ OpenAI با چنین جایگزینی، الگوریتم تقویت یادگیری بخاطر رسیدن به برخی اهداف می تواند موجب یادگیری شود، حتی اگر رسیدن به آن اهداف، هدف مورد نظر شما نباشد. اما اگر این فرایند را تکرار کنید درنهایت خواهید آموخت چگونه به هدف های دلخواهی که واقعا مد نظرتان است برسید. این روش به این معنا نیست که HER یادگیری وظایف خاصی را برای فاکتور یادگیری هوش مصنوعی کاملا راحتتر می کند. ماتیاس پلاپرت به IEEE Spectrum گفت: "یادگیری با HER برای ربات های واقعی هنوز سخت است. چون به آزمون های زیادی نیاز دارد." در هر صورت، همانطور که شبیه سازی OpenAI نشان داده است، HER می تواند به تشویق فاکتورهای هوش مصنوعی کمک کند که حتی از اشتباهات خود یاد بگیرند، بسیار شبیه به آنچه ما انجام می دهیم- البته بزرگترین اختلاف این است که هوش‌ مصنوعی مثل انسانهای ضعیف ناامید نمی شود.
    برگرفته از آپتک
    ویرایش توسط uppteck : 2018/04/11 در ساعت 11:36
+ پاسخ به موضوع
نمایش نتایج: از 1 به 1 از 1

موضوعات مشابه

  1. پاسخ: 0
    آخرين نوشته: 2018/02/05, 08:23
  2. معرفی استارتاپ هوش مصنوعی با قیمت یک میلیارد دلار
    توسط SARA در انجمن مقاله های استارتاپی (مقالات)
    پاسخ: 0
    آخرين نوشته: 2017/12/24, 19:16
  3. پاسخ: 0
    آخرين نوشته: 2017/12/08, 08:09
  4. پاسخ: 0
    آخرين نوشته: 2017/11/13, 22:33
  5. پاسخ: 0
    آخرين نوشته: 2017/11/13, 22:32

کلمات کلیدی این موضوع

مجوز های ارسال و ویرایش