دانلود کتاب Simulation-based Algorithms for Markov Decision Processes
49,000 تومان
الگوریتم های مبتنی بر شبیه سازی برای فرآیندهای تصمیم گیری مارکوف
| موضوع اصلی | آمار ریاضی |
|---|---|
| نوع کالا | کتاب الکترونیکی |
| ناشر | Springer |
| تعداد صفحه | 189 |
| حجم فایل | 2 مگابایت |
| کد کتاب | 9781846286896,9781846286896,9781846286902 |
| نوبت چاپ | نسخه اول. |
| نویسنده | Hyeong Soo Chang, Jiaqiao Hu, Michael C. Fu, Steven I. Marcus |
|---|---|
| زبان | انگلیسی |
| فرمت | |
| سال انتشار | 2007 |
جدول کد تخفیف
| تعداد کتاب | درصد تخفیف | قیمت کتاب |
| 1 | بدون تخفیف | 25,000 تومان |
| 2 | 20 درصد | 20,000 تومان |
| 3 الی 5 | 25 درصد | 18,750 تومان |
| 6 الی 10 | 30 درصد | 17,500 تومان |
| 11 الی 20 | 35 درصد | 16,250 تومان |
| 21 الی 30 | 40 درصد | 15,000 تومان |
| 31 الی 40 | 45 درصد | 13,750 تومان |
| 41 الی 50 | 50 درصد | 12,500 تومان |
| 51 الی 70 | 55 درصد | 11,250 تومان |
| 71 الی 100 | 60 درصد | 10,000 تومان |
| 101 الی 150 | 65 درصد | 8,750 تومان |
| 151 الی 200 | 70 درصد | 7,500 تومان |
| 201 الی 300 | 75 درصد | 6,250 تومان |
| 301 الی 500 | 80 درصد | 5,000 تومان |
| 501 الی 1000 | 85 درصد | 3,750 تومان |
| 1001 الی 10000 | 90 درصد | 2,500 تومان |
ترجمه فارسی توضیحات (ترجمه ماشینی)
الگوریتم های مبتنی بر شبیه سازی برای فرآیندهای تصمیم گیری مارکوف
مدلهای فرآیند تصمیم مارکوف (MDP) به طور گسترده برای مدلسازی مشکلات تصمیمگیری متوالی که در مهندسی، اقتصاد، علوم کامپیوتر و علوم اجتماعی ایجاد میشوند، استفاده میشوند. به خوبی شناخته شده است که بسیاری از مسائل دنیای واقعی که توسط MDPها مدلسازی میشوند، دارای فضاهای حالت و/یا عمل عظیمی هستند که منجر به نفرین بدنام ابعاد میشود که راهحل عملی مدلهای حاصل را غیرقابل حل میکند. در موارد دیگر، سیستم مورد نظر به اندازه کافی پیچیده است که نمی توان برخی از پارامترهای مدل MDP را به طور صریح مشخص کرد، اما نمونه های شبیه سازی به راحتی در دسترس هستند (به عنوان مثال، برای انتقال تصادفی و هزینه ها). برای این تنظیمات، نمونهگیری و الگوریتمهای عددی مبتنی بر جمعیت مختلف اخیراً برای غلبه بر مشکلات محاسبه یک راهحل بهینه از نظر یک خط مشی و/یا تابع مقدار توسعه یافتهاند.
Simulation-based Algorithms for Markov Decision Processes
Markov decision process (MDP) models are widely used for modeling sequential decision-making problems that arise in engineering, economics, computer science, and the social sciences. It is well-known that many real-world problems modeled by MDPs have huge state and/or action spaces, leading to the notorious curse of dimensionality that makes practical solution of the resulting models intractable. In other cases, the system of interest is complex enough that it is not feasible to specify some of the MDP model parameters explicitly, but simulation samples are readily available (e.g., for random transitions and costs). For these settings, various sampling and population-based numerical algorithms have been developed recently to overcome the difficulties of computing an optimal solution in terms of a policy and/or value function.

نقد و بررسیها
هنوز بررسیای ثبت نشده است.