دانلود کتاب Simulation-Based Optimization: Parametric Optimization Techniques and Reinforcement Learning
49,000 تومان
بهینه سازی مبتنی بر شبیه سازی: تکنیک های بهینه سازی پارامتریک و یادگیری تقویتی
| موضوع اصلی | علوم (عمومی) |
|---|---|
| نوع کالا | کتاب الکترونیکی |
| ناشر | Springer US |
| تعداد صفحه | 508 / 530 |
| حجم فایل | 5.10 مگابایت |
| کد کتاب | 1489974911 , 9781489974914 |
| نوبت چاپ | 2 |
| نویسنده | Abhijit Gosavi (auth.) |
|---|---|
| زبان | انگلیسی |
| فرمت | |
| سال انتشار | 2015 |
جدول کد تخفیف
| تعداد کتاب | درصد تخفیف | قیمت کتاب |
| 1 | بدون تخفیف | 25,000 تومان |
| 2 | 20 درصد | 20,000 تومان |
| 3 الی 5 | 25 درصد | 18,750 تومان |
| 6 الی 10 | 30 درصد | 17,500 تومان |
| 11 الی 20 | 35 درصد | 16,250 تومان |
| 21 الی 30 | 40 درصد | 15,000 تومان |
| 31 الی 40 | 45 درصد | 13,750 تومان |
| 41 الی 50 | 50 درصد | 12,500 تومان |
| 51 الی 70 | 55 درصد | 11,250 تومان |
| 71 الی 100 | 60 درصد | 10,000 تومان |
| 101 الی 150 | 65 درصد | 8,750 تومان |
| 151 الی 200 | 70 درصد | 7,500 تومان |
| 201 الی 300 | 75 درصد | 6,250 تومان |
| 301 الی 500 | 80 درصد | 5,000 تومان |
| 501 الی 1000 | 85 درصد | 3,750 تومان |
| 1001 الی 10000 | 90 درصد | 2,500 تومان |
Simulation-Based Optimization: Parametric Optimization Techniques and Reinforcement Learning introduce the evolving area of static and dynamic simulation-based optimization. Covered in detail are model-free optimization techniques – especially designed for those discrete-event, stochastic systems which can be simulated but whose analytical models are difficult to find in closed mathematical forms.
Key features of this revised and improved Second Edition include:
· Extensive coverage, via step-by-step recipes, of powerful new algorithms for static simulation optimization, including simultaneous perturbation, backtracking adaptive search and nested partitions, in addition to traditional methods, such as response surfaces, Nelder-Mead search and meta-heuristics (simulated annealing, tabu search, and genetic algorithms)
· Detailed coverage of the Bellman equation framework for Markov Decision Processes (MDPs), along with dynamic programming (value and policy iteration) for discounted, average, and total reward performance metrics
· An in-depth consideration of dynamic simulation optimization via temporal differences and Reinforcement Learning: Q–Learning, SARSA, and R-SMART algorithms, and policy search, via API, Q–P–Learning, actor-critics, and learning automata
· A special examination of neural-network-based function approximation for Reinforcement Learning, semi-Markov decision processes (SMDPs), finite-horizon problems, two time scales, case studies for industrial tasks, computer codes (placed online) and convergence proofs, via Banach fixed point theory and Ordinary Differential Equations
Themed around three areas in separate sets of chapters – Static Simulation Optimization, Reinforcement Learning and Convergence Analysis– this book is written for researchers and students in the fields of engineering (industrial, systems, electrical and computer), operations research, computer science and applied mathematics.
ترجمه فارسی (ترجمه ماشینی)
بهینهسازی مبتنی بر شبیهسازی: تکنیکهای بهینهسازی پارامتری و یادگیری تقویتی حوزه در حال تکامل بهینهسازی مبتنی بر شبیهسازی استاتیک و پویا را معرفی میکند. تکنیکهای بهینهسازی بدون مدل به تفصیل پوشش داده شده است – بهویژه برای آن دسته از سیستمهای تصادفی رویداد گسسته که میتوانند شبیهسازی شوند اما پیدا کردن مدلهای تحلیلی آنها در فرمهای ریاضی بسته دشوار است، طراحی شدهاند.
ویژگی های کلیدی این ویرایش دوم اصلاح شده و بهبود یافته عبارتند از:
· پوشش گسترده، از طریق دستور العمل های گام به گام، الگوریتم های جدید قدرتمند برای بهینه سازی شبیه سازی استاتیک، از جمله اغتشاش همزمان جستجوی تطبیقی و پارتیشنهای تودرتو، بهعلاوه روشهای سنتی، مانند سطوح پاسخ، جستجوی Nelder-Mead و فراابتکاری (بازپخت شبیهسازیشده، جستجوی تابو، و الگوریتمهای ژنتیک)
· پوشش تفصیلی چارچوب معادله بلمن برای فرآیندهای تصمیم گیری مارکوف (MDP)، همراه با برنامه ریزی پویا (تکرار ارزش و خط مشی) برای معیارهای عملکرد تخفیف، متوسط و کل پاداش
· بررسی عمیق بهینه سازی شبیه سازی پویا از طریق زمانی تفاوت ها و پاسخ یادگیری تقویتی: Q–یادگیری، SARSA، و R-SMART الگوریتم ها و جستجوی خط مشی، از طریق API، Q–P–یادگیری، بازیگران منتقد، و خودکارهای یادگیری
· A بررسی ویژه تقریب تابع مبتنی بر شبکه عصبی برای یادگیری تقویتی، فرآیندهای تصمیم گیری نیمه مارکوف (SMDPs)، مسائل افق محدود، دو مقیاس زمانی، مطالعات موردی برای کارهای صنعتی، کدهای کامپیوتری (قرار داده شده به صورت آنلاین) و اثبات همگرایی، از طریق Banach تئوری نقطه ثابت و معادلات دیفرانسیل معمولی
در سه حوزه در مجموعههای جداگانه فصلها – بهینهسازی شبیهسازی استاتیک، یادگیری تقویتیو تجزیه و تحلیل همگرایی – این کتاب برای محققان و دانشجویان رشته های مهندسی (صنعتی، سیستم ها، برق و کامپیوتر)، تحقیق در عملیات، علوم کامپیوتر و ریاضیات کاربردی نوشته شده است.

نقد و بررسیها
هنوز بررسیای ثبت نشده است.