Quá trình quyết định Markov
Quy trình quyết định Markov (MDP) cung cấp một nền tảng toán học cho việc mô hình hóa việc ra quyết định trong các tình huống mà kết quả là một phần ngẫu nhiên và một phần dưới sự điều khiển của một người ra quyết định. MDP rất hữu dụng cho việc học một loạt bài toán tối ưu hóa được giải quyết thông qua quy hoạch động và học tăng cường. MDP được biết đến sớm nhất là vào những năm 1950 (cf. Bellman 1957). Một cốt lõi của nghiên cứu về quá trình ra quyết định Markov là từ kết quả của cuốn sách của Ronald A. Howard xuất bản năm 1960, Quy hoạch động và quá trình Markov. Chúng được sử dụng trong rất nhiều các lĩnh vực khác nhau, bao gồm robot, điều khiển tự động,kinh tế, vàchế tạo.
Chính xác hơn, một quá trình quyết định Markov là một quá trình điều khiển ngẫu nhiên thời gian rời rạc. Tại mỗi bước thời gian, quá trình này trong một vài trạng thái , và người ra quyết định có thể chọn bất kỳ hành động nào có hiệu lực trong trạng thái . Quá trình này đáp ứng tại bước thời gian tiếp theo bằng cách di chuyển ngẫu nhiên vào một trạng thái mới , và đưa ra cho người ra quyết định một phần thưởng tương ứng .
Xác suất mà quá trình di chuyển vào trạng thái mới của nó bị ảnh hưởng bởi hành động được chọn. Đặc biệt, nó được đưa ra bởi hàm chuyển tiếp trạng thái . Do đó, trạng thái kế tiếp phụ thuộc vào trạng thái hiện tại và hành động của người ra quyết định . Nhưng và đã cho, lại độc lập có điều kiện với toàn bộ trạng thái và hành động trước đó; nói cách khác, các trạng thái chuyển tiếp của một quá trình MDP thỏa mãn thuộc tính Markov.
Quá trình quyết định Markov là một phần mở rộng của chuỗi Markov; khác biệt là ở sự bổ sung của các hành động (cho phép lựa chọn) và phần thưởng (cho động cơ). Ngược lại, nếu chỉ có một hành động tồn tại cho mỗi trạng thái và tất cả các phần thưởng là giống nhau (ví dụ: zero), một quá trình quyết định Markov làm giảm một chuỗi Markov.
Định nghĩa
[sửa | sửa mã nguồn]Một quá trình quyết định Markov là một tập 5-dữ liệu , trong đó
- là một tập hữu hạn các trạng thái,
- là một tập hữu hạn các hành động (ngoài ra, là tập hữu hạn các hành động có sẵn từ trạng thái ),
- là xác suất mà hành động trong trạng thái tại thời gian sẽ dấn đến trạng thái tại thời gian ,
- là phần thưởng trực tiếp (hoặc phần thưởng trực tiếp mong đợi) nhận được sau khi chuyển tiếp sang trạng thái từ trạng thái ,
- là hệ số chiết khấu, sẽ đại diện cho sự khác biệt quan trọng giữa các phần thưởng tương lai và các phần thưởng hiện tại.
(Ghi chú: Lý thuyết của quá trình quyết định Markov không nói rằng hoặc là hữu hạn, nhưng các thuật toán dưới đây giả định rằng chúng là hữu hạn.)
Bài toán
[sửa | sửa mã nguồn]Bài toán cốt lõi của MDP đó là tìm một "nguyên tắc" cho người ra quyết định: một hàm mà xác định hành động rằng người ra quyết định sẽ chọn khi trong trạng thái . Ghi chú rằng khi một quá trình quyết định Markov được kết hợp với một nguyên tắc theo cách thức như vậy, điều này sẽ làm cho hành động cho mỗi trạng thái và sự kết hợp kết quả sẽ hành xử giống như một xích Markov.
Mục đích là để chọn ra một nguyên tắc mà sẽ tối đa hóa vài hàm tích lũy của các phần thưởng ngẫu nhiên, điển hình là tổng khấu hao mong muốn qua một đường vô cực tiềm năng:
- (trong đó ta chọn )
trong đó là hệ số chiết khấu và thỏa mãn . (Ví dụ, khi tốc độ chiết khấu là r.) thường gần với 1.
Do tính chất Markov, chính sách tối ưu cho bài toán cụ thể này thực sự có thể được viết như là một hàm của , như giả định ở trên.
Các thuật toán
[sửa | sửa mã nguồn]MDP có thể được giải bằng quy hoạch tuyến tính hoặc quy hoạch. Dưới đây chúng tôi xin trình bày cách tiếp cận thứ hai.
Giả sử chúng ta đã biết hàm chuyển tiếp trạng thái và hàm phần thưởng , và chúng ta muốn tính khả năng mà cực đại hóa phần thưởng không mong muốn dự tính.
Họ tiêu chuẩn của các thuật toán để tính nguyên tắc tối ưu này yêu cầu lưu trữ 2 dãy (array) biểu diễn bởi trạng thái: giá trị , chứa các giá trị thực, và nguyên tắc chứa các hành động. Cuối cùng của thuật toán này, sẽ chứa lời giải/ đáp số và sẽ chứa tổng chiết khấu (discounted sum) của các phần thưởng kiếm được (trị trung bình) bằng cách theo cách giải này từ trạng thái .
Thuật toán này có hai loại bước sau, được lặp đi lặp lại một số lần cho tất cả các trạng thái cho đến khi không có thay đổi nào diễn ra nữa. Chúng được định nghĩa một cách đệ quy như sau:
Bậc của chúng phụ thuộc vào biến thể của thuật toán; Ai cũng có thể thực hiện cho tất cả các trạng thái cùng một lúc hoặc từng trạng thái một, và một số trạng thái được thực hiện thường xuyên hơn các trạng thái khác. Miễn là không có trạng thái nào bị loại trừ vĩnh viễn từ một trong các bước, thuật toán sẽ cuối cùng đi đến được lời giải đúng.
Các biến thể đáng chú ý
[sửa | sửa mã nguồn]Phép lặp giá trị
[sửa | sửa mã nguồn]Trong phép lặp giá trị (Bellman 1957), còn được gọi là quy nạp ngược, hàm không được sử dụng, thay vào đó, giá trị của được tính toán trong bất kể khi nào cần thiết. Nghiên cứu của Shapley vào năm 1953 về stochastic games (trò chơi ngẫu nhiên) bao gồm một trường hợp đặc biệt, phương pháp phép lặp giá trị cho các quá trình quyết định Markov, nhưng công trình này chỉ được công nhận sau này.[1]
Thay thế tính toán của vào tính toán của cho ta bước kết hợp:
trong đó là số lần lặp. Giá trị lặp bắt đầu tại và là một giả định của hàm giá trị. Sau đó tính toán lặp đi lặp lại cho tất cả các trạng thái , cho đến khi hội tụ với phía bên trái bằng phía bên phải (được gọi là "phương trình Bellman cho bài toán này).
Phép lặp nguyên tắc
[sửa | sửa mã nguồn]Trong phép lặp nguyên tắc (Howard 1960) bước một được thực hiện một lần, sau đó bước 2 được lặp đi lặp lại cho đến khi nó hội tụ. Sau đó bước một được thực hiện lại một lần nữa và vv.
Thay vì lặp đi lặp lại bước hai cho đến khi hội tụ, nó có thể được xây dựng và giải như một tập hợp các phương trình tuyến tính.
Biến thể này có lợi thế là có một điều kiện dừng nhất định: khi dãy không thay đổi trong quá trình áp dụng bước 1 cho tất cả các trạng thái, thuật toán sẽ được hoàn thành.
Phép lặp nguyên tắc sửa đổi
[sửa | sửa mã nguồn]Trong phép lặp nguyên tắc sửa đổi (van Nunen, 1976; Puterman và Shin 1978), bước một được thực hiện một lần, và sau đó bước 2 được lặp đi lặp lại nhiều lần. Sau đó bước một được thực hiện một lần nữa và vân vân.
Quét ưu tiên
[sửa | sửa mã nguồn]Trong biến thể này, các bước được áp dụng ưu tiên cho các trạng thái quan trọng theo một số cách thức nào đó - hoặc là dựa trên thuật toán này (có các thay đổi lớn trong hoặc xung quanh các trạng thái này gần đây) hoặc là dựa trên việc sử dụng (các trạng thái đó nằm gần trạng thái khởi động, hoặc là tùy thuộc vào người hoặc chương tình sử dụng thuật toán này).
Mở rộng và tổng quá hóa
[sửa | sửa mã nguồn]Quá trình quyết định Markov là một trò chơi ngẫu nhiên với người chơi duy nhất.
Có thể tuân theo từng phần
[sửa | sửa mã nguồn]Lời giải ở trên giả thiết rằng trạng thái đã biết khi hành động được thực hiện; nếu không thì không thể được tính toán. Khi giả thiết này không đúng, bài toán được gọi là một quá trình quyết định Markov có thể tuân theo từng phần hoặc POMDP.
Một cải tiến chính trong lĩnh vực này đã được thực hiện bởi Burnetas và Katehakis trong "Optimal adaptive policies for Markov decision processes" (các nguyên tắc thích nghi tối ưu cho các quá trình quyết định Markov).[2] Trong công trình này một lớp các nguyên tắc thích nghi sở hữu các thuộc tính tốc độ hội tụ cực đại đều cho tổng phần thưởng đường chân trời hữu hạn dự kiến, được xây dựng theo các giả định về các không gian trạng thái-hành động và sự tối giản của luật chuyển tiếp. Các nguyên tắc này quy định rằng sự lựa chọn của các hành động, tại mỗi trạng thái và khoảng thời gian, phải dựa vào các chỉ số là các lạm phát của bên phải của các phương trình tối ưu phần thưởng trung bình được ước lượng.
Học tăng cường
[sửa | sửa mã nguồn]Nếu xác suất hoặc phần thưởng là chưa biết, bài toán là bài toán học tăng cường (Sutton và Barto, 1998).
Để thực hiện mục đích này, việc định nghĩa một hàm thúc đẩy là rất cần thiết, tương ứng với việc thực hiện hành động và sau đó tiếp tục tối ưu hóa (hoặc theo bất kỳ nguyên tắc nào mà ta đang có):
Trong khi hàm này cũng chưa biét, kinh nghiệm trong quá trình học sẽ được dựa trên các cặp (cùng với kết quả ); đó là, "Tôi đã ở trong trạng thái và tôi cố gắng thực hiện và xảy ra"). Vì vậy, ta có một dãy và sử dụng kinh nghiệm để cập nhật nó trực tiếp. Điều này còn được gọi là Q‑learning.
Học tăng cường có thể giải quyết các quá trình quyết định Markov mà không cần đặc điểm rõ ràng của các xác suất chuyển đổi;Các giá trị của các xác suất chuyển tiếp là cần thiết trong phép lặp giá trị và nguyên tắc.Trong tăng cường việc học, thay vì các đặc điểm rõ ràng của các xác suất chuyển tiếp, các xác suất chuyển tiếp được xử lý thông qua một trình mô phỏng thường khởi động lại nhiều lần từ một trạng thái ngẫu nhiên đầu tiên thống nhất. Học tăng cường cũng có thể được kết hợp với xấp xỉ hàm để giải các bài toán có số lượng trạng thái rất lớn.
Giải thích phân loại lý thuyết
[sửa | sửa mã nguồn]Ngoại trừ các phần thưởng, một quá trình quyết định Markov có thể được hiểu trong khuôn khổ của Lý thuyết Phân loại. Cụ thể. cho là ký hiệu của free monoid với tập con A. Cho Dist là ký hiệu của Kleisli category của Giry monad. Thì một hàm tử mã hóa cả tập S của các trạng thái và cả hàm xác suất P.
Bằng cách này, các quá trình quyết định Markov có thể được tổng quát hóa từ các monoid (các phân loại với một đối tượng) với các thể loại tùy ý. Ta có thể gọi kết quả một quyết định Markov phụ thuộc-ngữ cảnh, bởi vì di chuyển từ một đối tượng sang một đối tượng khác trong thay đổi tập các hành động khả dụng và tập các trạng thái có khả năng xảy ra.
Quá trình quyết định Markov thời gian liên tục
[sửa | sửa mã nguồn]Trong các Quá trình Quyết định thời gian rời rạc Markov, cá quyết định được thực hiện tại các khoảng thời gian rời rạc. Tuy nhiên, đối với các Quá trình Quyết định Markov thời gian liên tục, các quyết định có thể được thực hiện tại bất kỳ thời gian nào mà người ra quyết định chọn. Khi so sánh với Quá trình Quyết định Markov thời gian Liên tục có thể mô hình hóa tốt hơn quá trình ra quyết định cho một hệ thống mà có động năng liên tục, có nghĩa là, các động năng của hệ thống được định nghĩa bởi các phương trình vi phân từng phần (PDE).
Định nghĩa
[sửa | sửa mã nguồn]Để thảo luận về Quá trình Quyết định Markov thời gian liên tục, chúng tôi xin giới thiệu hai bộ ký hiệu:
Nếu không gian trạng thái và không gian hành động là hữu hạn,
- : Không gian trạng thái;
- : Không gian hành động;
- : , hàm tốc độ chuyển tiếp;
- : ,hàm phần thưởng.
Nếu không gian trạng thái và không gian hành động là liên tục,
- : Không gian trạng thái.;
- : Không gian kiểm soát tốt;
- : , hàm tốc độ chuyển tiếp;
- : , hàm tốc độ phần thưởng kiểu như, trong đó là hàm phần thưởng mà ta đã thảo luận trong trường hợp ở trên.
Bài toán
[sửa | sửa mã nguồn]Giống như các Quá trình Quyết định Markov thời gian Rời rạc, trong Quá trình Quyết định Markov thời gian Liên tục, ta muốn tìm lời giải hoặc điều khiển tối ưu có thể cho chúng ta phần thưởng tích hợp mong muốn tối ưu:
Trong đó
Hình thành công thức quy hoạch tuyến tính
[sửa | sửa mã nguồn]Nếu không gian trạng thái và không gian hành động là hữu hạn, chúng ta có thể sử dụng quy hoạch tuyến tính để tìm lời giải tối ưu, đây là một trong những hướng tiếp cận sớm nhất được áp dụng. Ở đây chúng ta chỉ xem xét mô hình ergodic, nghĩa là MDP thời gian liên tục trở thành một ergodic Xích Markov thời gian rời rạc dưới một lời giải tĩnh. Dưới giả thiết này, mặc dù người ra quyết định có thể ra một quyết định tại bất kỳ thời gian tại trạng thái hiện tại, anh ta không thể thu lợi nhiều bằng cách thực hiện nhiều hơn 1 hành động. Sẽ tốt hơn cho anh ta để thực hiện một hành động tại thời điểm khi hệ thống đang dịch chuyển từ trạng thái hiện tại sang một trạng thái khác. Dưới vài điều kiện, (xem chi tiết Kết quả 3.14 của Quá trình Quyết định Markov thời gian Liên tục), nếu hàm giá trị tối ưu của chúng ta là độc lập với trạng thái i, chúng ta sẽ có bất phương trình sau:
Nếu tồn tại một hàm , thì sẽ là g nhỏ nhất thỏa mãn phương trình ở trên. Để tìm , chúng ta có thể sử dụng mô hình quy hoạch tuyến tính sau đây:
- Quy hoạch tuyến tính nguyên thủy(P-LP)
- Quy hoạch tuyến tính kép(D-LP)
là một lời giải khả thi cho D-LP nếu là xa lạ và thỏa mãn các giới hạn trong bài toán D-LP. Một lời giải khả thi cho D-LP được cho là một lời giải tối ưu nếu
đối với tất cả các lời giải khả thi y(i,a) đối với D-LP. Khi chúng ta tìm thấy lời giải tối ưu , chúng ta có thể sử dụng lời giải tối ưu này để thiết lập các giải pháp tối ưu.
Phương trình Hamilton-Jacobi-Bellman
[sửa | sửa mã nguồn]Trong MDP thời gian liên tục, nếu không gian trạng thái và không gian hành động là liên tục, tiêu chuẩn tối ưu có thể được tìm thấy bằng cách giải phương trình đạo hàm riêng Hamilton-Jacobi-Bellman (HJB). Để thảo luận về phương trình HJB, chúng ta cần để viết lại bài toán của chúng ta như sau
D() là hàm phần thưởng cuối, là vector trạng thái hệ thống, là vector điều khiển hệ thống, ta sẽ phải đi tìm. f() chỉ cách thức vector trạng thái thay đổi theo thời gian. Phương trình Hamilton-Jacobi-Bellman có dạng như sau:
Chúng ta có thể giải phương trình trên để tìm điều khiển tối ưu , sẽ cho chúng ta giá trị tối ưu
Ứng dụng
[sửa | sửa mã nguồn]Quá trình quyết định Markov thời gian liên tục được ứng dụng trong các hệ thống xếp hàng, các quá trình dịch bệnh và các quá trình dân số.
Ký hiệu thay thế
[sửa | sửa mã nguồn]The terminology and notation for MDPs are not entirely settled. There are two main streams — one focuses on maximization problems from contexts like economics, using the terms action, reward, value, and calling the discount factor or , while the other focuses on minimization problems from engineering and navigation, using the terms control, cost, cost-to-go, and calling the discount factor . In addition, the notation for the transition probability varies.
Trong bài viết này |
cách dùng khác |
Chú giải |
---|---|---|
hành động | điều khiển | |
phần thưởng | chi phí | là phủ định của |
giá trị | chi phí phải trả | là phủ định của |
nguyên tắc | nguyên tắc | |
hệ số chiết khấu | hệ số chiết khấu | |
Xác suất chuyển tiếp | Xác suất chuyển tiếp |
Ngoài ra, xác suất chuyển tiếp đôi khi được viết dưới dạng , hoặc, hiếm hoi hơn,
Quá trình quyết định Markov Hạn chế
[sửa | sửa mã nguồn]Quá trình Quyết định Markov Hạn chế (CMDP) là phần mở rộng của Quá trình Quyết định Markov (MDP). Có ba khác biệt cơ bản giữa MDP và CMDP.[3]
- Có rất nhiều chi phí phát sinh sau khi áp dụng một hành động thay vì một.
- CMDP chỉ được giải duy nhất bằng Quy hoạch tuyến tính, và không thể áp dụng Quy hoạch động ở đây.
- Điểm cuối cùng là sự phụ thuộc của trạng thái bắt đầu.
Có rất nhiều ứng dụng của CMDP. Gần đây nó đang được sử dụng trong các kịch bản lập kế hoạch chuyển động trong robotic. [4]
Xem thêm
[sửa | sửa mã nguồn]- Tự động xác suất
- Quantum finite automata
- Partially observable Markov decision process
- Quy hoạch động
- Phương trình Bellman cho các ứng dụng trong kinh tế.
- Phương trình Hamilton – Jacobi – Bellman
- Điều khiển tối ưu
- Kinh tế Đệ quy
- Mabinogion sheep problem
- Trò chơi ngẫu nhiên
- Q-learning
Ghi chú
[sửa | sửa mã nguồn]- ^ Lodewijk Kallenberg, Finite state and action MDPs, in Eugene A. Feinberg, Adam Shwartz (eds.
- ^ Burnetas, A. N.; Katehakis, M. N. (1997). “Optimal Adaptive Policies for Markov Decision Processes”. Mathematics of Operations Research. 22: 222. doi:10.1287/moor.22.1.222.
- ^ Altman, Eitan.
- ^ Feyzabadi, S.; Carpin, S., "Risk-aware path planning using hierarchical constrained Markov Decision Processes," Automation Science and Engineering (CASE), 2014 IEEE International Conference on, vol., no., pp.297,303, 18-22 Aug. 2014
Tham khảo
[sửa | sửa mã nguồn]- R. Bellman. A Markovian Decision Process. Journal of Mathematics and Mechanics 6, 1957.
- R. E. Bellman. Dynamic Programming. Princeton University Press, Princeton, NJ, 1957. Dover paperback edition (2003), ISBN 0-486-42809-5.
- Ronald A. Howard Dynamic Programming and Markov Processes, The M.I.T. Press, 1960.
- D. Bertsekas. Dynamic Programming and Optimal Control. Volume 2, Athena, MA, 1995.
- Burnetas, A.N. and M. N. Katehakis. "Optimal Adaptive Policies for Markov Decision Processes, Mathematics of Operations Research, 22,(1), 1995.
- E.A. Feinberg and A. Shwartz (eds.) Handbook of Markov Decision Processes, Kluwer, Boston, MA, 2002.
- C. Derman. Finite state Markovian decision processes, Academic Press, 1970.
- M. L. Puterman. Markov Decision Processes. Wiley, 1994.
- H.C. Tijms. A First Course in Stochastic Models. Wiley, 2003.
- Sutton, R. S. and Barto A. G. Reinforcement Learning: An Introduction. The MIT Press, Cambridge, MA, 1998.
- J.A. E. E van Nunen. A set of successive approximation methods for discounted Markovian decision problems. Z. Operations Research, 20:203-208, 1976.
- S. P. Meyn, 2007. Control Techniques for Complex Networks Lưu trữ 2010-06-19 tại Wayback Machine, Cambridge University Press, 2007. ISBN 978-0-521-88441-9. Appendix contains abridged Meyn & Tweedie Lưu trữ 2010-06-19 tại Wayback Machine.
- S. M. Ross. 1983. Introduction to stochastic dynamic programming. Academic press
- X. Guo and O. Hernández-Lerma. Continuous-Time Markov Decision Processes, Springer, 2009.
- M. L. Puterman and Shin M. C. Modified Policy Iteration Algorithms for Discounted Markov Decision Problems, Management Science 24, 1978.
Liên kết ngoài
[sửa | sửa mã nguồn]- MDP Toolbox for Matlab Lưu trữ 2004-10-12 tại Wayback Machine -Một hướng dẫn tuyệt vời và Matlab toolbox để làm việc với các MDP.
- MDP Toolbox for Python Một gói phần mềm để giải các MDP
- Reinforcement Learning[liên kết hỏng] Một giới thiệu bởi Richard S. Sutton và Andrew G. Barto
- SPUDD Một cấu trúc giải MDP để tải về bởi Jesse Hoey
- Learning to Solve Markovian Decision Processes bởi Satinder P. Singh
- Optimal Adaptive Policies for Markov Decision Processes bởi Burnetas và Katehakis (1997).