В главе 2 вы научились представлять последовательные задачи принятия решений с помощью марковского процесса принятия решений (Markov decision process, MDP). В главе 3 вы узнали, как эти задачи можно выполнять с помощью алгоритмов, которые извлекают политики из MDP.