微信扫一扫联系客服

微信扫描二维码

进入报告厅H5

关注报告厅公众号

174

电子书-马尔科夫决策过程中的学习表示和控制:新的前沿领域(英)

# 计算机 # 网络学 # 序列决策问题 大小:1.27M | 页数:163 | 上架时间:2022-03-03 | 语言:英文

电子书-马尔科夫决策过程中的学习表示和控制:新的前沿领域(英).pdf

电子书-马尔科夫决策过程中的学习表示和控制:新的前沿领域(英).pdf

试看10页

类型: 电子书

上传者: 二一

出版日期: 2022-03-03

摘要:

Из серии Foundations and Trends in Machine Learning издательства NOWPress, 2008, -163 pp.This paper describes a novel machine learning framework for solving sequential decision problems called Markov decision processes (MDPs) by iteratively computing low-dimensional representations and approximately optimal policies. A unified mathematical framework for learning representation and optimal control in MDPs is presented based on a class of singular operators called Laplacians, whose matrix representations have nonpositive off-diagonal elements and zero row sums. Exact solutions of discounted and average-reward MDPs are expressed in terms of a generalized spectral inverse of the Laplacian called the Drazin inverse. A generic algorithm called representation policy iteration (RPI) is presented which interleaves computing low-dimensional representations and approximately optimal policies. Two approaches for dimensionality reduction of MDPs are described based on geometric and reward-sensitive regularization, whereby low-dimensional representations are formed by diagonalization or dilation of Laplacian operators. Model-based and model-free variants of the RPI algorithm are presented; they are also compared experimentally on discrete and continuous MDPs. Some directions for future work are finally outlined.Introduction
Sequential Decision Problems
Laplacian Operators and MDPs
Approximating Markov Decision Processes
Dimensionality Reduction Principles in MDPs
Basis Construction: Diagonalization Methods
Basis Construction: Dilation Methods
Model-Based Representation Policy Iteration
Basis Construction in Continuous MDPs
Model-Free Representation Policy Iteration

Related Work and Future Challenges

本文介绍了一种新的机器学习框架,通过迭代计算低维表示和近似最优策略来解决称为马尔科夫决策过程(MDPs)的顺序决策问题。本文提出了一个统一的数学框架,用于学习MDPs中的表示和最优控制,该框架基于一类称为Laplacians的奇异算子,其矩阵表示具有非正对角线元素和零行和。折现和平均回报的MDP的精确解是用Laplacian的广谱逆表示的,称为Drazin逆。提出了一种称为表示策略迭代(RPI)的通用算法,该算法交织计算低维表示和近似最优策略。描述了两种基于几何和奖励敏感正则化的MDP降维方法,其中低维表示是由拉普拉斯算子的对角化或扩张形成的。提出了基于模型和无模型的RPI算法的变体;还在离散和连续MDP上对它们进行了实验比较。最后概述了未来工作的一些方向。

序列决策问题

拉普拉斯算子和MDPs

马尔科夫决策过程的逼近

MDPs中的降维原则

基数构建。对角线化方法

基准构建。扩张方法

基于模型的表示策略迭代

连续MDP中的基数构建

无模型表示的策略迭代

相关工作和未来挑战


展开>> 收起<<

请登录,再发表你的看法

登录/注册

二一

相关文库

更多

浏览量

(90)

下载

(3)

收藏

分享

购买

5积分

0积分

原价5积分

VIP

*

投诉主题:

  • 下载 下架函

*

描述:

*

图片:

上传图片

上传图片

最多上传2张图片

提示

取消 确定

提示

取消 确定

提示

取消 确定

积分充值

选择充值金额:

30积分

6.00元

90积分

18.00元

150+8积分

30.00元

340+20积分

68.00元

640+50积分

128.00元

990+70积分

198.00元

1640+140积分

328.00元

微信支付

余额支付

积分充值

填写信息

姓名*

邮箱*

姓名*

邮箱*

注:填写完信息后,该报告便可下载

选择下载内容

全选

取消全选

已选 1