Txing

欢迎来到 | 伽蓝之堂

0%

Reinforcement Driving | Robust Reinforcement Learning using Offline Data

Robust Reinforcement Learning using Offline Data

  • 鲁棒强化学习可以形式化为一个最大值最小化问题,目标是学习最大化价值的策略,而不是不确定性集合中最差的可能模型。本文提出一个Robust Fitted Q-Iteration (RFQI)算法来应对离线数据收集、模型优化、无偏估计问题。

1 Introduction

  • 处理RL的实际应用问题:
    • online RL
    • pre-collected offline dataset
  • 仿真环境的典型误差:
    • sensor noise
    • action delay
    • friction
    • mass of a mobile robot
  • RL算法可能因为环境的细微变化而失效,为了应对这样的问题,因此有了robust RL,旨在处理训练和测试中的环境参数误匹配问题;
  • Robust Markov Decision Process (RMDP):标准MDP只考虑单个模型(转移概率函数),RMDP考虑整个不确定性模型集合(uncertainty set),训练模型,以获得能够在不确定性集中最坏的模型上表现得最好的最优鲁棒策略

Offline RL

  • 只使用离线数据集

  • 许多近期工作设计 Fitted Q-Iteration (FQI) algorithm 的变体

Robust RL

  • 2005年提出

  • 这些工作与本文的区别在于:

    (1)考虑大的状态空间,而不是表格空间

    (2)真实的离线RL设定,状态-行为对通过武断的分布采样,而不是使用生成模型获得

    (3)使用函数近似学习优化鲁棒的策略,而不是使用评估模型求解表格规划问题;

  • To the best of our knowledge, this is the first work that addresses the offline robust RL problem with arbitrary large state space using function approximation, with provable guarantees on the performance of the learned policy.

Offline Robust RL:

  • Planning, acting and training with a learned model

总结