云端书斋 -强化学习(第2版)
本书资料更新时间:2025-01-19 17:27:21

强化学习(第2版) 下载 pdf 百度网盘 epub 免费 2025 电子书 mobi 在线

强化学习(第2版)精美图片
》强化学习(第2版)电子书籍版权问题 请点击这里查看《

强化学习(第2版)书籍详细信息

  • ISBN:9787121295164
  • 作者:暂无作者
  • 出版社:暂无出版社
  • 出版时间:2019-09
  • 页数:548页
  • 价格:168.00
  • 纸张:胶版纸
  • 装帧:平装-胶订
  • 开本:16开
  • 语言:未知
  • 丛书:暂无丛书
  • TAG:暂无
  • 豆瓣评分:暂无豆瓣评分
  • 豆瓣短评:点击查看
  • 豆瓣讨论:点击查看
  • 豆瓣目录:点击查看
  • 读书笔记:点击查看
  • 原文摘录:点击查看
  • 更新时间:2025-01-19 17:27:21

寄语:

强化学习领域奠基性经典著作!人工智能行业的强化学习圣经!


内容简介:

《强化学习(第2版)》作为强化学习思想的深度解剖之作,被业内公认为是一本强化学习基础理论的经典著作。它从强化学习的基本思想出发,深入浅出又严谨细致地介绍了马尔可夫决策过程、蒙特卡洛方法、时序差分方法、同轨离轨策略等强化学习的基本概念和方法,并以大量的实例帮助读者理解强化学习的问题建模过程以及核心的算法细节。《强化学习(第2版)》适合所有对强化学习感兴趣的读者阅读、收藏。


书籍目录:

目录

第1 章导论· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 1

1.1 强化学习· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 1

1.2 示例· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 4

1.3 强化学习要素· · · · · · · · · · · · · · · · · · · · · · · · · · · · 5

1.4 局限性与适用范围· · · · · · · · · · · · · · · · · · · · · · · · · · 7

1.5 扩展实例:井字棋· · · · · · · · · · · · · · · · · · · · · · · · · · 8

1.6 本章小结· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 12

1.7 强化学习的早期历史· · · · · · · · · · · · · · · · · · · · · · · · · 13

第I 部分表格型求解方法· · · · · · · · · · · · · · · · · · · · · · · · · · · 23

第2 章多臂赌博机· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 25

2.1 一个k 臂赌博机问题· · · · · · · · · · · · · · · · · · · · · · · · 25

2.2 动作-价值方法· · · · · · · · · · · · · · · · · · · · · · · · · · · · 27

2.3 10 臂测试平台· · · · · · · · · · · · · · · · · · · · · · · · · · · · 28

2.4 增量式实现· · · · · · · · · · · · · · · · · · · · · · · · · · · · · 30

2.5 跟踪一个非平稳问题· · · · · · · · · · · · · · · · · · · · · · · · · 32

2.6 乐观初始值· · · · · · · · · · · · · · · · · · · · · · · · · · · · · 34

2.7 基于置信度上界的动作选择· · · · · · · · · · · · · · · · · · · · · 35

2.8 梯度赌博机算法· · · · · · · · · · · · · · · · · · · · · · · · · · · 37

2.9 关联搜索(上下文相关的赌博机) · · · · · · · · · · · · · · · · · · 40

2.10 本章小结· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 41

强化学习(第2 版)

第3 章有限马尔可夫决策过程· · · · · · · · · · · · · · · · · · · · · · · · 45

3.1 “智能体-环境”交互接口· · · · · · · · · · · · · · · · · · · · · · 45

3.2 目标和收益· · · · · · · · · · · · · · · · · · · · · · · · · · · · · 51

3.3 回报和分幕· · · · · · · · · · · · · · · · · · · · · · · · · · · · · 52

3.4 分幕式和持续性任务的统一表示法· · · · · · · · · · · · · · · · · 54

3.5 策略和价值函数· · · · · · · · · · · · · · · · · · · · · · · · · · · 55

3.6 策略和价值函数· · · · · · · · · · · · · · · · · · · · · · 60

3.7 性和近似算法· · · · · · · · · · · · · · · · · · · · · · · · · · 65

3.8 本章小结· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 66

第4 章动态规划· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 71

4.1 策略评估(预测) · · · · · · · · · · · · · · · · · · · · · · · · · · 72

4.2 策略改进· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 75

4.3 策略迭代· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 78

4.4 价值迭代· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 80

4.5 异步动态规划· · · · · · · · · · · · · · · · · · · · · · · · · · · · 83

4.6 广义策略迭代· · · · · · · · · · · · · · · · · · · · · · · · · · · · 84

4.7 动态规划的效率· · · · · · · · · · · · · · · · · · · · · · · · · · · 85

4.8 本章小结· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 86

第5 章蒙特卡洛方法· · · · · · · · · · · · · · · · · · · · · · · · · · · · · 89

5.1 蒙特卡洛预测· · · · · · · · · · · · · · · · · · · · · · · · · · · · 90

5.2 动作价值的蒙特卡洛估计· · · · · · · · · · · · · · · · · · · · · · 94

5.3 蒙特卡洛控制· · · · · · · · · · · · · · · · · · · · · · · · · · · · 95

5.4 没有试探性出发假设的蒙特卡洛控制· · · · · · · · · · · · · · · · 98

5.5 基于重要度采样的离轨策略· · · · · · · · · · · · · · · · · · · · · 101

5.6 增量式实现· · · · · · · · · · · · · · · · · · · · · · · · · · · · · 107

5.7 离轨策略蒙特卡洛控制· · · · · · · · · · · · · · · · · · · · · · · 108

5.8 ? 折扣敏感的重要度采样· · · · · · · · · · · · · · · · · · · · · · 110

5.9 ? 每次决策型重要度采样· · · · · · · · · · · · · · · · · · · · · · 112

5.10 本章小结· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 113

第6 章时序差分学习· · · · · · · · · · · · · · · · · · · · · · · · · · · · · 117

6.1 时序差分预测· · · · · · · · · · · · · · · · · · · · · · · · · · · · 117

6.2 时序差分预测方法的优势· · · · · · · · · · · · · · · · · · · · · · 122

6.3 TD(0) 的性· · · · · · · · · · · · · · · · · · · · · · · · · · · 124

6.4 Sarsa:同轨策略下的时序差分控制· · · · · · · · · · · · · · · · · 127

6.5 Q 学习:离轨策略下的时序差分控制· · · · · · · · · · · · · · · · 129

6.6 期望Sarsa · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 131

6.7 化偏差与双学习· · · · · · · · · · · · · · · · · · · · · · · · · 133

6.8 游戏、后位状态和其他特殊例子· · · · · · · · · · · · · · · · · · · 135

6.9 本章小结· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 136

第7 章n 步自举法· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 139

7.1 n 步时序差分预测· · · · · · · · · · · · · · · · · · · · · · · · · · 140

7.2 n 步Sarsa · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 144

7.3 n 步离轨策略学习· · · · · · · · · · · · · · · · · · · · · · · · · · 146

7.4 ? 带控制变量的每次决策型方法· · · · · · · · · · · · · · · · · · · 148

7.5 不需要使用重要度采样的离轨策略学习方法:n 步树回溯算法· · · 150

7.6 ? 一个统一的算法:n 步Q()· · · · · · · · · · · · · · · · · · · · 153

7.7 本章小结· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 155

第8 章基于表格型方法的规划和学习· · · · · · · · · · · · · · · · · · · 157

8.1 模型和规划· · · · · · · · · · · · · · · · · · · · · · · · · · · · · 157

8.2 Dyna:集成在一起的规划、动作和学习· · · · · · · · · · · · · · · 159

8.3 当模型错误的时候· · · · · · · · · · · · · · · · · · · · · · · · · · 164

8.4 优先遍历· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 166

8.5 期望更新与采样更新的对比· · · · · · · · · · · · · · · · · · · · · 170

8.6 轨迹采样· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 173

强化学习(第2 版)8.7 实时动态规划· · · · · · · · · · · · · · · · · · · · · · · · · · · · 176

8.8 决策时规划· · · · · · · · · · · 8


作者介绍:

Sutton目前是阿尔伯塔大学计算机科学教授和人工智能研究员,Deepmind的杰出科学家,领导Deepmind在加拿大的人工智能实验室。专注于强化学习领域理论与实务研究,被称为“强化学习之父”。<BR>俞凯,思必驰联合创始人、首席科学家、上海交通大学计算机系研究员,译有《解析深度学习:语音识别实践》一书。


出版社信息:

暂无出版社相关信息,正在全力查找中!


书籍摘录:

暂无相关书籍摘录,正在全力查找中!


在线阅读/听书/购买/PDF下载地址:


原文赏析:

例5.5

普通重要度采样的估计的方差通常是无穷的,尤其当缩放过的回报值具有无穷的方差时,其收敛性往往不尽人意,而这种现象在带环的序列轨迹中进行离轨策略学习时很容易发生

引自章节:5.5 基于重要度采样的离轨策略 101


Newcomers to reinforcement learning are sometimes surprised that the rewards -- which define of the goal of learning -- are computed in the environment rather than in the agent. Certainly most ultimate goals for animals are recognized by computations occuring inside their body: by sensors for recognizing food, hunger, pain and pleasure. Nevertheless, as we discussed in the previous section, one can redraw the agent-environment interface in such a way that these parts of the body are considered to be outside of the agent. ... For our purpose, it is convenient to place the boundary of the learning agent not at the limit of its physical body, but at the limit of its control.


而当行动策略是随机的且具有试探性时(例如可以使用epsinon-贪心策略),这个策略会成为一个确定性的最优策略


Electrical stimulation not only energized the rats’ behavior—through dopamine’s effect on motivation—it also led to the rats quickly learning to stimulate themselves by pressing a lever, which they would do frequently for long periods of time.


The reward prediction error hypothesis of dopamine neuron activity was proposed by scientists who recognized striking parallels between the behavior of TD errors and the activity of neurons that produce dopamine, a neurotransmitter essential in mammals for reward-related learning and behavior. Experiments conducted in the late 1980s and 1990s in the laboratory of neuroscientist Wolfram Schultz showed that dopamine neurons respond to rewarding events with substantial bursts of activity, called phasic responses, only if the animal does not expect those events, suggesting that dopamine neurons are signaling reward prediction errors instead of reward itself. Further, these experiments showed that as an animal learns to predict a rewarding event on the basis of preceding sensory cues, the phasi...


A conspicuous feature of the dopamine system is that fibers releasing dopamine project widely to multiple parts of the brain. Although it is likely that only some populations of dopamine neurons broadcast the same reinforcement signal, if this signal reaches the synapses of many neurons involved in actor-type learning, then the situation can be modeled as a team problem. In this type of problem, each agent in a collection of reinforcement learning agents receives the same reinforcement signal, where that signal depends on the activities of all members of the collection, or team. If each team member uses a suciently capable learning algorithm, the team can learn collectively to improve performance of the entire team as evaluated by the globally-broadcast reinforcement signal, even if the te...


其它内容:

编辑推荐

《强化学习(第2版)》被业界公认为任何对人工智能领域感兴趣的人员的书。

《强化学习(第2版)》是被称为“强化学习教父”的Richard Sutton在强化学习领域的开创性、奠基性著作。自1998年第1版出版以来,一直是强化学习领域的经典导论性教材,培育了好几代强化学习领域的研究人员。

在第2版中,随着强化学习近来的蓬勃发展,作者补充了很多新的内容:人工神经网络、蒙特卡洛树搜索、平均收益*化……涵盖了当今*关键的核心算法和理论。不仅如此,作者还以真实世界的应用为例阐述了这些内容。


前言

译者序

“思想总是走在行动的前面,就好像闪电总是走在雷鸣之前。”德国诗人海涅的诗句再恰当不过地描述了我次读到本书英文原版时的感受。

纵观人工智能技术的发展历史,就是一部思想、理论、算法、工程应用的成就交替出现而又交相辉映的历史。传统人工智能领域的三大学派:以逻辑推断和贝叶斯学习为代表的符号主义学派、以神经网络为代表的联结主义学派以及以控制论和强化学习为代表的行为主义学派,在不同的历史阶段都产生了很多绝妙的思想和理论成果,而技术应用的水平和范围也让它们受到的关注度起起落落。 20世纪 40年代到 50年代,行为主义的控制论因其在航空、航天、机械、化工等领域的巨大成功受到了极大重视,也独立产生了自动控制等技术学科,甚至连早期的计算机专业也都是从控制相关的专业中分出来的,但其应用往往不被认为是一种“智能”,因而长期独立发展,游离于人工智能研究者的视野之外;而 20世纪 50年代人工智能的概念被正式提出以后,符号主义的数理逻辑以及贝叶斯学习等经典机器学习理论一直一枝独秀,引领着人工智能的研究和应用,尤其是专家系统和经典机器学习理论的大量成功应用,使得它成为 20世纪在人工智能研究中占据统治地位的主流学派;联结主义的神经网络的发展则一波三折, 20世纪 60年代类脑模型的研究和 80年代反向传播算法的提出都使得神经网络的研究在短时间内出现过热潮,然而理论局限和应用瓶颈一次又一次地把神经网络的研究打入冷宫,直到 21世纪初,深度学习理论被提出,借助 GPU等计算机硬件的算力飞跃并与大数据结合,迅速产生了巨大的产业技术红利,使得联结主义一跃成为当前人工智能研究炙手可热的学派。而无论技术应用如何风云变幻,产业发展如何潮起潮落,在人工智能的发展历程中,始终有一批思想的先行者以近乎顽固的执着态度在不同时代的“非主流”方向上进行着思考和探索,而正是这些执着甚至孤独的思想者,在技术应用热潮冷却后的暗夜里保留了火种,照亮了人类不停息的探索之路。

本书的两位作者 Richard S. Sutton和 Andrew G. Barto就是这样的思想先行者,而本书所介绍的“强化学习”,则是后深度学习时代技术发展的重要火种之一。以联结主义的神经网络为代表的深度学习毫无疑问是 21世纪初人工智能领域的重要、实用意义的技术突破之一,它为基础研究走向产业应用做出了巨大贡献,也相应地赢得了巨大的声誉和关注。然而,如火如荼的产业应用掩盖不住冷静的研究者们对人工智能未来走向的担忧,越来越多的研究者把深度学习的改良性研究视为工业界的应用技巧,而开始关注与联结主义的经典深度学习不同的人工智能范式探索。这其中,不同学派的思想融合产生了两个重要趋势。一个是将联结主义与符号主义融合起来,将神经网络的“黑箱学习”与先验知识、符号推理和经典机器学习结合,实现可解释、可推理、可操控的新一代“白箱学习”;另一个则是将联结主义与行为主义融合起来,将基于静态数据和标签的、数据产生与模型优化相互独立的“开环学习”,转变为与环境动态交互的、在线试错的、数据(监督信号)产生与模型优化紧密耦合在一起的“闭环学习”。强化学习就是“闭环学习”范式的典型代表,正如本书中所介绍的,它与传统的预先收集或构造好数据及标签的有监督学习有着本质的区别,它强调在与环境的交互中获取反映真实目标达成度的反馈信号,强调模型的试错学习和序列决策行为的动态和长期效应。这使得强化学习在人工智能领域的一些难题,如我本人所从事的认知型人机口语对话系统的研究中,具有无可替代的重要地位。而这些宝贵的思想,也为联结主义的深度学习在小数据、动态环境、自主学习等方面的进一步发展提供了重要的基础。在 AlphaGo战胜李世石之后, AlphaZero以其完全凭借自我学习超越人类在各种棋类游戏中数千年经验的能力再次刷新了人类对人工智能的认识,也使得强化学习与深度学习的结合受到了学术界和产业界的前所未有的关注。

《强化学习》的英文第 2版正是在这样的背景下出版的。本书并非一本实用主义的算法普及材料,而是一本强化学习思想的深度解剖之作,是强化学习基础理论的经典论述。本书没有从复杂的数学角度对强化学习的相关理论和方法给以极其严格的形式化推导,而是从强化学习的基本思想出发,深入浅出而又严谨细致地介绍了马尔可夫决策过程、蒙特卡洛方法、时序差分方法、同轨离轨策略等强化学习的基本概念和方法,并以大量的实例帮助读者理解强化学习的问题建模过程以及核心的算法细节。自 1998年第 1版出版以来,本书就一直是强化学习领域的经典导论性教材。在第 2版中,原作者又加入了很多新的内容,包括对深度强化学习应用(如 AlphaGo)的介绍,以及更新的思想和理解等,使得本书既保持对核心理论的清晰简明的讲解,又包含了与时俱进的应用成果和作者的思想。本书既可以作为一到两学期的强化学习课程的初级教材,也可以作为研究者自学的入门教程。在本书的翻译过程中, Richard S. Sutton和 Andrew G. Barto还特意为中国读者写了一段寄语,其中提到希望本书的中文译本能够促进中国学生产生更多的新思想,为世界范围的强化学习的研究繁荣做出贡献。这一期望也使我倍感荣幸,希望本书的中文译本能够让他们的思想为更多的中国研究者所了解,并作为一个种子,在中国孕育并产生人工智能前沿研究的新思想。 

本书的翻译得到了上海交通大学计算机系智能语音实验室同学们的大力支持,尤其是刘奇、陈志、陈露和吴越同学付出了大量的精力进行组织和排版整理,卞天灵、曹瑞升、杜晨鹏、黄子砾、金凯祺、兰鸥羽、李晨达、李大松、李福斌、李杰宇、李沐阳、刘辰、刘啸远、卢怡宙、马娆、盛佩瑶、王晨、王鸿基、王巍、吴嫣然、吴章昊、徐志航、杨闰哲、杨叶新、叶子豪、张王优、赵晏彬、周翔等同学都为本书的翻译做出了贡献。同时,也特别感谢苏州大学刘全教授,陆军军医大学王晓霞博士,清华大学刘乐章同学和北京交通大学张智慧同学对翻译稿进行了试读并帮助审校。本书的翻译也得到了电子工业出版社的大力支持,在此一并表示衷心的感谢。翻译过程难免存在疏漏和错误,欢迎读者批评指正。

俞凯 

2019年 4月 

第二版前言

本书第 1版出版的 20年以来,在机器学习 (包括强化学习 )前沿技术发展的推动下,人工智能取得了重大进展。这些进展不仅归功于这些年迅猛发展起来的计算机强大的计算能力,也受益于许多理论和算法上的创新。面对这些进展,我们早有对 1998年第 1版书进行更新再版的打算,但直到 2012年才开始真正着手编纂。第 2版的目标与第 1版一致:为强化学习的核心概念与算法提供清晰简明的解释,以供所有相关学科的读者学习。这一版仍然是一本概要介绍性的读物,仍然关注核心的在线学习算法,同时增加了一些近年来日趋重要的话题,并拓展了部分内容,给出了更新的理解。强化学习领域可以延伸出很多不同的方向,但我们并不想包罗万象,在此为可能出现的些许遗漏表示歉意。

第 2版记号变化

和第 1版一样,我们没有以严谨的形式化的方式来定义强化学习,也没有采用特别抽象的术语表达,但是为了大家能更深入地理解,有些话题仍然需要用数学来解释。无数学需求的读者可以选择跳过灰色框中的数学原理部分。在教学过程中,我们发现一些新的记号可以消除一些共同的疑惑点,因此本书的部分记号和上一版相比略有差异。首先我们对随机变量进行了区分,以大写字母表示变量本身,小写字母表示对应的实例。比如时刻 t的状态、动作和收益被表示为 St、At和 Rt,而它们可能的取值被表示为 s、a和 r。与之相伴随,我们用小写字母的形式 (例如 vл)来表示价值函数,用大写字母表示其表格型的估计值,比如 Qt (s, a)。近似价值函数是具有随机参数的确定性函数,因此用小写字母表示,比如 v.(s,wt) ≈vл(s)。向量用粗体的小写字母表示 (包括随机变量),比如权值向量wt (先前用 θt表示 )、特征向量 xt (先前用фt表示 )。大写粗体用以表示矩阵。在第 1版中我们使用了特殊记号Pass′和Rass′来表示转移概率和期望收益。但这种记号并不能完整地表示出收益的动态性,只表示了期望值,因此只适用于动态规划而不适用于强化学习。另一个缺点是上下标的过度使用。因此,在这一版中我们明确采用 p(s′,r |s, a)的记号来表示给定当前状态 s和动作 a后,下一时刻的状态 s′和收益 r的联合概率分布。所有的记号变化都收录在稍后的“符号列表”中。

第 2版内容结构

第 2版在原先的基础上进行了许多拓展,整体结构也有所变化。第 1章是导论性的介绍,其后分为三个部分。第 I部分 (第 2~8章)会尽可能多地用表格型的案例讲解强化学习,主要包括针对表格型案例的学习和规划算法,以及它们在 n步法和 Dyna中的统一表达。这部分介绍的许多算法是第 2版的新增内容,包括 UCB、期望 Sarsa、双重学习、树回溯、 Q(σ)、RTDP和 MCTS。从介绍表格型案例开始,可以在简单的情况下理解算法的核心思想。本书的第 II部分 (第 9~13章)致力于将这些思想从表格型的情况扩展到函数逼近,包含人工神经网络、傅立叶变换基础、 LSTD、核方法、梯度 TD和强调 TD方法、平均收益方法、真实的在线 TD(λ)和策略梯度方法等新内容。第 2版大幅拓展了对离轨策略的介绍,首先是第 5~7章讲解表格型的案例,之后在第 11章和第 12章讲解函数逼近法。另一个变化是,这一版将 n步自举法 (在第 7章中详细阐述 )中的前向视图思想与资格迹 (在第 12章中单独阐述 )中的后向视图思想分开详细讲解。本书的第 III部分加入了大量阐述强化学习与心理学 (第 14章)、神经科学 (第 15章)联系的新章节,更新了针对多种案例,包括 Atari游戏、 Watson的投注策略和围棋人工智能 AlphaGo、AlphaGo Zero (第 16章)的研


书籍介绍

《强化学习(第2版)》作为强化学习思想的深度解剖之作,被业内公认为是一本强化学习基础理论的经典著作。它从强化学习的基本思想出发,深入浅出又严谨细致地介绍了马尔可夫决策过程、蒙特卡洛方法、时序差分方法、同轨离轨策略等强化学习的基本概念和方法,并以大量的实例帮助读者理解强化学习的问题建模过程以及核心的算法细节。

《强化学习(第2版)》适合所有对强化学习感兴趣的读者阅读、收藏。


书籍真实打分

  • 故事情节:7分

  • 人物塑造:4分

  • 主题深度:5分

  • 文字风格:5分

  • 语言运用:9分

  • 文笔流畅:6分

  • 思想传递:4分

  • 知识深度:8分

  • 知识广度:7分

  • 实用性:4分

  • 章节划分:9分

  • 结构布局:8分

  • 新颖与独特:4分

  • 情感共鸣:7分

  • 引人入胜:6分

  • 现实相关:5分

  • 沉浸感:5分

  • 事实准确性:7分

  • 文化贡献:6分


网站评分

  • 书籍多样性:4分

  • 书籍信息完全性:6分

  • 网站更新速度:9分

  • 使用便利性:8分

  • 书籍清晰度:5分

  • 书籍格式兼容性:7分

  • 是否包含广告:9分

  • 加载速度:8分

  • 安全性:7分

  • 稳定性:4分

  • 搜索功能:9分

  • 下载便捷性:7分


下载点评

  • 一星好评(447+)
  • 强烈推荐(227+)
  • 图书多(332+)
  • 在线转格式(463+)
  • 情节曲折(380+)
  • 少量广告(453+)
  • 一般般(423+)
  • 五星好评(145+)
  • 书籍多(248+)
  • 书籍完整(628+)

下载评价

  • 网友 菱***兰: ( 2024-12-31 23:54:56 )

    特好。有好多书

  • 网友 索***宸: ( 2024-12-29 18:33:23 )

    书的质量很好。资源多

  • 网友 寇***音: ( 2024-12-29 02:03:22 )

    好,真的挺使用的!

  • 网友 宓***莉: ( 2024-12-27 13:06:48 )

    不仅速度快,而且内容无盗版痕迹。

  • 网友 瞿***香: ( 2025-01-06 23:37:41 )

    非常好就是加载有点儿慢。

  • 网友 冯***卉: ( 2025-01-11 21:10:00 )

    听说内置一千多万的书籍,不知道真假的

  • 网友 邱***洋: ( 2025-01-19 03:57:58 )

    不错,支持的格式很多

  • 网友 戈***玉: ( 2024-12-26 10:35:39 )

    特别棒

  • 网友 濮***彤: ( 2025-01-17 17:21:31 )

    好棒啊!图书很全

  • 网友 隗***杉: ( 2025-01-15 01:19:04 )

    挺好的,还好看!支持!快下载吧!

  • 网友 曾***玉: ( 2025-01-12 15:27:38 )

    直接选择epub/azw3/mobi就可以了,然后导入微信读书,体验百分百!!!

  • 网友 扈***洁: ( 2025-01-07 04:59:57 )

    还不错啊,挺好

  • 网友 印***文: ( 2025-01-11 08:41:23 )

    我很喜欢这种风格样式。

  • 网友 蓬***之: ( 2024-12-30 21:23:37 )

    好棒good

  • 网友 潘***丽: ( 2025-01-07 19:28:39 )

    这里能在线转化,直接选择一款就可以了,用他这个转很方便的


随机推荐