1. Appendix: Tools for Deep Learning
Quick search
code
Show Source
MXNet PyTorch Jupyter 记事本 课程 GitHub English
动手学深度学习
Table Of Contents
  • 前言
  • 安装
  • 符号
  • 1. Appendix: Tools for Deep Learning
    • 1.1. 使用Jupyter Notebook
    • 1.2. 使用Amazon SageMaker
    • 1.3. 使用Amazon EC2实例
    • 1.4. 选择服务器和GPU
    • 1.5. 为本书做贡献
    • 1.6. Utility Functions and Classes
    • 1.7. d2l API 文档
  • 2. 引言
  • 3. 预备知识
    • 3.1. 数据操作
    • 3.2. 数据预处理
    • 3.3. 线性代数
    • 3.4. 微积分
    • 3.5. 自动微分
    • 3.6. 概率
    • 3.7. 查阅文档
  • 4. 线性神经网络
    • 4.1. 线性回归
    • 4.2. 线性回归的从零开始实现
    • 4.3. 线性回归的简洁实现
    • 4.4. softmax回归
    • 4.5. 图像分类数据集
    • 4.6. softmax回归的从零开始实现
    • 4.7. softmax回归的简洁实现
  • 5. 多层感知机
    • 5.1. 多层感知机
    • 5.2. 多层感知机的从零开始实现
    • 5.3. 多层感知机的简洁实现
    • 5.4. 模型选择、欠拟合和过拟合
    • 5.5. 权重衰减
    • 5.6. 暂退法(Dropout)
    • 5.7. 前向传播、反向传播和计算图
    • 5.8. 数值稳定性和模型初始化
    • 5.9. 环境和分布偏移
    • 5.10. 实战Kaggle比赛:预测房价
  • 6. 深度学习计算
    • 6.1. 层和块
    • 6.2. 参数管理
    • 6.3. 自定义层
    • 6.4. 读写文件
  • 7. 卷积神经网络
    • 7.1. 从全连接层到卷积
    • 7.2. 图像卷积
    • 7.3. 填充和步幅
    • 7.4. 多输入多输出通道
    • 7.5. 汇聚层
    • 7.6. 卷积神经网络(LeNet)
  • 8. 现代卷积神经网络
    • 8.1. 深度卷积神经网络(AlexNet)
    • 8.2. 批量规范化
    • 8.3. 残差网络(ResNet)
    • 8.4. 稠密连接网络(DenseNet)
  • 9. 循环神经网络
    • 9.1. 序列模型
    • 9.2. 文本预处理
    • 9.3. 语言模型和数据集
    • 9.4. 循环神经网络
    • 9.5. 循环神经网络的从零开始实现
    • 9.6. 循环神经网络的简洁实现
    • 9.7. 通过时间反向传播
  • 10. 现代循环神经网络
    • 10.1. 门控循环单元(GRU)
    • 10.2. 长短期记忆网络(LSTM)
    • 10.3. 深度循环神经网络
    • 10.4. 机器翻译与数据集
  • 11. 注意力机制
    • 11.1. 注意力提示
    • 11.2. 注意力汇聚:Nadaraya-Watson 核回归
    • 11.3. 注意力评分函数
    • 11.4. Bahdanau 注意力
    • 11.5. 多头注意力
    • 11.6. 自注意力和位置编码
    • 11.7. Transformer
  • 12. 计算机视觉
    • 12.1. 图像增广
    • 12.2. 微调
    • 12.3. 目标检测和边界框
    • 12.4. 锚框
    • 12.5. 多尺度目标检测
    • 12.6. 目标检测数据集
    • 12.7. 单发多框检测(SSD)
    • 12.8. 区域卷积神经网络(R-CNN)系列
    • 12.9. 语义分割和数据集
    • 12.10. 转置卷积
    • 12.11. 实战 Kaggle 比赛:图像分类 (CIFAR-10)
动手学深度学习
Table Of Contents
  • 前言
  • 安装
  • 符号
  • 1. Appendix: Tools for Deep Learning
    • 1.1. 使用Jupyter Notebook
    • 1.2. 使用Amazon SageMaker
    • 1.3. 使用Amazon EC2实例
    • 1.4. 选择服务器和GPU
    • 1.5. 为本书做贡献
    • 1.6. Utility Functions and Classes
    • 1.7. d2l API 文档
  • 2. 引言
  • 3. 预备知识
    • 3.1. 数据操作
    • 3.2. 数据预处理
    • 3.3. 线性代数
    • 3.4. 微积分
    • 3.5. 自动微分
    • 3.6. 概率
    • 3.7. 查阅文档
  • 4. 线性神经网络
    • 4.1. 线性回归
    • 4.2. 线性回归的从零开始实现
    • 4.3. 线性回归的简洁实现
    • 4.4. softmax回归
    • 4.5. 图像分类数据集
    • 4.6. softmax回归的从零开始实现
    • 4.7. softmax回归的简洁实现
  • 5. 多层感知机
    • 5.1. 多层感知机
    • 5.2. 多层感知机的从零开始实现
    • 5.3. 多层感知机的简洁实现
    • 5.4. 模型选择、欠拟合和过拟合
    • 5.5. 权重衰减
    • 5.6. 暂退法(Dropout)
    • 5.7. 前向传播、反向传播和计算图
    • 5.8. 数值稳定性和模型初始化
    • 5.9. 环境和分布偏移
    • 5.10. 实战Kaggle比赛:预测房价
  • 6. 深度学习计算
    • 6.1. 层和块
    • 6.2. 参数管理
    • 6.3. 自定义层
    • 6.4. 读写文件
  • 7. 卷积神经网络
    • 7.1. 从全连接层到卷积
    • 7.2. 图像卷积
    • 7.3. 填充和步幅
    • 7.4. 多输入多输出通道
    • 7.5. 汇聚层
    • 7.6. 卷积神经网络(LeNet)
  • 8. 现代卷积神经网络
    • 8.1. 深度卷积神经网络(AlexNet)
    • 8.2. 批量规范化
    • 8.3. 残差网络(ResNet)
    • 8.4. 稠密连接网络(DenseNet)
  • 9. 循环神经网络
    • 9.1. 序列模型
    • 9.2. 文本预处理
    • 9.3. 语言模型和数据集
    • 9.4. 循环神经网络
    • 9.5. 循环神经网络的从零开始实现
    • 9.6. 循环神经网络的简洁实现
    • 9.7. 通过时间反向传播
  • 10. 现代循环神经网络
    • 10.1. 门控循环单元(GRU)
    • 10.2. 长短期记忆网络(LSTM)
    • 10.3. 深度循环神经网络
    • 10.4. 机器翻译与数据集
  • 11. 注意力机制
    • 11.1. 注意力提示
    • 11.2. 注意力汇聚:Nadaraya-Watson 核回归
    • 11.3. 注意力评分函数
    • 11.4. Bahdanau 注意力
    • 11.5. 多头注意力
    • 11.6. 自注意力和位置编码
    • 11.7. Transformer
  • 12. 计算机视觉
    • 12.1. 图像增广
    • 12.2. 微调
    • 12.3. 目标检测和边界框
    • 12.4. 锚框
    • 12.5. 多尺度目标检测
    • 12.6. 目标检测数据集
    • 12.7. 单发多框检测(SSD)
    • 12.8. 区域卷积神经网络(R-CNN)系列
    • 12.9. 语义分割和数据集
    • 12.10. 转置卷积
    • 12.11. 实战 Kaggle 比赛:图像分类 (CIFAR-10)

1. Appendix: Tools for Deep Learning¶

To get the most out of Dive into Deep Learning, we will talk you through different tools in this appendix, such as for running and contributing to this interactive open-source book.

  • 1.1. 使用Jupyter Notebook
    • 1.1.1. 在本地编辑和运行代码
    • 1.1.2. 高级选项
    • 1.1.3. 小结
    • 1.1.4. 练习
  • 1.2. 使用Amazon SageMaker
    • 1.2.1. 注册
    • 1.2.2. 创建SageMaker实例
    • 1.2.3. 运行和停止实例
    • 1.2.4. 更新Notebook
    • 1.2.5. 小结
    • 1.2.6. 练习
  • 1.3. 使用Amazon EC2实例
    • 1.3.1. 创建和运行EC2实例
    • 1.3.2. 安装CUDA
    • 1.3.3. 安装库以运行代码
    • 1.3.4. 远程运行Jupyter笔记本
    • 1.3.5. 关闭未使用的实例
    • 1.3.6. 小结
    • 1.3.7. 练习
  • 1.4. 选择服务器和GPU
    • 1.4.1. 选择服务器
    • 1.4.2. 选择GPU
    • 1.4.3. 小结
  • 1.5. 为本书做贡献
    • 1.5.1. 提交微小更改
    • 1.5.2. 大量文本或代码修改
    • 1.5.3. 提交主要更改
    • 1.5.4. 小结
    • 1.5.5. 练习
  • 1.6. Utility Functions and Classes
  • 1.7. d2l API 文档
    • 1.7.1. 模型
    • 1.7.2. 数据
    • 1.7.3. 训练
    • 1.7.4. 公用
Previous
符号
Next
1.1. 使用Jupyter Notebook