封面
版权页
作者简介
内容简介
前言
第1章 树莓派命令行操作入门(上)
1.1 命令行简介
1.1.1 打开命令行
1.1.2 ls命令的历史轶事
1.1.3 文件(夹)路径
1.1.4 主目录与改变文件夹
1.2 文件读写
1.2.1 创建文件夹
1.2.2 编辑文件与翻页
1.2.3 cat、head与tail指令
1.2.4 小心使用rm
1.3 安装软件与用户权限
1.3.1 了解sudo
1.3.2 软件列表
1.3.3 文件属性
1.4 管道与流处理
1.4.1 重定向
1.4.2 grep命令
1.4.3 正则表达式
1.4.4 文件重定向
1.4.5 添加内容
1.5 用户相关命令
1.5.1 创建新用户
1.5.2 切换用户
1.5.3 自定义命令行
1.6 硬盘管理
1.6.1 挂载与连接
1.6.2 找到磁盘
1.6.3 文件系统列表
1.6.4 通过nano编辑
第2章 树莓派命令行操作入门(下)
2.1 网络操作
2.1.1 配置网络
2.1.2 配置静态IP
2.1.3 Ping命令
2.1.4 使用SSH远程登录
2.1.5 共享文件夹
2.2 进程管理
2.2.1 显示进程
2.2.2 现代进程管理器
2.2.3 后台任务
2.2.4 信号
2.3 下载、编译与安装
2.3.1 下载与解压缩
2.3.2 手动编译
2.3.3 通过脚本安装
2.3.4 磁盘映像
2.4 系统启动与关闭
2.4.1 传统的开机启动
2.4.2 新时代的开机启动:Systemd
2.4.3 周期运行:cron
2.4.4 自定义启动
2.5 备份策略
2.5.1 备份整个文件系统
2.5.2 备份到远程服务器
2.5.3 自动登录目标服务器
2.5.4 编写脚本自动执行
2.5.5 安全移除数据
第3章 智能语音(一):ReSpeaker
3.1 树莓派语音助手套件ReSpeaker1:环境准备
3.1.1 硬件介绍
3.1.2 系统配置与驱动安装
3.1.3 录音播放测试
3.1.4 安装Python虚拟环境
3.1.5 控制板载LED:APA102
3.2 语音识别和对话
3.2.1 Google Assistant配置及下载
3.2.2 树莓派驱动安装
3.2.3 安装声卡并启动ReSpeaker
3.2.4 唤醒ReSpeaker
3.3 Alexa SDK和DuerOs SDK
3.3.1 配置和DOA测试
3.3.2 语音对话
3.3.3 语音转文字
3.4 可能会出现的一些问题
第4章 智能语音(二):Google AIY Voice Kit
4.1 简介和组装
4.1.1 Voice Kit简介
4.1.2 开始前的准备
4.1.3 材料清单
4.1.4 组装Voice Kit
4.1.5 搭建外部框架
4.2 准备软件环境
4.2.1 准备系统tf卡
4.2.2 AIY Projects APP
4.2.3 连接显示器、鼠标和电脑
4.3 启动Google Assistant
4.3.1 远程连接Voice Kit
4.3.2 确保音频正常工作
4.3.3 获取谷歌云平台证书
4.3.4 运行内置对话demo
4.3.5 将demo设置成开机启动
4.3.6 查看日志
4.3.7 更新和支持信息
4.4 更多玩法
4.4.1 Python api library
4.4.2 使用Cloud Speech API
4.4.3 Voice Kit GPIO引脚扩展指南
4.4.4 搭配Android Things
第5章 智能图像(一):Pixy2
5.1 Pixy2详解
5.1.1 主要功能
5.1.2 极强的颜色感知能力
5.1.3 巡线系统中的线跟踪
5.1.4 直接播放视频
5.2 安装PixyMon
5.2.1 在Mac上安装PixyMon
5.2.2 在Windows Vista/7/8/10上安装PixyMon
5.2.3 在Windows XP上安装PixyMon
5.2.4 在Linux上安装PixyMon
5.3 教Pixy2学习一个物体
5.3.1 基本原则
5.3.2 多种颜色标记
5.3.3 白平衡
5.3.4 通过PixyMon教授
5.3.5 标记调整
5.4 巡线功能详解
5.4.1 PixyMon的“视图(View)”和“微调(Tuning)”选项卡
5.4.2 PixyMon的“专家(Expert)”和“条形码标签(Barcode Labels)”选项卡
5.4.3 线跟踪算法快速上手
5.4.4 在微控制器上执行线跟踪程序
5.5 将Pixy2与微控制器连接
5.5.1 与Arduino连接
5.5.2 与树莓派连接
5.5.3 与BeagleBone Black连接
5.5.4 与其他微控制器连接
5.5.5 接口说明
5.6 组装与测试云台系统
第6章 智能图像(二):Google AIY Vision Kit
6.1 组装
6.1.1 两种组装方法
6.1.2 了解硬件刷写系统
6.1.3 详细组装过程
6.1.4 连接电路
6.2 运行第一个Demo
6.2.1 通电开机
6.2.2 运行“笑脸检测器”
6.2.3 使用AIY APP连接到Vision Kit
6.2.4 使用显示器、鼠标和键盘连接到Vision Kit
6.3 Vision Kit的更多功能
6.3.1 在树莓派上显示一张图片
6.3.2 关闭“笑脸检测器”释放资源
6.3.3 用实时摄像头进行图像分类
6.3.4 用实时摄像头进行人脸检测
6.3.5 检测到人脸时拍照
6.3.6 使用RASPISTILL拍照
6.3.7 对一张图片进行人脸识别
6.3.8 对一张图片进行目标检测
6.3.9 对一张图片进行菜肴分类
6.3.10 对一张图片进行图像分类
6.4 维护和二次开发
6.4.1 关机和开机
6.4.2 Python API库
6.4.3 自定义TensorFlow模型编译器
6.4.4 GPIO引脚扩展外设
6.4.5 修改启动时运行APP机制
6.4.6 查看日志和更新系统
第7章 深度学习边缘推理:Google Edge TPU
7.1 简介与规格
7.1.1 硬件规格
7.1.2 软件与性能
7.1.3 硬件配置
7.2 USB加速器快速上手
7.2.1 系统要求
7.2.2 在Linux或树莓派上进行配置
7.2.3 在Edge TPU上运行模型
7.3 在Edge TPU上运行TensorFlow模型
7.3.1 兼容性概述
7.3.2 模型要求
7.3.3 迁移学习
7.3.4 Edge TPU运行时库与API
7.3.5 在多个Edge TPU上运行多个模型
7.4 重训练图像分类模型
7.4.1 前提
7.4.2 准备数据集
7.4.3 重新训练分类模型
7.4.4 为Edge TPU编译模型
7.4.5 运行模型
7.5 重训练目标检测模型
7.5.1 前提
7.5.2 下载与配置训练数据
7.5.3 训练
7.5.4 为Edge TPU编译模型
7.5.5 运行模型
7.5.6 配置自己的训练数据
7.6 在设备上重训练图像分类模型
7.6.1 运行Imprinting示例程序
7.6.2 创建嵌入特征提取器
第8章 深度学习边缘推理上手实战
8.1 Google Coral TPU USB Accelerator 入门
8.1.1 下载和安装驱动库
8.1.2 使用Coral USB加速器进行分类、目标检测和人脸识别
8.1.3 在Python虚拟环境中安装edgetpu库
8.1.4 在Raspbian上安装OpenCV
8.2 使用Google Coral USB加速器进行图像分类
8.2.1 对图片进行图像分类
8.2.2 对视频进行图像分类
8.3 使用Coral USB加速器进行目标检测
8.3.1 在图片中进行目标检测
8.3.2 在视频中进行目标检测
更新时间:2020-11-23 16:50:08