摘要
在我的想象中机器人首先应该能自由的走来走去,然后应该能流利的与主人对话。朝着这个理想,我准备设计一个能自由行走,并且可以与人语音对话的机器人。实现的关键是让机器人能通过传感器感知周围环境,并通过机器人大脑处理并输出反馈和执行动作。本章节涉及到的传感器有激光雷达、IMU、轮式里程计、麦克风、音响、摄像头,和用于处理信息的嵌入式主板。关于传感器的ROS驱动程序开发和在机器人上的使用在后面的章节会展开,本章节重点对机器人传感器和嵌入式主板进行讲解,主要内容: 1.ydlidar-x4激光雷达 2.带自校准九轴数据融合IMU惯性传感器 3.轮式里程计与运动控制 4.音响麦克风与摄像头 5.机器人大脑嵌入式主板性能对比 6.做一个能走路和对话的机器人
4.音响麦克风与摄像头
要让机器人能跟人进行对话,需要麦克风和音响。其实麦克风就相当于机器人的耳朵,音响就相当于机器人的嘴巴。摄像头作为机器人的眼睛,摄像头可以用来帮助机器人定位或认识环境。
4.1.音响
(图29)音响
如图29,为音响的基本配件。这里需要说明一下,由于后面使用树莓派3作为机器人的大脑,不过树莓派3的自带声卡不好用,驱动容易崩溃,所以这里推荐使用免驱的USB声卡。其实,声卡就是DA转换器,就是将数字音频信号转换为模拟电压信号;音响就是将声卡输出的模拟电压进行放大并通过喇叭播放出来。
4.2.麦克风与摄像头
(图30)麦克风与摄像头
如图30,摄像头上直接集成了麦克风。这里选用的是四麦阵列指向性麦克风,可以对特定方向上的声音拾取,并过滤其他方向上的杂音。这里的摄像头是640×480像素60fps。
4.3.在机器人中使用音响麦克风与摄像头
(图31)麦克风与摄像头
我们只需要在机器人上安装对应的ROS驱动,就可以通过发布和订阅相应的主题来实现对传感器的访问了。如图31,iat语音识别节点用于驱动麦克风,并将麦克风采集的语音转换为文字;问答(QA)和自然语言处理(NLP)节点处理iat语音识别节点发布的文字,并将处理结果发布给tts语音合成节点;tts语音合成节点订阅问答(QA)和自然语言处理(NLP)节点发布的文字,并驱动声卡将文字转换为语音;摄像头ROS驱动将摄像头数据直接发布到相应的话题。这样机器人上的其他节点都可以通过订阅与发布相应的节点来访问麦克风、声卡和摄像头。关于图像、语音、文字等处理的具体应用将在后面详细展开。