聪明的家庭机器人_家庭服务机器人

机器人的概念可以追溯至1920年捷克作家卡雷尔•恰佩克的科幻作品《罗素姆万能机器人》。但经过100年的发展,大多数机器人仍然是面向工业应用。它们挥舞着几根机械臂、装备着轮式或履带式底盘,在自动化上产线上完成各种各样的任务。

这些机器人都离日常生活太过遥远,基本与我们没有交集。大家心目中的机器人可能更倾向于科幻作品中那样,如电影《星球大战》中的机器人C-3PO,以及电影《电脑娃娃》和《人工智能》里那些更接近人形、能陪伴我们的家庭机器人。看过这些科幻作品后,孩子们的第一个冲动就是用萌萌的眼神期待父母能立即给自己买一个这样的机器人。

目前人类的科技发展水平,制造出形状和真人一样的机器人并不难,甚至皮肤都可以做的和人一样,如日本在几年前就推出了“仿真机器人”,似乎买个机器人回家为人们照看孩子、洗衣做饭、看家护院的愿望马上就能实现了。但事实上,常见的只有像扁饼干盒一样的“扫地机器人”吸尘器,远达不到我们梦想中的“机器人”。

造成这种理想和现实差距的关键是我们期待的机器人要像“人”而不是“机器”。尽管机械手、机械足都基本接近人类的功能,但它们组合在一起仍然只是“机器”,距离“人”的标准还差得很远。相比于机器,人最大的特点就是要“聪明”。机器人至少要能具备这个功能后,我们才会把机器人(而不是遥控玩具)买回家给孩子们。

何谓“聪明”的机器人?就犹如我们夸孩子一样“真聪明、做什么事只教一遍就会了”。但现在的机器人仍只能按照程序不停地循环执行预先设定的工作任务,还不具备像人类一样强大的学习能力,无法有效应对每个家庭特有的需求。

目前计算机技术的发展水平,要求机器人立即能事事都“聪明”是不现实的。尽管近几年出现了诸如深度学习等优秀的软件算法,但服务机器人的各种功能都是预先编好的程序,难以应付千家万户的各种特殊情况和需求。要想带个机器人回家为用户服务,还需要广大科技工作者充分发挥主观能动性,尽可能的利用现有条件做出能够让用户尽量满意的家庭机器人。

 

认路功能让机器人聪明

 

针对家庭服务机器人,尤其是陪伴孩子的机器人,至少要能在两方面变得“聪明”才会被用户们认可:穿梭于各个房间时自己会认路、观察主人的情感提供贴心服务。这是对家庭机器人的最基本要求。

首先,机器人为了完成主人下达的各种任务,例如端茶倒水、搬运东西、打扫卫生,要在客厅、卧室、厨房之间往复运动,自己不会认路可不行。

机器人会认路的关键是要时刻知道“自己的位置在哪”。在户外,通过北斗等全球卫星定位技术,机器人可实时自主定位。但在室内,卫星自主定位会失灵,因为屋顶遮挡住了天上卫星发来的导航信号。而作为家庭机器人、它们大多数工作时间都是要在家中,因此科研工作者必须要为机器人设计一种新的室内自主定位方法。最直接的办法就是仿照人眼视觉的原理,研制机器人视觉自主定位技术,让机器人具备像人眼一样的电子眼睛,主人领着机器人在房子的各个房间和走廊转一圈,机器人下次再来就应该知道自己到哪了。

为了实现这一目标,除了机器人视觉系统要配备高清摄像头,还需要功能强大的视觉处理算法软件。但目前在算法方面还无法达到该要求,存在一个科研人员称作“机器人被绑架”的问题:如同人被蒙住双眼被绑架到一个新地方不认识路一样,如果意外碰了或踢了机器人一下,导致它意外滑动一些距离,机器人之前看到的场景消失,被快速切换为其它景物,此时机器人就无法重新自主定位、不知自己在哪里了,随之而来的就是迷路了。造成该问题的原因是目前机器人视觉系统的分析能力不足,只能依赖增量式地图导航。所谓增量式地图,即机器人通过计算看到的同一景物在当前时刻和前一时刻之间发生的位移和移动方向推算机器人的运动量,并将各个时刻观察到的位移持续累加解算自己的运动轨迹。这种导航技术缺点非常多、很容易被干扰。

针对该问题,空天信息创新研究院科研人员正在研制一种基于图像内容的全局地图定位技术。应用这种技术,机器人只需被主人领着在各个屋子中走一圈,为每个屋子和走廊拍摄一组照片构成地图,随后即可自主定位,通过将当前视场中看到的景物与地图照片中的景物匹配,即可得知自己在哪,就像人眼自主判断自己的位置一样,并能根据实时定位的结果准确解算出自己的运动轨迹,实验结果如下图所示。

情感识别让机器人贴心

“情感”是人们对机器“人”的另一个重要需求。何谓“人”?即要有七情六欲,即使机器人不能做出七情六欲一样的丰富表情,但至少要能观察出自己主人的情感。根据主人情绪的变化及时提供相应的服务,这是最基本的要求。要是主人悲伤时机器人在一旁还用生硬语调与主人对话,这样冷冰冰的机器人是不会受到欢迎的。

对于“情感”这一目标,机器人首先要依靠视觉系统观察出主人的情绪,然后才能察言观色地为主人提供最适合的服务。

尽管目前有众多的视觉情绪识别软件和手机App提供给大家使用,只要用手机端正着拍下自己的脸、手机就会立即显示人的情绪,但能具有情绪识别功能的机器人却鲜有出现。究其原因,主要是因为机器人多数时间只能看到非配合的侧脸,机器人不可能要求主人一直正面对着自己、也不能一直位于主人的正面盯着,否则就会对主人日常生活造成严重干扰。所以机器人一般只能位于主人的侧面,对侧脸“察言观色”。而现有技术大多只能解决正脸情绪识别,当面对的是侧脸时,非配合的人脸在自然状态下姿态多变,任意方位的人脸都可能被视觉传感器拍摄到,这些侧脸在成像时会包含很多变形。五官和脸皮的情绪特征会被弱化甚至消失,情绪识别的准确度被严重干扰。因此,如果不能解决对任意姿态人脸、尤其是侧脸的情绪识别,机器人是难以被广大用户接受的。

针对该问题,科研人员正在研制一种能够识别任意姿态人脸的情绪识别技术。该技术的核心是将任意姿态的人脸重建为正脸、消除非配合人脸造成的干扰,以重建的正脸为基础可以实现准确的情绪识别,实验结果如下图所示。

 

机器人自主导航和识别人情绪这两项工作已经获得了比较好的实验结果。现在的主要科研任务是提升核心算法的稳定性,最终目标是在任意复杂的家庭环境中都能让机器人实施准确的导航定位、对任意姿态面部姿态的家庭成员都实施准确的情绪识别。

几十年前,儿童时代的我们看着科幻电影、科幻小说描述“明天的未来世界”时,总会期盼着“到时候我就能有一个这样的机器人了”。经过科研工作者们几十年的努力,“明天”即将成为“今天”,儿时梦想的“聪明”机器人即将实现,它们可以时刻温馨体贴地陪护我们的孩子们,如同守护天使一样!

 

来源:中国科学院空天信息创新研究院

发表评论

相关文章