日本研究人员开发动态面部表情合成技术 使机器人拥有逼真面部表情
即使仿真机器人的外观逼真到可以在照片中被误认为是人类,但看着机器人的一举一动还是会让人感到有些不安。机器人可以微笑、皱眉或展示其他各种表情,但很难找到一种一致的情感状态,让人无法确定机器人的真实感受,从而令人产生一种不安感。
图片来源:《Robotics and Mechatronics》
到目前为止,当允许能够活动多个面部部位的机器人(如仿生机器人)长时间展示表情时,通常采用的是“拼凑法(patchwork method)”。这种方法包括准备多个预设的动作场景,以确保在切换时不会出现不自然的面部动作。
然而,这种方法在实践中面临一些挑战,例如需要事先准备复杂的动作场景,要在切换时尽量减少明显的不自然动作,以及微调面部动作以巧妙地控制所传达的表情。
据外媒报道,在期刊《Robotics and Mechatronics》发表的一项研究中,主要作者Hisashi Ishihara及其研究团队开发出一种动态面部表情合成技术,采用“波形动作(waveform movements)”来表示构成面部动作的各种姿势,如“呼吸”、“眨眼”和“打哈欠”等,将它们视为独立的波形。
这些波形被传播到相关的面部区域,并通过叠加以实时生成复杂的面部动作。这种方法无需准备复杂多样的动作数据,同时也避免了明显的动作转换。
此外,通过引入“波形调制”(即根据机器人的内部状态调整单个波形),内部条件(如情绪)的变化可以立即反映为面部动作的变化。
资深作者Koichi Osuka表示:“推进这项动态面部表情合成研究,将使具备复杂面部动作的机器人表现出更生动的表情,并根据周围环境(包括与人类的互动)传达情绪变化。这可以极大地丰富人类和机器人之间的情感交流。”
Hisashi Ishihara补充道:“与其创造表面化的动作,不如进一步开发一个系统,让机器人行动的每一个细节都能反映出内部情绪,这样就能创造出被人们认为有心的仿生机器人。”
通过实现自适应调整和表达情绪的功能,这项技术有望显著提高通信机器人的价值,使它们能够以更自然、更人性化的方式与人类交换信息。
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。