CN110600141A - 一种基于全息影像技术的融合仿生机器人远程关怀系统 - Google Patents

一种基于全息影像技术的融合仿生机器人远程关怀系统 Download PDF

Info

Publication number
CN110600141A
CN110600141A CN201910860020.9A CN201910860020A CN110600141A CN 110600141 A CN110600141 A CN 110600141A CN 201910860020 A CN201910860020 A CN 201910860020A CN 110600141 A CN110600141 A CN 110600141A
Authority
CN
China
Prior art keywords
remote
bionic robot
holographic
holographic image
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910860020.9A
Other languages
English (en)
Other versions
CN110600141B (zh
Inventor
孙皓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201910860020.9A priority Critical patent/CN110600141B/zh
Publication of CN110600141A publication Critical patent/CN110600141A/zh
Application granted granted Critical
Publication of CN110600141B publication Critical patent/CN110600141B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Toys (AREA)

Abstract

本发明提供一种基于全息影像技术的融合仿生机器人远程关怀系统,包括坐姿或站姿的仿生机器人偶、全息影像模块、坐标跟随模块、本地移动终端、中间服务器、远程移动终端,在光影全息的基础上,加入对远程用户动作的采集和跟踪,通过与全息光影技术的结合,不仅让临终患者或孤寡老人生动、快速、准确的感受全息影像所带来的立体视觉体验,而且通过感应互动技术,使得被关怀者更好的与全息影像中的亲人、家属情景进行交互,带来全新的精神享受,提高了感应互动效果及体验。

Description

一种基于全息影像技术的融合仿生机器人远程关怀系统
技术领域
本发明涉及一种基于全息影像技术的融合仿生机器人远程关怀系统,属于医疗远程交互通信领域。
背景技术
临终关怀(英文:hospice care)并非是一种治愈疗法,而是一种专注于在患者在将要逝世前的几个星期甚至几个月的时间内,减轻其疾病的症状、延缓疾病发展的医疗护理。临终关怀指由社会各层次(护士、医生、社会工作者、志愿者以及政府和慈善团体人士等人员)组成的团队向临终患者及其家属提供的包括生理、心理和社会等方面的一种全面性支持和照料。
患者出现痛苦、孤独、悲观、绝望等心理反应,情绪极度消沉、压抑,因此,需给患者以耐心细致的心理疏导。①让患者倾诉内心的痛苦和悲哀,充分理解患者,多与患者交谈,耐心倾听,让其把内心中不满的情绪尽量地发泄出来;②面对现实:安排最亲近的家属陪伴,并参与照顾患者,与患者一起回忆往事,共度人生最后旅程,减少患者对死亡的恐惧,也给患者家属有更多的时间陪伴和护理。
对临终患者的心理治疗是最高层次和最复杂的治疗,也是最不容忽视的关怀内容。每个进入临终期的患者遇到的第一个心理考验就是如何面对自身的、近在咫尺的死亡现实。作为医护人员,面对不同的个体生命,采取灵活的、可操作性的、能收到显著效果的心理治疗方案,帮助他们理解死亡,减少痛苦,消除恐惧、回避、抵制、消极等待死亡的心理障碍,是临终期心理治疗的重要课题。临终者需求得到满足的程度是检验临终关怀的标准。临终者除表现较为深刻、复杂的临终心理需求外,还有正常人的心理需求,在研究开展心理关怀的共性临床治疗中,特殊性心理关怀也不容忽视。大部分患者都有其独特的特长、兴趣、爱好,这些就是某位个体临终前生命的亮点和尊严的体现。临终者需求虽然多种多样,但其对爱的渴望和对被关怀照顾的需求却是相同或相近的。营造爱的氛围,给予临终者全方位的心理关怀是临终关怀工作者的最重要任务。综上所述,对临终患者的心理分析将把临终关怀事业引入更深的领域,从普遍性到个体特殊性、从浅到深,心理研究的成果将越来越深刻,临终关怀也将随之走向成熟。从生理、心理和社会三方面,尽力使临终者感到满足和愉快,感到尊严的维护和生命的充实。
当前,很多临终患者的近亲家属甚至子女由于工作忙碌、交通不变、突发状况等原因,无法及时在病床前与患者本人做最后的道别,并因此抱憾终生。
全息技术是计算机技术、全息技术和电子成像技术结合的产物。它通过电子元件记录全息图,省略了图像的后期化学处理,节省了大量时间,实现了对图像的实时处理。同时,其可以进行通过电脑对数字图像进行定量分析,通过计算得到图像的强度和相位分布,并且模拟多个全息图的叠加等操作。
全息影像是真正的三维立体影像,用户不需要佩戴带立体眼镜或其他任何的辅助设备,就可以在不同的角度裸眼观看影像。其基本机理是利用光波干涉法同时记录物光波的振幅与相位。由于全息再现象光波保留了原有物光波的全部振幅与相位的信息,故再现象与原物有着完全相同的三维特性。
与普通的摄影技术相比,全息摄影技术记录了更多的信息,因此容量比普通照片信息量大得多(百倍甚至千倍以上)。全息影像的显示,则是通过光源照射在全息图上,这束光源的频率和传输方向与参考光束完全一样,就可以再现物体的立体图像。观众从不同角度看,就可以看到物体的多个侧面,只不过看得见摸不到,因为记录的只是影像。
普通的摄像是二维平面采样,而全息摄像则是多角度摄像,并且将这些照片叠加。为了实现立体“叠加”,需要利用光的干涉原理,用单一的光线(常用投影机)进行照射,使物体反射的光分裂(分光技术)成多束相干光,将这些相干光叠加就能实现立体影像。
全息技术不仅可制出惟妙惟肖的立体三维图片美化人们的生活,还可将其用于证券、商品防伪、商品广告、促销、艺术图片、展览、图书插图与美术装潢、包装、室内装潢、医学、刑侦、物证照相与鉴别、建筑三维成像、科研、教学、信息交流、人像三维摄影及三维立体影视等众多领域,近年来还发展成为宽幅全息包装材料而得到了广泛应用。
全息技术是利用干涉和衍射原理记录并再现物体真实的三维图像的记录和再现的技术。其第一步是利用干涉原理记录物体光波信息,此即拍摄过程:被摄物体在激光辐照下形成漫射式的物光束;另一部分激光作为参考光束射到全息底片上,和物光束叠加产生干涉,把物体光波上各点的位相和振幅转换成在空间上变化的强度,从而利用干涉条纹间的反差和间隔将物体光波的全部信息记录下来。
合成式全息显示图像是指将一系列由普通拍摄物体的二维底片借助全息方法记录在一块全息软片(或干板)上,再现时实现原物体的准立体三维显示的一种技术。实现再现物体360°环视像的另一种有效方法便是合成式全息显示图像。它可制成圆筒式,亦可制成平面式。这里以旋转物体为例说明合成式全息显示图像的制作技术。显然,假若将物体变为实际场景,则可制作立体电视;假若将转动物体变为一系列连续变化的二维图片,则可制成活动的动画。
这种合成式全息显示图像实际上是彩虹式全息显示图像与合成技术的有机结合。利用这种方法在平面全息板上再现环视或立体活动图像,是极其诱人的。其缺陷是记录过程较为复杂,但随着计算机技术的发展与普及,这一缺陷已不再成为严重的问题。近年来,研制出一套由计算机控制的合成式全息显示图像自动记录系统,并成功地由它制出像质颇佳的360°环视合成式全息显示图像。
角度多路合成式全息显示技术具有发展前景的潜力。它可将计算机图像信息处理、光学图像信息处理、纳米感光化学信息处理、影视技术多年来积累的视觉心理学及生理学深度感等方面的经验融合一体,对采集的图像信息进行处理,从而获得优质的三维空间立体影像。观看这种角度多路合成式全息显示立体影象时,无需配戴眼镜等附加装置。它是目前记录并显示伴有活动图像的三维立体影像的最佳方法。随着液晶显示技术及纳米级实时记录介质材料的研制开发,角度多路合成式全息显示技术将会发展成为新一代具有可持续发展的科研项目及值得巨大投入的研究课题。
本申请正是在上述背景下,为了解决终患者的近亲家属甚至子女无法及时赶到医院病床前,提供一种基于全息影像技术的融合仿生机器人远程关怀系统,通过远程视频互动与全息影像相结合,使得患者获得一种身临其境、仿佛家人就在身边的真实感受,不让遗憾留在人间。
发明内容
针对现有技术的相关需求,本发明提供一种基于全息影像技术的融合仿生机器人远程关怀系统,包括坐姿或站姿的仿生机器人偶、全息影像模块、坐标跟随模块、本地移动终端、中间服务器、远程移动终端,其中,
所述仿生机器人偶具有多自由度仿生关节,至少在手臂和手指处采用仿真设计,表面覆盖热偶元件和硅胶材料,模拟人体的体温和触摸感觉;
所述全息影像模块包括三维视频采集装置、全息影像处理器、全息影像覆膜载体、图像纵深处理模块;所述三维视频采集装置包括动作捕捉设备,用于获取仿生机器人偶的动作信号;所述图像纵深处理模块与基于CMOS的视频感光传感器连接,用于接收红外光编码图像或光编码图像,并向中间服务器输出场景纵深影像;所述全息影像处理器与所述中间服务器通信,将所述动作信号、场景纵深影像的全息影像投影至所述全息影像覆膜载体上,形成互动的全息影像;
所述本地移动终端、远程移动终端分别通过移动通信网络与所述中间服务器进行数据通信,并通过所述中间服务器建立本地移动终端与远程移动终端之间的远程通信连接;所述中间服务器用于接收来自所述本地服务器的远程关怀请求,解析并发送至所述远程移动终端,远程用户操作所述远程移动终端,发出相应的控制指令和动作,由所述中间服务器将所述指令和动作发送给所述仿生机器人偶,使得所述仿生机器人偶能够复现所述指令和动作;
所述坐标跟随模块包括双目视觉传感器,用于捕捉所述仿生机器人偶的动作姿态,所述仿生机器人偶的关节位点上设置若干坐标定位标记,所述双目视觉传感器识别所述坐标定位标记构成三维视觉坐标系,当所述仿生机器人偶的关节手臂产生移动位移时,所述双目视觉系统跟随所述坐标定位标记,并根据双目测试原理计算出所述坐标定位标记在所述三维视觉坐标系中的坐标信息,根据所述仿生机器人偶的关节位置实时更新坐标信息。
优选地,还包括语音获取设备,与中间服务器远程通信,获取远程语音输入信号。
优选地,所述全息影像覆膜载体包括四组覆盖有全息影像覆膜的成像透明板,所述的四组玻璃板组成正三棱锥形,所述全息影像模块包括四架全息影像投影装置,分别与所述的四组玻璃板一一对应。
优选地,所述全息影像模块包括四部全息投影仪,与所述四组玻璃板一一对应。
优选地,所述中间服务器包括
姿态解析设备,对所述仿生机器人偶的动作姿态进行加载解析;
反馈互动设备,与所述姿态解析设备相连,根据所述姿态解析设备的加载解析结果,使得所述全息投影覆膜载体上的全息影像进行互动反馈,形成互动全息影像。
优选地,所述仿生机器人还具有头部,所述头部具有前后点头和左右摇头的头部动作模式,并由与之配置的致动器驱动执行所述头部动作模式。
优选地,所述仿生机器人的所述手臂具有抚摸或拍打的手部动作模式,并由与之配置的致动器驱动执行所述手部动作模式。
优选地,所述的中间服务器还采用改进的动态时间归整的方式将采集的三维视频图形信息与语音输入信号相匹配。
优选地,当根据解析确定所述仿生机器人的头部点头或摇头时,所述根据解析得到的所述仿生机器人的头部关键点在所述全息影像覆膜载体节点上进行映射,生成模仿数据包括:根据解析得到的远程用户的头部点头或摇头前后的三维关键点之差确定旋转矩阵;根据所述旋转矩阵,确定出所述远程用户的头部摆动角度;根据所述摆动角度控制所述仿生机器人对所述远程用户头部摆动进行模仿。
优选地,还包括用于播放声音的功率放大器和音响设备,所述功率放大器和所述音响设备均与所述中间服务器连接。
本申请提供的基于全息影像技术的融合仿生机器人远程关怀系统,在光影全息的基础上,加入对远程用户动作的采集和跟踪,通过与全息光影技术的结合,不仅让临终患者或孤寡老人生动、快速、准确的感受全息影像所带来的立体视觉体验,而且通过感应互动技术,使得被关怀者更好的与全息影像中的亲人、家属情景进行交互,带来全新的精神享受,提高了感应互动效果及体验。
附图说明
图1是全息影像技术的融合仿生机器人远程关怀系统的结构框图;
图2是全息影像模块的结构框图。
具体实施方式
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细说明,应当理解本发明实施例以及实施例中的具体特征是对本申请技术方案的详细的说明,而不是对本申请技术方案的限定,在不冲突的情况下,本申请实施例以及实施例中的技术特征可以相互组合。
如图1所示,一种基于全息影像技术的融合仿生机器人远程关怀系统,包括坐姿或站姿的仿生机器人偶、全息影像模块、坐标跟随模块、本地移动终端、中间服务器、远程移动终端,其中,所述仿生机器人偶具有多自由度仿生关节,至少在手臂和手指处采用仿真设计,表面覆盖热偶元件和硅胶材料,模拟人体的体温和触摸感觉;
如图2所示,所述全息影像模块包括三维视频采集装置、全息影像处理器、全息影像覆膜载体、图像纵深处理模块;所述三维视频采集装置包括动作捕捉设备,用于获取仿生机器人偶的动作信号;所述图像纵深处理模块与基于 CMOS的视频感光传感器连接,用于接收红外光编码图像或光编码图像,并向中间服务器输出场景纵深影像;所述全息影像处理器与所述中间服务器通信,将所述动作信号、场景纵深影像的全息影像投影至所述全息影像覆膜载体上,形成互动的全息影像;
如图1所示所述本地移动终端、远程移动终端分别通过移动通信网络与所述中间服务器进行数据通信,并通过所述中间服务器建立本地移动终端与远程移动终端之间的远程通信连接;所述中间服务器用于接收来自所述本地服务器的远程关怀请求,解析并发送至所述远程移动终端,远程用户操作所述远程移动终端,发出相应的控制指令和动作,由所述中间服务器将所述指令和动作发送给所述仿生机器人偶,使得所述仿生机器人偶能够复现所述指令和动作;
所述坐标跟随模块包括双目视觉传感器,用于捕捉所述仿生机器人偶的动作姿态,所述仿生机器人偶的关节位点上设置若干坐标定位标记,所述双目视觉传感器识别所述坐标定位标记构成三维视觉坐标系,当所述仿生机器人偶的关节手臂产生移动位移时,所述双目视觉系统跟随所述坐标定位标记,并根据双目测试原理计算出所述坐标定位标记在所述三维视觉坐标系中的坐标信息,根据所述仿生机器人偶的关节位置实时更新坐标信息。
所述正交的双目视觉传感器是两个正交的摄像机对准一个红外标记物,所述红外标记物佩戴在观察者的手指上,所述正交的摄像机用来获取所述红外标记物的空间位置图像,并将获取到的图像传输到所述图像处理和存储单元中。所述两个摄像机处于正交的分布状态,用于检测所述手指的三维空间位置和移动信息。
该系统还包括图像处理和存储单元由一个图像处理单元和一个大容量的图像存储器组成,会根据所述正交双目摄像机系统传输进来的红外标记物的空间位置视频图像,分析出手指的空间位置和移动信息。具体的分析过程是,首先对摄像机拍摄进来的图像进行单阈值分割,以分割出红外发光小球的图像,即
这里T为分割阈值,f(i,j)是象素点(i,j)处的灰度值,g(i,j)是分割后该象素点的值;然后,估计分割出的红外发光小球图像的灰度质心,并将此质心的位置坐标作为手指的图像坐标,即
这里(Xc,Yc)即为红外发光小球图像的灰度质心坐标,m、n为图像的行数和列数。用同样的方法,可以求出红外发光小球在另一个摄像机中的图像位置坐标(X′c,Y′c),综合考虑(Xc,Yc)和(X′c,Y′c)及它们随时间的变化,就可以得到手指的位置和移动信息。根据此手指信息,图像处理和存储单元14从数字全息图序列中选择一幅对应的数字全息图,并将这幅数字全息图以设定的方式传输到电寻址空间光调制器上。人们可以站在的位置上观看悬浮在空间的物体三维虚影像,并通过手指上的红外标记物与此三维虚影像进行交互。
还包括语音获取设备,与中间服务器远程通信,获取远程语音输入信号。
所述全息影像覆膜载体包括四组覆盖有全息影像覆膜的成像透明板,所述的四组玻璃板组成正三棱锥形,所述全息影像模块包括四架全息影像投影装置,分别与所述的四组玻璃板一一对应。
所述全息影像模块包括四部全息投影仪,与所述四组玻璃板一一对应。
所述全息影像模块还包括基于电寻址空间光调制器的光电再现系统,由激光器、光束扩束镜、会聚透镜、孔径光阑、电寻址空间光调制器和投影透镜阵列组成,所述激光器发出的激光束,经过所述扩束镜和会聚透镜组成的扩束准直器扩束调整之后,经过所述孔径光阑,射向所述电寻址空间光调制器,而且所述图像处理和存储单元将所要输出的数字全息图输出到所述电寻址空间光调制器,则电寻址空间光调制器输出的衍射光束经所述投影透镜阵列后投射到全息影像覆膜载体上。
当投影透镜阵列采集到光波信息之后,由于运算处理器不支持光波处理,因此,投影透镜阵列会将光波信息转换为运算处理器能够处理的电信号。此时的电信号能够完全反映出光波信息,可以将电信号理解为另一种形式的光波信息。而投影透镜阵列则是多个透镜的阵列组合,采集的光波信息比单个的透镜要复杂很多。
投影透镜阵列是由多个透镜排列组合而成的,当要采集参考对象的全息信息时,每一个透镜采集到的全息信息可以不一样。在投影透镜阵列的前方,是正方体形态的参考对象。当参考对象处于光亮的空间中时,其表面会散射光线,这些光线可以反映出参考对象的大小、形状、亮暗等等信息。因此,投影透镜阵列则会采集到这些用来反映参考对象的光线(即光波信息),并且将其转换为电信号传送给运算处理器进行处理。
投影透镜阵列还可以为环绕参考对象放置,在实际情况中,投影透镜阵列的放置形态本申请不做限制。
具体的,在采集参考对象的全息信息时,会从多方位、多角度进行采集,加上参考对象周围景物的反射光对其光线的影响,可以收集到参考对象的全部信息。具体的,周围景物的反射光对物体的影响同样会体现在振幅信息和相位信息上。如静物素描中的背景,背景具有光线强弱的差异,那么反应在静物上也会具有光线强弱的差异,而这种差异则体现在静物的振幅信息和相位信息上。
因此,投影透镜阵列在采集参考对象的全息信息时,可以采集到参考对象的全部信息。
而全息信息,具体指的是物体的振幅信息和相位信息,在光学方面包括可见光的全部信息。RGB只是可见光中的基色成分,因此,全息信息可以完全包括RGB。
进一步的,在投影透镜阵列采集全息信息时,是在一定的时间范围内进行采集的,例如T1时间范围内采集,此时的T1具体的数值是由实际情况确定的。
另外,投影透镜阵列采集全息信息时,实际上采用的是参考对象的物光波,并且在采集时是T1时间范围内,是按照时间的先后顺序进行采集的,具体如下:
通过投影透镜阵列采集参考对象在T1时间范围内的第i时刻的物光波,其中,0<i≤T1且i为整数。
例如,当i=1,2,3,…..T1,则表示投影透镜阵列从第1时刻,第2时刻,第3时刻这样的顺序持续采集参考对象的物光波。因为在不同的时间,由于参考对象周围景物的反射光对其光线的影响,在一段时间内的多个时刻持续采集参考对象的物光波,能够全面反映出参考对象的实际情况。
其中,物光波可以由以下表达式表征:
O(x1,y1)=|O(x1,y1)|exp[-jφ0(x1,y1)].................公式(1)
其中,x1与y1分别表示参考对象在T1时间范围内的第i时刻,经过投影透镜阵列的滤光之后,在第i个波阵面上的横坐标与纵坐标,O(x1,y1)表示参考对象在第i时刻对应的物光波,|O(x1,y1)|表示参考对象的振幅信息,φ0(x1,y1)表示参考对象的相位信息。
基于物光波,获得参考对象在T1时间范围内第i时刻的全息信息。
对于公式1来说,表征的其实是不同时刻参考对象的物光波。
若以i=1举例,则上面的x1与y1表示参考对象在第1时刻经过投影透镜阵列的滤光之后,在第1个波阵面上的横坐标与纵坐标;那么O(x1,y1) 表示参考对象在第1时刻对应的物光波,|O(x1,y1)|表示参考对象的振幅信息,φ0(x1,y1)表示参考对象的相位信息。
在获得了每一个时刻的物光波之后,则可以获知每一个时刻参考对象的全息信息(即振幅信息和相位信息)。
接下来会对全息图序列进行处理,获得全息影像。
具体的处理过程如下:
首先,通过空间光调制器接收复现光,复现光具体为对应于全息图序列依次循环出现的红复现光、绿复现光、蓝复现光;
其次,根据全息图序列出现的顺序,选择使用红复现光,或绿复现光,或蓝复现光与全息图序列产生衍射,获得对应的全息影像。
具体的,空间光调制器其实存在于显示器内部,显示器包括了空间光调制器和接收屏两部分,当空间光调制器在获得全息图之后,将其照射到接收屏上,并使用复现光对其进行衍射,获得全息影像,此时的接收屏则可以显示全息影像。在此实施过程中,接收屏相当于接收并显示了全息影像,只是在成像的过程中是在接收屏上实施的。另外,空间光调制器也可以将全息影像调制好在照射到接收屏上,此时的接收屏则可以直接接收全息影像。
首先,具有一3D彩色物体(即参考对象),首先通过微镜阵列701采集其全息信息。
在投影透镜阵列采集全息信息的过程中,其实是基于三基色,采集了物体在不同时刻的全息信息,例如,R1G1B1是参考对象第1时刻的全息信息。 R2G2B2是第2时刻参考对象全息信息,以此类推。
若物体的表面由M个质点构成,而投影透镜阵列具有N个微镜,那么每一个波阵面上则具有M*N个场点,并且每一个场点都具有各自的RGB三基色。将第1时刻获得的波阵面上的所以场点当做一个整体,则获得了参考对象在第1时刻的全息信息。此处的全息信息是以物光波来表征的。并根据三基色可以划分为三基色各自对应的物光波。
当采集到物体的全息信息时,由于此刻的全息信息是用光波信息的方式表达的,投影透镜阵列会将其传送给运算处理器处理。
当运算处理器处理时,会分别处理三基色对应的全息信息。即将物光波和对应的干涉光波进行叠加干涉,获得第1时刻全息图。
当按照上述方式调制其他时刻的全息信息之后,可以获得所有的全息图,将这些全息图按照时间顺序排序,获得全息图序列。然后将其送入空间光调制器,然后光滤波器在运算处理器的控制下,基于光源产生复现光照射全息图。
对于空间光调制器来说,则会接收全息图序列和复现光,并使用复现光衍射全息图序列为全息影像,并传送给接收屏显示。具体的,此时传送的全息图,是按照RGB这样的顺序进行传送的,因此,复现光也会按照这样的顺序依次给出RGB三基色光进行照射。进一步的,在传送时,将空间光调制器再现的全息图像投射在接收屏上显示全息图像,如果每秒钟显示的全息图达到 30Fps的话,就可看到一个动态的全息影像。意思就是,在1秒中之内,将30幅全息影像连续传送给接收屏,以人眼来观看的话,就能够看到动态的全息影像。
所述中间服务器包括:
姿态解析设备,对所述仿生机器人偶的动作姿态进行加载解析;
反馈互动设备,与所述姿态解析设备相连,根据所述姿态解析设备的加载解析结果,使得所述全息投影覆膜载体上的全息影像进行互动反馈,形成互动全息影像。
所述仿生机器人还具有头部,所述头部具有前后点头和左右摇头的头部动作模式,并由与之配置的致动器驱动执行所述头部动作模式。
所述仿生机器人的所述手臂具有抚摸或拍打的手部动作模式,并由与之配置的致动器驱动执行所述手部动作模式。
所述的中间服务器还采用改进的动态时间归整的方式将采集的三维视频图形信息与语音输入信号相匹配。
当根据解析确定所述仿生机器人的头部点头或摇头时,所述根据解析得到的所述仿生机器人的头部关键点在所述全息影像覆膜载体节点上进行映射,生成模仿数据包括:根据解析得到的远程用户的头部点头或摇头前后的三维关键点之差确定旋转矩阵;根据所述旋转矩阵,确定出所述远程用户的头部摆动角度;根据所述摆动角度控制所述仿生机器人对所述远程用户头部摆动进行模仿。
还包括用于播放声音的功率放大器和音响设备,所述功率放大器和所述音响设备均与所述中间服务器连接。
最后所应说明的是,以上具体实施方式仅用以说明本发明的技术方案而非限制,尽管参照实例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (10)

1.一种基于全息影像技术的融合仿生机器人远程关怀系统,其特征在于:包括坐姿或站姿的仿生机器人偶、全息影像模块、坐标跟随模块、本地移动终端、中间服务器、远程移动终端,其中
所述仿生机器人偶具有多自由度仿生关节,至少在手臂和手指处采用仿真设计,表面覆盖热偶元件和硅胶材料,模拟人体的体温和触摸感觉;
所述全息影像模块包括三维视频采集装置、全息影像处理器、全息影像覆膜载体、图像纵深处理模块;所述三维视频采集装置包括动作捕捉设备,用于获取仿生机器人偶的动作信号;所述图像纵深处理模块与基于CMOS的视频感光传感器连接,用于接收红外光编码图像或光编码图像,并向中间服务器输出场景纵深影像;所述全息影像处理器与所述中间服务器通信,将所述动作信号、场景纵深影像的全息影像投影至所述全息影像覆膜载体上,形成互动的全息影像;
所述本地移动终端、远程移动终端分别通过移动通信网络与所述中间服务器进行数据通信,并通过所述中间服务器建立本地移动终端与远程移动终端之间的远程通信连接;所述中间服务器用于接收来自所述本地服务器的远程关怀请求,解析并发送至所述远程移动终端,远程用户操作所述远程移动终端,发出相应的控制指令和动作,由所述中间服务器将所述指令和动作发送给所述仿生机器人偶,使得所述仿生机器人偶能够复现所述指令和动作;
所述坐标跟随模块包括双目视觉传感器,用于捕捉所述仿生机器人偶的动作姿态,所述仿生机器人偶的关节位点上设置若干坐标定位标记,所述双目视觉传感器识别所述坐标定位标记构成三维视觉坐标系,当所述仿生机器人偶的关节手臂产生移动位移时,所述双目视觉系统跟随所述坐标定位标记,并根据双目测试原理计算出所述坐标定位标记在所述三维视觉坐标系中的坐标信息,根据所述仿生机器人偶的关节位置实时更新坐标信息。
2.如权利要求1所述的远程关怀系统,其特征在于:还包括语音获取设备,与中间服务器远程通信,获取远程语音输入信号。
3.如权利要求1所述的远程关怀系统,其特征在于:所述全息影像覆膜载体包括四组覆盖有全息影像覆膜的成像透明板,所述的四组玻璃板组成正三棱锥形,所述全息影像模块包括四架全息影像投影装置,分别与所述的四组玻璃板一一对应。
4.如权利要求3所述的远程关怀系统,其特征在于:所述全息影像模块包括四部全息投影仪,与所述四组玻璃板一一对应。
5.如权利要求1所述的远程关怀系统,其特征在于:所述中间服务器包括
姿态解析设备,对所述仿生机器人偶的动作姿态进行加载解析;
反馈互动设备,与所述姿态解析设备相连,根据所述姿态解析设备的加载解析结果,使得所述全息投影覆膜载体上的全息影像进行互动反馈,形成互动全息影像。
6.如权利要求1所述的远程关怀系统,其特征在于:所述仿生机器人还具有头部,所述头部具有前后点头和左右摇头的头部动作模式,并由与之配置的致动器驱动执行所述头部动作模式。
7.如权利要求1所述的远程关怀系统,其特征在于:所述仿生机器人的所述手臂具有抚摸或拍打的手部动作模式,并由与之配置的致动器驱动执行所述手部动作模式。
8.如权利要求2所述的远程关怀系统,其特征在于:所述的中间服务器还采用改进的动态时间归整的方式将采集的三维视频图形信息与语音输入信号相匹配。
9.如权利要求5所述的远程关怀系统,其特征在于:当根据解析确定所述仿生机器人的头部点头或摇头时,根据解析得到的所述仿生机器人的头部关键点在所述全息影像覆膜载体节点上进行映射,生成模仿数据包括:根据解析得到的远程用户的头部点头或摇头前后的三维关键点之差确定旋转矩阵;根据所述旋转矩阵,确定出所述远程用户的头部摆动角度;根据所述摆动角度控制所述仿生机器人对所述远程用户头部摆动进行模仿。
10.如权利要求2所述的远程关怀系统,其特征在于:所述语音获取设备包括用于播放声音的功率放大器和音响设备,所述功率放大器和所述音响设备均与所述中间服务器连接。
CN201910860020.9A 2019-09-11 2019-09-11 一种基于全息影像技术的融合仿生机器人远程关怀系统 Active CN110600141B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910860020.9A CN110600141B (zh) 2019-09-11 2019-09-11 一种基于全息影像技术的融合仿生机器人远程关怀系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910860020.9A CN110600141B (zh) 2019-09-11 2019-09-11 一种基于全息影像技术的融合仿生机器人远程关怀系统

Publications (2)

Publication Number Publication Date
CN110600141A true CN110600141A (zh) 2019-12-20
CN110600141B CN110600141B (zh) 2022-11-29

Family

ID=68858944

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910860020.9A Active CN110600141B (zh) 2019-09-11 2019-09-11 一种基于全息影像技术的融合仿生机器人远程关怀系统

Country Status (1)

Country Link
CN (1) CN110600141B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111775183A (zh) * 2020-07-29 2020-10-16 浙江树人学院(浙江树人大学) 一种智能互动机器人及其互动方法
WO2022160867A1 (zh) * 2021-01-26 2022-08-04 华为云计算技术有限公司 远程重现方法、系统、装置、设备、介质及程序产品

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130321716A1 (en) * 2012-02-21 2013-12-05 Rockport Enterprises, Llc Virtualized greeter systems and methods
CN104298722A (zh) * 2014-09-24 2015-01-21 张鸿勋 多媒体交互系统及其方法
CN104883557A (zh) * 2015-05-27 2015-09-02 世优(北京)科技有限公司 实时全息投影方法、装置及系统
CN107336232A (zh) * 2017-05-27 2017-11-10 安徽信息工程学院 头部主动跟随机器人

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130321716A1 (en) * 2012-02-21 2013-12-05 Rockport Enterprises, Llc Virtualized greeter systems and methods
CN104298722A (zh) * 2014-09-24 2015-01-21 张鸿勋 多媒体交互系统及其方法
CN104883557A (zh) * 2015-05-27 2015-09-02 世优(北京)科技有限公司 实时全息投影方法、装置及系统
CN107336232A (zh) * 2017-05-27 2017-11-10 安徽信息工程学院 头部主动跟随机器人

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111775183A (zh) * 2020-07-29 2020-10-16 浙江树人学院(浙江树人大学) 一种智能互动机器人及其互动方法
WO2022160867A1 (zh) * 2021-01-26 2022-08-04 华为云计算技术有限公司 远程重现方法、系统、装置、设备、介质及程序产品

Also Published As

Publication number Publication date
CN110600141B (zh) 2022-11-29

Similar Documents

Publication Publication Date Title
JP6329506B2 (ja) 広視野角ディスプレイおよびユーザインタフェース
CN106537220B (zh) 具有可变焦点和/或对象识别的可佩戴3d增强现实显示器
Yang et al. See in 3D: state of the art of 3D display technologies
US20050122549A1 (en) Computer assisted hologram forming method and apparatus
WO2021137752A1 (en) A free space "pop-out" & "sink-in" hologram device to create, generate, display and share high definition free space "pop-out" & "sink-in" holograms with pop-out & sink-in holographic augmented reality (ar), virtual reality (vr) and mixed reality (mr)
WO1994016406A1 (en) Improved panoramic image based virtual reality/telepresence audio-visual system and method
TWM443194U (en) Holographic reconstructing device, touch input device and electronic product
CN110600141B (zh) 一种基于全息影像技术的融合仿生机器人远程关怀系统
KR20160016468A (ko) 리얼 3d 영상 생성 방법 및 그 장치
Horváthová et al. Phobia treatment with the help of virtual reality
CN106485958A (zh) 全息展示教学系统
JP2001075464A (ja) 合成ホログラムを形成する装置および方法
Bimber Combining optical holograms with interactive computer graphics
CN108717254B (zh) 一种大视角全息图制作方法及显示系统
CN103376543A (zh) 具有动态全息图像再现单元的显微镜系统
CN215006257U (zh) 一种单空间光调制器实现彩色立体点云裸眼显示装置
CN113406874B (zh) 单空间光调制器实现彩色立体点云裸眼显示系统和方法
CN100429587C (zh) 全息立体图像记录与显示方法及其装置与应用
Nor’a et al. Interactive augmented reality pop-up book with natural gesture interaction for handheld
Welch et al. Immersive electronic books for surgical training
Proniewska et al. Holography as a progressive revolution in medicine
Radikovic A true virtual window
Barabas Holographic television: measuring visual performance with holographic and other 3D television technologies
Richardson Techniques and Principles in Three-Dimensional Imaging: An Introductory Approach: An Introductory Approach
Khan Holographic 3D visualisation of medical scan images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant