CN109803109A - 一种可穿戴增强现实远程视频系统及视频通话方法 - Google Patents
一种可穿戴增强现实远程视频系统及视频通话方法 Download PDFInfo
- Publication number
- CN109803109A CN109803109A CN201811544975.5A CN201811544975A CN109803109A CN 109803109 A CN109803109 A CN 109803109A CN 201811544975 A CN201811544975 A CN 201811544975A CN 109803109 A CN109803109 A CN 109803109A
- Authority
- CN
- China
- Prior art keywords
- user
- facial expression
- augmented reality
- current
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/08—Detecting, measuring or recording devices for evaluating the respiratory organs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/318—Heart-related electrical modalities, e.g. electrocardiography [ECG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/389—Electromyography [EMG]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- Physiology (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Cardiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pulmonology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明适用于穿戴设备技术领域,提供了一种可穿戴增强现实远程视频系统及视频通话方法,包括增强现实智能眼镜系统、面部表情识别系统以及面部表情构建系统;增强现实智能眼镜系统用于捕捉用户当前环境信息并根据当前环境信息构建用户当前环境信息的三维地理图像;面部表情识别系统用于识别用户的当前面部表情和当前情感;面部表情构建系统用于捕捉和构建用户的三维虚拟面部表情,通过识别用户的当前面部表情和当前情感,根据用户的当前面部表情和当前情绪更新三维虚拟面部表情,并且通过构建用户所处环境的三维地理图像,作为视频通话的背景,将更新后的三维虚拟面部表情图像与三维地理图像投射到通话对端的显示器中,实现全息视频通话。
Description
技术领域
本发明属于穿戴设备技术领域,尤其涉及一种可穿戴增强现实远程视频系统及视频通话方法。
背景技术
随着移动通信技术的不断发展,目前移动终端已经具备远程视频通话的功能,用户通过选择远程视频通话的对象,在拨通对方的视频通话后,在聊天的过程中通过移动终端的前置摄像头就能获取用户的面部表情,同时通过移动终端的显示屏就能显示对方的面部表情,因此可以享受面对面的聊天感受。为了使通话过程能够实时看到对方和对方的面部表情,就需要用户手持移动终端并面对屏幕,要使对应能够实时看到用户和用户的面部表情,就需要用户手持移动终端并使移动终端的摄像头对准用户的脸部。
综上所述,目前用户进行远程视频通话时需要手持移动终端并使移动终端对着用户脸部才能进行有效视频通话的问题。
发明内容
有鉴于此,本发明实施例提供了一种可穿戴增强现实远程视频系统及视频通话方法,以解决目前用户进行远程视频通话时需要手持移动终端并使移动终端对着用户脸部才能进行有效视频通话的问题。
本发明的第一方面提供了一种可穿戴增强现实远程视频系统,其包括增强现实智能眼镜系统、面部表情识别系统以及面部表情构建系统;
所述增强现实智能眼镜系统和所述面部表情识别系统设置在增强现实智能眼镜中,面部表情构建系统设置在可穿戴智能手环中;所述增强现实智能眼镜系统分别与所述面部表情识别系统和所述面部表情构建系统通信连接,所述面部表情识别系统和所述面部表情构建系统通信连接;
所述增强现实智能眼镜系统用于捕捉用户当前环境信息并根据所述当前环境构建用户当前环境信息的三维地理图像,并将所述三维地理图像投射至通话对端的增强现实显示器中;
所述面部表情识别系统用于识别用户的当前面部表情和当前情感;
所述面部表情构建系统用于捕捉和构建用户的三维虚拟面部表情。
本发明的第二方面提供了一种视频通话方法,包括:
通过面部表情构建系统捕捉和构建用户的三维虚拟面部表情图像;
通过所述面部表情识别系统识别用户的当前面部表情和当前情感;
所述增强现实智能眼镜系统用于捕捉用户当前环境信息并根据所述当前环境构建用户当前环境信息的三维地理图像;
基于面部表情识别系统识别的用户的当前面部表情和当前情感更新所述三维虚拟面部表情图像,并将更新后的三维虚拟面部表情图像与所述三维地理图像进行融合,生成虚拟视频数据;
将所述虚拟视频数据投射至通话对端的增强现实显示器中。
本发明提供的一种可穿戴增强现实远程视频系统及视频通话方法,通过构建三维虚拟面部表情图像,再根据采集到的生理信号识别用户的当前面部表情和当前情感,从而驱动面部表情构建系统根据用户的当前面部表情和当前情绪更新三维虚拟面部表情,并且通过构建用户所处环境的三维地理图像,作为视频通话的背景,将更新后的三维虚拟面部表情图像与三维地理图像投射到通话对端的显示器中,实现与通话对端进行全息、实景的视频通话,有效地解决了目前用户进行远程视频通话时需要手持移动终端并使移动终端对着用户脸部才能进行有效视频通话的问题。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一提供的一种可穿戴增强现实远程视频系统的结构示意图;
图2是本发明实施例一提供的可穿戴增强现实远程视频系统的增强现实智能眼镜系统110的结构示意图;
图3a是本发明实施例一提供的可穿戴增强现实远程视频系统的面部表情识别系统120在增强现实智能眼镜上的分布示意图;
图3b是本发明实施例一提供的可穿戴增强现实远程视频系统的面部表情识别系统120对应人脸的采集位置的分布示意图;
图4是本发明实施例一提供的可穿戴增强现实远程视频系统的面部表情构建系统130的结构示意图;
图5是本发明实施例二提供的一种视频通话方法的实现流程示意图;
图6是本发明实施例三提供的对应实施例二的步骤S101的实现流程示意图;
图7是本发明实施例四提供的对应实施例二的步骤S102的实现流程示意图;
图8是本发明实施例五提供的一种终端设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、系统、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
实施例一:
如图1所示,本实施例提供了一种可穿戴增强现实远程视频系统10,其包括增强现实智能眼镜系统110、面部表情识别系统120以及面部表情构建系统130;
增强现实智能眼镜系统110和面部表情识别系统120设置在增强现实智能眼镜中,面部表情构建系统130设置在可穿戴智能手环中;增强现实智能眼镜系统110分别与面部表情识别系统120和面部表情构建系统130通信连接,面部表情识别系统120和面部表情构建系统130通信连接。
增强现实智能眼镜系统110用于捕捉用户当前环境信息并根据当前环境信息构建用户当前环境信息的三维地理图像,并将三维地理图像投射至通话对端的增强现实显示器中。
面部表情识别系统120用于识别用户的当前面部表情和当前情感。
面部表情构建系统130用于捕捉和构建用户的三维虚拟面部表情。
需要说明的是,上述增强现实智能眼镜系统110与上述面部表情识别系统120以及面部表情构建系统130可以是有线通信连接,也可以是无线通信连接,在此不加以限制。上述面部表情识别系统120和面部表情构建系统130可以是有线通信连接,也可以是无线通信连接,在此不加以限制。
还需要说明的是,上述增强现实智能眼镜与上述可穿戴智能手环之间可以通过建立无线连接来实现通信和数据传输,无线连接方式包括但不限于:无线蓝牙连接方式、无线局域网连接方式、近距离无线通信方式等,增强显示智能眼镜与可穿戴智能手环如何实现无线连接,如何通过无线连接的链路进行通信和数据传输,作为现有的技术手段,在此不加以赘述。
在具体应用中,上述增强现实智能眼镜佩戴在用户脸上,通过增强现实智能眼镜的双目前视广角摄像头获取用户当前环境信息,通过设置在增强现实智能眼镜靠近人脸侧的面部表情识别系统获取用户的生理信息,可穿戴智能手环佩戴在所述用户的手腕处,通过设置在可穿戴智能手环的3D结构光采集摄像头采集用户的人脸图像信息,并根据采集到的人脸图像信息构建三维虚拟面部表情。
在一个实施例中,增强现实智能眼镜系统110包括增强现实智能眼镜111和主机112。
在一个实施例中,增强现实智能眼镜111包括光纤扫描投射器111A、双目红外手势识别摄像头111B、眼动仪111C、双目前视广角摄像头111D、加速度传感器111E、骨传导耳机及降噪麦克风111F。
上述主机112包括处理器112A,控制器112A分别与光纤扫描投射器111A、双目红外手势识别摄像头111B、眼动仪111C、双目前视广角摄像头111D、加速度传感器111E、骨传导耳机及降噪麦克风111F电连接。
上述主机112用于对投影光源进行收集,并通过光纤将三维地理图像投影在通话对端的增强现实显示器中。
在具体应用中,上述处理器112A控制光纤扫描投射器111A、双目红外手势识别摄像头111B、眼动仪111C、双目前视广角摄像头111D、加速度传感器111E、骨传导耳机及降噪麦克风111F进行工作,并接收光纤扫描投射器111A、双目红外手势识别摄像头111B、眼动仪111C、双目前视广角摄像头111D、加速度传感器111E、骨传导耳机及降噪麦克风111F获取到的数据。
如图2所示,上述光纤扫描投射器111A、双目红外手势识别摄像头111B、眼动仪111C、双目前视广角摄像头111D、加速度传感器111E、骨传导耳机及降噪麦克风111F分别设置在上述增强现实智能眼镜111上。
上述光纤扫描投射器111A用于光纤扫描成像,双目红外手势识别摄像头111B用于拍摄识别用户的手势动作,眼动仪111C用于捕捉用户的眼睛所聚焦的交点位置,双目前视广角摄像头111D用于拍摄当前环境和构建三维地理图像,加速度传感器111E用于检测用户的头部姿态,骨传导耳机及降噪麦克风111F用于播放通话对端的语音数据和接收用户输入的语音数据。
在一个实施例中,面部表情识别系统120包括肌电传感器121、皮肤电反应传感器122、心电信号传感器123、呼吸信号传感器124及数据处理器125;数据处理器125分别与肌电传感器121、皮肤电反应传感器122、心电信号传感器123及呼吸信号传感器124电连接。
如图3a所示,上述面部表情识别系统包括4对共8个传感器,分别为第一肌电传感器121A、第二肌电传感器121B、第一皮肤电反应传感器122A、第二皮肤电传感器122B、第一心电信号传感器123A、第二心电信号传感器123B、第一呼吸信号传感器124A以及第二呼吸信号传感器124B,上述8个传感器分别与用户的脸部肌体表面相接触,用于获取用户的生理信号,上述生理信号包括皮肤电反应信号、肌电信号、呼吸信号和心电信号。上述数据处理器125对各个传感器采集到的生理信号进行数据处理和分析,以识别用户的当前面部表情和当前情感。
如图3b所示,面部表情识别系统通过8个传感器分别对应采集8个采集位置的生理信号,具体的第一肌电传感器121A采集01采集位置的肌电信号,第二肌电传感器121B采集02采集位置的肌电信号,第一皮肤电反应传感器122A采集03采集位置的皮肤电反应信号,第二皮肤电反应传感器122B采集04采集位置的皮肤电反应信号,第一心电信号传感器123A采集05采集位置的心电信号,第二心电信号传感器123B采集06采集位置的心电信号,第一呼吸信号传感器124A采集07位置的呼吸信号,第二呼吸信号传感器124B采集08采集位置的呼吸信号。需要说明的是,上述各个传感器可以使用现有的传感器进行生理信号采集。
在具体应用中,上述8个传感器分别对应采集人脸的8个采集位置的生理信号后,根据各个采集位置的生理信号分析各个采集位置的肌肉紧张程度,再结合8个采集位置的肌肉紧张程度分析确定用户的当前面部表情。需要说明的是,上述根据生理信号分析肌肉紧张程度以及根据8个采集位置的肌肉紧张程度分析确定用户的当前面部表情可以通过现有的分析算法来实现,在此不加以赘述。
在一个实施例中,面部表情构建系统130包括3D结构光采集摄像头131和肌电信号传感器132。
如图4所示,上述3D结构光采集摄像头131和肌电信号传感器132集成在可穿戴智能手环中,3D结构光采集摄像头131用于采集用户的人脸图像信息,肌电信号传感器132用于获取用户的手势信息。
在一个实施例中,上述增强现实智能眼镜系统还包括增强现实显示器,上述增强现实显示器用于显示通话对端发送过来的虚拟视频数据。
本实施例提供的可穿戴增强现实远程视频系统,通过面部表情构建系统构建三维虚拟面部表情图像,再根据面部表情识别系统采集到的生理信号识别用户的当前面部表情和当前情感,从而驱动面部表情构建系统根据用户的当前面部表情和当前情绪更新三维虚拟面部表情,并且通过增强现实智能眼镜系统构建用户所处环境的三维地理图像,作为视频通话的背景,将更新后的三维虚拟面部表情图像与三维地理图像投射到通话对端的显示器中,实现与通话对端进行全息、实景的视频通话,有效地解决了目前用户进行远程视频通话时需要手持移动终端并使移动终端对着用户脸部才能进行有效视频通话的问题。
实施例二:
如图5所示,本实施例提供了一种视频通话方法,上述视频通话方式基于上述可穿戴增强显示远程视频系统来实现,其具体包括:
步骤S101:通过面部表情构建系统捕捉和构建用户的三维虚拟面部表情图像。
在具体应用中,面部表情构建系统包括3D结构光采集摄像头,通过3D结构光采集摄像头对着用户的脸部进行扫描,获取用户的表情信息,并根据用户的表情信息在虚拟环境中构建一个三维虚拟面部表情图像。
步骤S102:通过面部表情识别系统识别用户的当前面部表情和当前情感。
在具体应用中,当生成了三维虚拟面部表情图像后,通过面部表情识别系统对用户的当前面部表情和当前情感进行识别。通过面部表情识别系统采集用户的生理信息,根据生理信息分析用户当前面部表情和当前情感。
步骤S103:通过增强现实智能眼镜系统捕捉用户当前环境信息并根据所述当前环境构建用户当前环境信息的三维地理图像。
在具体应用中,通过增强现实智能眼镜系统的增强现实智能眼镜的前视双目广角摄像头拍摄获取用户的当前环境信息,根据双目视觉三维重建算法构建用户当前环境的三维地理图像,作为聊天背景。与此同时,可以将用户的三维虚拟面部表情图像映射到上述三维地理图像中,即将用户的头像映射到聊天背景中。
在具体应用中,双目前视摄像头还用户捕捉用户的手势动作,根据用户的手势动作与通话对端进行交互。
在具体应用中,通过眼动仪实时捕捉用户的眼睛聚焦的交点区域,并根据用户眼睛聚焦的交点区域切换聊天背景。
步骤S104:基于面部表情识别系统识别的用户的当前面部表情和当前情感更新所述三维虚拟面部表情图像,并将更新后的三维虚拟面部表情图像与所述三维地理图像进行融合,生成虚拟视频数据。
在具体应用中,通过面部表情识别系统采集用户的生理信息,根据生理信息分析用户当前面部表情和当前情感驱使面部表情构建系统更新用户的三维虚拟面部表情图像。具体的,通过对面部的肌电信号和皮肤反应信号的采集,判断用户的当前面部表情,通过采集到的人体呼吸信号和心电信号通过情感识别算法进行多维度联合识别,从而判断用户的当前情绪。
在具体应用中,将更新后的三维虚拟面部表情图像与对应时刻的三维地理图像进行融合,即实时获取当前环境的三维地理图像,再将当前面部表情和当前情感对应的三维虚拟面部表情图像投射到当前环境的三维地理图像中,生成虚拟视频数据。
步骤S105:将所述虚拟视频数据投射至通话对端的增强现实显示器中。
在具体应用中,通过与通话对端的通信链路将具备三维虚拟面部表情图像与三维地理图像的虚拟视频信息发送给通话对端,并通过通话对端的增强显示显示器进行显示。
在具体应用中,可以通过增强现实智能眼镜与通话对端的增强现实智能眼镜进行通信,也可以通过可穿戴智能手环与通话对端的增强现实智能眼镜进行通信,还可以通过增强现实智能眼镜与通话对端的可穿戴智能手环进行通信,还可以是通过可穿戴智能手环与通话对端的可穿戴智能手环进行通信,在此不加以限制。
在具体应用中,在将虚拟视频数据投射到通话对端的增强现实显示器的同时,将同步的音频数据也传输至通话对端,并通过通话对端的增强现实智能眼镜的骨传导耳机播放同步播放音频数据。
在一个实施例中,上述视频通话方法在步骤S101之前还包括:
步骤S106:通过佩戴在用户腕部的可穿戴智能手环捕捉用户的手势动作,根据所述手势动作切换通话对象。
在具体应用中,通过腕部的肌电传感器识别用户的手势动作,根据用户的左右摆手的手势动作切换通话对象。
在具体应用中,通过腕部的肌电传感器获取动作信息,如腕部旋转角度,腕部上下摆动幅度及腕部左右摆动幅度等,根据动作信息分析识别用户的手势动作,根据用户的手势动作切换到对应的通话对象。
示例性的,若手势动作为向左摆动手臂,则从通话列表中选择当前通话对象的上一个通话对象,并切断与当前通话对象的视频通话,建立与上一个通话对象的视频通话;若手势动作为向右摆动手臂,则从通话列表中选择当前通话对象的下一个通话对象,并切断与当前通话对象的视频通话,建立与下一个通话对象的视频通话。需要说明的是,手势动作与切换通话对象的对应关系可以根据用户的设置进行确定,在此不加以限制。
在具体应用中,上述可穿戴增强现实远程视频系统还可以通过增强现实智能眼镜的加速度传感器检测用户的头部姿态,通过增强现实智能眼镜的双目红外手势识别摄像头识别用户的手势动作,进而实现与通话对端的实时交互。
本实施例提供的视频通话方法,同样能够通过面部表情构建系统构建三维虚拟面部表情图像,再根据面部表情识别系统采集到的生理信号识别用户的当前面部表情和当前情感,从而驱动面部表情构建系统根据用户的当前面部表情和当前情绪更新三维虚拟面部表情,并且通过增强现实智能眼镜系统构建用户所处环境的三维地理图像,作为视频通话的背景,将更新后的三维虚拟面部表情图像与三维地理图像投射到通话对端的显示器中,实现与通话对端进行全息、实景的视频通话,有效地解决了目前用户进行远程视频通话时需要手持移动终端并使移动终端对着用户脸部才能进行有效视频通话的问题。
实施例三:
如图6所示,在本实施例中,实施例一中的步骤S101具体包括:
步骤S201:通过面部表情构建系统的3D结构光采集摄像头对用户的面部表情进行扫描。
步骤S202:并根据扫描到的用户的面部表情在虚拟空间中构建所述用户的三维虚拟面部图像。
在具体应用中,通过3D结构光采集摄像头对着用户的脸部进行扫描,获取用户的表情信息,并根据用户的表情信息在虚拟环境中构建一个三维虚拟面部表情图像。
实施例四:
如图7所示,在本实施例中,实施例一中的步骤S102具体包括:
步骤S301:采集所述用户的生理信号,所述生理信号包括皮肤电反应信号、肌电信号、呼吸信号和心电信号。
在具体应用中,通过面部表情识别系统的8个传感器采集用户的生理信息,生理信号包括皮肤电反应信号、肌电信号、呼吸信号和心电信号。具体的,通过第一肌电传感器和第二肌电传感器采集肌电信号,通过第一皮肤电反应传感器和第二皮肤电传感器采集皮肤反应信号,通过第一心电信号传感器和第二心电信号传感器采集心电信号,通过第一呼吸信号传感器和第二呼吸信号传感器采集呼吸信号。
步骤S302:根据所述用户的生理信号进行多维度联合识别,判断当前用户的当前面部表情和当前情感。
在具体应用中,根据生理信息分析用户当前面部表情和当前情感驱使面部表情构建系统更新用户的三维虚拟面部表情图像。
具体的,通过对面部的肌电信号和皮肤反应信号的采集,判断用户的当前面部表情,通过采集到的人体呼吸信号和心电信号通过情感识别算法进行多维度联合识别,从而判断用户的当前情绪。
在一个实施例中,上述步骤S302具体包括以下步骤:
步骤S3021:对所述生理信号进行初始化处理,滤除干扰信号并进行数据采样,获取离散生理信号。步骤S3022:提取各类离散生理信号的特征值。
在具体应用中,通过统计特征算法提取各个离散生理信号的特征值,具体的分类提取生理信号的特征值,即提取肌电信号的特征值、提取皮肤反应信号的特征值、提取呼吸信号的特征值以及提取心电信号的特征值。
步骤S3023:基于离散二进制粒子群算法根据各类离散生理信号的特征值确定各类离散生理信号的有效特征信号。
在具体应用中,为了减小计算量,基于离散二进制粒子群算法根据各类离散生理信号的特征值确定各类离散生理信号的有效特征信号。有效特征信号是指对分类情感有用的信号特征。
步骤S3024:根据所述各类离散生理信号的有效特征信号进行情感识别,获取对应的情感类别。
在具体应用中,筛选出各类的离散生理信号的有效特征信号,并形成有效特征信号的特征集,根据特征集进行情感识别,将相似度最高的模式所属的类别作为识别结果输出。通过情感数据库的各类情感特征值与各类离散生理信号的有效特征信号进行相似度计算,将相似度最高的情感属性作为当前用户的情感类别。
在具体应用中,上述提取各类离散生理信号的特征值的具体实施方式如下:
(1)编码:根据特征选择的特点,把每一个特征定义为粒的一维离散二进制变量,变量长度就等于所有特征的数量,如果第i位为1,那么第i个特征就被选中,否则这个特征就被屏蔽。因此,每一个粒子就代表了一个不同的特征子集。
(2)初始化:为了获得不同数量的特征,首先随机产生每个粒子所含“1”的个数,然后再把这些“1”随机分布在这个粒子的所有维度中。
(3)适应度的评价:基于BPSO算法搜索目标得到全局最小值,上述适应度的评价包含两部分内容:
(a)分类错误率。使用特征子集中确定的特征来训练分类器,用分类的结果来评价粒子的性能,并以此来指导BPSO算法的目标搜索;
(b)使用的特征数量。每个特征子集包含一定数量的特征,如果两个特征子集获得的准确度相同,包含特征比较少的子集被选中。
需要说明的是在准确率和特征数量这两个因素中,需要重点考虑的是准确率,因此适应度函数确定为如下形式:
fitness=105×(1-Accuracy)+k×Ones
式中Accuracy表示每个个体获得的准确率,ones是粒子位置中包含“1”的数量,即被选中的特征的数量。BPSO算法是寻找全局最小值,准确率的权值定位100000,以提高准确率的重要性。高准确率就意味着适应度值小,该特征子集就有可能在竞争中获胜。k是大于O的常数,是准确率和特征数量的折中参数,它的值越大,表示特征数量越获得重视,在本实施例中K取值为0.5。
在具体应用中,基于BPSO算法的特征选择方法如下:
首先,在离散二进制PSO算法中,特征向量可以用一个二进制向量来表示粒子。表达式如下:
X=(x1,x2,…,xD)T,xi∈{0,1}
X表示原始特征的数量,如果x的第i位为l,则此特征被选中,如果为O,则此特征未被选中,T(速度)表示特征被选中的概率。
因此,上述提取特征值的步骤如下所示:
Step 1:设置群体大小为m、最大迭代次数、迭代闭值t和最小误差阂值;
Step 2:初始化粒子群的位置和速度,计算每个粒子的适配度将其作为初始个体极值pbesti,将所有pbesti中的最小值赋给gbest作为初始全局极值,Vi的初始值设为O;
Step 3:根据最近邻分类器的分类结果,对粒子群进行性能评价;
Step 4:更新粒子的速度和位置;
Step 5:用海明距离判断粒子的相似性;
Step 6:判断是否达到最小误差闽值或最大迭代次数,如果达到,执行step7;否则转向step3;
Step 7:输出最优目标值和粒子,该粒子位置所对应的特征即为找到的最优特征组合。
实施例五:
图8是本发明实施例七提供的终端设备的示意图。如图8所示,该实施例的终端设备8包括:处理器80、存储器81以及存储在所述存储器81中并可在所述处理器80上运行的计算机程序82,例如程序。所述处理器80执行所述计算机程序82时实现上述各个图片处理方法实施例中的步骤,例如图5所示的步骤S101至S105。
示例性的,所述计算机程序82可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器81中,并由所述处理器80执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序82在所述终端设备8中的执行过程。例如,所述计算机程序82可以被分割成表情构建模块、识别模块、环境构建模块、融合模块以及投射模块,各模块具体功能如下:
表情构建模块,用于通过面部表情构建系统捕捉和构建用户的三维虚拟面部表情图像;
识别模块,用于通过面部表情识别系统识别用户的当前面部表情和当前情感;
环境构建模块,用于通过增强现实智能眼镜系统捕捉用户当前环境信息并根据所述当前环境构建用户当前环境信息的三维地理图像;
融合模块,用于基于面部表情识别系统识别的用户的当前面部表情和当前情感更新所述三维虚拟面部表情图像,并将更新后的三维虚拟面部表情图像与所述三维地理图像进行融合,生成虚拟视频数据;
投射模块,用于将所述虚拟视频数据投射至通话对端的增强现实显示器中。
所述终端设备8可以是桌上型计算机、笔记本、掌上电脑及云端管理服务器等计算设备。所述终端设备可包括,但不仅限于,处理器80、存储器81。本领域技术人员可以理解,图8仅仅是终端设备8的示例,并不构成对终端设备8的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器80可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器81可以是所述终端设备8的内部存储单元,例如终端设备8的硬盘或内存。所述存储器81也可以是所述终端设备8的外部存储设备,例如所述终端设备8上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器81还可以既包括所述终端设备8的内部存储单元也包括外部存储设备。所述存储器81用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器81还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述系统的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述无线终端中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的系统/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的系统/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,系统或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述设置为分离部件说明的单元可以是或者也可以不是物理上分开的,设置为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并设置为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或系统、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种可穿戴增强现实远程视频系统,其特征在于,所述可穿戴增强现实远程视频系统包括增强现实智能眼镜系统、面部表情识别系统以及面部表情构建系统;
所述增强现实智能眼镜系统和所述面部表情识别系统设置在增强现实智能眼镜中,面部表情构建系统设置在可穿戴智能手环中;所述增强现实智能眼镜系统分别与所述面部表情识别系统和所述面部表情构建系统通信连接,所述面部表情识别系统和所述面部表情构建系统通信连接;
所述增强现实智能眼镜系统用于捕捉用户当前环境信息并根据所述当前环境构建用户当前环境信息的三维地理图像,并将所述三维地理图像投射至通话对端的增强现实显示器中;
所述面部表情识别系统用于识别用户的当前面部表情和当前情感;
所述面部表情构建系统用于捕捉和构建用户的三维虚拟面部表情。
2.根据权利要求1所述的可穿戴增强现实远程视频系统,其特征在于,所述增强现实智能眼镜系统包括增强现实智能眼镜和主机;
所述增强现实智能眼镜包括光纤扫描投射器、双目红外手势识别摄像头、眼动仪、双目前视广角摄像头、加速度传感器、骨传导耳机及降噪麦克风;
所述主机包括处理器,所述控制器分别与所述光纤扫描投射器、所述双目红外手势识别摄像头、所述眼动仪、所述双目前视广角摄像头、所述加速度传感器、所述骨传导耳机及所述降噪麦克风电连接;
所述主机用于对投影光源进行收集,并通过光纤将三维地理图像投影在通话对端的增强现实显示器中。
3.根据权利要求1所述的可穿戴增强现实远程视频系统,其特征在于,所述面部表情识别系统包括肌电传感器、皮肤电反应传感器、心电信号传感器、呼吸信号传感器及数据处理器;
所述数据处理器分别与所述肌电传感器、所述皮肤电反应传感器、所述心电信号传感器及所述呼吸信号传感器电连接。
4.根据权利要求1所述的可穿戴增强现实远程视频系统,其特征在于,所述面部表情构建系统包括3D结构光采集摄像头和肌电信号传感器。
5.根据权利要求4所述的可穿戴增强现实远程视频系统,其特征在于,所述3D结构光采集摄像头和所述肌电信号传感器集成在可穿戴智能手环中。
6.一种基于权利要求1所述的可穿戴增强现实远程视频系统的视频通话方法,其特征在于,包括:
通过面部表情构建系统捕捉和构建用户的三维虚拟面部表情图像;
通过面部表情识别系统识别用户的当前面部表情和当前情感;
通过增强现实智能眼镜系统捕捉用户当前环境信息并根据所述当前环境构建用户当前环境信息的三维地理图像;
基于面部表情识别系统识别的用户的当前面部表情和当前情感更新所述三维虚拟面部表情图像,并将更新后的三维虚拟面部表情图像与所述三维地理图像进行融合,生成虚拟视频数据;
将所述虚拟视频数据投射至通话对端的增强现实显示器中。
7.根据权利要求6所述的视频通话方法,其特征在于,还包括:
通过佩戴在用户腕部的可穿戴智能手环捕捉用户的手势动作,根据所述手势动作切换通话对象。
8.根据权利要求6所述的视频通话方法,其特征在于,所述通过面部表情构建系统捕捉和构建用户的三维虚拟面部表情图像包括:
通过面部表情构建系统的3D结构光采集摄像头对用户的面部表情进行扫描;
并根据扫描到的用户的面部表情在虚拟空间中构建所述用户的三维虚拟面部图像。
9.根据权利要求6所述的视频通话方法,其特征在于,所述通过面部表情识别系统识别用户的当前面部表情和当前情感包括:
采集所述用户的生理信号,所述生理信号包括皮肤电反应信号、肌电信号、呼吸信号和心电信号;
根据所述用户的生理信号进行多维度联合识别,判断当前用户的当前面部表情和当前情感。
10.根据权利要求9所述的视频通话方法,其特征在于,根据所述用户的生理信号进行多维度联合识别,判断当前用户的当前面部表情和当前情感,包括:
对所述生理信号进行初始化处理,滤除干扰信号并进行数据采样,获取离散生理信号;
提取各类离散生理信号的特征值;
基于离散二进制粒子群算法根据各类离散生理信号的特征值确定各类离散生理信号的有效特征信号;
根据所述各类离散生理信号的有效特征信号进行情感识别,获取对应的情感类别。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811544975.5A CN109803109B (zh) | 2018-12-17 | 2018-12-17 | 一种可穿戴增强现实远程视频系统及视频通话方法 |
PCT/CN2019/124331 WO2020125493A1 (zh) | 2018-12-17 | 2019-12-10 | 一种可穿戴增强现实远程视频系统及视频通话方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811544975.5A CN109803109B (zh) | 2018-12-17 | 2018-12-17 | 一种可穿戴增强现实远程视频系统及视频通话方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109803109A true CN109803109A (zh) | 2019-05-24 |
CN109803109B CN109803109B (zh) | 2020-07-31 |
Family
ID=66556993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811544975.5A Active CN109803109B (zh) | 2018-12-17 | 2018-12-17 | 一种可穿戴增强现实远程视频系统及视频通话方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109803109B (zh) |
WO (1) | WO2020125493A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109348075A (zh) * | 2018-09-17 | 2019-02-15 | 北京盘古影艺文化传播有限公司 | 一种来电处理系统 |
CN110413106A (zh) * | 2019-06-18 | 2019-11-05 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于语音和手势的增强现实输入方法及系统 |
WO2020125493A1 (zh) * | 2018-12-17 | 2020-06-25 | 中国科学院深圳先进技术研究院 | 一种可穿戴增强现实远程视频系统及视频通话方法 |
CN113763531A (zh) * | 2020-06-05 | 2021-12-07 | 北京达佳互联信息技术有限公司 | 三维人脸重建方法、装置、电子设备及存储介质 |
WO2023124944A1 (zh) * | 2021-12-31 | 2023-07-06 | 北京字跳网络技术有限公司 | 视频通话方法、装置、电子设备和存储介质 |
US11995776B2 (en) | 2021-01-19 | 2024-05-28 | Samsung Electronics Co., Ltd. | Extended reality interaction in synchronous virtual spaces using heterogeneous devices |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022204857A1 (de) * | 2022-05-17 | 2023-11-23 | Vimelio GmbH | Verfahren, Modulsystem und System zur Verringerung von medizinischen Instrumenten hervorgerufene Schallbelastungen |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103415003A (zh) * | 2013-08-26 | 2013-11-27 | 苏州跨界软件科技有限公司 | 一种虚拟人物通话系统 |
CN103647922A (zh) * | 2013-12-20 | 2014-03-19 | 百度在线网络技术(北京)有限公司 | 虚拟视频通话方法和终端 |
US20160198125A1 (en) * | 2014-06-30 | 2016-07-07 | International Business Machines Corporation | Dynamic facial feature substitution for video conferencing |
CN106037750A (zh) * | 2016-06-20 | 2016-10-26 | 国网上海市电力公司 | 一种基于可穿戴智能设备的电力巡检系统 |
WO2018041780A1 (en) * | 2016-08-29 | 2018-03-08 | Koninklijke Kpn N.V. | Communicating in a virtual reality environment |
CN108063909A (zh) * | 2016-11-08 | 2018-05-22 | 阿里巴巴集团控股有限公司 | 视频会议系统、图像跟踪采集方法及装置 |
CN108646920A (zh) * | 2018-05-16 | 2018-10-12 | Oppo广东移动通信有限公司 | 识别交互方法、装置、存储介质及终端设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105933637A (zh) * | 2016-04-26 | 2016-09-07 | 上海与德通讯技术有限公司 | 一种视频通信的方法及系统 |
CN109952759B (zh) * | 2017-02-03 | 2021-06-15 | 伟视达电子工贸有限公司 | 用于具有hmd的视频会议的改进的方法和系统 |
CN107203263A (zh) * | 2017-04-11 | 2017-09-26 | 北京峰云视觉技术有限公司 | 一种虚拟现实眼镜系统及图像处理方法 |
CN108337466B (zh) * | 2018-02-01 | 2021-07-16 | 联想(北京)有限公司 | 一种视频通话方法及电子设备 |
CN109803109B (zh) * | 2018-12-17 | 2020-07-31 | 中国科学院深圳先进技术研究院 | 一种可穿戴增强现实远程视频系统及视频通话方法 |
-
2018
- 2018-12-17 CN CN201811544975.5A patent/CN109803109B/zh active Active
-
2019
- 2019-12-10 WO PCT/CN2019/124331 patent/WO2020125493A1/zh active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103415003A (zh) * | 2013-08-26 | 2013-11-27 | 苏州跨界软件科技有限公司 | 一种虚拟人物通话系统 |
CN103647922A (zh) * | 2013-12-20 | 2014-03-19 | 百度在线网络技术(北京)有限公司 | 虚拟视频通话方法和终端 |
US20160198125A1 (en) * | 2014-06-30 | 2016-07-07 | International Business Machines Corporation | Dynamic facial feature substitution for video conferencing |
CN106037750A (zh) * | 2016-06-20 | 2016-10-26 | 国网上海市电力公司 | 一种基于可穿戴智能设备的电力巡检系统 |
WO2018041780A1 (en) * | 2016-08-29 | 2018-03-08 | Koninklijke Kpn N.V. | Communicating in a virtual reality environment |
CN108063909A (zh) * | 2016-11-08 | 2018-05-22 | 阿里巴巴集团控股有限公司 | 视频会议系统、图像跟踪采集方法及装置 |
CN108646920A (zh) * | 2018-05-16 | 2018-10-12 | Oppo广东移动通信有限公司 | 识别交互方法、装置、存储介质及终端设备 |
Non-Patent Citations (2)
Title |
---|
刘建华 等: "离散二进制粒子群算法分析", 《南京大学学报(自然科学版)》 * |
蒙剑: "基于VR技术的视频会议设计", 《电子设计工程》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109348075A (zh) * | 2018-09-17 | 2019-02-15 | 北京盘古影艺文化传播有限公司 | 一种来电处理系统 |
CN109348075B (zh) * | 2018-09-17 | 2021-02-02 | 北京盘古影艺文化传播有限公司 | 一种来电处理系统 |
WO2020125493A1 (zh) * | 2018-12-17 | 2020-06-25 | 中国科学院深圳先进技术研究院 | 一种可穿戴增强现实远程视频系统及视频通话方法 |
CN110413106A (zh) * | 2019-06-18 | 2019-11-05 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于语音和手势的增强现实输入方法及系统 |
CN110413106B (zh) * | 2019-06-18 | 2024-02-09 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于语音和手势的增强现实输入方法及系统 |
CN113763531A (zh) * | 2020-06-05 | 2021-12-07 | 北京达佳互联信息技术有限公司 | 三维人脸重建方法、装置、电子设备及存储介质 |
CN113763531B (zh) * | 2020-06-05 | 2023-11-28 | 北京达佳互联信息技术有限公司 | 三维人脸重建方法、装置、电子设备及存储介质 |
US11995776B2 (en) | 2021-01-19 | 2024-05-28 | Samsung Electronics Co., Ltd. | Extended reality interaction in synchronous virtual spaces using heterogeneous devices |
WO2023124944A1 (zh) * | 2021-12-31 | 2023-07-06 | 北京字跳网络技术有限公司 | 视频通话方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2020125493A1 (zh) | 2020-06-25 |
CN109803109B (zh) | 2020-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109803109A (zh) | 一种可穿戴增强现实远程视频系统及视频通话方法 | |
CN107886032B (zh) | 终端设备、智能手机、基于脸部识别的认证方法和系统 | |
JP2023082053A (ja) | 反射を利用する拡張現実システムおよび方法 | |
CN112198959A (zh) | 虚拟现实交互方法、装置及系统 | |
CN108198130B (zh) | 图像处理方法、装置、存储介质及电子设备 | |
CN106462725A (zh) | 监测游戏场所的活动的系统和方法 | |
CA2748037A1 (en) | Method and system for gesture recognition | |
CN111382648A (zh) | 人脸动态表情的检测方法、装置、设备及存储介质 | |
CN111009031B (zh) | 一种人脸模型生成的方法、模型生成的方法及装置 | |
CN106354264A (zh) | 基于视线追踪的实时人机交互系统及其工作方法 | |
JP2022550948A (ja) | 3次元顔モデル生成方法、装置、コンピュータデバイス及びコンピュータプログラム | |
CN109816601A (zh) | 一种图像处理方法和终端设备 | |
CN114360018B (zh) | 三维人脸表情的渲染方法及装置、存储介质及电子装置 | |
Enikeev et al. | Recognition of sign language using leap motion controller data | |
Kang et al. | Real-time animation and motion retargeting of virtual characters based on single rgb-d camera | |
CN113407031B (zh) | Vr交互方法、系统、移动终端及计算机可读存储介质 | |
CN115657859A (zh) | 一种基于虚拟现实的智能交互系统 | |
CN114594851B (zh) | 图像处理方法、服务器和虚拟现实设备 | |
CN112446821B (zh) | 一种图像处理方法、装置及电子设备 | |
CN108765321A (zh) | 拍照修复方法、装置、存储介质及终端设备 | |
CN114005156A (zh) | 人脸替换方法、系统、终端设备及计算机存储介质 | |
CN115543135A (zh) | 显示屏幕的控制方法、装置及设备 | |
CN106933209A (zh) | 一种基于图像处理的手表控制智能电器的方法及系统 | |
CN112132107A (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN104731332B (zh) | 一种信息处理方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |