CN110728191A - 手语翻译方法、基于mr的手语-语音交互方法及系统 - Google Patents
手语翻译方法、基于mr的手语-语音交互方法及系统 Download PDFInfo
- Publication number
- CN110728191A CN110728191A CN201910869132.0A CN201910869132A CN110728191A CN 110728191 A CN110728191 A CN 110728191A CN 201910869132 A CN201910869132 A CN 201910869132A CN 110728191 A CN110728191 A CN 110728191A
- Authority
- CN
- China
- Prior art keywords
- sign language
- voice
- translation
- model
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Abstract
本发明公开了一种手语翻译方法、基于MR的手语‑语音交互方法及系统,采集手语使用者手语的RGB‑D图像进行翻译,虚拟场景中手语使用者的虚拟人物模型将手语释义朗读为音频,语音使用者的虚拟人物模型将语音释义对应的手语动作进行演示。本发明对手语动作实现实时翻译,并可使用该翻译方法与语音使用者进行交互,可应用在多种场景,尤其在医患交流场景中,能够实现医患使用自己熟悉的语言方式进行无障碍交流,提高了诊疗效率,增强了双方的体验,MR技术展现手语翻译之后的医患交流场景,达到聋哑患者医患交流的完美效果。且利用深度学习技术训练模型可使得手语翻译系统更加精确。
Description
技术领域
本发明涉及MR技术,尤其是一种手语翻译方法、基于MR的手语-语音交互方法及系统。
背景技术
手语作为一种可视化语言,它主要靠手及手臂的运动姿态辅以适当的表情和口型来表达语意,是聋哑患者与外界交流的重要途径。据最新资料统计,我国聋哑患者数量达到2057万人,占人口总数的1.67%,而我国医院配置的手语医护人员非常稀缺,因此聋哑患者就医不便,常常耽误病情诊断。如何提升聋哑患者的生活品质,使他们更好的融入社会,是国家重点研究的一个课题。
随着MR技术及深度学习技术的进一步发展,特别是3DCamera对三维手势的捕捉,使用手语翻译更加精确和流畅,利用MR技术构造面对面的交互系统,利用深度学习训练手语的医患翻译系统,实现聋哑患者正常的医患交流。
发明内容
发明目的:针对上述现有技术存在的缺陷,本发明旨在提供一种基于MR的手语医患交互系统。
技术方案:一种手语翻译方法,包括如下步骤:
(1)获取手语动作的RGB-D图像;
(2)提取出RGB-D图像中的手势特征信息,所述手势特征信息为手部各关节点在各时刻的特征旋转矩阵;
(3)将手势特征信息与预设的手势特征翻译模型进行匹配;
(4)将手势特征翻译模型匹配的手语释义按照时间序列组合作为翻译结果。
进一步的,步骤(3)中所述预设的手势特征翻译模型通过如下方法建立:
(3.1)获取大量手语的RGB-D图像样本;
(3.2)提取出RGB-D图像样本中的手势特征信息;
(3.3)标定手势特征信息对应的手语释义;
(3.4)使用深度学习算法训练手势特征信息与手语释义对应的手势特征翻译模型。
一种基于MR的手语-语音交互方法,包括:
采集手语使用者手语的RGB-D图像,使用前述手语翻译方法进行翻译;
采集语音使用者的语音并翻译为文本信息;
构建虚拟场景,建立手语使用者及语音使用者的虚拟人物模型;
虚拟场景中手语使用者的虚拟人物模型将手语释义朗读为音频,语音使用者的虚拟人物模型将语音释义对应的手语动作进行演示。
进一步的,所述建立手语使用者及语音使用者的虚拟人物模型的方法为:
采集使用者的RGB-D图像,建立使用者的彩色点云模型;
使用TSDF方法进行模型表面重建和平滑,完成虚拟人物的建立。
进一步的,所述构建虚拟场景为构建平面虚拟场景或构建3D虚拟场景;构建3D虚拟场景的方法为:采集选定场景的RGB-D图像,获取R GB-D图像的3D点云信息,利用3D点云信息建立各使用者视角的MR虚拟场景。
进一步的,所述语音使用者的虚拟人物模型将语音释义对应的手语动作进行演示的方法为:
制作各会话语句对应手语动作的视频模型;手语动作的视频模型可通过录制视频或绘制三维模型动画的方式制作;
获取虚拟人物模型的头像模型并将其设置在手语动作的视频模型中。
进一步的,语音使用者可选择是否键入文字以校正由语音翻译的文本信息;语音使用者可选择是否直接键入文字以替代语音翻译。
进一步的,还包括:采集交互过程中手语翻译得到的手语释义信息和语音翻译得到的文本信息,标记各信息的发出者,并按照时间顺序形成纪录存储。
一种基于MR的手语-语音交互系统,包括处理终端以及与之通信连接的手语使用者客户端及语音使用者客户端;
所述手语使用者客户端包括用于获取手语动作的RGB-D图像的3D体感摄像头、用于显示的显示器;
语音使用者客户端包括用于采集语音的麦克风、用于播放语音的扬声器、用于显示的显示器;
所述处理模块用于构建虚拟场景,建立手语使用者及语音使用者的虚拟人物模型、翻译手语使用者客户端的手语动作并传输至语音使用者客户端播放翻译后朗读的音频、采集语音使用者的语音并翻译为文本信息、生成语音使用者虚拟人物模型将语音释义对应的手语动作进行演示的画面并传输至语音使用者客户端显示。
进一步的,还包括3D场景摄像头,用于为构建虚拟场景采集选定场景的RGB-D图像。
有益效果:本发明对手语动作实现实时翻译,并可使用该翻译方法与语音使用者进行交互,可应用在多种场景,尤其在医患交流场景中,能够实现医患使用自己熟悉的语言方式进行无障碍交流,提高了诊疗效率,增强了双方的体验,MR技术展现手语翻译之后的医患交流场景,达到聋哑患者医患交流的完美效果。且利用深度学习技术训练模型可使得手语翻译系统更加精确。
附图说明
图1是本发明的结构示意图。
具体实施方式
下面通过一个最佳实施例并结合附图对本技术方案进行详细说明。
一种手语翻译方法,包括如下步骤:
(1)获取手语动作的RGB-D图像,RGB-D图像即为彩色(RGB)+深度(Depth Map)图像,可由TOF、RGB双目、结构光等方案实现,可由3D体感摄像头等深度相机拍摄得到;拍摄后对彩色图像和RGB-D图像实施配准和同步,配准算法使得深度相机和彩色相机采集的是完全相同的场景,可以进行彩色图像和深度的像素映射,同步功能可以保证彩色和深度的同步输出;
(2)提取出RGB-D图像中的手势特征信息,所述手势特征信息为手部各关节点在各时刻的特征旋转矩阵;
(3)将手势特征信息与预设的手势特征翻译模型进行匹配;预设的手势特征翻译模型通过如下方法建立:
(3.1)获取手语的RGB-D图像样本;手语的RGB-D图像样本是大量的,此处的“大量”没有具体对数量的限定,按照本领域的常识,选用常规建模的样本量即可,且多多益善。之后对手语的RGB-D图像进行预处理,预处理包括图像平滑、去噪等。
(3.2)提取出RGB-D图像样本中的手势特征信息;
(3.3)标定手势特征信息对应的手语释义;
(3.4)使用深度学习算法训练手势特征信息与手语释义对应的手势特征翻译模型。
(4)将手势特征翻译模型匹配的手语释义按照时间序列组合作为翻译结果。
如图1所示,一种基于MR的手语-语音交互系统及方法,其系统包括处理终端以及与之通信连接的手语使用者客户端及语音使用者客户端;
所述手语使用者客户端包括用于获取手语动作的RGB-D图像的3D体感摄像头、用于显示的显示器;
语音使用者客户端包括用于采集语音的麦克风、用于播放语音的扬声器、用于显示的显示器、用于键入文字的文字输入设备;
所述处理模块用于构建虚拟场景,建立手语使用者及语音使用者的虚拟人物模型、翻译手语使用者客户端的手语动作并传输至语音使用者客户端播放翻译后朗读的音频、采集语音使用者的语音并翻译为文本信息、生成语音使用者虚拟人物模型将语音释义对应的手语动作进行演示的画面并传输至语音使用者客户端显示。
处理模块还与3D场景摄像头通信连接,3D场景摄像头用于为构建虚拟场景采集选定场景的RGB-D图像,也可以与手语使用者客户端的3D体感摄像头选用同款产品,也可以共用一个。采用本司A100和A100M等产品即可实现3D体感摄像头的功能,拍摄RGB-D图像。
该系统工作的方法为:
采集手语使用者手语的RGB-D图像,使用上述手语翻译方法进行翻译;
采集语音使用者的语音并翻译为文本信息;
构建虚拟场景,建立手语使用者及语音使用者的虚拟人物模型;该步骤可由本司的MR芯片完成,也可参考现有技术:增强现实的应用技术研究-范苑竹-浙江大学、基于深度摄像机的增强现实系统研究与实现-黄志恒-电子科技大学、一种显示混合现实场景的方法及系统-201710748651.2。
本实施例中,建立手语使用者及语音使用者的虚拟人物模型的方法为:
采集使用者的RGB-D图像,建立使用者的彩色点云模型;
使用TSDF(Truncated Signed Distance Function)方法进行模型表面重建和平滑,完成虚拟人物的建立。
构建虚拟场景可构建平面虚拟场景或构建3D虚拟场景,本实施例中构建3D虚拟场景,方法为:采集选定场景的RGB-D图像,获取RGB-D图像的3D点云信息,利用3D点云信息建立各使用者视角的MR虚拟场景。
虚拟场景中手语使用者的虚拟人物模型将手语释义朗读为音频,语音使用者的虚拟人物模型将语音释义对应的手语动作进行演示。
本实施例中语音使用者的虚拟人物模型将语音释义对应的手语动作进行演示的方法为:
制作各会话语句对应手语动作的视频模型;手语动作的视频模型可通过录制视频或绘制三维模型动画的方式制作;
获取虚拟人物模型的头像模型并将其设置在手语动作的视频模型中。
此外,也可以通过之前“用深度学习算法训练手势特征信息与手语释义对应的手势特征翻译模型”将手势特征信息赋值给虚拟的人物模型,实现虚拟人物模型按照手势特征信息运动。
为了防止语音翻译结果不准确造成手语演示的误差增大,语音使用者可选择是否键入文字以校正由语音翻译的文本信息;语音使用者可选择是否直接键入文字以替代语音翻译。
为了方面医患双方查看病例,需对交互过程留存下便于查阅的记录,因此,本实施例采集交互过程中手语翻译得到的手语释义信息和语音翻译得到的文本信息,标记各信息的发出者,并按照时间顺序形成纪录存储,且信息纪录为医用文档形式。
并且,采集语音使用者的语音并翻译为文本信息可采用本领域现有的语音识别模块、方法实现,也可以采用如下方法:
采集语音使用者的语音输入信息,对语音信号进行平滑、去噪处理;
从语音输入信息中提取出语音特征信息;
匹配医患常用语音特征模型,识别出语音信息;
其中,语音特征模型通过如下方法建立:
采集大量医患常用语音信号样本,对语音信号进行平滑、去噪处理;
从语音输入信息中提取出语音特征信息;
根据医患交流常用语音特征,标定语音特征对应的语音释义;
使用深度学习算法训练语音特征信息与语音释义对应的语音特征模型。
以上仅是本发明的优选实施方式,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种手语翻译方法,其特征在于,包括如下步骤:
(1)获取手语动作的RGB-D图像;
(2)提取出RGB-D图像中的手势特征信息,所述手势特征信息为手部各关节点在各时刻的特征旋转矩阵;
(3)将手势特征信息与预设的手势特征翻译模型进行匹配;
(4)将手势特征翻译模型匹配的手语释义按照时间序列组合作为翻译结果。
2.根据权利要求1所述的手语翻译方法,其特征在于,步骤(3)中所述预设的手势特征翻译模型通过如下方法建立:
(3.1)获取大量手语的RGB-D图像样本;
(3.2)提取出RGB-D图像样本中的手势特征信息;
(3.3)标定手势特征信息对应的手语释义;
(3.4)使用深度学习算法训练手势特征信息与手语释义对应的手势特征翻译模型。
3.一种基于MR的手语-语音交互方法,其特征在于,包括:
采集手语使用者手语的RGB-D图像,使用权利要求1或2的手语翻译方法进行翻译;
采集语音使用者的语音并翻译为文本信息;
构建虚拟场景,建立手语使用者及语音使用者的虚拟人物模型;
虚拟场景中手语使用者的虚拟人物模型将手语释义朗读为音频,语音使用者的虚拟人物模型将语音释义对应的手语动作进行演示。
4.根据权利要求3所述的基于MR的手语-语音交互方法,其特征在于,所述建立手语使用者及语音使用者的虚拟人物模型的方法为:
采集使用者的RGB-D图像,建立使用者的彩色点云模型;
使用TSDF方法进行模型表面重建和平滑,完成虚拟人物的建立。
5.根据权利要求3所述的基于MR的手语-语音交互方法,其特征在于,所述构建虚拟场景为构建平面虚拟场景或构建3D虚拟场景;构建3D虚拟场景的方法为:采集选定场景的RGB-D图像,获取R GB-D图像的3D点云信息,利用3D点云信息建立各使用者视角的MR虚拟场景。
6.根据权利要求3所述的基于MR的手语-语音交互方法,其特征在于,所述语音使用者的虚拟人物模型将语音释义对应的手语动作进行演示的方法为:
制作各会话语句对应手语动作的视频模型;
获取虚拟人物模型的头像模型并将其设置在手语动作的视频模型中。
7.根据权利要求3所述的基于MR的手语-语音交互方法,其特征在于,语音使用者可选择是否键入文字以校正由语音翻译的文本信息;语音使用者可选择是否直接键入文字以替代语音翻译。
8.根据权利要求3所述的基于MR的手语-语音交互方法,其特征在于,还包括:采集交互过程中手语翻译得到的手语释义信息和语音翻译得到的文本信息,标记各信息的发出者,并按照时间顺序形成纪录存储。
9.一种基于MR的手语-语音交互系统,其特征在于,包括处理终端以及与之通信连接的手语使用者客户端及语音使用者客户端;
所述手语使用者客户端包括用于获取手语动作的RGB-D图像的3D体感摄像头、用于显示的显示器;
语音使用者客户端包括用于采集语音的麦克风、用于播放语音的扬声器、用于显示的显示器;
所述处理模块用于构建虚拟场景,建立手语使用者及语音使用者的虚拟人物模型、翻译手语使用者客户端的手语动作并传输至语音使用者客户端播放翻译后朗读的音频、采集语音使用者的语音并翻译为文本信息、生成语音使用者虚拟人物模型将语音释义对应的手语动作进行演示的画面并传输至语音使用者客户端显示。
10.根据权利要求9所述的基于MR的手语-语音交互系统,其特征在于,还包括3D场景摄像头,用于为构建虚拟场景采集选定场景的RGB-D图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910869132.0A CN110728191A (zh) | 2019-09-16 | 2019-09-16 | 手语翻译方法、基于mr的手语-语音交互方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910869132.0A CN110728191A (zh) | 2019-09-16 | 2019-09-16 | 手语翻译方法、基于mr的手语-语音交互方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110728191A true CN110728191A (zh) | 2020-01-24 |
Family
ID=69219039
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910869132.0A Pending CN110728191A (zh) | 2019-09-16 | 2019-09-16 | 手语翻译方法、基于mr的手语-语音交互方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110728191A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368800A (zh) * | 2020-03-27 | 2020-07-03 | 中国工商银行股份有限公司 | 手势识别方法及装置 |
CN111582039A (zh) * | 2020-04-13 | 2020-08-25 | 清华大学 | 基于深度学习与大数据的手语识别与转换系统及方法 |
CN112329451A (zh) * | 2020-12-03 | 2021-02-05 | 云知声智能科技股份有限公司 | 手语动作视频生成方法、装置、设备及存储介质 |
CN112927819A (zh) * | 2021-02-02 | 2021-06-08 | 杭州云嘉健康管理有限公司 | 一种5g云诊室系统 |
CN113379879A (zh) * | 2021-06-24 | 2021-09-10 | 北京百度网讯科技有限公司 | 交互方法、装置、设备、存储介质以及计算机程序产品 |
CN113496168A (zh) * | 2020-04-02 | 2021-10-12 | 百度在线网络技术(北京)有限公司 | 手语数据采集方法、设备、存储介质 |
CN113780013A (zh) * | 2021-07-30 | 2021-12-10 | 阿里巴巴(中国)有限公司 | 一种翻译方法、设备和可读介质 |
CN113835522A (zh) * | 2021-09-10 | 2021-12-24 | 阿里巴巴达摩院(杭州)科技有限公司 | 手语视频生成、翻译、客服方法、设备和可读介质 |
CN115019385A (zh) * | 2021-05-09 | 2022-09-06 | 北京福乐云数据科技有限公司 | 通过手语交流的人工智能医务系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103530619A (zh) * | 2013-10-29 | 2014-01-22 | 北京交通大学 | 基于rgb-d数据构成的少量训练样本的手势识别方法 |
CN108427910A (zh) * | 2018-01-30 | 2018-08-21 | 浙江凡聚科技有限公司 | 深层神经网络ar手语翻译学习方法、客户端及服务器 |
CN108492356A (zh) * | 2017-02-13 | 2018-09-04 | 苏州宝时得电动工具有限公司 | 增强现实系统及其控制方法 |
CN108615009A (zh) * | 2018-04-24 | 2018-10-02 | 山东师范大学 | 一种基于动态手势识别的手语翻译交流系统 |
CN108960158A (zh) * | 2018-07-09 | 2018-12-07 | 珠海格力电器股份有限公司 | 一种智能手语翻译的系统和方法 |
-
2019
- 2019-09-16 CN CN201910869132.0A patent/CN110728191A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103530619A (zh) * | 2013-10-29 | 2014-01-22 | 北京交通大学 | 基于rgb-d数据构成的少量训练样本的手势识别方法 |
CN108492356A (zh) * | 2017-02-13 | 2018-09-04 | 苏州宝时得电动工具有限公司 | 增强现实系统及其控制方法 |
CN108427910A (zh) * | 2018-01-30 | 2018-08-21 | 浙江凡聚科技有限公司 | 深层神经网络ar手语翻译学习方法、客户端及服务器 |
CN108615009A (zh) * | 2018-04-24 | 2018-10-02 | 山东师范大学 | 一种基于动态手势识别的手语翻译交流系统 |
CN108960158A (zh) * | 2018-07-09 | 2018-12-07 | 珠海格力电器股份有限公司 | 一种智能手语翻译的系统和方法 |
Non-Patent Citations (2)
Title |
---|
李务军 等: "基于Kinect深度图像的三维重建", 《微型机与应用》 * |
高晶晶: "基于RGB-D图像的3D手势识别方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368800A (zh) * | 2020-03-27 | 2020-07-03 | 中国工商银行股份有限公司 | 手势识别方法及装置 |
CN111368800B (zh) * | 2020-03-27 | 2023-11-28 | 中国工商银行股份有限公司 | 手势识别方法及装置 |
CN113496168A (zh) * | 2020-04-02 | 2021-10-12 | 百度在线网络技术(北京)有限公司 | 手语数据采集方法、设备、存储介质 |
CN111582039B (zh) * | 2020-04-13 | 2022-12-02 | 清华大学 | 基于深度学习与大数据的手语识别与转换系统及方法 |
CN111582039A (zh) * | 2020-04-13 | 2020-08-25 | 清华大学 | 基于深度学习与大数据的手语识别与转换系统及方法 |
CN112329451A (zh) * | 2020-12-03 | 2021-02-05 | 云知声智能科技股份有限公司 | 手语动作视频生成方法、装置、设备及存储介质 |
CN112329451B (zh) * | 2020-12-03 | 2024-02-02 | 云知声智能科技股份有限公司 | 手语动作视频生成方法、装置、设备及存储介质 |
CN112927819A (zh) * | 2021-02-02 | 2021-06-08 | 杭州云嘉健康管理有限公司 | 一种5g云诊室系统 |
CN115019385A (zh) * | 2021-05-09 | 2022-09-06 | 北京福乐云数据科技有限公司 | 通过手语交流的人工智能医务系统 |
CN115019385B (zh) * | 2021-05-09 | 2023-01-06 | 北京福乐云数据科技有限公司 | 通过手语交流的人工智能医务系统 |
CN113379879A (zh) * | 2021-06-24 | 2021-09-10 | 北京百度网讯科技有限公司 | 交互方法、装置、设备、存储介质以及计算机程序产品 |
CN113780013A (zh) * | 2021-07-30 | 2021-12-10 | 阿里巴巴(中国)有限公司 | 一种翻译方法、设备和可读介质 |
CN113835522A (zh) * | 2021-09-10 | 2021-12-24 | 阿里巴巴达摩院(杭州)科技有限公司 | 手语视频生成、翻译、客服方法、设备和可读介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110728191A (zh) | 手语翻译方法、基于mr的手语-语音交互方法及系统 | |
US11736756B2 (en) | Producing realistic body movement using body images | |
CN110968736B (zh) | 视频生成方法、装置、电子设备及存储介质 | |
US6801663B2 (en) | Method and apparatus for producing communication data, method and apparatus for reproducing communication data, and program storage medium | |
US7764828B2 (en) | Method, apparatus, and computer program for processing image | |
EP3096208A1 (en) | Image processing for head mounted display devices | |
CN108427910B (zh) | 深层神经网络ar手语翻译学习方法、客户端及服务器 | |
WO2020082566A1 (zh) | 基于生物识别的远程教学方法、装置、设备及存储介质 | |
US20100159430A1 (en) | Educational system and method using virtual reality | |
CN110418095B (zh) | 虚拟场景的处理方法、装置、电子设备及存储介质 | |
CN110213521A (zh) | 一种虚拟即时通信方法 | |
CN102859991A (zh) | 实时剪切视频序列中记录的真实实体的方法 | |
CN108388889B (zh) | 用于分析人脸图像的方法和装置 | |
CN110401810A (zh) | 虚拟画面的处理方法、装置、系统、电子设备及存储介质 | |
WO2017003031A1 (ko) | 감성 아바타 이모티콘 기반의 초경량 데이터 애니메이션 방식 제공 방법, 그리고 이를 구현하기 위한 감성 아바타 이모티콘 제공 단말장치 | |
CN110717344A (zh) | 基于智能可穿戴设备的辅助交流系统 | |
CN106875478A (zh) | 体验手机3d效果的ar装置 | |
CN113110733A (zh) | 一种基于远程双工的虚拟现场交互方法及系统 | |
CN112967193A (zh) | 图像校准方法及装置、计算机可读介质和电子设备 | |
WO2020119518A1 (zh) | 一种基于人工视网膜空间感知的控制方法及装置 | |
Mandolini | Transmediality against transphobia: the politics of transsexual self-portraiture in Fumettibrutti’s work between comics and photography | |
CN112330579A (zh) | 视频背景更换方法、装置、计算机设备及计算机可读介质 | |
WO2022151687A1 (zh) | 合影图像生成方法、装置、设备、存储介质、计算机程序及产品 | |
CN108805951B (zh) | 一种投影图像处理方法、装置、终端和存储介质 | |
KR101998037B1 (ko) | 증강현실 기반의 심리유형 분석 방법 및 스마트 기기 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200124 |