CN110460833A - 一种ar眼镜与智能手机互联方法及系统 - Google Patents
一种ar眼镜与智能手机互联方法及系统 Download PDFInfo
- Publication number
- CN110460833A CN110460833A CN201910655294.4A CN201910655294A CN110460833A CN 110460833 A CN110460833 A CN 110460833A CN 201910655294 A CN201910655294 A CN 201910655294A CN 110460833 A CN110460833 A CN 110460833A
- Authority
- CN
- China
- Prior art keywords
- glasses
- smart phone
- video data
- data
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Abstract
本发明公开了一种AR眼镜与智能手机互联方法及系统,所述方法包括AR眼镜采集视频数据,并对所述视频数据进行预处理、AI识别处理,生成状态数据和控制数据,并传输至智能手机,智能手机根据所述视频数据、所述状态数据以及所述控制数据进行三维虚拟定位和渲染生成三维视频数据并传输至所述AR眼镜,所述AR眼镜根据所述三维视频数据产生三维投影。本发明中通过AR眼镜采集视频数据,并对所述视频数据进行预处理、AI识别处理,生成状态数据和控制数据,并传输至智能手机,将解决普通手机无法进行高速AI计算的问题,大大提升AR眼镜系统的便携体验。
Description
技术领域
本发明涉及计算机图形技术领域,尤其是涉及一种AR眼镜与智能手机互联方法及系统。
背景技术
增强现实(Augmented Reality,简称AR),是一种实时地计算摄影机影像的位置及角度并加上相应图像的技术,是一种将真实世界信息和虚拟世界信息“无缝”集成的新技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。
随着科技/网络技术的发展/随着人生活水平的提高,AR技术得到广泛应用和长足发展。AR眼镜属于眼镜+摄像头+微处理器+微型投影设备的结合体,可以将虚拟数据叠加到由摄像头采集到的实时图像中,并通过微型投影设备在人体眼球前进行画面展示,从而可以实现多种应用功能。
现有的AR眼镜功能单一、应用场景有限、能够应用于AR眼镜的应用软件有限,导致AR眼镜无法进一步普及。而智能手机应用方式多种多样,如何使智能手机与AR眼镜联动使用,让用户体会到AR技术带来的快感显得尤为重要,另外普通智能手机无法进行AI识别,进一步制约了AR眼镜与智能手机的搭配应用。
发明内容
本发明旨在至少在一定程度上解决相关记述中的技术问题之一。为此,本发明的一个目的是提供一种AR眼镜与智能手机互联方法及系统。
本发明所采用的技术方案是:
第一方面,本发明提供一种AR眼镜与智能手机互联方法,包括以下步骤:
AR眼镜采集视频数据,并对所述视频数据进行预处理、AI识别处理,生成状态数据和控制数据,并传输至智能手机,智能手机根据所述视频数据、所述状态数据以及所述控制数据进行三维虚拟定位和渲染生成三维视频数据并传输至所述AR眼镜,所述AR眼镜根据所述三维视频数据产生三维投影。
进一步地,对所述视频数据进行AI识别处理具体包括:对所述数据进行对象识别跟踪、三维姿态分析以及语音识别。
进一步地,对所述数据进行对象识别跟踪包括:
深度识别网络识别目标的特征,计算各个所述目标的置信度;
获取置信度最高的目标特征对应的目标在图像中的位置,利用深度跟踪网络算法对所述目标所在的位置进行跟踪。
进一步地,对所述视频数据进行三维姿态分析具体包括:
将所述视频数据作为输入,通过单次深度CNN架构,检测3D边界框顶点的2D投影,通过深度学习预测物体3D边界框投影的2D位置,以PnP(Perspective-n-Point)方法扩展到6D姿态评估。
进一步地,所述预处理包括:对图像数据进行降噪处理,对音频数据进行音频降噪处理以及ADPCM压缩。
另一方面,本发明还提供了一种AR眼镜与智能手机互联系统,包括:
AR眼镜,用于采集视频数据,并对所述视频数据进行预处理、AI识别处理,生成状态数据和控制数据,并传输至智能手机,根据智能手机传输的三维视频数据产生三维投影;
智能手机,用于根据所述视频数据、所述状态数据以及所述控制数据进行三维虚拟定位和渲染生成三维视频数据并传输至所述AR眼镜。
进一步地,所述AR眼镜包括:对象识别跟踪模块,用于深度识别网络识别目标的特征,计算各个所述目标的置信度;获取置信度最高的目标特征对应的目标在图像中的位置,利用深度跟踪网络算法对所述目标所在的位置进行跟踪。
进一步地,所述AR眼镜包括三维姿态分析模块,用于将所述视频数据作为输入,通过单次深度CNN架构,检测3D边界框顶点的2D投影,通过深度学习预测物体3D边界框投影的2D位置,以PnP(Perspective-n-Point)方法扩展到6D姿态评估。
进一步地,所述AR眼镜包括语音识别模块,用于语音命令控制和输入。
进一步地,所述AR眼镜包括预处理模块,用于对图像数据进行降噪处理,对音频数据进行音频降噪处理以及ADPCM压缩。
本发明的有益效果是:
本发明中通过AR眼镜采集视频数据,并对所述视频数据进行预处理、AI识别处理,生成状态数据和控制数据,并传输至智能手机,将解决普通手机无法进行高速AI计算的问题,大大提升AR眼镜系统的便携体验。
附图说明
图1是AR眼镜与智能手机互联方法一具体实施例的流程图;
图2是AR眼镜与智能手机互联方法中对象识别跟踪的一具体实施例的流程图;
图3是AR眼镜与智能手机互联系统的结构示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
一种AR眼镜与智能手机互联方法,包括以下步骤:
AR眼镜采集视频数据,并对视频数据进行预处理、AI识别处理,生成状态数据和控制数据,并传输至智能手机,智能手机根据视频数据、状态数据以及控制数据进行三维虚拟定位和渲染生成三维视频数据并传输至AR眼镜,AR眼镜根据三维视频数据产生三维投影。优选地,对视频数据进行AI识别处理具体包括:对数据进行对象识别跟踪、三维姿态分析以及语音识别。
实施例1
如图1,其示出了一种AR眼镜与智能手机互联方法的一具体流程步骤,
对数据进行对象识别跟踪包括:深度识别网络识别目标的特征,计算各个目标的置信度;获取置信度最高的目标特征对应的目标在图像中的位置,利用深度跟踪网络算法对目标所在的位置进行跟踪。
通过AR眼镜上的相机单元采集外部环境中的视频图像数据,通过使用NLM降噪算法完成图像数据预处理;同时对麦克风语音单元采集的音频数据,使用Wavelet Denoise算法,进行音频降噪处理以及ADPCM压缩,经USB-C数据线传输至AI识别处理单元。AI识别处理单元使用AI深度学习视频处理模块,进行对象识别、跟踪及三维姿态分析,也可以通过手势识别进行命令控制和输入;同时也使用AI深度学习语音识别模块,进行语音命令控制和输入。AI识别处理单元只有少量状态和控制数据传输到手机,这样可以将解决普通手机无法进行高速AI计算的问题,大大提升AR眼镜系统的便携体验。
优选的,对视频数据进行三维姿态分析具体包括:
(1)CNN网络架构;
(2)具有四个对象的示例输入图像;
(3)S x S网格显示负责检测四个对象的单元格;
(4)每个单元预测图像中投影的3D边界框角点的2D位置;
(5)网络3D输出张量为每个单元声明了其2D角点的位置、识别类型概率和与预测相关联的置信度组成的向量值。
将视频数据作为输入,通过单次深度CNN架构,检测3D边界框顶点的2D投影,通过深度学习预测物体3D边界框投影的2D位置,以PnP(Perspective-n-Point)方法扩展到6D姿态评估。
优选地,预处理包括:对图像数据进行降噪处理,对音频数据进行音频降噪处理以及ADPCM压缩。
优选的,对数据进行对象识别跟踪包括:
深度识别网络识别目标的特征,计算各个目标的置信度;
获取置信度最高的目标特征对应的目标在图像中的位置,利用深度跟踪网络算法对目标所在的位置进行跟踪。
如图2所示,其示出了对象识别跟踪的具体流程步骤
AR眼镜采集外部的视频和图像数据,深度识别网络识别目标的特征,计算各目标的置信度,当置信度大于置信度阈值时,判断大于置信度阈值的目标特征对应的个数N,当N大于1时,按照置信度的降序进行排列,选取最高置信度所对应的目标特征,当N等于1时,获取目标特征在图像中的位置,利用深度跟踪网络算法对目标所在的位置进行跟踪,当跟踪的目标丢失时,产生目标丢失的跟踪位,每间隔预设帧数,当跟踪的目标没有丢失时,对跟踪时间t进行判断,t小于阈值t1时,确定目标为跟踪物体,t大于或等于阈值t1时,继续深度识别网络识别目标特征。
如图3本发明还提供了一种AR眼镜与智能手机互联系统,包括:
AR眼镜,用于采集视频数据,并对视频数据进行预处理、AI识别处理,生成状态数据和控制数据,并传输至智能手机,根据智能手机传输的三维视频数据产生三维投影;
智能手机,用于根据视频数据、状态数据以及控制数据进行三维虚拟定位和渲染生成三维视频数据并传输至AR眼镜。
优选的,AR眼镜包括:对象识别跟踪模块,用于深度识别网络识别目标的特征,计算各个目标的置信度;
获取置信度最高的目标特征对应的目标在图像中的位置,利用深度跟踪网络算法对目标所在的位置进行跟踪。
优选的,AR眼镜包括三维姿态分析模块,用于将视频数据作为输入,通过单次深度CNN架构,检测3D边界框顶点的2D投影,通过深度学习预测物体3D边界框投影的2D位置,以PnP(Perspective-n-Point)方法扩展到6D姿态评估。
优选的,AR眼镜包括语音识别模块,用于语音命令控制和输入。
优选的,AR眼镜包括预处理模块,用于对图像数据进行降噪处理,对音频数据进行音频降噪处理以及ADPCM压缩。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (10)
1.一种AR眼镜与智能手机互联方法,其特征在于,包括以下步骤:
AR眼镜采集视频数据,并对所述视频数据进行预处理、AI识别处理,生成状态数据和控制数据,并传输至智能手机,智能手机根据所述视频数据、所述状态数据以及所述控制数据进行三维虚拟定位和渲染生成三维视频数据并传输至所述AR眼镜,所述AR眼镜根据所述三维视频数据产生三维投影。
2.根据权利要求1所述的AR眼镜与智能手机互联方法,其特征在于,对所述视频数据进行AI识别处理具体包括:对所述数据进行对象识别跟踪、三维姿态分析以及语音识别。
3.根据权利要求2所述的AR眼镜与智能手机互联方法,其特征在于,对所述数据进行对象识别跟踪包括:
深度识别网络识别目标的特征,计算各个所述目标的置信度;
获取置信度最高的目标特征对应的目标在图像中的位置,利用深度跟踪网络算法对所述目标所在的位置进行跟踪。
4.根据权利要求2所述的AR眼镜与智能手机互联方法,其特征在于,对所述视频数据进行三维姿态分析具体包括:
将所述视频数据作为输入,通过单次深度CNN架构,检测3D边界框顶点的2D投影,通过深度学习预测物体3D边界框投影的2D位置,以PnP(Perspective-n-Point)方法扩展到6D姿态评估。
5.根据权利要求1所述的AR眼镜与智能手机互联方法,其特征在于,所述预处理包括:对图像数据进行降噪处理,对音频数据进行音频降噪处理以及ADPCM压缩。
6.一种AR眼镜与智能手机互联系统,其特征在于,包括:
AR眼镜,用于采集视频数据,并对所述视频数据进行预处理、AI识别处理,生成状态数据和控制数据,并传输至智能手机,根据智能手机传输的三维视频数据产生三维投影;
智能手机,用于根据所述视频数据、所述状态数据以及所述控制数据进行三维虚拟定位和渲染生成三维视频数据并传输至所述AR眼镜。
7.根据权利要求6所述的AR眼镜与智能手机互联系统,其特征在于,所述AR眼镜包括:对象识别跟踪模块,用于深度识别网络识别目标的特征,计算各个所述目标的置信度;获取置信度最高的目标特征对应的目标在图像中的位置,利用深度跟踪网络算法对所述目标所在的位置进行跟踪。
8.根据权利要求6所述的AR眼镜与智能手机互联系统,其特征在于,所述AR眼镜包括三维姿态分析模块,用于将所述视频数据作为输入,通过单次深度CNN架构,检测3D边界框顶点的2D投影,通过深度学习预测物体3D边界框投影的2D位置,以PnP(Perspective-n-Point)方法扩展到6D姿态评估。
9.根据权利要求6所述的AR眼镜与智能手机互联系统,其特征在于,所述AR眼镜包括语音识别模块,用于语音命令控制和输入。
10.根据权利要求6所述的AR眼镜与智能手机互联系统,其特征在于,所述AR眼镜包括预处理模块,用于对图像数据进行降噪处理,对音频数据进行音频降噪处理以及ADPCM压缩。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910655294.4A CN110460833A (zh) | 2019-07-19 | 2019-07-19 | 一种ar眼镜与智能手机互联方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910655294.4A CN110460833A (zh) | 2019-07-19 | 2019-07-19 | 一种ar眼镜与智能手机互联方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110460833A true CN110460833A (zh) | 2019-11-15 |
Family
ID=68481579
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910655294.4A Pending CN110460833A (zh) | 2019-07-19 | 2019-07-19 | 一种ar眼镜与智能手机互联方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110460833A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112230536A (zh) * | 2020-10-30 | 2021-01-15 | 山东新一代信息产业技术研究院有限公司 | 一种基于5g的智能手表和ar眼镜结合的穿戴设备 |
EP4123444A4 (en) * | 2020-05-18 | 2023-11-15 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | METHOD AND DEVICE FOR PROCESSING VOICE INFORMATION AS WELL AS STORAGE MEDIUM AND ELECTRONIC DEVICE |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104898276A (zh) * | 2014-12-26 | 2015-09-09 | 成都理想境界科技有限公司 | 头戴式显示装置 |
CN106773063A (zh) * | 2017-03-03 | 2017-05-31 | 深圳增强现实技术有限公司 | 能够适配多种主机的增强现实智能眼镜及方法 |
CN107016704A (zh) * | 2017-03-09 | 2017-08-04 | 杭州电子科技大学 | 一种基于增强现实的虚拟现实实现方法 |
US20180061137A1 (en) * | 2016-08-30 | 2018-03-01 | Lg Electronics Inc. | Mobile terminal and method of operating thereof |
CN108564601A (zh) * | 2018-05-07 | 2018-09-21 | 北京禾泽方圆智能科技有限公司 | 一种基于深度学习算法的果实识别跟踪方法和系统 |
CN109887003A (zh) * | 2019-01-23 | 2019-06-14 | 亮风台(上海)信息科技有限公司 | 一种用于进行三维跟踪初始化的方法与设备 |
CN109905572A (zh) * | 2017-12-07 | 2019-06-18 | 深圳纬目信息技术有限公司 | 一种无线传输的ar系统 |
-
2019
- 2019-07-19 CN CN201910655294.4A patent/CN110460833A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104898276A (zh) * | 2014-12-26 | 2015-09-09 | 成都理想境界科技有限公司 | 头戴式显示装置 |
US20180061137A1 (en) * | 2016-08-30 | 2018-03-01 | Lg Electronics Inc. | Mobile terminal and method of operating thereof |
CN106773063A (zh) * | 2017-03-03 | 2017-05-31 | 深圳增强现实技术有限公司 | 能够适配多种主机的增强现实智能眼镜及方法 |
CN107016704A (zh) * | 2017-03-09 | 2017-08-04 | 杭州电子科技大学 | 一种基于增强现实的虚拟现实实现方法 |
CN109905572A (zh) * | 2017-12-07 | 2019-06-18 | 深圳纬目信息技术有限公司 | 一种无线传输的ar系统 |
CN108564601A (zh) * | 2018-05-07 | 2018-09-21 | 北京禾泽方圆智能科技有限公司 | 一种基于深度学习算法的果实识别跟踪方法和系统 |
CN109887003A (zh) * | 2019-01-23 | 2019-06-14 | 亮风台(上海)信息科技有限公司 | 一种用于进行三维跟踪初始化的方法与设备 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4123444A4 (en) * | 2020-05-18 | 2023-11-15 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | METHOD AND DEVICE FOR PROCESSING VOICE INFORMATION AS WELL AS STORAGE MEDIUM AND ELECTRONIC DEVICE |
CN112230536A (zh) * | 2020-10-30 | 2021-01-15 | 山东新一代信息产业技术研究院有限公司 | 一种基于5g的智能手表和ar眼镜结合的穿戴设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11960651B2 (en) | Gesture-based shared AR session creation | |
US10460512B2 (en) | 3D skeletonization using truncated epipolar lines | |
KR100720309B1 (ko) | 자동 3차원 모델링 시스템 및 방법 | |
CN110221690A (zh) | 基于ar场景的手势交互方法及装置、存储介质、通信终端 | |
US20130328763A1 (en) | Multiple sensor gesture recognition | |
CN109215102B (zh) | 影像处理方法及系统 | |
CN105959718A (zh) | 一种视频直播中实时互动的方法及装置 | |
JP2011159329A (ja) | 自動3dモデリングシステム及び方法 | |
CN112348937A (zh) | 人脸图像处理方法及电子设备 | |
CN110460833A (zh) | 一种ar眼镜与智能手机互联方法及系统 | |
CN115909015A (zh) | 一种可形变神经辐射场网络的构建方法和装置 | |
US11615506B2 (en) | Dynamic over-rendering in late-warping | |
CN115049016A (zh) | 基于情绪识别的模型驱动方法及设备 | |
US20240029197A1 (en) | Dynamic over-rendering in late-warping | |
US20210073429A1 (en) | Object Relationship Estimation From A 3D Semantic Mesh | |
US11335023B2 (en) | Human pose estimation using neural networks and kinematic structure | |
US11978248B1 (en) | Scene graph-based scene re-identification | |
CN115359166B (zh) | 一种图像生成方法、装置、电子设备和介质 | |
US20230199297A1 (en) | Selectively using sensors for contextual data | |
CN111104470A (zh) | 一种电子沙盘和应急平台联动的方法和系统 | |
US20230046337A1 (en) | Digital assistant reference resolution | |
CN116958328A (zh) | 口型合成方法、装置、设备及存储介质 | |
CN116863003A (zh) | 视频生成方法、训练视频生成模型的方法及装置 | |
CN116524129A (zh) | 用户虚拟形象生成方法、系统、电子设备及可读存储介质 | |
TW202314646A (zh) | 數位服裝產生 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191115 |
|
RJ01 | Rejection of invention patent application after publication |