CN113687715A - 基于计算机视觉的人机交互系统及交互方法 - Google Patents

基于计算机视觉的人机交互系统及交互方法 Download PDF

Info

Publication number
CN113687715A
CN113687715A CN202110821512.4A CN202110821512A CN113687715A CN 113687715 A CN113687715 A CN 113687715A CN 202110821512 A CN202110821512 A CN 202110821512A CN 113687715 A CN113687715 A CN 113687715A
Authority
CN
China
Prior art keywords
human
image
computer
computer interaction
interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110821512.4A
Other languages
English (en)
Inventor
胡铸鑫
何涛
李美琴
金新元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wenzhou University
Original Assignee
Wenzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wenzhou University filed Critical Wenzhou University
Priority to CN202110821512.4A priority Critical patent/CN113687715A/zh
Publication of CN113687715A publication Critical patent/CN113687715A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于计算机视觉的人机交互系统及交互方法,属于人机交互技术领域,包括图像获取与处理模块、图像匹配模块以及摄像机定标与空间定位模块;其中,图像获取与处理模块,用于获取目标交互对象的体型视频数据;其中,图像匹配模块,用于将数据参数与预设的交互数据库进行特征匹配;其中,摄像机定标与空间定位模块,用于对摄像机和目标交互对象在人机交互界面进行位置定位。该基于计算机视觉的人机交互系统,通过对目标交互对象的特征量进行计算分析,并对图像特征量进行相似度匹配,对目标交互对象的头和脸部进行跟踪、脸部表情分析、眼睛注视跟踪、身体跟踪、手跟踪,用于保证对目标交互对象的人机交互效果。

Description

基于计算机视觉的人机交互系统及交互方法
技术领域
本发明属于人机交互技术领域,具体为一种基于计算机视觉的人机交互系统及交互方法。
背景技术
目前,随着各类视频捕捉设备的快速普及,基于视觉的用户行为分析与自然交互技术的重要性也越来越突出,并可广泛应用于体感交互、AR教学演示、AR游戏场景等场合中。利用AR技术通过手机、游戏机、运动眼镜、游戏头盔等媒介在现实环境下展示出来,AR技术从位置服务、图像识别两个方面实现了人机交互,AR技术在形式上的重大突破给用户带来了全新的交互体验。
现有技术中,在对目标交互对象进行图像捕捉时,人机交互系统对目标交互对象的位置以及目标交互对象的形态、脸部表情还原效果不佳,降低了用户的交互体验。
发明内容
针对现有技术的不足,本发明提供了一种基于计算机视觉的人机交互系统及交互方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:一种基于计算机视觉的人机交互系统,包括图像获取与处理模块、图像匹配模块以及摄像机定标与空间定位模块;
其中,图像获取与处理模块,用于获取目标交互对象的体型视频数据;
其中,图像匹配模块,用于将数据参数与预设的交互数据库进行特征匹配,根据图像特征量判断人机交互的优先级对象;
其中,摄像机定标与空间定位模块,采用摄像机标定算法确定摄像机和目标交互对象的3D位置,用于对摄像机和目标交互对象在人机交互界面进行位置定位。
进一步优化本技术方案,所述基于计算机视觉的人机交互系统基于开源的跨平台计算机视觉和机器学习软件库进行构建,所述基于计算机视觉的人机交互系统可以运行Linux、Windows、Android和Mac OS操作系统。
进一步优化本技术方案,所述图像获取与处理模块包括图像的获取以及图像的处理,图像获取与处理模块通过对摄像机采集到的目标交互对象的体型视频数据进行获取,并利用图像处理技术对目标交互对象的体型特征嵌入到虚拟的人机交互系统的界面中,实现人机交互。
进一步优化本技术方案,所述图像获取与处理模块中图像的处理包括图像预处理功能、图像分割边缘检测功能、特征提取功能以及特征量计算获取功能,用以保证目标交互对象的体型视频数据经处理后还原到人机交互系统的界面中。
进一步优化本技术方案,所述图像的特征量在于建模、识别和解释人的实时行为动作,特征量的计算包括人脸检测和定位、人脸识别、头和脸部的跟踪、脸部表情分析、眼睛注视跟踪、身体跟踪、手跟踪、步态识别以及姿势、手势和活动识别,用于保证对目标交互对象的人机交互效果。
进一步优化本技术方案,所述图像匹配模块在根据图像特征量判断人机交互的优先级对象时,优先级最高到低可以选择的排列方式为人脸特征识别、步态以及姿势识别、周围环境识别。
一种基于计算机视觉的人机交互方法,基于上述的基于计算机视觉的人机交互系统进行操作,包括以下具体步骤:
S1、启动交互程序,用于图像采集的摄像机设备进行初始化;
S2、在基准点的位置上摄取图像的信息;
S3、对图像的信息进行获取和处理;
S4、在基准点的两侧同时摄取目标交互对象的图像;
S5、对两侧摄取的目标交互对象的图像信息进行获取和处理;
S6、利用图像匹配模块对两图像中特征点进行匹配;
S7、对人机交互系统界面的空间三维进行重建和定位;
S8、再次对目标交互对象的图像信息进行摄取;
S9、完成人机交互工作。
进一步优化本技术方案,所述S6中,若两图像中的特征点匹配一致,则无需进行步骤S7的重新定位工作。
进一步优化本技术方案,所述S7中,根据重建和定位的工作参数,系统产生对应的调试指令并由用户人工对摄像机的安装位置进行调整。
与现有技术相比,本发明提供了一种基于计算机视觉的人机交互系统及交互方法,具备以下有益效果:
1、该基于计算机视觉的人机交互系统,通过对目标交互对象的特征量进行计算分析,并对图像特征量进行相似度匹配,对目标交互对象的头和脸部进行跟踪、脸部表情分析、眼睛注视跟踪、身体跟踪、手跟踪、步态识别以及姿势、手势和活动识别,用于保证对目标交互对象的人机交互效果。
2、该基于计算机视觉的人机交互方法,通过对用于图像采集的摄像机的基准点进行调试,建立人机交互界面的三维空间,确定摄像机和目标交互对象的3D位置,将目标交互对象在人机交互界面的三维空间进行交互还原,保证了用户在进行人机交互时良好的体验效果。
附图说明
图1为本发明提出的一种基于计算机视觉的人机交互系统的结构示意图;
图2为本发明提出的一种基于计算机视觉的人机交互方法的流程示意图。
具体实施方式
下面将结合本发明的实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一:
请参阅图1,一种基于计算机视觉的人机交互系统,包括图像获取与处理模块、图像匹配模块以及摄像机定标与空间定位模块;
其中,图像获取与处理模块,用于获取目标交互对象的体型视频数据;
其中,图像匹配模块,用于将数据参数与预设的交互数据库进行特征匹配,根据图像特征量判断人机交互的优先级对象;
其中,摄像机定标与空间定位模块,采用摄像机标定算法确定摄像机和目标交互对象的3D位置,用于对摄像机和目标交互对象在人机交互界面进行位置定位。
具体的,所述基于计算机视觉的人机交互系统基于开源的跨平台计算机视觉和机器学习软件库进行构建,所述基于计算机视觉的人机交互系统可以运行Linux、Windows、Android和Mac OS操作系统。
具体的,所述图像获取与处理模块包括图像的获取以及图像的处理,图像获取与处理模块通过对摄像机采集到的目标交互对象的体型视频数据进行获取,并利用图像处理技术对目标交互对象的体型特征嵌入到虚拟的人机交互系统的界面中,实现人机交互。
具体的,所述图像获取与处理模块中图像的处理包括图像预处理功能、图像分割边缘检测功能、特征提取功能以及特征量计算获取功能,用以保证目标交互对象的体型视频数据经处理后还原到人机交互系统的界面中。
具体的,所述图像的特征量在于建模、识别和解释人的实时行为动作,特征量的计算包括人脸检测和定位、人脸识别、头和脸部的跟踪、脸部表情分析、眼睛注视跟踪、身体跟踪、手跟踪、步态识别以及姿势、手势和活动识别,用于保证对目标交互对象的人机交互效果。
具体的,所述图像匹配模块在根据图像特征量判断人机交互的优先级对象时,优先级最高到低可以选择的排列方式为人脸特征识别、步态以及姿势识别、周围环境识别。
请参阅图2,一种基于计算机视觉的人机交互方法,基于上述的基于计算机视觉的人机交互系统进行操作,包括以下具体步骤:
S1、启动交互程序,用于图像采集的摄像机设备进行初始化;
S2、在基准点的位置上摄取图像的信息;
S3、对图像的信息进行获取和处理;
S4、在基准点的两侧同时摄取目标交互对象的图像;
S5、对两侧摄取的目标交互对象的图像信息进行获取和处理;
S6、利用图像匹配模块对两图像中特征点进行匹配;
S7、对人机交互系统界面的空间三维进行重建和定位;
S8、再次对目标交互对象的图像信息进行摄取;
S9、完成人机交互工作。
具体的,所述S6中,若两图像中的特征点匹配一致,则无需进行步骤S7的重新定位工作。
具体的,所述S7中,根据重建和定位的工作参数,系统产生对应的调试指令并由用户人工对摄像机的安装位置进行调整。
实施例二:
请参阅图1,一种基于计算机视觉的人机交互系统,包括图像获取与处理模块、图像匹配模块以及摄像机定标与空间定位模块;
其中,图像获取与处理模块,用于获取目标交互对象的体型视频数据;
其中,图像匹配模块,用于将数据参数与预设的交互数据库进行特征匹配,根据图像特征量判断人机交互的优先级对象;
其中,摄像机定标与空间定位模块,采用摄像机标定算法确定摄像机和目标交互对象的3D位置,用于对摄像机和目标交互对象在人机交互界面进行位置定位。
具体的,所述基于计算机视觉的人机交互系统基于开源的跨平台计算机视觉和机器学习软件库进行构建,所述基于计算机视觉的人机交互系统可以运行Android、IOS和MacOS操作系统。
具体的,所述图像获取与处理模块包括图像的获取以及图像的处理,图像获取与处理模块通过对摄像机采集到的目标交互对象的体型视频数据进行获取,并利用图像处理技术对目标交互对象的体型特征嵌入到虚拟的人机交互系统的界面中,实现人机交互。
具体的,所述图像获取与处理模块中图像的处理包括图像预处理功能、图像分割边缘检测功能、特征提取功能以及特征量计算获取功能,用以保证目标交互对象的体型视频数据经处理后还原到人机交互系统的界面中。
具体的,所述图像的特征量在于建模、识别和解释人的实时行为动作,特征量的计算包括人脸检测和定位、人脸识别、头和脸部的跟踪、脸部表情分析、眼睛注视跟踪、身体跟踪、手跟踪、步态识别以及姿势、手势和活动识别,用于保证对目标交互对象的人机交互效果。
具体的,所述图像匹配模块在根据图像特征量判断人机交互的优先级对象时,优先级最高到低可以选择的排列方式为人脸特征识别、步态以及姿势识别、周围环境识别。
请参阅图2,一种基于计算机视觉的人机交互方法,基于上述的基于计算机视觉的人机交互系统进行操作,包括以下具体步骤:
S1、启动交互程序,用于图像采集的摄像机设备进行初始化;
S2、在基准点的位置上摄取图像的信息;
S3、对图像的信息进行获取和处理;
S4、在基准点的两侧同时摄取目标交互对象的图像;
S5、对两侧摄取的目标交互对象的图像信息进行获取和处理;
S6、利用图像匹配模块对两图像中特征点进行匹配;
S7、对人机交互系统界面的空间三维进行重建和定位;
S8、再次对目标交互对象的图像信息进行摄取;
S9、完成人机交互工作。
具体的,所述S6中,若两图像中的特征点匹配一致,则无需进行步骤S7的重新定位工作。
具体的,所述S7中,根据重建和定位的工作参数,系统产生对应的调试指令并由用户人工对摄像机的安装位置进行调整。
实施例三:
请参阅图1,一种基于计算机视觉的人机交互系统,包括图像获取与处理模块、图像匹配模块以及摄像机定标与空间定位模块;
其中,图像获取与处理模块,用于获取目标交互对象的体型视频数据;
其中,图像匹配模块,用于将数据参数与预设的交互数据库进行特征匹配,根据图像特征量判断人机交互的优先级对象;
其中,摄像机定标与空间定位模块,采用摄像机标定算法确定摄像机和目标交互对象的3D位置,用于对摄像机和目标交互对象在人机交互界面进行位置定位。
具体的,所述基于计算机视觉的人机交互系统基于开源的跨平台计算机视觉和机器学习软件库进行构建,所述基于计算机视觉的人机交互系统可以运行Linux、Windows操作系统。
具体的,所述图像获取与处理模块包括图像的获取以及图像的处理,图像获取与处理模块通过对摄像机采集到的目标交互对象的体型视频数据进行获取,并利用图像处理技术对目标交互对象的体型特征嵌入到虚拟的人机交互系统的界面中,实现人机交互。
具体的,所述图像获取与处理模块中图像的处理包括图像预处理功能、图像分割边缘检测功能、特征提取功能以及特征量计算获取功能,用以保证目标交互对象的体型视频数据经处理后还原到人机交互系统的界面中。
具体的,所述图像的特征量在于建模、识别和解释人的实时行为动作,特征量的计算包括人脸检测和定位、人脸识别、头和脸部的跟踪、脸部表情分析、眼睛注视跟踪、身体跟踪、手跟踪、步态识别以及姿势、手势和活动识别,用于保证对目标交互对象的人机交互效果。
具体的,所述图像匹配模块在根据图像特征量判断人机交互的优先级对象时,优先级最高到低可以选择的排列方式为人脸特征识别、步态以及姿势识别、周围环境识别。
请参阅图2,一种基于计算机视觉的人机交互方法,基于上述的基于计算机视觉的人机交互系统进行操作,包括以下具体步骤:
S1、启动交互程序,用于图像采集的摄像机设备进行初始化;
S2、在基准点的位置上摄取图像的信息;
S3、对图像的信息进行获取和处理;
S4、在基准点的两侧同时摄取目标交互对象的图像;
S5、对两侧摄取的目标交互对象的图像信息进行获取和处理;
S6、利用图像匹配模块对两图像中特征点进行匹配;
S7、对人机交互系统界面的空间三维进行重建和定位;
S8、再次对目标交互对象的图像信息进行摄取;
S9、完成人机交互工作。
具体的,所述S6中,若两图像中的特征点匹配一致,则无需进行步骤S7的重新定位工作。
具体的,所述S7中,根据重建和定位的工作参数,系统产生对应的调试指令并由用户人工对摄像机的安装位置进行调整。
本发明的有益效果是:
1、该基于计算机视觉的人机交互系统,通过对目标交互对象的特征量进行计算分析,并对图像特征量进行相似度匹配,对目标交互对象的头和脸部进行跟踪、脸部表情分析、眼睛注视跟踪、身体跟踪、手跟踪、步态识别以及姿势、手势和活动识别,用于保证对目标交互对象的人机交互效果。
2、该基于计算机视觉的人机交互方法,通过对用于图像采集的摄像机的基准点进行调试,建立人机交互界面的三维空间,确定摄像机和目标交互对象的3D位置,将目标交互对象在人机交互界面的三维空间进行交互还原,保证了用户在进行人机交互时良好的体验效果。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (9)

1.一种基于计算机视觉的人机交互系统,其特征在于,包括图像获取与处理模块、图像匹配模块以及摄像机定标与空间定位模块;
其中,图像获取与处理模块,用于获取目标交互对象的体型视频数据;
其中,图像匹配模块,用于将数据参数与预设的交互数据库进行特征匹配,根据图像特征量判断人机交互的优先级对象;
其中,摄像机定标与空间定位模块,采用摄像机标定算法确定摄像机和目标交互对象的3D位置,用于对摄像机和目标交互对象在人机交互界面进行位置定位。
2.根据权利要求1所述的一种基于计算机视觉的人机交互系统,其特征在于,所述基于计算机视觉的人机交互系统基于开源的跨平台计算机视觉和机器学习软件库进行构建,所述基于计算机视觉的人机交互系统可以运行Linux、Windows、Android和Mac OS操作系统。
3.根据权利要求1所述的一种基于计算机视觉的人机交互系统,其特征在于,所述图像获取与处理模块包括图像的获取以及图像的处理,图像获取与处理模块通过对摄像机采集到的目标交互对象的体型视频数据进行获取,并利用图像处理技术对目标交互对象的体型特征嵌入到虚拟的人机交互系统的界面中,实现人机交互。
4.根据权利要求3所述的一种基于计算机视觉的人机交互系统,其特征在于,所述图像获取与处理模块中图像的处理包括图像预处理功能、图像分割边缘检测功能、特征提取功能以及特征量计算获取功能,用以保证目标交互对象的体型视频数据经处理后还原到人机交互系统的界面中。
5.根据权利要求4所述的一种基于计算机视觉的人机交互系统,其特征在于,所述图像的特征量在于建模、识别和解释人的实时行为动作,特征量的计算包括人脸检测和定位、人脸识别、头和脸部的跟踪、脸部表情分析、眼睛注视跟踪、身体跟踪、手跟踪、步态识别以及姿势、手势和活动识别,用于保证对目标交互对象的人机交互效果。
6.根据权利要求1所述的一种基于计算机视觉的人机交互系统,其特征在于,所述图像匹配模块在根据图像特征量判断人机交互的优先级对象时,优先级最高到低可以选择的排列方式为人脸特征识别、步态以及姿势识别、周围环境识别。
7.一种基于计算机视觉的人机交互方法,基于权利要求1-6所述的基于计算机视觉的人机交互系统进行操作,其特征在于,包括以下具体步骤:
S1、启动交互程序,用于图像采集的摄像机设备进行初始化;
S2、在基准点的位置上摄取图像的信息;
S3、对图像的信息进行获取和处理;
S4、在基准点的两侧同时摄取目标交互对象的图像;
S5、对两侧摄取的目标交互对象的图像信息进行获取和处理;
S6、利用图像匹配模块对两图像中特征点进行匹配;
S7、对人机交互系统界面的空间三维进行重建和定位;
S8、再次对目标交互对象的图像信息进行摄取;
S9、完成人机交互工作。
8.根据权利要求7所述的一种基于计算机视觉的人机交互方法,其特征在于,所述S6中,若两图像中的特征点匹配一致,则无需进行步骤S7的重新定位工作。
9.根据权利要求7所述的一种基于计算机视觉的人机交互方法,其特征在于,所述S7中,根据重建和定位的工作参数,系统产生对应的调试指令并由用户人工对摄像机的安装位置进行调整。
CN202110821512.4A 2021-07-20 2021-07-20 基于计算机视觉的人机交互系统及交互方法 Pending CN113687715A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110821512.4A CN113687715A (zh) 2021-07-20 2021-07-20 基于计算机视觉的人机交互系统及交互方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110821512.4A CN113687715A (zh) 2021-07-20 2021-07-20 基于计算机视觉的人机交互系统及交互方法

Publications (1)

Publication Number Publication Date
CN113687715A true CN113687715A (zh) 2021-11-23

Family

ID=78577487

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110821512.4A Pending CN113687715A (zh) 2021-07-20 2021-07-20 基于计算机视觉的人机交互系统及交互方法

Country Status (1)

Country Link
CN (1) CN113687715A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116954383A (zh) * 2023-09-20 2023-10-27 中物联讯(北京)科技有限公司 一种基于ar的对象交互展示方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101441769A (zh) * 2008-12-11 2009-05-27 上海交通大学 单目摄像机实时视觉定位方法
CN102179048A (zh) * 2011-02-28 2011-09-14 武汉市高德电气有限公司 基于动作分解和行为分析实现实景游戏的方法
US20130063560A1 (en) * 2011-09-12 2013-03-14 Palo Alto Research Center Incorporated Combined stereo camera and stereo display interaction
US20160344928A1 (en) * 2014-11-10 2016-11-24 Sz Reach Tech Co., Ltd. Video generating method and apparatus of video generating system
CN107688390A (zh) * 2017-08-28 2018-02-13 武汉大学 一种基于体感交互设备的手势识别控制器
US20180150148A1 (en) * 2015-06-30 2018-05-31 Iview Displays (Shenzhen) Company Ltd. Handheld interactive device and projection interaction method therefor
WO2021047232A1 (zh) * 2019-09-11 2021-03-18 苏宁易购集团股份有限公司 交互行为识别方法、装置、计算机设备和存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101441769A (zh) * 2008-12-11 2009-05-27 上海交通大学 单目摄像机实时视觉定位方法
CN102179048A (zh) * 2011-02-28 2011-09-14 武汉市高德电气有限公司 基于动作分解和行为分析实现实景游戏的方法
US20130063560A1 (en) * 2011-09-12 2013-03-14 Palo Alto Research Center Incorporated Combined stereo camera and stereo display interaction
US20160344928A1 (en) * 2014-11-10 2016-11-24 Sz Reach Tech Co., Ltd. Video generating method and apparatus of video generating system
US20180150148A1 (en) * 2015-06-30 2018-05-31 Iview Displays (Shenzhen) Company Ltd. Handheld interactive device and projection interaction method therefor
CN107688390A (zh) * 2017-08-28 2018-02-13 武汉大学 一种基于体感交互设备的手势识别控制器
WO2021047232A1 (zh) * 2019-09-11 2021-03-18 苏宁易购集团股份有限公司 交互行为识别方法、装置、计算机设备和存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张德成;: "视觉测量中图像特征点三位坐标求解", 黑龙江水利科技, no. 10 *
杨风开等: "基于GA-BP神经网络的双摄像机位姿视觉调节方法", 《计算机科学》, vol. 45, no. 11, pages 185 - 186 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116954383A (zh) * 2023-09-20 2023-10-27 中物联讯(北京)科技有限公司 一种基于ar的对象交互展示方法及系统
CN116954383B (zh) * 2023-09-20 2023-12-12 中物联讯(北京)科技有限公司 一种基于ar的对象交互展示方法及系统

Similar Documents

Publication Publication Date Title
WO2020228389A1 (zh) 一种创建脸部模型的方法、装置、电子设备及计算机可读存储介质
CN108665373B (zh) 一种车辆定损的交互处理方法、装置、处理设备及客户端
US8509484B2 (en) Information processing device and information processing method
US20180088663A1 (en) Method and system for gesture-based interactions
TWI678099B (zh) 視頻處理方法、裝置和儲存介質
Arcoverde Neto et al. Enhanced real-time head pose estimation system for mobile device
CN108200334B (zh) 图像拍摄方法、装置、存储介质及电子设备
CN113420719B (zh) 生成动作捕捉数据的方法、装置、电子设备以及存储介质
CN105205462A (zh) 一种拍照提示方法及装置
CN111062328B (zh) 一种图像处理方法、装置及智能机器人
CN111710036A (zh) 三维人脸模型的构建方法、装置、设备及存储介质
CN103400119A (zh) 基于人脸识别技术的混合显示眼镜交互展示方法
CN111240476A (zh) 基于增强现实的交互方法、装置、存储介质和计算机设备
CN111222379A (zh) 一种手部检测方法及装置
CN110807391A (zh) 基于视觉的人-无人机交互用人体姿态指令识别方法
CN105225270B (zh) 一种信息处理方法及电子设备
CN116012913A (zh) 模型训练方法、人脸关键点检测方法、介质及装置
CN113687715A (zh) 基于计算机视觉的人机交互系统及交互方法
CN109740511B (zh) 一种人脸表情匹配方法、装置、设备及存储介质
López-Méndez et al. Real-time upper body tracking with online initialization using a range sensor
US11676357B2 (en) Modification of projected structured light based on identified points within captured image
CN112270747A (zh) 一种人脸识别方法、装置及电子设备
Guo et al. Hand gesture recognition and interaction with 3D stereo camera
CN111428609A (zh) 一种基于深度学习的人体姿态识别方法及系统
Xu et al. Bare hand gesture recognition with a single color camera

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination