CN111949112A - 对象交互方法及装置、系统、计算机可读介质和电子设备 - Google Patents

对象交互方法及装置、系统、计算机可读介质和电子设备 Download PDF

Info

Publication number
CN111949112A
CN111949112A CN201910399099.XA CN201910399099A CN111949112A CN 111949112 A CN111949112 A CN 111949112A CN 201910399099 A CN201910399099 A CN 201910399099A CN 111949112 A CN111949112 A CN 111949112A
Authority
CN
China
Prior art keywords
pose
determining
information
coordinate system
real environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910399099.XA
Other languages
English (en)
Inventor
王宇鹭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201910399099.XA priority Critical patent/CN111949112A/zh
Priority to EP20806291.9A priority patent/EP3968131A4/en
Priority to PCT/CN2020/089641 priority patent/WO2020228682A1/zh
Publication of CN111949112A publication Critical patent/CN111949112A/zh
Priority to US17/525,772 priority patent/US20220066569A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

本发明公开了一种对象交互方法及装置、系统、计算机可读介质和电子设备,涉及增强现实技术领域。该对象交互方法包括:确定终端设备在现实环境坐标系下的位姿;根据第一对象的像素信息和深度信息确定第一对象相对于终端设备的位姿;其中,第一对象为现实环境下的真实对象;根据终端设备在现实环境坐标系下的位姿以及第一对象相对于终端设备的位姿,确定第一对象在现实环境坐标系下的位姿;确定现实环境坐标系下第二对象的位姿;其中,第二对象为虚拟对象;根据第一对象在现实环境坐标系下的位姿以及现实环境坐标系下第二对象的位姿,控制第一对象与第二对象进行交互。本公开可以在三维尺度实现虚实对象的交互,使得交互效果更加真实。

Description

对象交互方法及装置、系统、计算机可读介质和电子设备
技术领域
本公开涉及增强现实技术领域,具体而言,涉及一种对象交互方法、对象交互装置、对象交互系统、计算机可读介质和电子设备。
背景技术
增强现实(Augmented Reality,AR)是一种将虚拟元素融入现实世界并可进行虚实交互的技术。随着终端设备处理能力的提升,增强现实技术可以被广泛应用于游戏、教育、医疗、交通、信息跟踪等各个领域。
目前,在采用增强现实技术实现真实物体与虚拟物体之间交互的过程中,完全依赖于用户针对终端屏幕的触摸操作,例如,用户通过触摸用于控制虚拟物体的控件,可以实现虚拟物体的平移、旋转、放置、删除等效果。
一方面,基于终端屏幕的触摸操作不符合人们在日常活动中的交互习惯,导致用户在使用时操作不方便;另一方面,在一些相关技术中,仅基于物体之间的位置关系来实现虚实交互,可能出现不符合交互常识的场景,用户的交互体验差。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种对象交互方法、对象交互装置、对象交互系统、计算机可读介质和电子设备,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的增强现实技术虚实交互效果不佳的问题。
根据本公开的一个方面,提供一种对象交互方法,应用于终端设备,该方法包括:确定终端设备在现实环境坐标系下的位姿;根据第一对象的像素信息和深度信息确定第一对象相对于终端设备的位姿;其中,第一对象为现实环境下的真实对象;根据终端设备在现实环境坐标系下的位姿以及第一对象相对于终端设备的位姿,确定第一对象在现实环境坐标系下的位姿;确定现实环境坐标系下第二对象的位姿;其中,第二对象为配置在现实环境下的虚拟对象;根据第一对象在现实环境坐标系下的位姿以及现实环境坐标系下第二对象的位姿,控制第一对象与第二对象进行交互。
根据本公开的一个方面,提供一种对象交互装置,应用于终端设备,该装置包括终端位姿确定模块、第一对象位姿确定模块、坐标转换模块、第二对象位姿确定模块和对象交互模块。
具体的,终端位姿确定模块用于确定终端设备在现实环境坐标系下的位姿;第一对象位姿确定模块用于根据第一对象的像素信息和深度信息确定第一对象相对于终端设备的位姿;其中,第一对象为现实环境下的真实对象;坐标转换模块用于根据终端设备在现实环境坐标系下的位姿以及第一对象相对于终端设备的位姿,确定第一对象在现实环境坐标系下的位姿;第二对象位姿确定模块用于确定现实环境坐标系下第二对象的位姿;其中,第二对象为配置在现实环境下的虚拟对象;对象交互模块用于根据第一对象在现实环境坐标系下的位姿以及现实环境坐标系下第二对象的位姿,控制第一对象与第二对象进行交互。
可选地,终端位姿确定模块包括特征点提取单元、固定特征确定单元和终端姿态确定单元。
具体的,特征点提取单元用于从在现实场景下采集到的视频图像中提取特征点;固定特征确定单元用于在连续的视频帧中,对特征点进行跟踪,确定现实场景下的三维固定特征;终端姿态确定单元用于根据三维固定特征在视频帧中的位置变换信息以及终端设备的惯性信息,确定终端设备在现实环境坐标系下的位姿。
可选地,终端位姿确定模块还包括地图构建单元。
具体的,地图构建单元用于在确定现实场景下的三维固定特征后,利用三维固定特征形成的特征点云,构建现实场景的地图。
可选地,第一对象位姿确定模块被配置为执行:确定第一对象的可交互区域;确定可交互区域的像素信息和深度信息;根据可交互区域的像素信息和深度信息确定可交互区域相对于终端设备的位置信息和姿态信息;其中,利用可交互区域相对于终端设备的位置信息和姿态信息表征第一对象相对于终端设备的位姿。
可选地,第一对象为手部;在这种情况下,第一对象位姿确定模块确定第一对象的可交互区域的过程可以包括:确定手部关键点;将基于手部关键点确定出的手掌平面确定为第一对象的可交互区域。
可选地,第一对象位姿确定模块被配置为执行:根据手掌平面的像素信息和深度信息确定手掌平面的中心点的位置信息,作为手掌平面相对于终端设备的位置信息;以及根据手掌平面的像素信息和深度信息确定手掌平面的法线朝向信息,作为手掌平面相对于终端设备的姿态信息。
可选地,对象交互模块被配置为执行:根据现实环境坐标系下第一对象的位置信息和第二对象的位置信息,确定第一对象与第二对象的距离;如果第一对象与第二对象的距离小于预设距离阈值且第一对象与第二对象的姿态匹配,则触发执行第一对象与第二对象的交互动作。
根据本公开的一个方面,提供一种对象交互系统,包括相机、惯性传感器、深度传感器、一个或多个处理器、存储装置。
具体的,相机用于在现实场景下采集图像信息;惯性传感器用于采集终端设备的惯性信息;深度传感器用于确定对象在现实场景下的深度信息;存储装置用于存储一个或多个程序;其中,当一个或多个程序被一个或多个处理器执行时,使得一个或多个处理器实现上述对象交互方法。
根据本公开的一个方面,提供一种计算机可读介质,其上存储有计算机程序,程序被处理器执行时实现上述对象交互方法。
根据本公开的一个方面,提供一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行时,使得一个或多个处理器实现上述对象交互方法。
在本公开的一些实施例所提供的技术方案中,利用终端设备在现实环境坐标系下的位姿以及第一对象相对于终端设备的位姿,确定第一对象在现实环境坐标系下的位姿,并根据第一对象和第二对象在现实环境坐标系下的位姿,控制第一对象与第二对象进行交互。一方面,在确定第一对象相对于终端设备的位姿时,结合了深度信息,由此,可以更方便的使对象交互延伸至三维空间尺度,提高了对象交互过程的鲁棒性;另一方面,通过将第一对象与第二对象对齐到同一坐标系下,便于分析,符合真实的物理交互体验;再一方面,本公开的对象交互方法考虑的是位姿,包括位置和姿态,相比于一些相关技术,姿态的引入,避免了可能出现不符合交互常识的场景,使得第一对象与第二对象的交互效果更加真实,提高了用户利用增强现实技术实现虚实互动的交互体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示意性示出了根据本公开的示例性实施方式的对象交互系统的方框图;
图2示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图;
图3示意性示出了根据本公开的示例性实施方式的对象交互方法的流程图;
图4示意性示出了根据本公开的示例性实施方式的确定终端设备在现实环境坐标系下位姿的方法的流程图;
图5示意性示出了以手作为第一对象为例对本公开的对象交互方法进行说明的流程图;
图6示出了以真实人手抓虚拟皮球为例对本公开的对象交互方法进行说明的用户界面示意图;
图7示意性示出了根据本公开的示例性实施方式的对象交互装置的方框图;
图8示意性示出了根据本公开的示例性实施方式的终端位姿确定模块的方框图;
图9示意性示出了根据本公开的另一示例性实施方式的终端位姿确定模块的方框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
在一些相关技术中,基于RGB(红绿蓝)图像的手势识别与交互,仅限于二维屏幕。针对三维的现实空间,这种二维的交互在实际操作中不方便,不符合用户在日常活动中的真实交互习惯。
另外,在增强现实的交互场景中,往往仅考虑交互双方的位置,而忽略了他们之间的相对姿态,这就导致在交互操作时,可能出现不符合交互常识的场景,造成用户交互体验差的问题。例如,手背触碰到虚拟皮球,也能将虚拟皮球抓起。
鉴于此,需要一种新的对象交互处理方式。
图1示意性示出了根据本公开的示例性实施方式的对象交互系统的方框图。
需要说明的是,本公开示例性实施方式的对象交互系统可以配置在终端设备中。其中,终端设备可以例如为手机、平板、头戴式显示设备等,本公开对终端设备的种类不做特殊限制。
参考图1,对象交互系统10可以包括相机101、惯性传感器102、深度传感器103、处理器104和存储装置105。
相机101用于在现实场景下采集图像信息,在本公开实施例中,相机101采集到的图像为RGB图像;惯性传感器102又可被称为惯性测量单元(Inertial Measurement Unit,IMU),用于采集终端设备的惯性信息;深度传感器103用于确定各个对象在现实场景下的深度信息;处理器104可以是一个处理器,或者是包括多个处理器的处理器集群;存储装置105用于存储一个或多个程序。
具体的,当一个或多个程序被处理器104执行时,使得处理器104实现:利用相机101在现实场景下采集到的像素信息以及惯性传感器102采集到的终端设备的惯性信息,确定终端设备在现实环境坐标系下的位姿;基于相机101采集到的像素信息以及深度传感器103采集到的深度信息,确定第一对象相对于终端设备的位姿;根据终端设备在现实环境坐标系下的位姿以及第一对象相对于终端设备的位姿,确定第一对象在现实环境坐标系下的位姿;确定现实环境坐标系下第二对象的位姿,根据第一对象在现实环境坐标系下的位姿以及现实环境坐标系下第二对象的位姿,控制第一对象与第二对象进行交互。
另外,在上面的描述中,第一对象是现实环境下真实存在的对象,可以是真实的物体。第二对象是利用计算机技术配置在现实环境下的虚拟对象,虚拟对象并未真实存在于现实世界。
图2示出了适于用来实现本发明实施例的电子设备的计算机系统的结构示意图。
需要说明的是,图2示出的电子设备的计算机系统200仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图2所示,计算机系统200包括中央处理单元(CPU)201,其可以根据存储在只读存储器(ROM)202中的程序或者从存储部分208加载到随机访问存储器(RAM)203中的程序而执行各种适当的动作和处理。在RAM 203中,还存储有系统操作所需的各种程序和数据。CPU201、ROM 202以及RAM 203通过总线204彼此相连。输入/输出(I/O)接口205也连接至总线204。
以下部件连接至I/O接口205:包括键盘、鼠标等的输入部分206;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分207;包括硬盘等的存储部分208;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分209。通信部分209经由诸如因特网的网络执行通信处理。驱动器210也根据需要连接至I/O接口205。可拆卸介质211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器210上,以便于从其上读出的计算机程序根据需要被安装入存储部分208。
特别地,根据本发明的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分209从网络上被下载和安装,和/或从可拆卸介质211被安装。在该计算机程序被中央处理单元(CPU)201执行时,执行本申请的系统中限定的各种功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。
下面将参考图3对本公开示例性实施方式的对象交互方法进行描述。需要说明的是,对象交互方法的各个步骤均可以由终端设备执行,在这种情况下,下面所述的对象交互装置可以配置在终端设备中。
参考图3,所述对象交互方法方法可以包括以下步骤:
S30.确定终端设备在现实环境坐标系下的位姿。
在本公开的示例性实施方式中,一方面,可以采用相机拍摄现实场景,以确定出现实场景下图像的像素信息。在本公开的一个实施例中,可以采用单目摄像头拍摄现实场景,以确定现实场景中各真实物体的像素信息。其中,单目摄像头是依据小孔成像原理构造的摄像头,是单个彩色(或灰度)摄像头,其具有使用简单、准确性高、方便配置等优点。以终端设备是手机为例,可以采用手机的后置摄像头作为单目摄像头拍摄现实场景。
另一方面,可以采用惯性传感器实时监测终端设备的惯性信息,其中,惯性信息主要包括平移量和旋转量。
具体的,惯性传感器可以包含三个加速度计和三个陀螺,三个加速度计用于检测终端设备在三维坐标系的每个坐标轴上的加速度信号,进而可以计算出平移量;而三个陀螺,可以检测终端设备在三维坐标系的旋转量。另外,为了方便计算,可以将旋转量表示为旋转矩阵。
应当理解的是,可以将采集到图像的像素信息作为观测约束,将惯性传感器检测到的惯性信息作为动作约束。在这种情况下,确定终端设备在现实环境坐标系下的位姿可以被描述成:在观测约束与动作约束的联合约束下确定出的终端设备的位姿。其中,本公开所述的位姿包括位置信息和姿态信息。
下面将参考图4对本公开实施方式的确定终端设备在现实环境坐标系下位姿的过程进行说明。
在步骤S402中,利用相机采集视频图像,并从视频图像中提取特征点。在一些实例中,特征点可以是表征物体轮廓的点。具体的,可以将采集到的图像输入一特征点提取模型,以确定出图像中的特征点,其中,该特征点提取模型可以是训练后的卷积神经网络。针对该卷积神经网络,容易理解的是,可以丰富带有标记的样本图像的种类,以扩大该卷积神经网络的应用范围,增强处理过程的鲁棒性并提高识别特征点的准确度。
同时,可以将确定出的特征点与惯性传感器检测到的惯性信息相结合,建立初始坐标系,并建立初始的局部地图以及终端设备的初始位姿。
在步骤S404中,在连续的视频帧中,对特征点进行跟踪。
根据本公开的一些实施例,特征点跟踪可以采用光流追踪、直接法等基于视觉里程计原理的算法,本公开对此不做特殊限制。
在一个实施例中,特征点跟踪可以采用KLT跟踪算法(Kanade-Lucas-TomasiTracking Method);在另一个实施例中,特征点跟踪可以采用基于ORB(Oriented FAST andRotated BRIEF,快速特征点提取和描述)算法提取的ORB特征描述子进行特征点跟踪。
此外,例如,可以对特征点的邻域进行仿射变换,以得到该邻域在当前帧中的投影区域,计算上一帧中的邻域与当前帧中的投影区域之间的颜色偏移量,作为特征点的跟踪偏差。对于确定的多个特征点,可以选择跟踪偏差较小的多个特征点,以实现特征点的跟踪过程。
在步骤S406中,确定三维固定特征。
在本公开的示例性实施方式中,可以基于对特征点的跟踪,确定出现实环境中的三维固定特征。这些三维固定特征可以是现实环境中具有显著观测特征的角点、特征点。例如,Sift(Scale-invariant feature transform)特征点、哈里斯角点、ORB特征点等。
应当理解的是,如果在连续特征点的跟踪过程中,一些特征点的位置未发生变化,则可以认为这些特征点为本公开所述的三维固定特征。
在确定出三维固定特征后,可以利用这些三维固定特征形成的特征点云,构建现实场景的地图。
在步骤S408中,确定三维固定特征的位置变换信息。
在相机不断移动拍摄的过程中,终端设备可以确定出三维固定特征相对于相机的位置变换信息。
在对相机拍摄的视频图像进行上述分析的同时,在步骤S410中,终端设备可以利用惯性传感器实时监测惯性信息。
在步骤S412中,可以根据三维固定特征在视频帧中的位置变换信息以及终端设备的惯性信息,确定终端设备在现实环境坐标系下的位姿。
综上,可以看出,本公开确定终端设备位姿的过程可以包括:首先,利用有限的RGB图像和惯性信息,构建初始的三维特征点云并确定终端设备初始的位姿;接下来,根据持续采集到的视频帧,对地图和终端设备的位姿进行持续的观测约束,以及根据持续采集到的惯性信息,对地图和终端设备的位姿进行持续的运动约束;然后,在观测约束和运动约束的共同作用下,确定出终端设备的位姿。
S32.根据第一对象的像素信息和深度信息确定第一对象相对于终端设备的位姿;其中,第一对象为现实环境下的真实对象。
在本公开的示例性实施方式中,第一对象是指在现实空间中实际存在的真实对象,虽然下面以人的手部为例对第一对象进行说明,然而,第一对象还可以是人体的其他部位。另外,第一对象还可以是现实中其他物体,例如,木棍、球拍等。
首先,可以采用深度传感器确定第一对象相对于终端设备的深度信息。例如,可以采用TOF(Time Of Flight,飞行时间)传感器来确定深度信息。具体的,TOF传感器可以发出近红外光,遇到第一对象后反射,TOF传感器通过计算光线发射和反射时间差或相位差,来计算距第一对象的距离,以确定深度信息。
需要理解的是,深度信息与现实场景下采集到的像素信息对应。也就是说,深度信息的确定与图像的像素信息的采集往往同时发生。对于每一帧图像而言,均对应存在相应的深度信息。
接下来,深度信息可以结合步骤S30中利用相机采集的图像像素信息,确定第一对象相对于终端设备的位姿。
在整个过程中,需要对第一对象进行识别。具体的,可以将图像输入一对象识别模型,类似的,该对象识别模块可以是训练后的机器学习模型。该模型可以对第一对象进行特征提取,以确定出第一对象的类别。以人手为例,该模型可以对人手进行语义分割,并提取手部关键点,当预测出人手的概率大于一预设阈值时,则可以确定第一对象为人的手部。
通过联合像素信息和深度信息,提高了确定第一对象相对于终端设备的位姿的鲁棒性。
此外,本公开的一些实施例考虑到在AR交互场景下,第一对象有一些区域不适合进行交互动作,否则将不符合日常生活的交互常识。在这种情况下,步骤S32的处理过程还可以包括:
首先,可以确定第一对象的可交互区域。其中,可交互区域可以表示实际进行交互动作的区域。例如,以手抓虚拟皮球、手提袋子等为例,第一对象为手,可交互区域可以为手掌平面。
针对确定手掌平面的方案,可以确定手部关键点,具体的,手部关键点可以是五根手指的指根对应的点。根据手部关键点可以确定出手掌平面,作为第一对象的可交互区域。
接下来,可以确定与在现实场景下采集到的像素信息对应的深度信息,并根据深度信息以及像素信息确定可交互区域相对于终端设备的位置信息和姿态信息。在这种情况下,可以将利用可交互区域相对于终端设备的位置信息和姿态信息表征第一对象相对于终端设备的位姿。
仍以手掌平面为可交互区域为例,可以将手掌平面的中心点的位置信息作为手掌平面相对于终端设备的位置信息。另外,可以将手掌平面的法线朝向信息作为手掌平面相对于终端设备的姿态信息,其中,法线朝向与手掌平面的方向垂直。
S34.根据终端设备在现实环境坐标系下的位姿以及第一对象相对于终端设备的位姿,确定第一对象在现实环境坐标系下的位姿。
将位姿以坐标形式表示,可以表示为(R,T),其中,R表征姿态信息,T表征位置信息。
在这种情况下,可以将终端设备在现实环境坐标系下的位姿表示为(R1,T1),可以将第一对象相对于终端设备的位姿表示为(R2,T2),则第一对象在现实环境坐标系下的位姿为(R2*R1,T2+R2*T1)。
S36.确定现实环境坐标系下第二对象的位姿;其中,第二对象为配置在现实环境下的虚拟对象。
应当理解的是,第二对象在现实环境中是不存在的,当利用计算机技术在现实环境下放置一个虚拟的第二对象时,需要指定该第二对象的位姿,该位姿对应的坐标可以为(R0,T0),另外,该位姿坐标亦可被称为锚点坐标。
S38.根据第一对象在现实环境坐标系下的位姿以及现实环境坐标系下第二对象的位姿,控制第一对象与第二对象进行交互。
在本公开的示例性实施方式中,可以综合考虑第一对象与第二对象之间的位置关系以及姿态关系,来控制他们进行交互。
首先,可以根据现实环境坐标系下第一对象的位置信息和第二对象的位置信息,确定第一对象与第二对象的距离。
接下来,判断第一对象与第二对象的距离是否小于预设距离阈值,其中,该预设距离阈值可以根据AR场景交互的复杂程度由开发人员自行设定,例如,可以将预设距离阈值设定为2cm。
如果第一对象与第二对象距离小于预设距离阈值,则判断第一对象的姿态是否与第二对象的姿态匹配,其中,匹配关系可以根据交互场景预先配置,例如,手抓虚拟皮球时,匹配关系为手掌平面的法线朝向指向球心区域的方向。
如果确定出第一对象的姿态与第二对象姿态匹配,则触发执行第一对象与第二对象的交互动作。其中,交互动作可以预先由开发人员进行设置,包括但不限于第二对象改变颜色、改变形状、执行预设动作等。
然而,本公开对验证位置关系与姿态关系的顺序不进行特殊限制,也就是说,可以先对姿态关系是否匹配进行验证,验证成功后,再判断第一对象与第二对象的距离是否满足距离要求。
应当理解的是,上述距离要求不限于距离较近时执行交互动作,当第一对象与第二对象的距离变大时,也可能触发交互动作。
下面参考图5以手部为例对本公开实施方式的对象交互过程进行说明。
在步骤S502中,确定终端设备在现实环境坐标系下的位姿;在步骤S504中,对采集到的视频图像中手部进行识别与跟踪,确定出手部关键点,并根据手部关键点确定出手掌平面;一方面,在步骤S506中,可以确定手掌平面中心点的位置信息;在步骤S508中,根据手掌平面中心点的位置信息,判断手掌平面中心点与第二对象(虚拟对象)的距离是否小于预设距离。如果小于预设距离,则跳转至步骤S514,如果不小于预设距离,则跳转至步骤S506。
另一方面,在步骤S510中,确定手掌平面法线朝向;在步骤S512中,判断手掌平面法线朝向与第二对象的姿态是否匹配,如果匹配,则跳转至步骤S514,如果不匹配,则跳转至步骤S510。
在步骤S514中,在AR场景下,可以触发执行手掌与第二对象的交互操作。例如,手抓虚拟皮球、手提虚拟篮筐、手握虚拟门把手等。
下面以第一对象为真实人手且第二对象为虚拟皮球为例对本公开的对象交互方法进行说明。
参考图6,可以通过计算机技术在现实场景下的桌面60上放置一个虚拟皮球62,此时,用户可以通过终端设备的屏幕,查看到在真实的桌面上有一个虚拟皮球。
在这种情况下,用户可以通过真实的人手62从桌面60上抓起虚拟皮球61。具体过程可以包括:首先,终端设备可以利用摄像头获取人手62的像素信息并利用深度传感器获取人手62的深度信息,以确定人手62相对于终端设备的位姿;接下来,终端设备可以根据自身在现实坐标系下的位姿以及人手62相对于终端设备的位姿,确定出人手62在现实环境坐标系下的位姿。
在实时确定人手62在现实环境坐标系下的位姿的过程中,终端设备可以实时确定人手62与虚拟皮球61之间的距离以及人手62的手掌平面的法线方向与虚拟皮球61的相对关系,具体的,该手掌平面的法线方向为垂直于手掌平面且自手掌掌心向外的方向。
例如,预定的交互规则为:当人手距虚拟皮球的距离小于3cm且手掌平面的法线朝向指向球心区域的方向时,人手抓出虚拟皮球。在应用这种规则的场景下,如果当前人手62与虚拟皮球61的相对关系满足该预定的交互规则,则人手62可以将虚拟皮球61抓起。在人手62从桌面60上抓起虚拟皮球61后,可以保持姿势移动,以改变虚拟皮球的位置或运动方式。图6示出了人手62将虚拟皮球61抓起并移动一段距离的示意图。
根据本公开的一个实施例,在确定出人手的位姿的前提下,可以对手势进行识别,并根据手势识别结果确定出对应的交互动作。
例如,在第二对象为虚拟人物(例如,虚拟卡通人物)的情况下,如果人手与该虚拟人物的距离大于0.5m且小于2m,并且手掌法线朝向为指向虚拟人物方向,则当识别出手势为左右摆动时,则触发虚拟人物执行打招呼的指令,在这种情况下,虚拟人物也可以挥动手臂,实现相互打招呼的交互动作。
应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
进一步的,本示例实施方式中还提供了一种对象交互装置,应用于移动设备。
图7示意性示出了本公开的示例性实施方式的对象交互装置的方框图。参考图7,根据本公开的示例性实施方式的对象交互装置7可以包括终端位姿确定模块71、第一对象位姿确定模块73、坐标转换模块75、第二对象位姿确定模块77和对象交互模块79。
具体的,终端位姿确定模块71可以用于确定终端设备在现实环境坐标系下的位姿;第一对象位姿确定模块73可以用于根据第一对象的像素信息和深度信息确定第一对象相对于终端设备的位姿;其中,第一对象为现实环境下的真实对象;坐标转换模块75可以用于根据终端设备在现实环境坐标系下的位姿以及第一对象相对于终端设备的位姿,确定第一对象在现实环境坐标系下的位姿;第二对象位姿确定模块77可以用于确定现实环境坐标系下第二对象的位姿;其中,第二对象为配置在现实环境下的虚拟对象;对象交互模块79可以用于根据第一对象在现实环境坐标系下的位姿以及现实环境坐标系下第二对象的位姿,控制第一对象与第二对象进行交互。
利用本公开示例性实施方式的对象交互装置,一方面,在确定第一对象相对于终端设备的位姿时,结合了深度信息,由此,可以更方便的使对象交互延伸至三维空间尺度,提高了对象交互过程的鲁棒性;另一方面,通过将第一对象与第二对象对齐到同一坐标系下,便于分析,符合真实的物理交互体验;再一方面,本公开的对象交互方法考虑的是位姿,包括位置和姿态,相比于一些相关技术,姿态的引入,避免了可能出现不符合交互常识的场景,使得第一对象与第二对象的交互效果更加真实,提高了用户利用增强现实技术实现虚实互动的交互体验。
根据本公开的示例性实施例,参考图8,终端位姿确定模块71可以包括特征点提取单元801、固定特征确定单元803和终端姿态确定单元805。
具体的,特征点提取单元801可以用于从在现实场景下采集到的视频图像中提取特征点;固定特征确定单元803可以用于在连续的视频帧中,对特征点进行跟踪,确定现实场景下的三维固定特征;终端姿态确定单元805可以用于根据三维固定特征在视频帧中的位置变换信息以及终端设备的惯性信息,确定终端设备在现实环境坐标系下的位姿。
根据本公开的示例性实施例,参考图9,终端位姿确定模块71还可以包括地图构建单元901。
具体的,地图构建单元901可以用于在确定现实场景下的三维固定特征后,利用三维固定特征形成的特征点云,构建现实场景的地图。
根据本公开的示例性实施例,第一对象位姿确定模块73可以被配置为执行:确定第一对象的可交互区域;确定可交互区域的像素信息和深度信息;根据可交互区域的像素信息和深度信息确定可交互区域相对于终端设备的位置信息和姿态信息;其中,利用可交互区域相对于终端设备的位置信息和姿态信息表征第一对象相对于终端设备的位姿。
根据本公开的示例性实施例,第一对象为手部;在这种情况下,对象位姿确定模块73确定第一对象的可交互区域的过程可以包括:确定手部关键点;将基于手部关键点确定出的手掌平面确定为第一对象的可交互区域。
根据本公开的示例性实施例,第一对象位姿确定模块73可以被配置为执行:根据手掌平面的像素信息和深度信息确定手掌平面的中心点的位置信息,作为手掌平面相对于终端设备的位置信息;以及根据手掌平面的像素信息和深度信息确定手掌平面的法线朝向信息,作为手掌平面相对于终端设备的姿态信息。
根据本公开的示例性实施例,对象交互模块79可以被配置为执行:根据现实环境坐标系下第一对象的位置信息和第二对象的位置信息,确定第一对象与第二对象的距离;如果第一对象与第二对象的距离小于预设距离阈值且第一对象与第二对象的姿态匹配,则触发执行第一对象与第二对象的交互动作。
由于本发明实施方式的程序运行性能分析装置的各个功能模块与上述方法发明实施方式中相同,因此在此不再赘述。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。

Claims (11)

1.一种对象交互方法,应用于终端设备,其特征在于,包括:
确定终端设备在现实环境坐标系下的位姿;
根据第一对象的像素信息和深度信息确定所述第一对象相对于所述终端设备的位姿;其中,所述第一对象为现实环境下的真实对象;
根据所述终端设备在所述现实环境坐标系下的位姿以及所述第一对象相对于所述终端设备的位姿,确定所述第一对象在所述现实环境坐标系下的位姿;
确定所述现实环境坐标系下第二对象的位姿;其中,所述第二对象为配置在现实环境下的虚拟对象;
根据所述第一对象在所述现实环境坐标系下的位姿以及所述现实环境坐标系下第二对象的位姿,控制所述第一对象与所述第二对象进行交互。
2.根据权利要求1所述的对象交互方法,其特征在于,确定终端设备在现实环境坐标系下的位姿包括:
从在现实场景下采集到的视频图像中提取特征点;
在连续的视频帧中,对所述特征点进行跟踪,确定所述现实场景下的三维固定特征;
根据所述三维固定特征在所述视频帧中的位置变换信息以及终端设备的惯性信息,确定所述终端设备在现实环境坐标系下的位姿。
3.根据权利要求2所述的对象交互方法,其特征在于,在确定所述现实场景下的三维固定特征后,所述对象交互方法还包括:
利用所述三维固定特征形成的特征点云,构建所述现实场景的地图。
4.根据权利要求1所述的对象交互方法,其特征在于,根据第一对象的像素信息和深度信息确定所述第一对象相对于所述终端设备的位姿包括:
确定第一对象的可交互区域;
确定所述可交互区域的像素信息和深度信息;
根据所述可交互区域的像素信息和深度信息确定所述可交互区域相对于所述终端设备的位置信息和姿态信息;
其中,利用所述可交互区域相对于所述终端设备的位置信息和姿态信息表征所述第一对象相对于所述终端设备的位姿。
5.根据权利要求4所述的对象交互方法,其特征在于,所述第一对象为手部;其中,确定第一对象的可交互区域包括:
确定手部关键点;
将基于所述手部关键点确定出的手掌平面确定为第一对象的可交互区域。
6.根据权利要求5所述的对象交互方法,其特征在于,根据所述可交互区域的像素信息和深度信息确定所述可交互区域相对于所述终端设备的位置信息和姿态信息包括:
根据所述手掌平面的像素信息和深度信息确定所述手掌平面的中心点的位置信息,作为所述手掌平面相对于所述终端设备的位置信息;以及
根据所述手掌平面的像素信息和深度信息确定所述手掌平面的法线朝向信息,作为所述手掌平面相对于所述终端设备的姿态信息。
7.根据权利要求1或6所述的对象交互方法,其特征在于,根据所述第一对象在所述现实环境坐标系下的位姿以及所述现实环境坐标系下第二对象的位姿,控制所述第一对象与所述第二对象进行交互包括:
根据所述现实环境坐标系下所述第一对象的位置信息和所述第二对象的位置信息,确定所述第一对象与所述第二对象的距离;
如果所述第一对象与所述第二对象的距离小于预设距离阈值且所述第一对象与所述第二对象的姿态匹配,则触发执行所述第一对象与所述第二对象的交互动作。
8.一种对象交互装置,其特征在于,包括:
终端位姿确定模块,用于确定终端设备在现实环境坐标系下的位姿;
第一对象位姿确定模块,用于根据第一对象的像素信息和深度信息确定所述第一对象相对于所述终端设备的位姿;其中,所述第一对象为现实环境下的真实对象;
坐标转换模块,用于根据所述终端设备在所述现实环境坐标系下的位姿以及所述第一对象相对于所述终端设备的位姿,确定所述第一对象在所述现实环境坐标系下的位姿;
第二对象位姿确定模块,用于确定所述现实环境坐标系下第二对象的位姿;其中,所述第二对象为配置在现实环境下的虚拟对象;
对象交互模块,用于根据所述第一对象在所述现实环境坐标系下的位姿以及所述现实环境坐标系下第二对象的位姿,控制所述第一对象与所述第二对象进行交互。
9.一种对象交互系统,其特征在于,包括:
相机,用于在现实场景下采集图像信息;
惯性传感器,用于采集终端设备的惯性信息;
深度传感器,用于确定对象在所述现实场景下的深度信息;
一个或多个处理器;
存储装置,用于存储一个或多个程序;
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至7中任一项所述的对象交互方法。
10.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至7中任一项所述的对象交互方法。
11.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至7中任一项所述的对象交互方法。
CN201910399099.XA 2019-05-14 2019-05-14 对象交互方法及装置、系统、计算机可读介质和电子设备 Pending CN111949112A (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201910399099.XA CN111949112A (zh) 2019-05-14 2019-05-14 对象交互方法及装置、系统、计算机可读介质和电子设备
EP20806291.9A EP3968131A4 (en) 2019-05-14 2020-05-11 METHOD, APPARATUS AND SYSTEM FOR OBJECT INTERACTION, COMPUTER READABLE MEDIUM AND ELECTRONIC DEVICE
PCT/CN2020/089641 WO2020228682A1 (zh) 2019-05-14 2020-05-11 对象交互方法及装置、系统、计算机可读介质和电子设备
US17/525,772 US20220066569A1 (en) 2019-05-14 2021-11-12 Object interaction method and system, and computer-readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910399099.XA CN111949112A (zh) 2019-05-14 2019-05-14 对象交互方法及装置、系统、计算机可读介质和电子设备

Publications (1)

Publication Number Publication Date
CN111949112A true CN111949112A (zh) 2020-11-17

Family

ID=73288957

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910399099.XA Pending CN111949112A (zh) 2019-05-14 2019-05-14 对象交互方法及装置、系统、计算机可读介质和电子设备

Country Status (4)

Country Link
US (1) US20220066569A1 (zh)
EP (1) EP3968131A4 (zh)
CN (1) CN111949112A (zh)
WO (1) WO2020228682A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113386138A (zh) * 2021-07-01 2021-09-14 上海宜硕网络科技有限公司 一种机器人开门控制方法、装置和电子设备
CN113459098A (zh) * 2021-07-01 2021-10-01 上海宜硕网络科技有限公司 一种机器人关门控制方法、装置和电子设备
CN114693890A (zh) * 2020-12-31 2022-07-01 华为技术有限公司 一种增强现实交互方法及电子设备
CN115409871A (zh) * 2022-10-31 2022-11-29 浙江中测新图地理信息技术有限公司 一种基于位置智能的三维场景虚实交互方法及装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2020229324A1 (en) * 2019-02-25 2021-10-28 Deka Products Limited Partnership System and method for surface feature detection and traversal
CN113905220B (zh) * 2021-08-30 2023-11-21 咪咕动漫有限公司 基于赛事场景的沙盘投影方法、装置、设备及存储介质
CN115861581B (zh) * 2023-02-08 2023-05-05 成都艺馨达科技有限公司 一种基于混合现实的移动互联云服务方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105264460A (zh) * 2013-04-12 2016-01-20 微软技术许可有限责任公司 全息图对象反馈
CN107430437A (zh) * 2015-02-13 2017-12-01 厉动公司 在虚拟现实/增强现实环境中创建真实的抓取体验的系统和方法
US9996797B1 (en) * 2013-10-31 2018-06-12 Leap Motion, Inc. Interactions with virtual objects for machine control
CN108681402A (zh) * 2018-05-16 2018-10-19 Oppo广东移动通信有限公司 识别交互方法、装置、存储介质及终端设备
CN109683700A (zh) * 2017-10-18 2019-04-26 深圳市掌网科技股份有限公司 基于视觉感知的人机交互实现方法和装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6360050B2 (ja) * 2012-07-13 2018-07-18 ソフトキネティック ソフトウェア 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム
CN104217350B (zh) * 2014-06-17 2017-03-22 北京京东尚科信息技术有限公司 实现虚拟试戴的方法和装置
US10304248B2 (en) * 2014-06-26 2019-05-28 Korea Advanced Institute Of Science And Technology Apparatus and method for providing augmented reality interaction service
CN105528082B (zh) * 2016-01-08 2018-11-06 北京暴风魔镜科技有限公司 三维空间及手势识别追踪交互方法、装置和系统
JP7175281B2 (ja) * 2017-03-28 2022-11-18 マジック リープ, インコーポレイテッド ユーザ走査仮想オブジェクトに関係している空間化されたオーディオを用いる拡張現実システム
CN109712172A (zh) * 2018-12-28 2019-05-03 哈尔滨工业大学 一种初始位姿测量结合目标追踪的位姿测量方法
CN109474816B (zh) * 2018-12-28 2024-04-05 上海北冕信息科技有限公司 增强现实的虚实融合装置及其虚实融合方法、设备、介质
CN109725733A (zh) * 2019-01-25 2019-05-07 中国人民解放军国防科技大学 一种基于增强现实的人机交互方法及人机交互设备
US11151798B1 (en) * 2019-11-13 2021-10-19 Apple Inc. Depth rate up-conversion
EP4104002A4 (en) * 2020-02-14 2023-08-09 Magic Leap, Inc. 3D OBJECT ANNOTATION
US11636843B2 (en) * 2020-05-29 2023-04-25 Magic Leap, Inc. Surface appropriate collisions

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105264460A (zh) * 2013-04-12 2016-01-20 微软技术许可有限责任公司 全息图对象反馈
US9996797B1 (en) * 2013-10-31 2018-06-12 Leap Motion, Inc. Interactions with virtual objects for machine control
CN107430437A (zh) * 2015-02-13 2017-12-01 厉动公司 在虚拟现实/增强现实环境中创建真实的抓取体验的系统和方法
CN109683700A (zh) * 2017-10-18 2019-04-26 深圳市掌网科技股份有限公司 基于视觉感知的人机交互实现方法和装置
CN108681402A (zh) * 2018-05-16 2018-10-19 Oppo广东移动通信有限公司 识别交互方法、装置、存储介质及终端设备

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114693890A (zh) * 2020-12-31 2022-07-01 华为技术有限公司 一种增强现实交互方法及电子设备
WO2022143322A1 (zh) * 2020-12-31 2022-07-07 华为技术有限公司 一种增强现实交互方法及电子设备
CN113386138A (zh) * 2021-07-01 2021-09-14 上海宜硕网络科技有限公司 一种机器人开门控制方法、装置和电子设备
CN113459098A (zh) * 2021-07-01 2021-10-01 上海宜硕网络科技有限公司 一种机器人关门控制方法、装置和电子设备
CN113386138B (zh) * 2021-07-01 2022-06-03 上海宜硕网络科技有限公司 一种机器人开门控制方法、装置和电子设备
CN113459098B (zh) * 2021-07-01 2022-06-03 上海宜硕网络科技有限公司 一种机器人关门控制方法、装置和电子设备
CN115409871A (zh) * 2022-10-31 2022-11-29 浙江中测新图地理信息技术有限公司 一种基于位置智能的三维场景虚实交互方法及装置

Also Published As

Publication number Publication date
EP3968131A4 (en) 2022-06-08
US20220066569A1 (en) 2022-03-03
WO2020228682A1 (zh) 2020-11-19
EP3968131A1 (en) 2022-03-16

Similar Documents

Publication Publication Date Title
US11762475B2 (en) AR scenario-based gesture interaction method, storage medium, and communication terminal
CN111949112A (zh) 对象交互方法及装置、系统、计算机可读介质和电子设备
CN107820593B (zh) 一种虚拟现实交互方法、装置及系统
CN111694429A (zh) 虚拟对象驱动方法、装置、电子设备及可读存储
US20140009384A1 (en) Methods and systems for determining location of handheld device within 3d environment
WO2021082801A1 (zh) 增强现实处理方法及装置、系统、存储介质和电子设备
JP2015531526A (ja) タッチレス入力
EP3628380B1 (en) Method for controlling virtual objects, computer readable storage medium and electronic device
CN112198959A (zh) 虚拟现实交互方法、装置及系统
CN113034652A (zh) 虚拟形象驱动方法、装置、设备及存储介质
JP7162079B2 (ja) 頭部のジェスチャーを介してディスプレイ装置を遠隔制御する方法、システムおよびコンピュータプログラムを記録する記録媒体
CN114972958B (zh) 关键点检测方法、神经网络的训练方法、装置和设备
WO2022088819A1 (zh) 视频处理方法、视频处理装置和存储介质
WO2023168957A1 (zh) 姿态确定方法、装置、电子设备、存储介质及程序
CN110069125B (zh) 虚拟对象的控制方法和装置
CN109981989A (zh) 渲染图像的方法、装置、电子设备和计算机可读存储介质
CN111523408B (zh) 动作捕捉方法和装置
Kondori et al. Direct hand pose estimation for immersive gestural interaction
JP2012103743A (ja) 仮想情報付与装置及び仮想情報付与プログラム
WO2023078272A1 (zh) 虚拟对象显示方法、装置、电子设备及可读介质
CN113223012B (zh) 视频处理方法、设备及电子设备
CN111258413A (zh) 虚拟对象的控制方法和装置
CN116686006A (zh) 基于可变形模型的三维扫描配准
CN115994944A (zh) 三维关键点预测方法、训练方法及相关设备
Jain et al. [POSTER] AirGestAR: Leveraging Deep Learning for Complex Hand Gestural Interaction with Frugal AR Devices

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20201117