CN117014594A - 数据交互方法、装置、计算机设备及计算机可读存储介质 - Google Patents

数据交互方法、装置、计算机设备及计算机可读存储介质 Download PDF

Info

Publication number
CN117014594A
CN117014594A CN202210473042.1A CN202210473042A CN117014594A CN 117014594 A CN117014594 A CN 117014594A CN 202210473042 A CN202210473042 A CN 202210473042A CN 117014594 A CN117014594 A CN 117014594A
Authority
CN
China
Prior art keywords
interaction
target
tracking point
determining
azimuth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210473042.1A
Other languages
English (en)
Inventor
王利亮
林科
于洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huizhou TCL Mobile Communication Co Ltd
Original Assignee
Huizhou TCL Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huizhou TCL Mobile Communication Co Ltd filed Critical Huizhou TCL Mobile Communication Co Ltd
Priority to CN202210473042.1A priority Critical patent/CN117014594A/zh
Priority to PCT/CN2023/080138 priority patent/WO2023207345A1/zh
Publication of CN117014594A publication Critical patent/CN117014594A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例提供一种数据交互方法、装置、计算机设备及计算机可读存储介质,可以通过图像采集装置采集交互设备在与被控设备交互过程中的目标图像;根据目标图像,确定目标交互追踪点对应的方位参数,方位参数包括图像采集装置与目标交互追踪点之间的方位参数;根据方位参数,确定目标交互追踪点所在空间的至少两个二维参考坐标;对至少两个二维参考坐标进行融合处理,得到目标交互追踪点的三维空间坐标;根据三维空间坐标,确定交互设备的运动姿态,并根据运动姿态进行数据交互;本申请实施例可以根据三维空间坐标,准确地确定交互设备的运动姿态,从而能够提高数据交互的精度。

Description

数据交互方法、装置、计算机设备及计算机可读存储介质
技术领域
本申请涉及数据交互技术领域,具体涉及一种数据交互方法及相关装置,该相关装置包括数据交互装置、计算机设备和计算机可读存储介质。
背景技术
3D显示技术是一种新型显示技术,与普通2D显示相比,3D显示技术可以使画面变得更立体,画面不再局限于屏幕的平面上,而是能走出屏幕外面,让观众身临其境的感觉。
随着3D显示技术的发展,用户可以通过头盔等设备与计算机设备进行数据交互,从而实现3D功能。但是,目前通过设备实现的数据交互的精度较低。
发明内容
本申请实施例提供一种数据交互方法、装置、计算机设备及计算机可读存储介质,能够。
一种数据交互方法,包括:
通过图像采集装置采集交互设备在与被控设备交互过程中的目标图像,所述目标图像包括所述交互设备中目标交互追踪点;
根据所述目标图像,确定所述目标交互追踪点对应的方位参数,所述方位参数包括所述图像采集装置与所述目标交互追踪点之间的方位参数;
根据所述方位参数,确定所述目标交互追踪点所在空间的至少两个二维参考坐标;
对所述至少两个二维参考坐标进行融合处理,得到所述目标交互追踪点的三维空间坐标;
根据所述三维空间坐标,确定所述交互设备的运动姿态,并根据所述运动姿态进行数据交互。
相应地,本申请实施例提供一种数据交互装置,包括:
采集单元,可以用于通过图像采集装置采集交互设备在与被控设备交互过程中的目标图像,所述目标图像包括所述交互设备中目标交互追踪点;
第一确定单元,可以用于根据所述目标图像,确定所述目标交互追踪点对应的方位参数,所述方位参数包括所述图像采集装置与所述目标交互追踪点之间的方位参数;
第二确定单元,可以用于根据所述方位参数,确定所述目标交互追踪点所在空间的至少两个二维参考坐标;
融合单元,可以用于对所述至少两个二维参考坐标进行融合处理,得到所述目标交互追踪点的三维空间坐标;
交互单元,可以用于根据所述三维空间坐标,确定所述交互设备的运动姿态,并根据所述运动姿态进行数据交互。
在一些实施例中,所述图像采集装置包括至少两个;第二确定单元,具体可以用于获取预设方位参数,所述预设方位参数为所述至少两个图像采集装置之间的方位参数;对所述方位参数和所述预设方位参数进行融合处理,得到所述目标交互追踪点所在空间的至少两个二维参考坐标。
在一些实施例中,所述方位参数包括第一方位参数和第二方位参数,所述二维参考坐标包括第一二维参考坐标和第二二维参考坐标;第二确定单元,具体可以用于对所述第一方位参数和所述预设方位参数进行融合处理,得到所述目标交互追踪点所在空间的第一二维参考坐标;对所述第二方位参数和所述预设方位参数进行融合处理,得到所述目标交互追踪点所在空间的第二二维参考坐标;根据所述第一二维参考坐标和第二二维参考坐标,生成所述目标交互追踪点所在空间的两个二维参考坐标。
在一些实施例中,所述目标交互追踪点包括至少一个旋转追踪点和至少两个非旋转追踪点;所述空间坐标包括交互设备旋转前的旋转前空间坐标和交互设备旋转后的旋转后空间坐标;交互单元,具体可以用于确定所述旋转追踪点的第一坐标差值,以及确定所述非旋转追踪点的第二坐标差值,所述第一坐标差值为所述交互设备旋转前旋转追踪点的旋转前空间坐标和交互设备旋转后旋转追踪点的旋转后空间坐标之间的差值,所述第二坐标差值为所述交互设备旋转前非旋转追踪点的旋转前空间坐标和交互设备旋转后非旋转追踪点的旋转后空间坐标之间的差值;根据所述第一坐标差值和所述第二坐标差值,确定所述交互设备的旋转角度;根据所述旋转角度,生成所述交互设备的运动姿态。
在一些实施例中,交互单元,具体可以用于判断所述第二坐标差值是否为有效值;若所述第二坐标差值为有效值,则根据所述第一坐标差值和所述第二坐标差值,确定所述交互设备的旋转角度。
在一些实施例中,交互单元,具体可以用于若所述第二坐标差值不为有效值,则根据第一坐标差值和所述非旋转追踪点的旋转前空间坐标,确定所述交互设备的旋转角度。
在一些实施例中,第一确定单元,具体可以用于确定所述目标交互追踪点在所述目标图像中的目标位置参数;获取所述目标位置参数对应的预设参考参数;将所述目标位置参数和预设参考参数进行融合处理,得到所述交互设备中目标交互追踪点对应的方位参数。
此外,本申请实施例还提供一种计算机设备,包括存储器和处理器;存储器存储有计算机程序,处理器用于运行存储器内的计算机程序,以执行本申请实施例提供的任一种数据交互方法。
此外,本申请实施例还提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序适于处理器进行加载,以执行本申请实施例提供的任一种数据交互方法。
本申请实施例可以通过图像采集装置采集交互设备在与被控设备交互过程中的目标图像,所述目标图像包括所述交互设备中目标交互追踪点;根据所述目标图像,确定所述目标交互追踪点对应的方位参数,所述方位参数包括所述图像采集装置与所述目标交互追踪点之间的方位参数;根据所述方位参数,确定所述目标交互追踪点所在空间的至少两个二维参考坐标;对所述至少两个二维参考坐标进行融合处理,得到所述目标交互追踪点的三维空间坐标;根据所述三维空间坐标,确定所述交互设备的运动姿态,并根据所述运动姿态进行数据交互;由于本申请实施例可以基于从目标图像中确定出的方位参数,确定目标交互追踪点的二维参考坐标,进而可以对二维参考坐标进行融合处理,得到目标交互追踪点的三维空间坐标,如此可以根据三维空间坐标,准确地确定交互设备的运动姿态,从而能够提高数据交互的精度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的数据交互方法的场景示意图;
图2是本申请实施例提供的数据交互方法的流程示意图;
图3是本申请实施例提供的交互设备与3D显示器交互的示意图;
图4是本申请实施例提供的基于xOy平面的交互设备与3D显示器交互的示意图;
图5是本申请实施例提供的基于xOz平面的交互设备与3D显示器交互的示意图;
图6为本申请实施例提供的交互设备旋转前的姿态示意图;
图7是本申请实施例提供的交互设备旋转后的姿态示意图;
图8是本申请实施例提供的数据交互装置的结构示意图;
图9是本申请实施例提供的计算机设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供一种数据交互方法、装置、计算机设备和计算机可读存储介质。其中,该数据交互装置可以集成在计算机设备中,该计算机设备可以是服务器,也可以是终端等设备。
其中,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、网络加速服务(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。终端可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。
例如,参见图1,以数据交互装置集成在计算机设备中为例,计算机设备通过图像采集装置采集交互设备在与被控设备交互过程中的目标图像;根据目标图像,确定目标交互追踪点对应的方位参数;根据方位参数,确定目标交互追踪点所在空间的至少两个二维参考坐标;对至少两个二维参考坐标进行融合处理,得到目标交互追踪点的三维空间坐标;根据三维空间坐标,确定交互设备的运动姿态,并根据运动姿态进行数据交互。
其中,目标图像包括交互设备中目标交互追踪点。交互设备可以为交互笔、可以为交互杆等,具体形状可以根据需求进行设置。
其中,方位参数包括图像采集装置与目标交互追踪点之间的方位参数,方位参数可以包括角度参数和/或位置参数。
其中,被控设备可以为智能电视机、可以平板电脑,也可以为上述的计算机设备。
以下分别进行详细说明。需说明的是,以下实施例的描述顺序不作为对实施例优选顺序的限定。
本实施例将从数据交互装置的角度进行描述,该数据交互装置具体可以集成在计算机设备中,该计算机设备可以是服务器,也可以是终端等设备;其中,该终端可以包括平板电脑、笔记本电脑、以及个人计算机(PC,Personal Computer)、可穿戴设备、虚拟现实设备或其他可以获取数据的智能设备等设备。
如图2所示,该数据交互方法的具体流程如下:
S101、通过图像采集装置采集交互设备在与被控设备交互过程中的目标图像。
其中,目标图像包括交互设备中目标交互追踪点。目标交互追踪点可以是预先在交互设备上设置的标记点,目标交互追踪点用于确定交互设备在空间中的运动姿态。
其中,图像采集装置可以是指具备图像采集功能的装置。图像采集装置可以集成于计算机设备上。
本申请的图像采集装置可以设置具有至少两个。图像采集装置可以根据实际需求采用对应的数量,并布置在被控设备所在空间的预设位置。本申请实施例以被控设备为上述的计算机设备,且被控设备为3D显示设备为例进行阐述。
例如,如图3所示,图像采集装置可以为摄像头,摄像头可以为光学摄像头,本申请实施例的图像采集装置可以设置具有两个,分别为第一图像采集装置和第二图像采集装置,两个图像采集装置分别设置于3D显示器两侧。
S102、根据目标图像,确定目标交互追踪点对应的方位参数。
其中,方位参数包括图像采集装置与目标交互追踪点之间的方位参数。
在本申请实施例中,3D显示器中设置有图像处理与分析单元。本申请实施例可以通过图像处理与分析单元根据目标图像,确定目标交互追踪点对应的方位参数。
本申请实施例根据目标图像,确定目标交互追踪点对应的方位参数的方式可以为:
计算机设备可以确定目标交互追踪点在目标图像中的目标位置参数;获取目标位置参数对应的预设参考参数;将目标位置参数和预设参考参数进行融合处理,得到交互设备中目标交互追踪点对应的方位参数。
其中,本申请实施例可以采用神经网络模型对目标图像进行识别,以确定目标交互追踪点在目标图像中的目标位置参数。
其中,由于本申请实施例的目标交互追踪点可以以颜色为标记点,例如,黑色,基于此,本申请实施例可以根据目标图像中像素点的像素值,当像素点的像素值为目标像素值时,将目标像素值对应的目标像素点作为目标交互追踪点,以确定出目标交互追踪点在目标图像中的目标位置参数,例如,目标位置参数可以是指目标像素点所在的位置参数。
其中,预设参考参数可以包括摄像头的焦距参数、摄像头的视场角参数。
其中,本申请实施例可以通过预设映射函数,将目标位置参数和预设参考参数进行融合处理,得到交互设备中目标交互追踪点对应的方位参数。预设映射函数可以为预设设置的、用于对目标位置参数和预设参考参数进行融合的函数;预设映射函数可以是现有相关技术中的函数,也可以为自定义的函数。
S103、根据方位参数,确定目标交互追踪点所在空间的至少两个二维参考坐标。
本申请实施例根据方位参数,确定目标交互追踪点所在空间的至少两个二维参考坐标的方式可以为:
例如,计算机设备可以获取预设方位参数,预设方位参数为至少两个图像采集装置之间的方位参数;对方位参数和预设方位参数进行融合处理,得到目标交互追踪点所在空间的至少两个二维参考坐标。
其中,预设方位参数可以是指至少两个图像采集装置之间的距离,也可以是指至少两个图像采集装置之间的距离和相对位置,等等。
本申请实施例以预设方位参数是指至少两个图像采集装置之间的距离,方位参数为角度参数为例进行阐述。
本申请实施例可以通过三角函数对方位参数和预设方位参数进行融合处理,得到目标交互追踪点所在空间的至少两个二维参考坐标。
具体来说,方位参数包括第一方位参数和第二方位参数,二维参考坐标包括第一二维参考坐标和第二二维参考坐标。
本申请实施例对方位参数和预设方位参数进行融合处理,得到目标交互追踪点所在空间的至少两个二维参考坐标的方式可以为:计算机设备可以对第一方位参数和预设方位参数进行融合处理,得到目标交互追踪点所在空间的第一二维参考坐标;对第二方位参数和预设方位参数进行融合处理,得到目标交互追踪点所在空间的第二二维参考坐标;根据第一二维参考坐标和第二二维参考坐标,生成目标交互追踪点所在空间的两个二维参考坐标。
具体来说,如图3所示,本申请实施例以3D显示器左下角为空间坐标系的原点,建立空间坐标系Oxyz。交互设备置于3D显示器前,用户可以通过操纵交互设备对3D显示器进行控制。交互设备上的目标交互追踪点可以包括目标交互追踪点A、目标交互追踪点B。图像采集装置可以包括第一图像采集装置和第二图像采集装置。
如图4所示,以目标交互追踪点A为例,基于空间坐标系Oxyz中的xOy平面,本申请实施例中,第一方位参数可以包括角度a1和角度a2。由于预设方位参数可以是指至少两个图像采集装置之间的距离D可以是固定的,基于此,本申请实施例可以通过三角函数计算出Oy和目标交互追踪点A之间的距离L,即目标交互追踪点A在Ox方向上与原点O之间的距离L,以及通过三角函数计算出目标交互追踪点A在Oy方向上的距离H,如此得到目标交互追踪点A的第一二维参考坐标(x,y)。
同理,如图5所示,以目标交互追踪点A为例,基于空间坐标系Oxyz中的xOz平面,本申请实施例中,第二方位参数可以包括角度b1和角度b2。本申请实施例可以通过三角函数计算出目标交互追踪点A在Ox方向上与原点O之间的距离L,以及通过三角函数计算出目标交互追踪点A在Oz方向上的距离M,如此得到目标交互追踪点的第二二维参考坐标(x,z)。
S104、对至少两个二维参考坐标进行融合处理,得到目标交互追踪点的三维空间坐标。
基于上述,本申请实施例将第一二维参考坐标(x,y)和第二二维参考坐标(x,z)进行融合处理,得到目标交互追踪点A的三维空间坐标(x,y,z)。
同理,本申请实施例可以采用上述的方式,计算出其他目标交互追踪点的三维空间坐标。
在本申请实施例中,目标图像可以有多张,每张目标图像可以对应计算出目标交互追踪点的三维空间坐标。
S105、根据三维空间坐标,确定交互设备的运动姿态,并根据运动姿态进行数据交互。
本申请实施例的运动姿态可以包括旋转姿态、移动姿态、倾斜姿态。具体来说,当旋转角度为90°时,旋转姿态可以称为旋转90°的姿态;当移动5cm时,移动姿态可以称为移动5cm的姿态;当倾斜45°时,倾斜姿态可以称为倾斜45°的姿态。
本申请实施例可以通过两个目标交互追踪点确定出交互设备的移动姿态和倾斜姿态。
在现有的相关技术中,如果要确定出交互设备的旋转姿态,需要在交互设备中增加角度螺旋仪或其它角度检测传感器获取到交互设备的旋转角度,以确定出交互设备的旋转姿态。本申请实施例可以只通过目标交互追踪点确定出交互设备的旋转姿态。
具体来说,本申请实施例可以通过至少三个目标交互追踪点确定交互设备的旋转姿态。
本申请实施例以目标交互追踪点具有三个为例进行阐述。目标交互追踪点包括至少一个旋转追踪点和至少两个非旋转追踪点。空间坐标包括交互设备旋转前的旋转前空间坐标和交互设备旋转后的旋转后空间坐标。当非旋转追踪点在同一直线上时,旋转追踪点与其他至少两个非旋转追踪点不在同一直线上。
比如,交互设备上的目标交互追踪点包括目标交互追踪点A、目标交互追踪点B和目标交互追踪点C。其中,目标交互追踪点A和目标交互追踪点B可以位于同一直线上,目标交互追踪点C不在目标交互追踪点A和目标交互追踪点B所在直线上,目标交互追踪点C为旋转追踪点,目标交互追踪点A和目标交互追踪点B为非旋转追踪点。
例如,如图6所示,交互设备在旋转前,目标交互追踪点A、目标交互追踪点B和目标交互追踪点C具有旋转前空间坐标;如图7所示,交互设备在旋转前,目标交互追踪点A、目标交互追踪点B和目标交互追踪点C具有旋转后空间坐标。
其中,本申请实施例根据第一坐标差值和第二坐标差值,确定交互设备的旋转角度的方式可以为:判断第二坐标差值是否为有效值;若第二坐标差值为有效值,则根据第一坐标差值和第二坐标差值,确定交互设备的旋转角度。
当第二坐标差值小于预设阈值时,第二坐标差值为有效值;当第二坐标差值大于预设阈值时,第二坐标差值不为有效值。
其中,当第二坐标差值为有效值时,说明第二坐标差值较小;当第二坐标差值不为有效值时,说明第二坐标差值较大。
其中,本申请实施例在判断第二坐标差值是否为有效值之后,方法还包括:若第二坐标差值不为有效值,则根据第一坐标差值和非旋转追踪点的旋转前空间坐标,确定交互设备的旋转角度。
本申请实施例根据三维空间坐标,确定交互设备的运动姿态的方式可以为:确定旋转追踪点的第一坐标差值,以及确定非旋转追踪点的第二坐标差值,第一坐标差值为交互设备旋转前旋转追踪点的旋转前空间坐标和交互设备旋转后旋转追踪点的旋转后空间坐标之间的差值,第二坐标差值为交互设备旋转前非旋转追踪点的旋转前空间坐标和交互设备旋转后非旋转追踪点的旋转后空间坐标之间的差值;根据第一坐标差值和第二坐标差值,确定交互设备的旋转角度;根据旋转角度,生成交互设备的运动姿态。
本申请实施例可以通过图像采集装置采集交互设备在与被控设备交互过程中的目标图像,目标图像包括交互设备中目标交互追踪点;根据目标图像,确定目标交互追踪点对应的方位参数,方位参数包括图像采集装置与目标交互追踪点之间的方位参数;根据方位参数,确定目标交互追踪点所在空间的至少两个二维参考坐标;对至少两个二维参考坐标进行融合处理,得到目标交互追踪点的三维空间坐标;根据三维空间坐标,确定交互设备的运动姿态,并根据运动姿态进行数据交互;由于本申请实施例可以基于从目标图像中确定出的方位参数,确定目标交互追踪点的二维参考坐标,进而可以对二维参考坐标进行融合处理,得到目标交互追踪点的三维空间坐标,如此可以根据三维空间坐标,准确地确定交互设备的运动姿态,从而能够提高数据交互的精度。
为了更好地实施以上方法,本申请实施例还提供一种数据交互装置,该数据交互装置可以集成在计算机设备,比如服务器或终端等设备中,该终端可以包括平板电脑、笔记本电脑和/或个人计算机等。
例如,如图8所示,该数据交互装置可以包括采集单元301、第一确定单元302、第二确定单元303、融合单元304和交互单元305,如下:
(1)采集单元301;
采集单元301,可以用于通过图像采集装置采集交互设备在与被控设备交互过程中的目标图像,目标图像包括交互设备中目标交互追踪点。
(2)第一确定单元302;
第一确定单元302,可以用于根据目标图像,确定目标交互追踪点对应的方位参数,方位参数包括图像采集装置与目标交互追踪点之间的方位参数。
第一确定单元302,可以用于确定目标交互追踪点在目标图像中的目标位置参数;获取目标位置参数对应的预设参考参数;将目标位置参数和预设参考参数进行融合处理,得到交互设备中目标交互追踪点对应的方位参数。
(3)第二确定单元303;
第二确定单元303,可以用于根据方位参数,确定目标交互追踪点所在空间的至少两个二维参考坐标。
在一些申请实施例中,图像采集装置包括至少两个;第二确定单元303,可以用于获取预设方位参数,预设方位参数为至少两个图像采集装置之间的方位参数;对方位参数和预设方位参数进行融合处理,得到目标交互追踪点所在空间的至少两个二维参考坐标。
在一些申请实施例中,方位参数包括第一方位参数和第二方位参数,二维参考坐标包括第一二维参考坐标和第二二维参考坐标;第二确定单元303,可以用于对第一方位参数和预设方位参数进行融合处理,得到目标交互追踪点所在空间的第一二维参考坐标;对第二方位参数和预设方位参数进行融合处理,得到目标交互追踪点所在空间的第二二维参考坐标;根据第一二维参考坐标和第二二维参考坐标,生成目标交互追踪点所在空间的两个二维参考坐标。
(4)融合单元304;
融合单元304,可以用于对至少两个二维参考坐标进行融合处理,得到目标交互追踪点的三维空间坐标。
(5)交互单元305;
交互单元305,可以用于根据三维空间坐标,确定交互设备的运动姿态,并根据运动姿态进行数据交互。
在一些申请实施例中,目标交互追踪点包括至少一个旋转追踪点和至少两个非旋转追踪点;空间坐标包括交互设备旋转前的旋转前空间坐标和交互设备旋转后的旋转后空间坐标;交互单元305,可以用于确定旋转追踪点的第一坐标差值,以及确定非旋转追踪点的第二坐标差值,第一坐标差值为交互设备旋转前旋转追踪点的旋转前空间坐标和交互设备旋转后旋转追踪点的旋转后空间坐标之间的差值,第二坐标差值为交互设备旋转前非旋转追踪点的旋转前空间坐标和交互设备旋转后非旋转追踪点的旋转后空间坐标之间的差值;根据第一坐标差值和第二坐标差值,确定交互设备的旋转角度;根据旋转角度,生成交互设备的运动姿态。
在一些申请实施例中,交互单元305,可以用于判断第二坐标差值是否为有效值;若第二坐标差值为有效值,则根据第一坐标差值和第二坐标差值,确定交互设备的旋转角度。
在一些申请实施例中,交互单元305,可以用于若第二坐标差值不为有效值,则根据第一坐标差值和非旋转追踪点的旋转前空间坐标,确定交互设备的旋转角度。
由上可知,本申请实施例可以通过图像采集装置采集交互设备在与被控设备交互过程中的目标图像,目标图像包括交互设备中目标交互追踪点;根据目标图像,确定目标交互追踪点对应的方位参数,方位参数包括图像采集装置与目标交互追踪点之间的方位参数;根据方位参数,确定目标交互追踪点所在空间的至少两个二维参考坐标;对至少两个二维参考坐标进行融合处理,得到目标交互追踪点的三维空间坐标;根据三维空间坐标,确定交互设备的运动姿态,并根据运动姿态进行数据交互;由于本申请实施例可以基于从目标图像中确定出的方位参数,确定目标交互追踪点的二维参考坐标,进而可以对二维参考坐标进行融合处理,得到目标交互追踪点的三维空间坐标,如此可以根据三维空间坐标,准确地确定交互设备的运动姿态,从而能够提高数据交互的精度。
本申请实施例还提供一种计算机设备,如图9所示,其示出了本申请实施例所涉及的计算机设备的结构示意图,具体来讲:
该计算机设备可以包括一个或者一个以上处理核心的处理器401、一个或一个以上计算机可读存储介质的存储器402、电源403和输入单元404等部件。本领域技术人员可以理解,图9中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器401是该计算机设备的控制中心,利用各种接口和线路连接整个计算机设备的各个部分,通过运行或执行存储在存储器402内的软件程序和/或模块,以及调用存储在存储器402内的数据,执行计算机设备的各种功能和处理数据。可选的,处理器401可包括一个或多个处理核心;优选的,处理器401可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和计算机程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器401中。
存储器402可用于存储软件程序以及模块,处理器401通过运行存储在存储器402的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器402可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的计算机程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机设备的使用所创建的数据等。此外,存储器402可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器402还可以包括存储器控制器,以提供处理器401对存储器402的访问。
计算机设备还包括给各个部件供电的电源403,优选的,电源403可以通过电源管理系统与处理器401逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源403还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该计算机设备还可包括输入单元404,该输入单元404可用于接收输入的数字或字符信息通讯,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
尽管未示出,计算机设备还可以包括显示单元等,在此不再赘述。具体在本实施例中,计算机设备中的处理器401会按照如下的指令,将一个或一个以上的计算机程序的进程对应的可执行文件加载到存储器402中,并由处理器401来运行存储在存储器402中的计算机程序,从而实现各种功能,如下:
本申请实施例可以通过图像采集装置采集交互设备在与被控设备交互过程中的目标图像,目标图像包括交互设备中目标交互追踪点;根据目标图像,确定目标交互追踪点对应的方位参数,方位参数包括图像采集装置与目标交互追踪点之间的方位参数;根据方位参数,确定目标交互追踪点所在空间的至少两个二维参考坐标;对至少两个二维参考坐标进行融合处理,得到目标交互追踪点的三维空间坐标;根据三维空间坐标,确定交互设备的运动姿态,并根据运动姿态进行数据交互。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过计算机程序来完成,或通过计算机程序控制相关的硬件来完成,该计算机程序可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种计算机可读存储介质,其中存储有计算机程序,该计算机程序能够被处理器进行加载,以执行本申请实施例所提供的任一种数据交互方法。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该计算机可读存储介质中所存储的指令,可以执行本申请实施例所提供的任一种数据交互方法中的步骤,因此,可以实现本申请实施例所提供的任一种数据交互方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
其中,根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述实施例提供的各种可选实现方式中提供的方法。
以上对本申请实施例所提供的一种数据交互方法、装置、计算机设备及计算机可读存储介质,进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本申请的限制。

Claims (10)

1.一种数据交互方法,其特征在于,包括:
通过图像采集装置采集交互设备在与被控设备交互过程中的目标图像,所述目标图像包括所述交互设备中目标交互追踪点;
根据所述目标图像,确定所述目标交互追踪点对应的方位参数,所述方位参数包括所述图像采集装置与所述目标交互追踪点之间的方位参数;
根据所述方位参数,确定所述目标交互追踪点所在空间的至少两个二维参考坐标;
对所述至少两个二维参考坐标进行融合处理,得到所述目标交互追踪点的三维空间坐标;
根据所述三维空间坐标,确定所述交互设备的运动姿态,并根据所述运动姿态进行数据交互。
2.根据权利要求1所述的数据交互方法,其特征在于,所述图像采集装置包括至少两个;所述根据所述方位参数,确定所述目标交互追踪点所在空间的至少两个二维参考坐标,包括:
获取预设方位参数,所述预设方位参数为所述至少两个图像采集装置之间的方位参数;
对所述方位参数和所述预设方位参数进行融合处理,得到所述目标交互追踪点所在空间的至少两个二维参考坐标。
3.根据权利要求2所述的数据交互方法,其特征在于,所述方位参数包括第一方位参数和第二方位参数,所述二维参考坐标包括第一二维参考坐标和第二二维参考坐标;所述对所述方位参数和所述预设方位参数进行融合处理,得到所述目标交互追踪点所在空间的至少两个二维参考坐标,包括:
对所述第一方位参数和所述预设方位参数进行融合处理,得到所述目标交互追踪点所在空间的第一二维参考坐标;
对所述第二方位参数和所述预设方位参数进行融合处理,得到所述目标交互追踪点所在空间的第二二维参考坐标;
根据所述第一二维参考坐标和第二二维参考坐标,生成所述目标交互追踪点所在空间的两个二维参考坐标。
4.根据权利要求1所述的数据交互方法,其特征在于,所述目标交互追踪点包括至少一个旋转追踪点和至少两个非旋转追踪点;所述空间坐标包括交互设备旋转前的旋转前空间坐标和交互设备旋转后的旋转后空间坐标;所述根据所述三维空间坐标,确定所述交互设备的运动姿态,包括:
确定所述旋转追踪点的第一坐标差值,以及确定所述非旋转追踪点的第二坐标差值,所述第一坐标差值为所述交互设备旋转前旋转追踪点的旋转前空间坐标和交互设备旋转后旋转追踪点的旋转后空间坐标之间的差值,所述第二坐标差值为所述交互设备旋转前非旋转追踪点的旋转前空间坐标和交互设备旋转后非旋转追踪点的旋转后空间坐标之间的差值;
根据所述第一坐标差值和所述第二坐标差值,确定所述交互设备的旋转角度;
根据所述旋转角度,生成所述交互设备的运动姿态。
5.根据权利要求4所述的数据交互方法,其特征在于,所述根据所述第一坐标差值和所述第二坐标差值,确定所述交互设备的旋转角度,包括:
判断所述第二坐标差值是否为有效值;
若所述第二坐标差值为有效值,则根据所述第一坐标差值和所述第二坐标差值,确定所述交互设备的旋转角度。
6.根据权利要求5所述的数据交互方法,其特征在于,所述判断所述第二坐标差值是否为有效值之后,所述方法还包括:
若所述第二坐标差值不为有效值,则根据第一坐标差值和所述非旋转追踪点的旋转前空间坐标,确定所述交互设备的旋转角度。
7.根据权利要求1所述的数据交互方法,其特征在于,所述根据所述目标图像,确定所述目标交互追踪点对应的方位参数,包括:
确定所述目标交互追踪点在所述目标图像中的目标位置参数;
获取所述目标位置参数对应的预设参考参数;
将所述目标位置参数和预设参考参数进行融合处理,得到所述交互设备中目标交互追踪点对应的方位参数。
8.一种数据交互装置,其特征在于,包括:
采集单元,用于通过图像采集装置采集交互设备在与被控设备交互过程中的目标图像,所述目标图像包括所述交互设备中目标交互追踪点;
第一确定单元,用于根据所述目标图像,确定所述目标交互追踪点对应的方位参数,所述方位参数包括所述图像采集装置与所述目标交互追踪点之间的方位参数;
第二确定单元,用于根据所述方位参数,确定所述目标交互追踪点所在空间的至少两个二维参考坐标;
融合单元,用于对所述至少两个二维参考坐标进行融合处理,得到所述目标交互追踪点的三维空间坐标;
交互单元,用于根据所述三维空间坐标,确定所述交互设备的运动姿态,并根据所述运动姿态进行数据交互。
9.一种计算机设备,其特征在于,包括存储器和处理器;所述存储器存储有计算机程序,所述处理器用于运行所述存储器内的计算机程序,以执行权利要求1至7任一项所述的数据交互方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序适于处理器进行加载,以执行权利要求1至7任一项所述的数据交互方法。
CN202210473042.1A 2022-04-29 2022-04-29 数据交互方法、装置、计算机设备及计算机可读存储介质 Pending CN117014594A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210473042.1A CN117014594A (zh) 2022-04-29 2022-04-29 数据交互方法、装置、计算机设备及计算机可读存储介质
PCT/CN2023/080138 WO2023207345A1 (zh) 2022-04-29 2023-03-07 数据交互方法、装置、计算机设备及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210473042.1A CN117014594A (zh) 2022-04-29 2022-04-29 数据交互方法、装置、计算机设备及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN117014594A true CN117014594A (zh) 2023-11-07

Family

ID=88517273

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210473042.1A Pending CN117014594A (zh) 2022-04-29 2022-04-29 数据交互方法、装置、计算机设备及计算机可读存储介质

Country Status (2)

Country Link
CN (1) CN117014594A (zh)
WO (1) WO2023207345A1 (zh)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107340870B (zh) * 2017-07-13 2020-09-01 深圳市未来感知科技有限公司 一种融合vr和ar的虚拟现实展示系统及其实现方法
CN110119190A (zh) * 2018-02-06 2019-08-13 广东虚拟现实科技有限公司 定位方法、装置、识别跟踪系统及计算机可读介质
CN110609622A (zh) * 2019-09-18 2019-12-24 深圳市瑞立视多媒体科技有限公司 结合3d与虚拟现实技术实现多人交互方法、系统及介质
CN111240468B (zh) * 2019-12-31 2023-04-25 北京诺亦腾科技有限公司 手部动作捕捉的校准方法、装置、电子设备及存储介质
WO2021249390A1 (zh) * 2020-06-12 2021-12-16 贝壳技术有限公司 实现增强现实的方法和装置、存储介质、电子设备
CN111930226A (zh) * 2020-07-01 2020-11-13 青岛小鸟看看科技有限公司 手势追踪方法及装置

Also Published As

Publication number Publication date
WO2023207345A1 (zh) 2023-11-02

Similar Documents

Publication Publication Date Title
CN111801708B (zh) 使用光线投射和实时深度进行遮挡渲染的方法
CN107851178B (zh) 基于多个表面模型的混合三维场景重构
US9224237B2 (en) Simulating three-dimensional views using planes of content
US9437038B1 (en) Simulating three-dimensional views using depth relationships among planes of content
CN109743892B (zh) 虚拟现实内容的显示方法和装置
KR20220083839A (ko) 가상 장면을 표시하는 방법 및 장치, 그리고 기기 및 저장 매체
JP2022537614A (ja) マルチ仮想キャラクターの制御方法、装置、およびコンピュータプログラム
US20170186219A1 (en) Method for 360-degree panoramic display, display module and mobile terminal
KR20200017068A (ko) 외부 객체의 위치의 변화에 따라 외부 객체에 대응하는 아바타를 표시하기 위한 전자 장치
CN112138386A (zh) 一种体积渲染方法、装置、存储介质及计算机设备
US20170178396A1 (en) Generating virtual shadows for displayable elements
CN107204044B (zh) 一种基于虚拟现实的画面显示方法及相关设备
US11477432B2 (en) Information processing apparatus, information processing method and storage medium
CN113426117B (zh) 虚拟相机拍摄参数获取方法、装置、电子设备和存储介质
CN111161398B (zh) 一种图像生成方法、装置、设备及存储介质
US11373329B2 (en) Method of generating 3-dimensional model data
CN114928673A (zh) 拍摄画面的显示方法、终端及存储介质
CN117014594A (zh) 数据交互方法、装置、计算机设备及计算机可读存储介质
CN112738404B (zh) 电子设备的控制方法及电子设备
CN117133029A (zh) 一种镜子调整方法、装置、智能设备及存储介质
CN114266849A (zh) 模型自动生成方法、装置、计算机设备及存储介质
CN115311364A (zh) 相机定位方法、装置、电子设备及计算机可读存储介质
CN112473138A (zh) 游戏的显示控制方法及装置、可读存储介质、电子设备
CN117111742A (zh) 图像交互方法、装置、电子设备及存储介质
US20230206566A1 (en) Method of learning a target object using a virtual viewpoint camera and a method of augmenting a virtual model on a real object implementing the target object using the same

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination