CN110348295A - 目标检测方法、体感交互设备以及存储介质 - Google Patents
目标检测方法、体感交互设备以及存储介质 Download PDFInfo
- Publication number
- CN110348295A CN110348295A CN201910462599.3A CN201910462599A CN110348295A CN 110348295 A CN110348295 A CN 110348295A CN 201910462599 A CN201910462599 A CN 201910462599A CN 110348295 A CN110348295 A CN 110348295A
- Authority
- CN
- China
- Prior art keywords
- row
- target
- compression
- area
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 43
- 230000003993 interaction Effects 0.000 title claims abstract description 33
- 230000006835 compression Effects 0.000 claims abstract description 111
- 238000007906 compression Methods 0.000 claims abstract description 111
- 238000004364 calculation method Methods 0.000 claims abstract description 30
- 238000012545 processing Methods 0.000 claims abstract description 18
- 238000005070 sampling Methods 0.000 claims abstract description 18
- 238000005259 measurement Methods 0.000 claims description 106
- 230000003238 somatosensory effect Effects 0.000 claims description 29
- 239000013598 vector Substances 0.000 claims description 25
- 239000011159 matrix material Substances 0.000 claims description 24
- 238000007781 pre-processing Methods 0.000 claims description 21
- 230000014509 gene expression Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 13
- 230000002452 interceptive effect Effects 0.000 claims description 5
- 238000000034 method Methods 0.000 abstract description 19
- 230000008569 process Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 229930091051 Arenine Natural products 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
Abstract
公开了一种目标检测方法,应用于体感互动设备,所述方法包括,获取待检测区域的初始图像;其中,所述初始图像来源于所述体感互动设备采集的当前一帧图像;将所述初始图像进行预处理,以转化为所述体感交互设备能够识别的预处理图像;将对应所述预处理图像的图像信号按行、列进行压缩采样处理,以获得压缩量测值;根据所述压缩量测值,进行待检测目标的检测运算,获得所述待检测目标的坐标位置。通过对图像信号分别按行、列进行压缩采样处理的方式降低数据量,降低数据量减少了需要处理的数据,从而减少运算量,避免复杂的迭代运算。本发明还提供一种体感交互设备以及存储介质。
Description
技术领域
本发明涉及图像处理技术,尤其涉及一种目标检测方法、体感交互设备以及存储介质。
背景技术
随着科学技术与经济水平的不断发展,人们对文化生活的追求越来越高,为满足人们多元化的娱乐需求,体感游戏慢慢发展起来了。体感游戏是通过肢体动作变化对电子游戏进行操作,将运动与娱乐相结合,满足人们的娱乐需求。现有体感游戏,均由捕捉、跟踪、识别人体的动作,获取人体图像进行深度分析可以实现对人体动作的准确识别,从而利用识别的手势对电子游戏进行操作,完成体感游戏的功能。但现如今,因为对游戏体验的追求,游戏的画面的数据量越来越大,在捕捉人体的动作,并识别人体的动作的过程,需要的计算量更大,需要特定的主机才能对动作有精确的分析,这大大限制而来体感游戏的传播。传统的体感互动的处理方法,是将获取的图像压缩处理为压缩量测信号,再将压缩感知信号恢复成原始信号,但该过程需要进行复杂的迭代计算,运算过程复杂且计算量大,非常耗费时间。
发明内容
本发明的主要目的在于提供一种目标检测方法、体感交互设备以及存储介质,可以降低运算量,提高系统运行速度,实现系统的实时运行。
为实现上述目的,本发明提供了一种目标检测方法,应用于体感互动设备,所述方法包括,
获取待检测区域的初始图像;其中,所述初始图像来源于所述体感互动设备采集的当前一帧图像;
将所述初始图像进行预处理,以转化为所述体感交互设备能够识别的预处理图像;
将对应所述预处理图像的图像信号按行、列进行压缩采样处理,以获得压缩量测值;
根据所述压缩量测值,进行待检测目标的检测运算,获得所述待检测目标的坐标位置。
进一步地,所述初始图像中包括有预设颜色值的待测像素点,所述“将所述初始图像进行预处理,以转化为所述体感交互设备能够识别的预处理图像”步骤包括:
判断所述初始图像的像素点的预设颜色值是否满足预设条件;
若所述初始图像中的像素点的预设颜色值满足所述预设条件,则将满足所述预设条件的像素点进行第一预处理,以转化为所述体感交互设备能够识别的第一预处理像素点;
若所述初始图像中的像素点的预设颜色值不满足所述预设条件,则将不满足所述预设条件的像素点进行第二预处理,以转化为所述体感交互设备能够识别的第二预处理像素点;
将第一预处理像素点或第二预处理像素点按分别按行、列展开成第一列向量以及第二列向量。
进一步地,所述“将对应所述预处理图像的图像信号按行、列进行压缩采样处理,以获得压缩量测值”步骤包括:
根据所述初始图像的像素点的行列数及伪随机序列,构建第一观测矩阵和第二观测矩阵;
根据所述第一观测矩阵、第二观测矩阵、第一列向量以及第二列向量,对所述初始图像进行行、列压缩采样,以计算出第一行压缩测量值和第一列压缩测量值。
进一步地,根据第一公式计算出第一行压缩测量值和第一列压缩测量值,
所述第一公式为:
其中,M为所述初始图像的像素点的行数,N为所述初始图像的像素点的列数,为第一列向量,为第二列向量,为第一观测矩阵为第二观测矩阵,ycross为第一行压缩量测值与;ylength为第一列压缩量测值。
进一步地,所述“根据所述压缩量测值,进行待检测目标的检测运算,获得所述待检测目标的坐标位置”步骤包括:
根据所述第一行压缩量测值、第一列压缩量测值,计算所述待检测区域中待检测目标的粗略中心位置;
根据所述粗略中心位置坐标,计算所述待检测目标的坐标位置;其中,所述坐标位置位于所述粗略中心位置坐标的范围内。
进一步地,所述“根据所述第一行压缩量测值、第一列压缩量测值,计算所述待检测区域中待检测目标的粗略中心位置”,具体包括:
将所述待检测区域进行划分,构建若干第一区域;
计算各个所述第一区域的中心位置坐标;
根据各个所述中心位置坐标,构建第一区域表达式;
根据所述第一区域表达式,分别计算出各个所述第一区域的第二行压缩量测和第二列压缩量测;
第一行压缩量测分别与各个所述第一区域的所述第二行压缩量测进行内积计算获得各个所述第一区域的第一内积值,第一列压缩量测与各个所述第一区域的第二列压缩量测进行内积计算获得各个所述第一区域的第二内积值;
根据各个所述第一区域的所述第一内积值与第二内积值进行各区域权重计算;
根据各区域权重计算得目标的粗略中心位置坐标。
进一步地,所述“根据所述粗略中心位置坐标,计算所述待检测目标的坐标位置”步骤包括:
根据所述粗略中心位置坐标,以所述粗略中心位置坐标构建多个第二区域,根据构建的所述粗略中心位置,并构建第二区域表达式;
根据所述第二区域表达式,计算出各个所述第二区域的第三行压缩量测和第三列压缩量测;
第一行压缩量测分别与各个所述第二区域的所述第三行压缩量测进行内积计算获得第三内积值,第一列压缩量测分别与各个所述第二区域的第三列压缩量测进行内积计算获得第四内积值;
根据各个所述第二区域的所述第三内积值与第四内积值进行各区域权重计算;
根据各区域权重计算得到目标的坐标位置。
进一步地,将所述待检测区域进行划分,构建若干第一区域,具体包括:3×3个所述第一区域。
本发明还提供一种体感交互设备,所述体感交互设备包括处理器、存储器以及存储在存储器中的计算机程序,所述计算机程序被配置成由处理器执行,处理器执行所述计算机程序程序是实现上述任意一项目标检测方法。
本发明还提供一种存储介质,所述存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器处理时实现上述任意一项目标检测方法。
本发明有益效果在于,将预处理图像的图像信息进行行、列压缩采样处理,得到行、列压缩量测信号,压缩率极高,避免了压缩量测信号重构过程中的复杂计算,极大的减小了运算量。行、列分离的采样方式和两次内积求权值的检测方法,大大提高了目标检测的精度。
附图说明
图1为本发明的一实施例的目标检测方法的流程示意图;
图2为图1中的步骤S103的流程示意图;
图3为图1中的步骤S105的流程示意图;
图4为图1中的步骤S107的流程示意图;
图5为图4中步骤S401的流程示意图;
图6为检测区域图像划分示意图;
图7为图4中步骤S402的流程示意图;
图8为本发明的一实施例的体感交互设备的示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
本实施例提供的目标检测方法,应用于体感交互设备。现有的体感交互设备主要通过摄像头获取用户的肢体动作变化,生成体感交互设备的控制指令。对此,本实施例提供的目标检测方法,识别出肢体的指定颜色在检测区域图像中的位置,获得肢体的位置,体感交互设备根据肢体的位置变化生成控制指令。
请参看图1,图1为一实施例的目标检测方法的流程示意图,第一实施例具体步骤如下:
步骤S101:获取待检测区域的初始图像。
初始图像来源于体感互动设备采集的当前一帧图像用户使用体感交互设备的摄像功能获取初始图像,还可通过外部摄像设备,如手机,摄像机的获取初始图像。用户在进行肢体运动时,需要携带特定颜色的简易道具,以使体感交互设备能够根据预先设置的识别颜色,识别肢体动作。颜色可以是红色、蓝色、黄色等颜色较为鲜艳的颜色。优选的,选择体感交互设备指定的颜色设备。
步骤S103:将所述初始图像进行预处理。
将获取的原始图像进行预处理,以将原始图像转化为体感交互设备能够识别的预处理图像。
步骤S105:将对应所述预处理图像的图像信号按行、列进行压缩采样处理,以获得压缩量测值。
将经过转化的预处理图像的图像信号的行、列,分别进行压缩采样处理,能够简化数据量,减少设备的计算过程,提高识别的效率。
步骤S107:根据所述压缩量测值,进行待检测目标的检测运算,获得所述待检测目标的坐标位置。
获取的压缩量测值,根据目标检测算法进行待检测目标的检测运算,获得所述待检测目标的坐标位置。得到待检测目标的坐标位置后,根据待检测缪前后时刻帧位置的改变,分别转换成不同的操作指令。坐标位置所在的坐标系,是以待检测区域的左上角顶点为坐标原点,自左向右为x轴正方向,自上向下为y轴正方向建立的坐标系。通过坐标位置,表示目标位于图像的位置。通过对每一帧图像的识别,获取用户动作的变化。待检测目标为像素点颜色满足体感交互设备预设颜色的图像;
请参看图2,图2为图1中的步骤S103的流程示意图将所述初始图像进行预处理,以转化为所述体感交互设备能够识别的预处理图像,具体方法包括:
步骤S201:判断所述初始图像的像素点的预设颜色值是否满足预设条件;
颜色值是否满足预设条件,即待检测区域图像中是否存在预先设置的识别颜色的物体。可通过检测初始图像的像素点的颜色值判断。具体的,颜色值通过RGB值表示。例如,预设颜色值满足R>2G,R>2B,通过检测待检测区域初始图像的每个像素点的RGB值,判断各个像素点是否满足的预设条件。
步骤S203:若所述初始图像中的像素点的预设颜色值满足所述预设条件,则将满足所述预设条件的像素点进行第一预处理;
在本实施例中,初始图像满足预设条件的像素点,转化为所述体感交互设备能够识别的第一预处理像素点,第一预设条件为将该像素点置1。当像素点满足预设颜色值,则将该像素点置1。
步骤S205:若所述初始图像中的像素点的预设颜色值不满足所述预设条件,则将不满足所述预设条件的像素点进行第二预处理。
在本实施例中,初始图像不满足预设条件的像素点,转化为所述体感交互设备能够识别的第二预处理像素点,第二预设处理为将该像素点置0。当像素点不满足预设颜色值,则将该像素点置0。
在本实施例中,第二实施例的第一预设条件和第二预设条件,将检测区域图像的图像变化为一个二值图像。该二值图像的图像信号由0或1构成。在一些实施例中,第一预设条件为保留像素点的原RGB数值,第二预设条件为将像素点的RGB分量置零。可使初始图像中满足第一预设条件的像素点变为目标较为明显的图像。
步骤S207:将经过所述第一预处理及所述第二预处理的所述初始图像的像素点按行展开成第一列向量以及第二列向量。
在完成对初始图像的像素点的判断,并进行第一预处理或第二预处理后,生成预处理图像的图像信号,将预处理图像的图像信号的行、列展开成第一列向量第二列向量图像信号为预处理图像的数字信号表示。具体的,展开后的第一列向量以及第二列向量如下:
其中,为第一列向量,为第二列向量, 分别代表预处理图像的图像信号的第1行、第2行、第3行、···第M行。χ·1、χ·2、χ·3、···、χ·M分别代表预处理图像的图像信号的第1列、第2列、第3列、···第M列。
请参看图3,图3为图1中的步骤S105的流程示意图,将对应所述预处理图像的图像信号进行压缩采样处理,以获得压缩量测值,具体方法包括
步骤S301:根据所述初始图像的像素点的行列数及伪随机序列,构建第一观测矩阵和第二观测矩阵。
第一观测矩阵和第二观测矩阵为根据图像的行列的像素点数情况,由数值为{0,1}的伪随机序列构成。在本实施例中,获取的检测区域图像为480×640点像素,可知行数为480,列数为640,根据该行列数,构成数值为{0,1}伪随机序列的第一观测矩阵和第二观测矩阵。
步骤S303:根据第一观测矩阵,第二观测矩阵、第一列向量以及第二列向量,对所述预处理图像的图像信号进行行、列分离的压缩采样,以计算出第一行压缩测量值和第一列压缩测量值。
在本实施例中,根据第一公式计算获得第一行压缩测量值和第一列压缩测量值,第一公式为:
其中,M为所述初始图像的像素点的行数,N为所述初始图像的像素点的列数,为第一观测矩阵为第二观测矩阵,ycross为第一行压缩量测值与;ylength为第一列压缩量测值。在本实施例中,所处理的图像为480X640,即M=480,N=640.即一个480X640的图像经压缩采样后得到480+540=1120个数值,压缩率为0.365%,压缩率大大提高。具体的,进行压缩采样处理,是通过对预处理图像的图像信号进行压缩采样处理,获得压缩量测值
压缩采样处理的作用是降低数据量。在本实施例中,从获取初始图像,对初始图像进行预处理,将根据预处理图像的图像信息件行、列分别压缩采样处理,获得第一列压缩量测值和第一行压缩量测值的更是可以大大提高基于压缩量信号处理的速度,减少运算量,避免复杂的迭代运算。具体的,通过压缩采样处理,在具备拍摄功能的手机端,就能实现初始图像的获取,以及预处理图像的获取,并计算第一列压缩量测和第一行压缩量测,再通过手机端将完成的第一列压缩量测和第一行压缩量测值等信息的计算,可无线发送给电脑端,进行下一步处理。
请参看图4,图4为图1中的步骤S107的流程示意图,根据所述压缩量测值,进行待检测目标的检测运算,获得所述待检测目标的坐标位置,具体方法包括
步骤S401:根据所述第一行压缩量测值、第一列压缩量测值,计算待检测区域中待检测目标的粗略中心位置。
在本实施例中,请参看图5,图5为图4中步骤S401的流程示意图,具体包括:
步骤S501:将所述待检测区域进行划分,构建若干第一区域。
请参看图6,图6为检测区域图像划分示意图。在本实施例中,确定将检测区域划分为3×3共计9个第一区域。在一些实施例中,可根据需要选择4×4或5×5个区域。本实施例只是480X640的图像,所以选择将检测区域划分为3×3个第一区域。
步骤S503:计算各个所述第一区域的中心位置坐标;
选定划分的区域数,使各个区域的中心位置坐标满足第二公式。第二公式为:
xi=135+(i-1)·185,i=1,2,3;yj=105+(j-1)·135,j=1,2,3
其中,xi、yj为中心位置坐标。根据第二公式确定本实施例中的九个区域的中心位置坐标。
步骤S505:根据各个所述中心位置坐标,构建第一区域表达式;
在本实施例中,根据第三公式构建第一区域表达式,第三公式为:
其中,xi为所述第一划分区域的中心位置的χ坐标,yj为所述第一划分区域的中心位置的y坐标,N为所述检测区域数目,i=1,2,3,j=1,2,3,l=3(j-1)+i。
步骤S507:根据所述第一区域表达式,分别计算出各个第一所述第一区域的第二行压缩量测和第二列压缩量测;
本实施例中,根据第四公式计算
为第二行压缩量测,为第二列压缩量测,l_cross=1,2,···,9,共九个第二行压缩量测。l_length=1,2,3···,9,共九个第二列压缩量测。第二行压缩量测和第二列压缩量测由第一观测矩阵和第二观测矩阵,分别与第一区域表达式进行压缩感知处理获得。
步骤S509:第一行压缩量测分别与各个所述第一区域的所述第二行压缩量测进行内积计算获得各个所述第一区域的第一内积值,第一列压缩量测与各个所述第一区域的第二列压缩量测进行内积计算获得各个所述第一区域的第二内积值;
具体的,根据第五公式计算,第五公式为:
其中,l=1,2,3···,9,Pcl为第一内积值,共九个第一内积值。Pll为第二内积值,共九个第二内积值。由各个第一区域对应的第一行压缩量测与第二行压缩量测进行内积获得各个第一区域的第一内积值,各个第一区域对应的第一列压缩量测和第二列压缩量测进行内积获得各个第一区域的第二内积值。
步骤S511:根据各个所述第一区域的所述第一内积值与第二内积值进行各区域权重计算;
具体的,根据第六公式进行权重计算,第六公式为:
通过第六公式,算得各区域的权重P1、P2···P9。
步骤S513:根据第一内积值与第二内积值算得目标的粗略中心位置坐标。
具体的,根据步骤S511算得的各区域的权重,经过第七公式算得粗略中心位置坐标,第七公式为:
根据上述第七公式,算得粗略中心位置(xCU,yCU),粗略中心位置为目标的大概坐标位置,需要根据该坐标位置,再进行进一步的目标检测运算,获得更精确的坐标位置。
步骤S402:根据所述粗略中心位置坐标,计算所述待检测目标的坐标位置。其中,所述坐标位置位于所述粗略中心位置坐标的范围内。
在本实施例中,请参看图7,图7为图4中步骤S402的流程示意图,具体包括
步骤S601:根据所述粗略中心位置坐标,以所述粗略中心位置坐标构建多个第二区域,根据构建的所述粗略中心位置,并构建第二区域表达式;
具体的,根据第八公式,构建第二区域表达式,第八公式如下:
其中,
在本实施例中,根据上述得出的粗略中心位置坐标以及第八公式,将粗略中心位置的按第八公式获得中心位置,将粗略中心位置划分9个第二区域。
步骤S603:根据所述第二区域表达式,计算出第三行压缩量测和第三列压缩量测;
具体的,再一次根据第四公式,算得第三行压缩量测和第三列压缩量测
为第二行压缩量测,为第二列压缩量测。l_cross2=1,2,···,9,l_length2=1,2,3···,9。具体的,分别计算出每一个第二区域中的第二行压缩量测以及第二列行压缩量测。
步骤S605:第一行压缩量测与所述第三行压缩量测进行内积计算获得第三内积值,第一列压缩量测与第三列压缩量测进行内积计算获得第四内积值;
具体的,根据第五公式,算得第三内积值以及第四内积值,
其中,l=1,2,3···,9,Pcl′为第三内积值,分别计算各个区域共九个第三内积值,Pll′为第四内积值,分别计算出各个区域共九个第四内积值。
步骤S607:根据各个所述第二区域的所述第三内积值与第四内积值进行各区域权重计算;
具体的,根据第六公式进行权重计算,第六公式为:
通过第六公式,算得各个第二区域的权重P1′、P2′···P9′。
步骤S609:根据各区域权重计算得到目标的坐标位置。
具体的,根据步骤S511算得的各区域的权重,经过第七公式算得目标的坐标位置,第七公式为:
计算得,目标的坐标位置(xCU′,yCU′)。
通过电脑端计算得到目标的坐标位置后,根据目标前后时刻帧位置的改变,目标运动改变方式,分别转换成不同的游戏操作方式,从而实现对游戏的操控,实现体感设备的功能。
在上述实施例中,通过对特定颜色的目标进行监测,避免了传统目标检测算法中对目标识别的复杂计算,大大减少了计算量。通过压缩感知的方式降低数据量,且将图像信号中行或列像素点分别压缩,压缩率极高。减少了需要处理的数据,从而减少计算量。
请参看图8,图8为本发明的一实施例的体感交互设备的示意图,包括存储器100、处理器200以及存储在存储器中的计算机程序,所述计算机程序被配置成由处理器200执行,处理器200执行所述计算机程序是实现上述任意目标检测方法。
本申请实施例还提供了一种存储介质,该存储介质可存储有程序,该程序执行时可运行本申请实施例所述的方法的部分或全部步骤。具体实现中,本申请实施例的计算机存储介质包括:RAM、ROM、EEPROM、闪存、CD-ROM、DVD或其他光存储器,磁带、磁盘或其他磁存储器,或者其他任何可以用于存储所需信息并可被计算机设备所访问的介质。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种目标检测方法,应用于体感互动设备,其特征在于,所述方法包括,
获取待检测区域的初始图像;其中,所述初始图像来源于所述体感互动设备采集的当前一帧图像;
将所述初始图像进行预处理,以转化为所述体感交互设备能够识别的预处理图像;
将对应所述预处理图像的图像信号按行、列进行压缩采样处理,以获得压缩量测值;
根据所述压缩量测值,进行待检测目标的检测运算,获得所述待检测目标的坐标位置。
2.根据权利要求1所述的目标检测方法,其特征在于,所述初始图像中包括有预设颜色值的待测像素点,所述“将所述初始图像进行预处理,以转化为所述体感交互设备能够识别的预处理图像”步骤包括:
判断所述初始图像的像素点的预设颜色值是否满足预设条件;
若所述初始图像中的像素点的预设颜色值满足所述预设条件,则将满足所述预设条件的像素点进行第一预处理,以转化为所述体感交互设备能够识别的第一预处理像素点;
若所述初始图像中的像素点的预设颜色值不满足所述预设条件,则将不满足所述预设条件的像素点进行第二预处理,以转化为所述体感交互设备能够识别的第二预处理像素点;
将第一预处理像素点或第二预处理像素点按分别按行、列展开成第一列向量以及第二列向量。
3.根据权利要求2所述的目标检测方法,其特征在于,所述“将对应所述预处理图像的图像信号按行、列进行压缩采样处理,以获得压缩量测值”步骤包括:
根据所述初始图像的像素点的行列数及伪随机序列,构建第一观测矩阵和第二观测矩阵;
根据所述第一观测矩阵、第二观测矩阵、第一列向量以及第二列向量,对所述预处理图像的图像信号进行行、列压缩采样,以计算出第一行压缩测量值和第一列压缩测量值。
4.根据权利要求3所述的目标检测方法,其特征在于,根据第一公式计算出第一行压缩测量值和第一列压缩测量值,
所述第一公式为:
其中,M为所述初始图像的像素点的行数,N为所述初始图像的像素点的列数,为第一列向量,为第二列向量,为第一观测矩阵为第二观测矩阵,ycross为第一行压缩量测值与;ylength为第一列压缩量测值。
5.根据权利要求4所述的目标检测方法,其特征在于,所述“根据所述压缩量测值,进行待检测目标的检测运算,获得所述待检测目标的坐标位置”步骤包括:
根据所述第一行压缩量测值、第一列压缩量测值,计算所述待检测区域中待检测目标的粗略中心位置;
根据所述粗略中心位置坐标,计算所述待检测目标的坐标位置;其中,所述坐标位置位于所述粗略中心位置坐标的范围内。
6.根据权利要求5所述的目标检测方法,其特征在于,所述“根据所述第一行压缩量测值、第一列压缩量测值,计算所述待检测区域中待检测目标的粗略中心位置”,具体包括:
将所述待检测区域进行划分,构建若干第一区域;
计算各个所述第一区域的中心位置坐标;
根据各个所述中心位置坐标,构建第一区域表达式;
根据所述第一区域表达式,分别计算出各个所述第一区域的第二行压缩量测和第二列压缩量测;
第一行压缩量测分别与各个所述第一区域的所述第二行压缩量测进行内积计算获得各个所述第一区域的第一内积值,第一列压缩量测与各个所述第一区域的第二列压缩量测进行内积计算获得各个所述第一区域的第二内积值;
根据各个所述第一区域的所述第一内积值与第二内积值进行各区域权重计算;
根据各区域权重计算得目标的粗略中心位置坐标。
7.根据权利要求6所述的目标检测方法,其特征在于:所述“根据所述粗略中心位置坐标,计算所述待检测目标的坐标位置”步骤包括:
根据所述粗略中心位置坐标,以所述粗略中心位置坐标构建多个第二区域,根据构建的所述粗略中心位置,并构建第二区域表达式;
根据所述第二区域表达式,计算出各个所述第二区域的第三行压缩量测和第三列压缩量测;
第一行压缩量测分别与各个所述第二区域的所述第三行压缩量测进行内积计算获得第三内积值,第一列压缩量测分别与各个所述第二区域的第三列压缩量测进行内积计算获得第四内积值;
根据各个所述第二区域的所述第三内积值与第四内积值进行各区域权重计算;
根据各区域权重计算得到目标的坐标位置。
8.根据权利要求6所述的目标检测方法,其特征在于,将所述待检测区域进行划分,构建若干第一区域,具体包括:3×3个所述第一区域。
9.一种体感交互设备,其特征在于,所述体感交互设备包括处理器、存储器以及存储在存储器中的计算机程序,所述计算机程序被配置成由处理器执行,处理器执行所述计算机程序程序是实现以权利要求1-8中任一项所述的目标检测方法。
10.一种存储介质,所述存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器处理时实现如权利要求1-8中任一项所述的目标检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910462599.3A CN110348295B (zh) | 2019-05-30 | 2019-05-30 | 目标检测方法、体感交互设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910462599.3A CN110348295B (zh) | 2019-05-30 | 2019-05-30 | 目标检测方法、体感交互设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110348295A true CN110348295A (zh) | 2019-10-18 |
CN110348295B CN110348295B (zh) | 2023-04-11 |
Family
ID=68174401
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910462599.3A Active CN110348295B (zh) | 2019-05-30 | 2019-05-30 | 目标检测方法、体感交互设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110348295B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111639765A (zh) * | 2020-05-15 | 2020-09-08 | 视若飞信息科技(上海)有限公司 | 一种使用点轨迹和检测域的交互方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005138421A (ja) * | 2003-11-06 | 2005-06-02 | Seiko Epson Corp | 圧縮した画像データに画像処理を行って画像を出力する画像出力装置 |
CN105095898A (zh) * | 2015-09-06 | 2015-11-25 | 苏州经贸职业技术学院 | 一种面向实时视觉系统的目标压缩感知方法 |
CN108875535A (zh) * | 2018-02-06 | 2018-11-23 | 北京旷视科技有限公司 | 图像检测方法、装置和系统及存储介质 |
CN109087267A (zh) * | 2018-08-15 | 2018-12-25 | 苏州蛟视智能科技有限公司 | 一种基于压缩感知的目标检测方法 |
-
2019
- 2019-05-30 CN CN201910462599.3A patent/CN110348295B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005138421A (ja) * | 2003-11-06 | 2005-06-02 | Seiko Epson Corp | 圧縮した画像データに画像処理を行って画像を出力する画像出力装置 |
CN105095898A (zh) * | 2015-09-06 | 2015-11-25 | 苏州经贸职业技术学院 | 一种面向实时视觉系统的目标压缩感知方法 |
CN108875535A (zh) * | 2018-02-06 | 2018-11-23 | 北京旷视科技有限公司 | 图像检测方法、装置和系统及存储介质 |
CN109087267A (zh) * | 2018-08-15 | 2018-12-25 | 苏州蛟视智能科技有限公司 | 一种基于压缩感知的目标检测方法 |
Non-Patent Citations (1)
Title |
---|
谢丽娟等: "基于压缩量测的红外小目标检测", 《第十四届中国体视学与图像分析学术会议论文集》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111639765A (zh) * | 2020-05-15 | 2020-09-08 | 视若飞信息科技(上海)有限公司 | 一种使用点轨迹和检测域的交互方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110348295B (zh) | 2023-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109670474B (zh) | 一种基于视频的人体姿态估计方法、装置及设备 | |
WO2019205865A1 (zh) | 相机姿态追踪过程的重定位方法、装置、设备及存储介质 | |
CN108875523B (zh) | 人体关节点检测方法、装置、系统和存储介质 | |
CN110929637B (zh) | 一种图像识别方法、装置、电子设备及存储介质 | |
KR102078473B1 (ko) | 동체 추적 장치, 동체 추적 방법, 동체 추적 프로그램 | |
EP2903256B1 (en) | Image processing device, image processing method and program | |
CN114186632B (zh) | 关键点检测模型的训练方法、装置、设备、存储介质 | |
CN113392742A (zh) | 异常动作确定方法、装置、电子设备及存储介质 | |
EP3379396A1 (en) | Method for acting on augmented reality virtual objects | |
CN104396231B (zh) | 图像处理装置和图像处理方法 | |
CN112506340B (zh) | 设备控制方法、装置、电子设备及存储介质 | |
CN111612822B (zh) | 对象跟踪方法、装置、计算机设备和存储介质 | |
US20220301295A1 (en) | Recurrent multi-task convolutional neural network architecture | |
CN105913453A (zh) | 一种目标跟踪方法和装置 | |
CN113348465B (zh) | 图像中对象的关联性预测方法、装置、设备和存储介质 | |
CN113743177A (zh) | 关键点检测方法、系统、智能终端和存储介质 | |
CN117523659A (zh) | 基于骨架的多特征多流实时动作识别方法、装置和介质 | |
CN111353325A (zh) | 关键点检测模型训练方法及装置 | |
CN110348295B (zh) | 目标检测方法、体感交互设备以及存储介质 | |
CN110765926A (zh) | 图画书识别方法、装置、电子设备和存储介质 | |
CN110910478B (zh) | Gif图生成方法、装置、电子设备及存储介质 | |
CN108027647B (zh) | 用于与虚拟对象交互的方法和设备 | |
JP2020126383A (ja) | 動体検出装置、動体検出方法、動体検出プログラム | |
JP2017033556A (ja) | 画像処理方法及び電子機器 | |
CN113350771A (zh) | 一种运动员动态姿态识别方法、装置、系统及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |