CN102803991A - 物体检测设备 - Google Patents
物体检测设备 Download PDFInfo
- Publication number
- CN102803991A CN102803991A CN2010800244415A CN201080024441A CN102803991A CN 102803991 A CN102803991 A CN 102803991A CN 2010800244415 A CN2010800244415 A CN 2010800244415A CN 201080024441 A CN201080024441 A CN 201080024441A CN 102803991 A CN102803991 A CN 102803991A
- Authority
- CN
- China
- Prior art keywords
- depth
- depth image
- degree
- sorter
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
Abstract
提供了一种改善从输入图像检测物体的物体检测设备中的物体检测精度的装置。获得表示到被摄物体的距离的深度信息,获得其中各个像素的信息是深度信息的深度图像。通过按照指定的深度,对包含在局部区域中的各个像素的深度信息分组,生成深度图像的多个局部区域中的每个局部区域的深度直方图。计算在深度图像中的不同位置的两个特定区域的两个深度直方图之间的相似度作为特征。具有高确信度的训练用深度图像被定义为正例,具有低确信度的训练用深度图像被定义为负例,构成适合于对正例和负例分类的分类器,并利用所述分类器,根据所述特征,在深度图像中检测作为检测目标的物体。
Description
技术领域
本发明涉及根据输入图像检测物体的物体检测设备。
背景技术
近年来,一直期待实现可理解在诸如办公室、住宅和公共设施之类空间内的人的意图并帮助其行动的技术。为了使按照这种方式监测人的技术得以实现,必须知道人在所述空间内的什么地方,因此实现先进的人体检测已成为课题。
已经对人体检测进行了许多研究并提出了各种方法。使用已知的可见光照相机的人体检测方法包括多种方法,其中涉及利用局部特征和提升(boosting)的统计训练。还提出了使用梯度方向直方图(HOG)特征的人体检测方法,所述梯度方向直方图(HOG)特征是以直方图的形式,把亮度梯度方向表示成局部特征的特征(例如,参见非专利文献1)。
[引用列表]
[非专利文献]
[NPL1]
Yuji Yamauchi,Hironobu Fujiyoshi,Bon-Woo Hwang,TakeoKanade,“People Detection Based on Co-occurrence of Appearance andSpatiotemporal Features”,Meeting on Image Recognition andUnderstanding(MIRU2007),第1492-1497页,2007。
发明内容
不过,就使用亮度梯度方向的已知人体检测方法来说,难以相对于复杂背景辨别人体形状,从而检测精度有时降低。在发生人体形状重叠和遮挡的情况下,也难以辨别人体形状,从而检测精度有时降低。此外,就利用可见光照相机的已知人体检测方法来说,出现由于图像内的人体的大小未知,因此当检测物体时,随着检测窗口的比例尺的变化,要进行图像的多轮光栅扫描,从而会增大处理成本和使实时处理变得困难的问题。
鉴于上面所述,本发明的一个目的是提高根据输入图像检测物体的物体检测设备的物体检测精度。本发明的另一个目的是提高物体检测设备的物体检测速度。
为了实现上述目的,按照本发明的第一方面的发明包括深度图像获取装置,深度直方图生成装置,特征计算装置,和分类装置。深度图像获取装置获得表示到被摄物体的距离的深度信息,并获得其中各个像素的信息是深度信息的深度图像。深度直方图生成装置通过按照指定的深度对包含在局部区域中的各个像素的深度信息分组,来生成深度图像的多个局部区域中的每个局部区域的深度直方图。特征计算装置计算在深度图像中的不同位置的两个局部区域的两个深度直方图之间的相似度,作为特征。分类装置把具有高确信度的训练用深度图像定义为正例,把具有低确信度的训练用深度图像定义为负例,构成适合于对正例和负例分类的分类器,并利用所述分类器,根据所述特征,在深度图像中检测作为检测目标的物体。
按照这种方式,使用利用深度图像识别局部区域之间的深度关系的深度图像的深度直方图特征使得即使在背景高度复杂的情况下,也能够识别检测目标和背景之间的边界,从而使得能够提高物体检测的精度。
此外,按照第二方面的发明的特征在于分类装置包括遮挡判定装置,遮挡率计算装置,和分类器构成装置。在包含在局部区域之一中的像素之一的深度信息指示小于规定阈值的深度的情况下,遮挡判定装置判定该像素代表遮挡。遮挡率计算装置计算遮挡率,遮挡率是局部区域中,已被确定为代表遮挡的像素的比例。分类器构成装置利用遮挡率,构成分类器。
利用出自深度图像的深度信息从而使得能够容易地识别遮挡区域,从而能够在考虑到遮挡区域的同时,进行物体检测。这使得能够更进一步地提高物体检测的精度。
另外,按照第三方面的发明的特征在于深度图像生成装置位于三维空间中的固定位置,获得包含深度图像的全空间深度图像,并通过光栅扫描三维空间,从全空间深度图像获得与物体对应的深度图像。
利用包括深度信息的深度图像使得能够按照三维空间中的深度,指定检测物体的大小。于是,在三维空间中进行光栅扫描的情况下,能够排除与物体的大小不相符的深度图像,从而与在二维空间中进行光栅扫描的情况相比,能够提高检测物体的速度。
此外,按照第四方面的发明的特征在于分类装置是飞行时间(TOF)照相机。TOF照相机不要求像立体照相机所需那样计算图像之间的对应,从而能够提高检测物体的速度。
附图说明
图1是按照本发明的实施例的人体检测设备的概念图。
图2是扫描深度图像中的检测窗口的程序的说明图。
图3是表示计算深度直方图的程序的概念图。
图4是表示利用积分直方图,计算深度直方图的程序的说明图。
图5是表示利用深度信息的人体检测的流程的说明图。
图6是表示Real AdaBoost算法的说明图。
图7是表示在使用其中人体相互重叠的输入深度图像的情况下的弱分类器的响应的说明图。
图8是表示利用均值漂移聚类的检测窗口的积分结果的说明图。
图9是表示利用深度直方图特征的人体检测设备的评估实验的结果的说明图。
图10是表示利用深度直方图特征的人体检测设备的评估实验的结果的说明图。
具体实施方式
下面,说明使用按照本发明的物体检测设备的实施例。按照本实施例的物体检测设备分析包括每个像素的深度信息的深度图像,并检测包含在深度图像中的物体。在本实施例中,所述物体检测设备将用作检测人体的人体检测设备。
图1是按照本实施例的人体检测设备1的概念图。如图1中所示,按照本实施例的物体检测设备具备深度图像获取部分10和计算处理部分20。计算处理部分20由输入深度图像获取部分21,深度直方图特征计算部分22和分类部分23构成。
深度图像获取部分10是能够检测由构成深度图像的各个像素表示的距离的深度测量装置,比如照相机或传感器等。在本实施例中,飞行时间(TOP)照相机被用作深度图像获取部分10。在本实施例中,深度图像获取部分10被配置成三维坐标被固定的固定照相机。
通过测量从位于照相机周围的LED发射的红外光被物体反射,然后被照相机观测到为止所需的时间,TOP照相机能够测量到物体的距离。TOP照相机能够测量由构成获得的图像的各个像素表示的距离。在用TOF照相机产生的深度图像中,用与到照相机的距离相应的不同亮度表示每个像素。和使用立体照相机的情况不同,就TOF照相机来说,不必利用照相机校准和立体匹配来计算图像之间的对应,从而处理成本较低,实时处理是切实可行的。在本实施例中,使用MESA SR-3000作为TOF照相机。SR-3000能够实时地获得0.3米-7.5米的深度信息(3米远的分辨率为22毫米)。
具备诸如ROM和RAM之类的存储器,CPU和诸如硬盘之类的存储装置的已知计算机可用作计算处理部分20,它可被配置成使得按照保存在存储装置中的程序,进行各种计算处理。计算处理部分20的CPU可被配置成获得已由深度图像获取部分10获得的深度图像,作为输入图像,并利用深度图像进行各种处理以检测人体。
按照本实施例的计算处理部分20被配置成通过利用TOF照相机获得的深度信息确定人体和背景之间的深度关系,根据输入的深度图像检测人体。因而,在按照本实施例的计算处理部分20中,输入深度图像获取部分21获得输入深度图像,深度直方图特征计算部分22根据输入深度图像中的两个局部区域之间的深度分布的相似度,计算深度直方图特征,分类部分23利用深度直方图特征检测输入深度图像中的人体。深度直方图按照指定的深度范围,对输入深度图像的局部区域中的各个像素的深度信息分组,并以直方图的形式表示出现频度。深度直方图特征以特征量的形式,表示根据输入深度图像中的两个局部区域产生的深度直方图之间的相似度。
图2是表示输入深度图像获取部分21从深度图像获得检测窗口的程序的说明图。在图2中,y是高度方向的距离,x是宽度方向的距离,z是深度方向的距离。在本实施例中,TOF照相机被置于在2.5米高度的位置,并获得4米高×5米宽×7.5米深的室内空间中的全空间深度图像。全空间深度图像是用与整个室内空间对应的宽范围创建的,并且从深度图像提取对应于人体大小的检测窗口。分类部分23按照是否存在人体对每个检测窗口分类。在本实施例中,利用光栅扫描,从TOF照相机获得的全空间深度图像中提取检测窗口。
在图2中所示的例子中,通过把地面高度定义为坐标yw等于0,随后一边改变离TOF照相机的距离z,一边沿着xw方向反复扫描规定大小的检测窗口,来在地面高度上光栅扫描实际的三维空间。在本实施例中,检测窗口被定义为0.6米宽×1.8米高,以对应于作为检测目标的人体的大小。利用等式(1),用实际的三维空间的光栅扫描产生的检测窗口的三维坐标可被投射到坐标空间[u,v]T。
等式1
P=A[R|T]
这种情况下,矩阵P是根据通过照相机校准获得的内部参数A、作为外部参数的旋转矩阵R和平移向量T计算的透视投影矩阵。由于能够获得与图像坐标(u,v)对应的4米×5米×7米空间中的全局坐标(xw,yw,zw),因此能够容易地进行TOF照相机的照相机校准。随后通过把投影坐标空间中的每个检测窗口看作独立的输入深度图像,计算深度直方图。
图3是表示深度直方图计算部分22用于计算深度直方图的程序的概念图。在本实施例中,每个输入深度图像被定义成128像素(竖直方向)×64像素(水平方向),每个输入深度图像被分成8像素×8像素的单元。从而,每个输入深度图像被分成16单元×8单元。
随后,从输入深度图像中选择将对其计算深度直方图特征的两个局部区域。在本实施例中,当计算深度直方图时进行归一化,从而能够计算不同大小的区域的深度直方图之间的相似度。通过改变对其计算深度直方图的相似度的区域的大小,能够确定在诸如不能表现在单一单元中的人的肩部和头部之类区域中的深度关系。所述区域均由至少一个单元构成,并且在本实施例中,所述区域是矩形。如果每次1个单元地把矩形的大小从1单元×1单元改变成8单元×8单元,那么在16单元×8单元输入深度图像中,总共存在492个矩形区域,从而由一个输入深度图像能够产生矩形区域的120786种组合(深度直方图特征的候选)。
随后,根据包含在每个所选区域中的各个像素的深度信息,计算深度直方图。如上所述,深度直方图按照指定的深度范围,对各个像素的深度信息分组,并以直方图的形式表示出现频度。例如,对于单个单元之中的64个像素中的每个像素,都存在深度信息,从而根据64组深度信息,产生与单个单元对应的深度直方图。
图4是表示利用积分直方图,计算深度直方图的程序的说明图。在本实施例中,利用积分直方图高速计算深度直方图,以限制计算深度直方图的成本。积分直方图的有关信息,参见F.Porikli,“Integral Histogram:AFast Way to Extract Histograms in Cartesian Spaces”,IEEE ComputerVisio and Pattern Recognition,第829-836页(2005)。
如图4中所示,首先,每隔规定距离,量化构成深度图像的各个像素的深度信息。从而单位比规定间隔小的深度信息是以每隔规定间隔来聚集的。所述规定间隔可按照要检测的物体的大小酌情设定,在其中要检测的物体是人体的本实施例中,所述规定间隔被设定为0.3米。在本实施例中,从0到7.5米的范围被分成0.3米的间隔,从而计算的深度直方图均包括单位为0.3米(0.3米,0.6米,0.9米,...,7.5米)的25个分箱(区段)。
随后,产生25个量化图像in,每个量化图像对应于第n个分箱,下面的等式2用于根据每个量化图像in(u,v),计算积分图像iin(u,v)。
等式2
sn(u,v)=sn(u,v-1)+in(u,v)
iin(u,v)=iin(u-1,v)+sn(u,v)
这种情况下,sn(u,v)表示分箱n的各行中的像素的总数,iin(u,v)表示各列的sn的总和。不过,假定sn(u,-1)=0,iin(-1,v)=0。在以图4中的积分图像的区域D为基础的深度直方图的第n个分箱Dn的计算中,利用等式3,从第n个积分图像iin的4个点足以得到所述总和。
等式3
Dn=iin(u,v)+iin(u-W,v-H))-
(iin(u-W,v)+iin(u,v-H))
如上所述,利用积分直方图来计算深度直方图使得能够高速计算深度直方图的第n个分箱的值,而不管区域的大小。
随后,每个区域的深度直方图被归一化,使得在每个深度直方图中,各个分箱的频度的总和为1,归一化的深度直方图是通过把每个深度直方图中的各个分箱的频度除以对应区域中的像素的数目产生的。
随后,均包括计算的25个分箱两个归一化深度直方图p和q中的各个分箱被识别为pn和qn,计算这两个区域的归一化深度直方图之间的相似度S。在本实施例中,按照在等式4中所示的Bhattacharyya距离,计算相似度S。有关Bhattacharyya距离的信息,参见Bhattacharyya的“Ona Measure of Divergence between Two Statistical Populations Defined byProbability Distributions”,Bull,Calcutta Math.Soc.,vol.35,第99-109,(1943)。
等式4
利用等式4计算的相似度S被定义为深度直方图特征。对于矩形区域的所有组合,通过利用等式4计算任意两个单元的深度直方图之间的相似度S,来计算深度直方图特征向量。深度直方图特征是从不同区域之间的相似度得到的特征,从而是与离照相机的距离无关地表示两个区域之间的相对深度关系的特征。
图5是表示分类部分23利用深度信息进行人体检测的流程的说明图。如图5中所示,分类部分23利用深度直方图特征来判定在输入深度图像中是否包括人体。按照本实施例的分类部分23被配置成利用已知的RealAdaBoost的级联式分类器。
图6是表示Real AdaBoost算法的说明图。利用Real AdaBoost的分类器通过强调对其来说,分类函数已造成错误分类的数据来实现再训练。在所述处理已被再训练T轮之后,利用生成的一组分类器的分类函数的集合,生成最终的分类函数。
在Real AdaBoost分类器中,所有弱分类器的判定结果(对作为检测目标的图像来说为1,对不是检测目标的图像来说为0)被提供给组合函数。组合函数通过利用在每个对应的弱分类器的训练期间计算的可信度权值,计算所有判定结果的加权和,随后输出加权的多数决结果。通过评估组合函数的输出值,做出已被输入的图像是否显现检测目标的判定。级联地构成分类器使得能够降低误检率,而不降低检测目标的检测率。
训练样本(训练用深度图像)用于训练分类部分23。训练样本包括作为检测目标的图像(人体的图像)的正类样本,和作为不是检测目标的图像(除人体外的物品的图像)的负类样本。正类样本是存在检测目标的确信度高的正例,而负类样本是存在检测目标的确信度低的负例。就Real AdaBoost来说,从各维的概率密度得到正类特征和负类特征之间的分离度,使正类和负类之间的间隔最大的特征被选为弱分类器。由于在该处理期间,分离度被视为评估值,因此能够以实数形式输出分类结果。
为了得到被输入特征x的Real AdaBoost弱分类器的输出h(x),对于正类特征生成概率密度分布W+,对于负类特征生成概率密度分布W-(图6中的3.1)。概率密度分布W±用一维直方图表示,是根据训练样本的权值Dt生成的。通过根据第n个训练样本计算特征,随后通过使训练样本的权值Dt(i)相加直到与特征的值对应的一维直方图中的分箱的编号j,可生成概率密度分布W±。利用概率密度分布W±,计算Real AdaBoost弱分类器的输出ht(x)(图6中的3.2)。这种情况下,ε是防止分母变成0的计数。用于选择弱分类器的评估值Zm也是利用概率密度分布W±计算的(图6中的3.3)。
随后,从m个弱分类器中选择评估值Zm最小的弱分类器(图6中的4),更新训练样本权值Dt(i)(图6中的5),使训练样本权值Dt(i)归一化(图6中的6)。如果通过训练选择的弱分类器为ht(x),那么建立的最终分类器用等式5表示。
等式5
按照本实施例的分类部分23考虑到遮挡来建立最终分类器。在多个人体体现重叠的拥挤场景中,有时会出现在作为检测目标的人体所存在于的区域中,发生遮挡的情况。从遮挡区域提取的深度信息会导致弱分类器输出错误的响应。于是,包含这种遮挡区域的弱分类器的输出并不原样积分到最终分类器中。在本实施例中,在实际的三维空间中光栅扫描检测窗口,使得知道检测窗口的全局坐标。因而,比较从TOF照相机获得的各组深度信息,与检测窗口相比,更接近于照相机的物体区域被判断为遮挡,这种判断被用于识别人体。
利用实际三维空间中的光栅扫描期间的检测窗口的深度zw,设定用于判定是否存在遮挡的阈值。在本实施例中,用于判定是否存在遮挡的阈值被定义为zw-0.3米。换句话说,比检测窗口的深度zw近0.3m的位置被定义为阈值,比所述阈值更近的任何东西被判断为遮挡。如果检测窗口中的每个像素被指定为(u,v),并且每个像素的深度图为d(u,v),那么任意一组特定坐标的遮挡标记O(u,v)用等式6表示。
等式6
在图5中从左侧起的第二个检测窗口中,遮挡区域被表示成黑色。
在存在于作为第t个弱分类器ht(x)的对象的矩形区域Bt内的遮挡区域的比例被定义为遮挡比ORt的情况下,可用等式7得到ORt。
等式7
通过利用用等式7计算的遮挡比ORt,考虑到遮挡区域的最终分类器H′(x)用等式8表示。
等式8
在矩形区域Bt内的遮挡区域的比例为100%(所述区域被完全重叠)的情况下,1-ORt变成0,从而不使用该弱分类器的分类结果。在矩形区域Bt内的遮挡区域的比例为0%(所述区域完全未被重叠)的情况下,1-ORt变成1,从而使用该弱分类器的分类结果。在矩形区域Bt内的遮挡区域的比例大于0%,但小于100%(所述区域被部分重叠)的情况下,1-ORt变成大于0,但小于1,从而部分使用该弱分类器的分类结果。
图7是表示在使用其中人体相互重叠的输入深度图像的情况下,弱分类器的响应的说明图,(a)表示不考虑遮挡区域的情况,(b)表示考虑遮挡区域的情况。图7(a)表示其中使用等式5中所示的不考虑遮挡区域的弱分类器的例子,图7(b)表示其中使用等式8中所示的考虑遮挡区域的弱分类器的例子。图7(a)和7(b)表示其中使用500个弱分类器,并且各个弱分类器的响应从+1(人体)变化到-1(不同于人体)的例子。各个弱分类器的响应的合计值是最终分类器的响应。
在图7(a)中所示的例子中,最终分类器的响应为-0.27。即,在用不考虑遮挡区域的最终分类器进行分类的情况下,多数弱分类器的输出为负(被分类为非人体),从而最终结果是非人体的错误分类。在图7(b)中所示的例子中,最终分类器的响应为+15.15。换句话说,在利用考虑遮挡区域的最终分类器进行分类的情况下,图7(a)中各个弱分类器的为负(被分类为非人体)的所有或部分响应不被使用,从而产生作为人体的正确分类。
按照本实施例的分类部分23被配置成使用实际三维空间中的均值漂移聚类对分类为代表人体的检测窗口积分,和定义全空间深度图像中的人体区域。
三维均值漂移聚类利用等式9,计算均值漂移向量m(x)。这种情况下,x表示移动的检测窗口的中心坐标,xi表示每个数据项的三维坐标,k是核函数,h是带宽,在本实施例中被定义为0.3米。
等式9
图8是表示利用均值漂移聚类的检测窗口的积分结果的说明图。在图8中,上部表示利用图像空间中的二维均值漂移聚类的检测窗口的积分,下部表示利用三维空间中的三维均值漂移聚类的检测窗口的积分。
在背景技术中列举的非专利文献1中,发明人提出利用已知的可见光照相机检测人体,和通过利用均值漂移聚类对已被分类成表示人体的检测窗口积分,用公式表示检测结果。不过,如在图8的上部中所示,就图像空间中的均值漂移聚类来说,检测窗口被积分到3个区域中,而不顾在全空间深度图像中存在5个人体的事实。换句话说,就图像空间中的均值漂移聚类来说,在人体形状重叠的情况下,存在不正确地积分检测窗口的可能性。
相反,在本实施例中,在实际的三维空间中进行均值漂移聚类。如在图8的下部中所示,就实际三维空间中的均值漂移聚类来说,在5个人体存在于全空间深度图像中的情况下,检测窗口被积分到5个区域中。即,就实际三维空间中的均值漂移聚类来说,即使在人体形状重叠的情况下,也能够按照深度信息分离聚类,从而能够抑制检测窗口的错误积分。
下面,将解释利用按照本实施例的人体检测设备1的评估实验的结果,对评估实验来说,TOF照相机被安装在室内2.5米高度处,研究人走动的场面,和其中多个人重叠的场面。用于训练的深度图像包括都从在室内拍摄的序列图像中选择的1364个训练正例和10000个训练负例。在所述评估中,使用分别根据训练例子生成的2206个评估正例和8100个评估负例。TOF照相机被设置成拍摄最大深度7.5米的室内图像,从而难以使用该照相机拍摄多人的全身图像。于是,在评估实验中,人体的上半身(全身的上部60%)是检测对象。
图9是表示按照本实施例的人体检测设备1的评估实验的结果的说明图。在图9中,表示了对于其中使按照本实施例的人体检测设备1中的矩形区域大小可变的情况,和其中不使所述矩形区域大小可变的情况的评估实验结果。为了比较,表示了其中人体检测方法使用深度图像的HOG特征(亮度梯度特征)的评估实验,和其中人体检测方法使用深度直方图特征和HOG特征的组合的评估实验的结果。
在图9中,接收器操作特征(ROC)曲线被用于实验结果的比较。ROC曲线在水平轴上标示假正率,在垂直轴上标示检测率。通过改变分类器阈值,可比较检测率和假正率。朝着图9的左上方,检测率增大,而假正率减小,从而可见检测性能较高。
如图9中所示,在使用深度直方图特征(矩形区域大小不可变)的情况下,当假正率为5.0%时,检测率为96.8%,与使用深度图像的HOG特征的情况相比,分类率提高2.8%。从而,使用深度直方图特征使得能够识别检测目标和背景之间的边界,从而与使用亮度梯度特征的情况相比,能够提高人体检测的精度。
此外,在使用深度直方图特征(矩形区域大小可变)的情况下,当假正率为5.0%时,检测率为98.9%,与使用深度直方图特征(矩形区域大小不可变)的情况相比,分类率提高2.1%。从而,改变对其计算深度直方图之间的相似度的局部区域大小使得能够确定在诸如不能表现在单一单元中的人的肩部和头部之类区域中的深度关系,从而能够提高人体检测的精度。
此外,在使用HOG特征和深度直方图特征(矩形区域大小可变)的组合的情况下,和只使用深度直方图特征(矩形区域大小可变)的情况一样,获得相同种类的分类结果。
图10表示在考虑和不考虑遮挡的情况下,按照本实施例的人体检测设备1的评估实验的结果。在图10中所示的评估实验中,即使人体检测方法使用HOG特征和深度直方图特征的组合,评估实验也是在考虑和不考虑遮挡的情况下进行的。在图10中,按照和图9中相同的方式使用ROC曲线。
如图10中所示,在使用深度直方图特征(同时考虑遮挡)的情况下,当假正率为5.0%时,检测率为96.9%,与使用深度直方图特征(不考虑遮挡)的情况相比,分类率提高3%。类似地,在使用HOG特征和深度直方图特征的组合(同时考虑遮挡)的情况下,当假正率为5.0%时,检测率为96.4%,与使用HOG特征和深度直方图特征的组合(同时不考虑遮挡)的情况相比,分类率提高2.3%。从而,通过利用遮挡率对适用于分类的弱分类器加权,确定最终分类器的输出,能够抑制遮挡区域的影响。
下面,解释按照本实施例的使用深度直方图特征的人体检测方法的特征的选择特性。就利用HOG特征的人体检测方法来说,选择人体头部和肩部的边缘的事实意味着选择特征使得识别人体轮廓。相反,在RealAdaBoost分类器的初始训练期间选择的特征之中,选择人体区域和背景区域的多种组合,然后识别人体和背景之间的边界线。此外,借助深度直方图特征(同时矩形区域大小可变),这样选择区域,使得在任何特定的区域大小下识别人体和背景之间的边界线。这被认为是因为通过识别人体轮廓区域之间的深度关系,识别了粗略的人体形状。
下面,解释按照本实施例的人体检测设备1的处理时间。在二维空间中光栅扫描检测窗口的情况下,图像中的人体的大小未知,从而必须一边改变检测窗口的大小,一边多次光栅扫描图像。于是难以进行实时处理,因为检测窗口的数目较大,从而处理成本较高。相反,在本实施例中,在实际三维空间中进行检测窗口的光栅扫描。借助这种三维光栅扫描,能够按照其到照相机的距离,规定图像中的人体的大小,因而能够排除和人体的大小不符的检测窗口,结果能够减少检测窗口的数目。于是,与借助二维光栅扫描相比,借助三维光栅扫描能够显著减少检测窗口的数目。
就按照本实施例的人体检测设备1来说,在使用Intel CPU(3.00GHzXeon)的情况下,一帧(361个检测窗口)的处理时间为特征计算用时24.31毫秒(每个检测窗口0.067毫秒),分类用时45.34毫秒(每个检测窗口0.125毫秒),和积分检测窗口用时31.97毫秒。于是,借助按照本实施例的人体检测设备1,能够在约100ms内处理一帧,从而使得能够每秒约10帧地进行实时处理。
其它实施例
上面说明了本发明的一个实施例,不过本发明并不局限于该实施例,在能够容易地被本领域的技术人员置换的范围内,根据本领域的普通技术人员通常拥有的知识,能够酌情做出各种改进,而不受附加权利要求中记载的文字限制,只要所述改进在附加权利要求的范围之内。
例如,在上面说明的实施例中,物体检测设备的检测目标是人体,不过本发明并不局限于此,检测目标也可以是除人体外的物体,比如动物、汽车等。此外,物体检测设备的检测目标不一定必须是整个物体,也可以是物体的一部分,比如人脸。
在上面说明的实施例中,使用TOF照相机作为深度图像获取部分10,不过本发明并不局限于此,例如,立体照相机也可用作深度图像获取部分10,只要能够测量由获得的图像中的各个像素表示的到照相机的距离。
在上面说明的实施例中,解释了其中固定照相机被用作深度图像获取部分10的例子,不过本发明并不局限于此,除三维空间的光栅扫描以外,即使在使用移动照相机作为深度图像获取部分10的情况下,也能够应用本发明。
在上面说明的实施例中,分类部分23由利用Real AdaBoost的分类器构成,不过本发明并不局限于此,分类部分23也可由已知的支持向量机(SVM)或神经网络构成。
在上面说明的实施例中,两个所选区域的深度直方图之间的相似度是利用Bhattacharyya距离计算的,不过本发明并不局限于此,也可用另一种方法计算深度直方图之间的相似度。
在上面说明的实施例中,深度直方图特征是利用深度图像中的矩形区域计算的,不过,本发明并不局限于此,也可利用深度图像内的任意形状的区域计算深度直方图特征。
[附图标记列表]
1人体检测设备
10深度图像获取部分
20计算处理部分
21输入深度图像获取部分
22深度直方图计算部分
23分类部分
Claims (4)
1.一种物体检测设备,包括:
深度图像获取装置,其获得表示到被摄物体的距离的深度信息,并获得其中各个像素的信息是深度信息的深度图像;
深度直方图生成装置,其通过按照指定的深度对包含在局部区域中的各个像素的深度信息分组,来生成深度图像的多个局部区域中的每个局部区域的深度直方图;
特征计算装置,其计算在深度图像中的不同位置的两个局部区域的两个深度直方图之间的相似度作为特征;和
分类装置,其把具有高确信度的训练用深度图像定义为正例,把具有低确信度的训练用深度图像定义为负例,构成适合于对正例和负例分类的分类器,并利用所述分类器,根据所述特征,在深度图像中检测作为检测目标的物体。
2.根据权利要求1所述的物体检测设备,
其中分类装置包括
遮挡判定装置,其在包含在局部区域之一中的像素之一的深度信息指示小于规定阈值的深度的情况下,判定该像素代表遮挡,
遮挡率计算装置,其计算遮挡率,遮挡率是局部区域中已被确定为代表遮挡的像素的比例,和
分类器构成装置,其利用遮挡率构成所述分类器。
3.根据权利要求1或2所述的物体检测设备,
其中深度图像生成装置位于三维空间中的固定位置,获得包含深度图像的全空间深度图像,并通过光栅扫描三维空间,从全空间深度图像获得与物体对应的深度图像。
4.根据权利要求1-3任意之一所述的物体检测设备,
其中分类装置是飞行时间照相机。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009133698 | 2009-06-03 | ||
JP2009-133698 | 2009-06-03 | ||
PCT/JP2010/059326 WO2010140613A1 (ja) | 2009-06-03 | 2010-06-02 | 物体検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102803991A true CN102803991A (zh) | 2012-11-28 |
CN102803991B CN102803991B (zh) | 2014-06-04 |
Family
ID=43297746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080024441.5A Expired - Fee Related CN102803991B (zh) | 2009-06-03 | 2010-06-02 | 物体检测设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8611604B2 (zh) |
JP (1) | JP5500559B2 (zh) |
CN (1) | CN102803991B (zh) |
WO (1) | WO2010140613A1 (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104657993A (zh) * | 2015-02-12 | 2015-05-27 | 北京格灵深瞳信息技术有限公司 | 一种镜头遮挡检测方法及装置 |
CN104680145A (zh) * | 2015-03-06 | 2015-06-03 | 北京格灵深瞳信息技术有限公司 | 一种门的开关状态变化检测方法及装置 |
CN105335722A (zh) * | 2015-10-30 | 2016-02-17 | 商汤集团有限公司 | 一种基于深度图像信息的检测系统及方法 |
CN106664353A (zh) * | 2014-12-22 | 2017-05-10 | 谷歌公司 | 具有扫描照明器的飞行时间相机系统 |
CN107850445A (zh) * | 2015-08-03 | 2018-03-27 | 通腾全球信息公司 | 用于生成及使用定位参考数据的方法及系统 |
CN109635723A (zh) * | 2018-12-11 | 2019-04-16 | 讯飞智元信息科技有限公司 | 一种遮挡检测方法及装置 |
CN109697444A (zh) * | 2017-10-20 | 2019-04-30 | 中国移动通信有限公司研究院 | 基于深度图像的对象识别方法及装置、设备、存储介质 |
CN109844450A (zh) * | 2016-12-06 | 2019-06-04 | 欧姆龙株式会社 | 分类装置、分类方法以及程序 |
CN110659650A (zh) * | 2018-06-29 | 2020-01-07 | 株式会社电装 | 梯度方向计算装置 |
Families Citing this family (79)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8503720B2 (en) | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
US8446492B2 (en) * | 2009-12-10 | 2013-05-21 | Honda Motor Co., Ltd. | Image capturing device, method of searching for occlusion region, and program |
JP5441670B2 (ja) * | 2009-12-22 | 2014-03-12 | キヤノン株式会社 | 画像処理装置及びその制御方法 |
JP5441669B2 (ja) * | 2009-12-22 | 2014-03-12 | キヤノン株式会社 | 画像処理装置及びその制御方法 |
KR101298024B1 (ko) * | 2010-09-17 | 2013-08-26 | 엘지디스플레이 주식회사 | 사용자 동적 기관 제스처 인식 방법 및 인터페이스와, 이를 사용하는 전기 사용 장치 |
KR101298023B1 (ko) * | 2010-09-17 | 2013-08-26 | 엘지디스플레이 주식회사 | 사용자 동적 기관 제스처 인식 방법 및 인터페이스와, 이를 사용하는 전기 사용 장치 |
KR101326230B1 (ko) * | 2010-09-17 | 2013-11-20 | 한국과학기술원 | 사용자 동적 기관 제스처 인식 방법 및 인터페이스와, 이를 사용하는 전기 사용 장치 |
CN102696054B (zh) * | 2010-11-10 | 2016-08-03 | 松下知识产权经营株式会社 | 进深信息生成装置、进深信息生成方法及立体图像变换装置 |
EP2656613A1 (en) * | 2010-12-22 | 2013-10-30 | Thomson Licensing | Apparatus and method for determining a disparity estimate |
KR101789071B1 (ko) * | 2011-01-13 | 2017-10-24 | 삼성전자주식회사 | 깊이 영상의 특징 추출 방법 및 장치 |
US8406470B2 (en) * | 2011-04-19 | 2013-03-26 | Mitsubishi Electric Research Laboratories, Inc. | Object detection in depth images |
JP5821457B2 (ja) * | 2011-09-20 | 2015-11-24 | ソニー株式会社 | 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるためのプログラム |
WO2013058978A1 (en) | 2011-10-17 | 2013-04-25 | Kimmel Zebadiah M | Method and apparatus for sizing and fitting an individual for apparel, accessories, or prosthetics |
WO2013058985A1 (en) | 2011-10-17 | 2013-04-25 | Kimmel Zebadiah M | Method and apparatus for detecting deterioration of health status |
WO2013066601A1 (en) * | 2011-10-17 | 2013-05-10 | Kimmel Zebadiah M | Method and apparatus for monitoring individuals while protecting their privacy |
US8553942B2 (en) * | 2011-10-21 | 2013-10-08 | Navteq B.V. | Reimaging based on depthmap information |
US9557836B2 (en) * | 2011-11-01 | 2017-01-31 | Microsoft Technology Licensing, Llc | Depth image compression |
JP5743859B2 (ja) * | 2011-11-14 | 2015-07-01 | 株式会社東芝 | 画像処理装置、方法、及び画像表示装置 |
US9024970B2 (en) | 2011-12-30 | 2015-05-05 | Here Global B.V. | Path side image on map overlay |
JP5950296B2 (ja) * | 2012-01-27 | 2016-07-13 | 国立研究開発法人産業技術総合研究所 | 人物追跡属性推定装置、人物追跡属性推定方法、プログラム |
KR20130098675A (ko) * | 2012-02-28 | 2013-09-05 | 삼성전자주식회사 | 얼굴 검출 처리 회로 및 이를 포함하는 촬상 장치 |
JP5946294B2 (ja) * | 2012-03-02 | 2016-07-06 | ヤマハ発動機株式会社 | 対象物検出装置、対象物検出方法、対象物検出プログラムおよび自動走行車両 |
JP5824413B2 (ja) * | 2012-05-23 | 2015-11-25 | 日本電信電話株式会社 | 物体領域推定装置、物体領域推定方法及び物体領域推定プログラム |
EP2706503A3 (en) * | 2012-09-11 | 2017-08-30 | Thomson Licensing | Method and apparatus for bilayer image segmentation |
KR101901184B1 (ko) * | 2012-09-20 | 2018-09-21 | 삼성전자주식회사 | 깊이 영상을 사용한 컬러 영상 처리 장치 및 방법 |
US9240184B1 (en) * | 2012-11-15 | 2016-01-19 | Google Inc. | Frame-level combination of deep neural network and gaussian mixture models |
KR101717729B1 (ko) * | 2012-12-17 | 2017-03-17 | 한국전자통신연구원 | 영상에서의 휴먼 인지 장치 및 방법 |
US9857470B2 (en) | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
JP6064674B2 (ja) * | 2013-02-28 | 2017-01-25 | 株式会社デンソー | 物体認識装置 |
WO2014152254A2 (en) | 2013-03-15 | 2014-09-25 | Carnegie Robotics Llc | Methods, systems, and apparatus for multi-sensory stereo vision for robotics |
CN104102895B (zh) * | 2013-04-12 | 2019-10-25 | 北京三星通信技术研究有限公司 | 用于检测被拍摄用户的身体部位的设备和方法 |
US9443136B2 (en) * | 2013-04-12 | 2016-09-13 | Samsung Electronics Co., Ltd. | Apparatus and method for detecting body parts from user image |
US9639748B2 (en) * | 2013-05-20 | 2017-05-02 | Mitsubishi Electric Research Laboratories, Inc. | Method for detecting persons using 1D depths and 2D texture |
US9558563B1 (en) * | 2013-09-25 | 2017-01-31 | Amazon Technologies, Inc. | Determining time-of-fight measurement parameters |
JP6239334B2 (ja) * | 2013-10-01 | 2017-11-29 | スタンレー電気株式会社 | 対象物画像抽出装置及び対象物画像抽出方法 |
US10311595B2 (en) * | 2013-11-19 | 2019-06-04 | Canon Kabushiki Kaisha | Image processing device and its control method, imaging apparatus, and storage medium |
US9600993B2 (en) | 2014-01-27 | 2017-03-21 | Atlas5D, Inc. | Method and system for behavior detection |
US9430701B2 (en) | 2014-02-07 | 2016-08-30 | Tata Consultancy Services Limited | Object detection system and method |
WO2015199262A1 (ko) * | 2014-06-26 | 2015-12-30 | 엘지전자 주식회사 | 무선 통신 시스템에서 고주파 대역 통신을 위한 프리코딩 행렬 인덱스 보고 방법 및 이를 위한 장치 |
GB2529888B (en) * | 2014-09-05 | 2020-09-23 | Apical Ltd | A method of image analysis |
CN104202533B (zh) * | 2014-09-24 | 2019-05-21 | 中磊电子(苏州)有限公司 | 移动检测装置及移动检测方法 |
JP6494253B2 (ja) * | 2014-11-17 | 2019-04-03 | キヤノン株式会社 | 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム |
US10277888B2 (en) * | 2015-01-16 | 2019-04-30 | Qualcomm Incorporated | Depth triggered event feature |
US10013756B2 (en) | 2015-03-13 | 2018-07-03 | Atlas5D, Inc. | Methods and systems for measuring use of an assistive device for ambulation |
US10248839B2 (en) * | 2015-11-30 | 2019-04-02 | Intel Corporation | Locating objects within depth images |
EP3389008A4 (en) | 2015-12-08 | 2018-11-21 | Panasonic Intellectual Property Management Co., Ltd. | Image recognition device and image recognition method |
US9805274B2 (en) * | 2016-02-03 | 2017-10-31 | Honda Motor Co., Ltd. | Partially occluded object detection using context and depth ordering |
DE102016201741A1 (de) * | 2016-02-04 | 2017-08-10 | Hella Kgaa Hueck & Co. | Verfahren zur Höhenerkennung |
JP6721998B2 (ja) | 2016-02-23 | 2020-07-15 | 村田機械株式会社 | 物体状態特定方法、物体状態特定装置、および、搬送車 |
JP6649796B2 (ja) | 2016-02-23 | 2020-02-19 | 村田機械株式会社 | 物体状態特定方法、物体状態特定装置、および、搬送車 |
US10077007B2 (en) * | 2016-03-14 | 2018-09-18 | Uber Technologies, Inc. | Sidepod stereo camera system for an autonomous vehicle |
SE541141C2 (en) * | 2016-04-18 | 2019-04-16 | Moonlightning Ind Ab | Focus pulling with a stereo vision camera system |
KR101788269B1 (ko) * | 2016-04-22 | 2017-10-19 | 주식회사 에스원 | 이상 상황을 감지하는 장치 및 방법 |
CN105976392B (zh) * | 2016-05-30 | 2018-12-14 | 北京智芯原动科技有限公司 | 基于最大输出概率的车辆轮胎检测方法及装置 |
CN113903455A (zh) | 2016-08-02 | 2022-01-07 | 阿特拉斯5D公司 | 在保护隐私的同时识别人及/或识别并量化疼痛、疲劳、情绪及意图的系统及方法 |
US10528122B2 (en) | 2016-09-30 | 2020-01-07 | Intel Corporation | Gesture experiences in multi-user environments |
WO2018075053A1 (en) * | 2016-10-21 | 2018-04-26 | Siemens Aktiengesellschaft | Object pose based on matching 2.5d depth information to 3d information |
US10417781B1 (en) | 2016-12-30 | 2019-09-17 | X Development Llc | Automated data capture |
CN110475510B (zh) * | 2017-03-27 | 2022-08-02 | 韩国斯诺有限公司 | 获取对象的形状信息的方法及装置 |
EP3388864A1 (en) * | 2017-04-10 | 2018-10-17 | Bea S.A. | Method of human body recognition and human body recognition sensor |
CN107480585B (zh) * | 2017-07-06 | 2020-10-30 | 西安电子科技大学 | 基于dpm算法的目标检测方法 |
EP3460508A1 (en) * | 2017-09-22 | 2019-03-27 | ams AG | Semiconductor body and method for a time-of-flight measurement |
US11003916B2 (en) | 2017-11-03 | 2021-05-11 | Toyota Research Institute, Inc. | Systems and methods for object historical association |
US10967862B2 (en) | 2017-11-07 | 2021-04-06 | Uatc, Llc | Road anomaly detection for autonomous vehicle |
KR20190054454A (ko) | 2017-11-13 | 2019-05-22 | 삼성전자주식회사 | 인공 신경망의 양자화 방법 및 장치 |
JP6954812B2 (ja) * | 2017-11-24 | 2021-10-27 | トヨタ自動車株式会社 | 物体認識装置 |
JP6857147B2 (ja) * | 2018-03-15 | 2021-04-14 | 株式会社日立製作所 | 三次元画像処理装置、及び三次元画像処理方法 |
US10818028B2 (en) * | 2018-12-17 | 2020-10-27 | Microsoft Technology Licensing, Llc | Detecting objects in crowds using geometric context |
CN111382592B (zh) * | 2018-12-27 | 2023-09-29 | 杭州海康威视数字技术股份有限公司 | 活体检测方法和设备 |
JP7233261B2 (ja) * | 2019-03-13 | 2023-03-06 | キヤノン株式会社 | 3次元測量装置、撮像装置、制御方法及びプログラム |
TWI703863B (zh) * | 2019-06-13 | 2020-09-01 | 瑞昱半導體股份有限公司 | 視頻品質偵測方法與影像處理電路 |
CN112118439B (zh) * | 2019-06-20 | 2024-01-23 | 瑞昱半导体股份有限公司 | 视频品质检测方法与影像处理电路 |
JP7382038B2 (ja) * | 2019-11-28 | 2023-11-16 | 国立研究開発法人宇宙航空研究開発機構 | 情報処理システム、情報処理装置、情報処理方法、及びプログラム |
KR20210069984A (ko) * | 2019-12-04 | 2021-06-14 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN113449553A (zh) * | 2020-03-25 | 2021-09-28 | 阿里巴巴集团控股有限公司 | 一种图像检测方法及装置 |
EP4102256A1 (en) * | 2021-06-11 | 2022-12-14 | Infineon Technologies AG | Sensor devices, electronic devices, method for performing object detection by a sensor device and method for performing object detection by an electronic device |
CN114061757B (zh) * | 2021-10-18 | 2024-03-05 | 浙江新图维电子科技有限公司 | 一种电力设备箱低功耗红外测温ai识别监控系统 |
WO2024018746A1 (ja) * | 2022-07-20 | 2024-01-25 | 株式会社Nttドコモ | 識別器生成支援装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001242934A (ja) * | 2000-02-28 | 2001-09-07 | Honda Motor Co Ltd | 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体 |
US20030228034A1 (en) * | 2002-06-07 | 2003-12-11 | Dynamic Digital Depth Research Pty Ltd. | Conversion and encoding techniques |
CN1162793C (zh) * | 1999-04-29 | 2004-08-18 | 三菱电机信息技术中心欧洲有限公司 | 利用形状进行目标表示与检索的方法和装置 |
US20060239558A1 (en) * | 2005-02-08 | 2006-10-26 | Canesta, Inc. | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
JP2006350645A (ja) * | 2005-06-15 | 2006-12-28 | Matsushita Electric Ind Co Ltd | 対象物検出装置及びその学習装置 |
JP2008045974A (ja) * | 2006-08-14 | 2008-02-28 | Fuji Heavy Ind Ltd | 物体検出装置 |
JP2008116309A (ja) * | 2006-11-02 | 2008-05-22 | Fujifilm Corp | 距離画像生成方法及びその装置 |
US20090304251A1 (en) * | 2008-06-04 | 2009-12-10 | Siemens Corporate Research, Inc. | Method and System for Detecting 3D Anatomical Structures Using Constrained Marginal Space Learning |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5675377A (en) * | 1995-06-30 | 1997-10-07 | Telefonaktiebolaget Lm Ericsson | True three-dimensional imaging and display system |
JP3336200B2 (ja) * | 1995-12-12 | 2002-10-21 | シャープ株式会社 | 要素ホログラムパネルを有する3次元像表示装置 |
US6405929B1 (en) * | 1998-05-29 | 2002-06-18 | Hand Held Products, Inc. | Material detection systems for security documents |
US6539055B1 (en) * | 1999-12-03 | 2003-03-25 | Intel Corporation | Scene change detector for video data |
US6603580B1 (en) * | 1999-12-10 | 2003-08-05 | Xerox Corporation | Scanner having a variable object plane |
US6970164B1 (en) * | 2000-12-18 | 2005-11-29 | Microsoft Corporation | Determining regions that are occluded from an observation point |
US7031512B2 (en) * | 2002-04-18 | 2006-04-18 | Stmicroelectronics, Inc. | Method and system for 3D smoothing within the bound of error regions of matching curves |
US7526120B2 (en) * | 2002-09-11 | 2009-04-28 | Canesta, Inc. | System and method for providing intelligent airbag deployment |
KR100513732B1 (ko) * | 2002-12-05 | 2005-09-08 | 삼성전자주식회사 | 3차원 객체 데이터 부호화 및 복호화 방법 및 장치 |
US7301537B2 (en) * | 2002-12-20 | 2007-11-27 | Telefonaktiebolaget Lm Ericsson (Publ) | Graphics processing apparatus, methods and computer program products using minimum-depth occlusion culling and zig-zag traversal |
US7587064B2 (en) * | 2004-02-03 | 2009-09-08 | Hrl Laboratories, Llc | Active learning system for object fingerprinting |
US8108119B2 (en) * | 2006-04-21 | 2012-01-31 | Sri International | Apparatus and method for object detection and tracking and roadway awareness using stereo cameras |
JP4997178B2 (ja) | 2008-06-10 | 2012-08-08 | 学校法人中部大学 | 物体検出装置 |
TW201005673A (en) * | 2008-07-18 | 2010-02-01 | Ind Tech Res Inst | Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system |
US8385599B2 (en) * | 2008-10-10 | 2013-02-26 | Sri International | System and method of detecting objects |
US8370282B1 (en) * | 2009-07-22 | 2013-02-05 | Google Inc. | Image quality measures |
US8744168B2 (en) * | 2009-08-24 | 2014-06-03 | Samsung Electronics Co., Ltd. | Target analysis apparatus, method and computer-readable medium |
US20110150271A1 (en) * | 2009-12-18 | 2011-06-23 | Microsoft Corporation | Motion detection using depth images |
US8774267B2 (en) * | 2010-07-07 | 2014-07-08 | Spinella Ip Holdings, Inc. | System and method for transmission, processing, and rendering of stereoscopic and multi-view images |
-
2010
- 2010-06-02 US US13/375,391 patent/US8611604B2/en not_active Expired - Fee Related
- 2010-06-02 WO PCT/JP2010/059326 patent/WO2010140613A1/ja active Application Filing
- 2010-06-02 CN CN201080024441.5A patent/CN102803991B/zh not_active Expired - Fee Related
- 2010-06-02 JP JP2011518466A patent/JP5500559B2/ja not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1162793C (zh) * | 1999-04-29 | 2004-08-18 | 三菱电机信息技术中心欧洲有限公司 | 利用形状进行目标表示与检索的方法和装置 |
JP2001242934A (ja) * | 2000-02-28 | 2001-09-07 | Honda Motor Co Ltd | 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体 |
US20030228034A1 (en) * | 2002-06-07 | 2003-12-11 | Dynamic Digital Depth Research Pty Ltd. | Conversion and encoding techniques |
US20060239558A1 (en) * | 2005-02-08 | 2006-10-26 | Canesta, Inc. | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
JP2006350645A (ja) * | 2005-06-15 | 2006-12-28 | Matsushita Electric Ind Co Ltd | 対象物検出装置及びその学習装置 |
JP2008045974A (ja) * | 2006-08-14 | 2008-02-28 | Fuji Heavy Ind Ltd | 物体検出装置 |
JP2008116309A (ja) * | 2006-11-02 | 2008-05-22 | Fujifilm Corp | 距離画像生成方法及びその装置 |
US20090304251A1 (en) * | 2008-06-04 | 2009-12-10 | Siemens Corporate Research, Inc. | Method and System for Detecting 3D Anatomical Structures Using Constrained Marginal Space Learning |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106664353A (zh) * | 2014-12-22 | 2017-05-10 | 谷歌公司 | 具有扫描照明器的飞行时间相机系统 |
CN104657993B (zh) * | 2015-02-12 | 2018-04-17 | 北京格灵深瞳信息技术有限公司 | 一种镜头遮挡检测方法及装置 |
CN104657993A (zh) * | 2015-02-12 | 2015-05-27 | 北京格灵深瞳信息技术有限公司 | 一种镜头遮挡检测方法及装置 |
CN104680145A (zh) * | 2015-03-06 | 2015-06-03 | 北京格灵深瞳信息技术有限公司 | 一种门的开关状态变化检测方法及装置 |
CN107850445B (zh) * | 2015-08-03 | 2021-08-27 | 通腾全球信息公司 | 用于生成及使用定位参考数据的方法及系统 |
CN107850445A (zh) * | 2015-08-03 | 2018-03-27 | 通腾全球信息公司 | 用于生成及使用定位参考数据的方法及系统 |
CN105335722A (zh) * | 2015-10-30 | 2016-02-17 | 商汤集团有限公司 | 一种基于深度图像信息的检测系统及方法 |
CN105335722B (zh) * | 2015-10-30 | 2021-02-02 | 商汤集团有限公司 | 一种基于深度图像信息的检测系统及方法 |
US11475294B2 (en) | 2016-12-06 | 2022-10-18 | Omron Corporation | Classification apparatus for detecting a state of a space with an integrated neural network, classification method, and computer readable medium storing a classification program for same |
CN109844450A (zh) * | 2016-12-06 | 2019-06-04 | 欧姆龙株式会社 | 分类装置、分类方法以及程序 |
CN109697444A (zh) * | 2017-10-20 | 2019-04-30 | 中国移动通信有限公司研究院 | 基于深度图像的对象识别方法及装置、设备、存储介质 |
CN110659650A (zh) * | 2018-06-29 | 2020-01-07 | 株式会社电装 | 梯度方向计算装置 |
CN109635723B (zh) * | 2018-12-11 | 2021-02-09 | 讯飞智元信息科技有限公司 | 一种遮挡检测方法及装置 |
CN109635723A (zh) * | 2018-12-11 | 2019-04-16 | 讯飞智元信息科技有限公司 | 一种遮挡检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
JP5500559B2 (ja) | 2014-05-21 |
CN102803991B (zh) | 2014-06-04 |
US20120076361A1 (en) | 2012-03-29 |
JPWO2010140613A1 (ja) | 2012-11-22 |
US8611604B2 (en) | 2013-12-17 |
WO2010140613A1 (ja) | 2010-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102803991B (zh) | 物体检测设备 | |
Xu et al. | Multiple-entity based classification of airborne laser scanning data in urban areas | |
CN103914702B (zh) | 用于提高视频中的对象检测性能的系统和方法 | |
CN103366602B (zh) | 从数字摄像头图像确定停车场占用情况的方法 | |
CN102089770B (zh) | 对物体在监视区中的移动进行分类的设备和方法 | |
CN106874894A (zh) | 一种基于区域全卷积神经网络的人体目标检测方法 | |
Zia et al. | Revisiting 3d geometric models for accurate object shape and pose | |
CN104166841A (zh) | 一种视频监控网络中指定行人或车辆的快速检测识别方法 | |
Sameen et al. | A two-stage optimization strategy for fuzzy object-based analysis using airborne LiDAR and high-resolution orthophotos for urban road extraction | |
JP6397379B2 (ja) | 変化領域検出装置、方法、及びプログラム | |
Zivkovic et al. | Part based people detection using 2D range data and images | |
CN103971106B (zh) | 多视角人脸图像性别识别方法及装置 | |
CN111191667A (zh) | 基于多尺度生成对抗网络的人群计数方法 | |
Yuan et al. | Learning to count buildings in diverse aerial scenes | |
CN104376577A (zh) | 基于粒子滤波的多摄像头多目标跟踪算法 | |
Yao et al. | Detection of 3-D individual trees in urban areas by combining airborne LiDAR data and imagery | |
EP2860661A1 (en) | Mean shift tracking method | |
CN111178178A (zh) | 结合区域分布的多尺度行人重识别方法、系统、介质及终端 | |
CN113240829B (zh) | 一种基于机器视觉的闸机智能通行检测方法 | |
Parameswaran et al. | Design and validation of a system for people queue statistics estimation | |
CN110458064B (zh) | 结合数据驱动型和知识驱动型的低空目标检测与识别方法 | |
CN104463135A (zh) | 一种车标识别方法和系统 | |
Pan et al. | Coherent object detection with 3d geometric context from a single image | |
CN110222756A (zh) | 一种面向高光谱复杂背景的迭代聚类异常检测算法 | |
Palmer et al. | Scale proportionate histograms of oriented gradients for object detection in co-registered visual and range data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140604 Termination date: 20200602 |