CN105096307B - 在成对的立体图像中检测物体的方法 - Google Patents
在成对的立体图像中检测物体的方法 Download PDFInfo
- Publication number
- CN105096307B CN105096307B CN201510232293.0A CN201510232293A CN105096307B CN 105096307 B CN105096307 B CN 105096307B CN 201510232293 A CN201510232293 A CN 201510232293A CN 105096307 B CN105096307 B CN 105096307B
- Authority
- CN
- China
- Prior art keywords
- mrow
- picture
- stereo
- subgraph
- paired
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
在成对的立体图像中检测物体的方法。一种在从场景获取的成对的立体图像中检测物体的方法,其首先从所述成对的立体图像生成成本体积,其中,所述成本体积包括在成对的立体图像之间针对立体图形的各个像素的视差值范围的匹配成本。根据所述成本体积中的子图像,利用所述子图像内部的区域内具有最小累积成本的视差值的特征函数确定特征向量。然后,将分类器应用于所述特征向量以检测所述子图像是否包括物体。
Description
技术领域
本发明涉及计算机视觉,更具体地讲,涉及在立体图像中检测物体。
背景技术
许多计算机视觉应用使用通过立体相机获取的立体图像来检测物体。立体相机通常具有多个镜头和传感器。通常,镜头之间的轴内距离约与眼睛之间的距离相同以提供交叠视野。
图1示出用于基于立体的物体检测的传统系统。立体相机101获取立体图像102。检测方法可包括以下步骤:立体成像100、成本体积(cost volume)确定110、深度/视差图估计120和物体检测130。
基于立体的物体检测的大多数传统方法依赖于交叠区域120中的每像素深度信息。此步骤通常被称作深度/范围图估计。此步骤可通过确定视差值(即,两个图像中的对应像素的平移)、确定深度图来实现。然后深度图可用于物体检测130,例如,深度图的梯度方向直方图(HoG)用于物体描述。一种方法估计子图像区域中的主要视差,并且使用相对视差值的共现直方图来进行物体检测。
深度/范围/视差图估计是具有挑战的问题。局部方法存在深度确定不准确的问题,而全局方法需要可观的计算资源并且不适合于实时应用。
多种方法通过使用关注区域生成的立体提示(stereo cue)来避免深度图确定步骤。例如,一种方法确定标记潜在物体位置的stixel图。各个stixel由相对于相机的3D位置来定义,并且垂直地竖立在地平面上。然后将基于彩色图像内容的检测器应用于所述位置以检测物体。
美国公布20130177237使用范围图来确定关注区域,并且使用基于强度直方图的分类器来检测物体。
关注区域方法无法直接应用于物体检测。关注区域方法必须与其它物体检测器结合应用。另外,当关注区域没有覆盖物体时,无疑会缺失检测。
发明内容
本发明的实施方式提供一种在立体图像中检测物体的方法。从图像计算成本体积。然后,直接对从成本体积获得的特征应用物体检测。所述检测使用从训练特征学习的T个决策树分类器(Adaboost)。
本发明避免了现有技术的易于发生错误并且计算上复杂的深度图估计步骤,得到准确且高效的物体检测器。所述方法更加适合于嵌入式系统,因为它不需要为获得良好的深度图所需的复杂的优化模块。另外,所述方法搜索输入图像中的所有子图像以检测物体。这避免了存在于关注区域生成技术中的缺失检测问题。
所述检测准确,因为所述方法可借助大量的训练数据并且利用机器学习过程。其在检测准确度方面胜过关注区域生成技术。
附图说明
图1是传统的基于立体的物体检测系统的框图;
图2是根据本发明的实施方式的基于立体的物体检测系统的框图;
图3是图2的基于立体的物体检测系统的物体检测模块的框图;
图4是根据本发明的实施方式的学习基于立体的物体检测器的方法的框图。
图5是根据本发明的实施方式的成本体积确定的示意图;
图6是根据本发明的实施方式的学习的特征的示意图;以及
图7是占据子图像的大部分和小部分的物体的示意图。
具体实施方式
图2示出根据本发明的实施方式的在一对立体图像200中检测物体201的方法和系统。从这一对立体图像生成(210)成本体积211。然后选择并提取(215)特征向量216。然后,将物体检测器220应用于特征向量体积以检测物体。物体检测器使用从训练图像特征231学习的分类器230。在检测到物体之后,可对物体进行定位,即,可确定物体在图像中的位置。如本领域中已知的,所述方法可在连接到存储器和输入/输出接口的处理器250中执行。
本发明基于这样的认识:深度图中可用的深度信息在成本体积中也可用,因为深度图是从成本体积获得的。
本发明的直接使用成本体积的检测器220理论上能够基于深度图使任何检测器的性能匹配。此外,成本体积是比传统深度图更丰富的表示。深度图仅提供各个像素的深度,而成本体积提供立体图像中的各个像素可具有的潜在深度范围(包括真实深度)的匹配成本。因此,检测器使用从成本体积直接获得的特征可访问更多的深度信息,并且实现更好的性能。
如图3所示,本发明的一个实施方式包括成本体积生成210、特征提取310、物体检测和定位320、学习的区别特征330以及学习的物体分类模型340。定位确定在哪里检测物体。
图4示出用于学习区别特征的机器学习过程以及学习的物体分类模型。从包括成对的训练立体图像的训练数据400选择并学习(410)特征。
成本体积生成
图5示出成本体积C 211的生成。成本体积C:X×Y×D是存储在存储器中的三维数据结构,其中X和Y表示图像x和y轴,D表示一组视差值(是两个立体图像IL 501和IR 502中的对应像素之间的平移)。假设IL和IR被调整,这意味着图像被变换为使得镜头畸变效果被补偿,并且一个图像的一行中的像素被映射至另一图像的同一行中的像素。然后可通过使成对的立体图像IL和IR中的像素外观匹配来确定成本体积。
确定成本体积的一个方式是对于任何(x,y,d)∈X×Y×D,应用由C(x,y,d)=||IL(x,y)-IR(x-d,y)||2+λ||grad(IL(x,y))-grad(IR(x-d,y))||2给出的映射。
其中||||2表示欧几里德范数,IL(x,y)是指IL图像的(x,y)位置的像素颜色值,IR(x,y)是指IR图像的(x,y)位置的像素颜色值,grad(IL(x,y))是指IL图像的(x,y)位置的梯度,grad(IR(x-d,y))是指IR图像的(x,y)位置的梯度,λ是控制梯度信息的重要性的权重。需要注意,可应用诸如双边滤波或引导滤波的图像平滑技术,以增强成本体积。
特征提取
图6示出图2的特征选择和提取215。从各个子图像600提取K维特征向量以用于确定子图像中是否存在物体。子图像可被视为例如按照多个比例针对各个像素以光栅扫描顺序在图像上通过的移动窗口。
需要注意,实施方式仅直接使用成本体积来确定特征。没有执行现有技术中的深度图估计。
特征向量的各个维度对应于子图像600中的两个(例如,矩形)区域601和602的图成本视差值之间的数值比较结果。将子图像表示为J,特征向量的第k维度表示为fk(J)。fk(J)的值为
其中表示子图像的区域Ri k中具有最小(min)累积成本的视差值。即,
需要注意,确定区域中最小成本视差值相对简单,因为如本领域已知的,可有效地利用积分图像技术来获得累积成本。利用下述机器学习过程来学习区域的位置和大小。
物体检测和定位
与子图像关联的K维特征向量被传递给集成分类器以用于确定检测得分。集成分类器包括T个决策树分类器。各个决策树分类器以K维特征的少量维度作为输入,并且将子图像分类为正(包含物体)或负(不包含物体)。从分类器获得的子图像J的检测得分s由下式给出
其中δt是决策树分类器,θt是对应权重。如果得分大于预设阈值,则系统宣布在子图像中检测到。
如图7所示,分类器可被训练,以在物体占据子图像701的较大部分时给出较高得分,在物体仅占据子图像702的较小部分时给出较低得分,这是因为与较小的物体相比,较大的物体提供物体在图像内位于何处的更好估计。
特征选择和分类器学习过程
使用离散AdaBoost过程以用于选择区域
并且用于学习决策树分类器权重
收集用于学习任务的一组数据,所述一组数据包括一组立体训练图像。包含物体的子图像被标记为正实例,而其它被标记为负实例。使正和负子图像对准以使得它们的中心重合。子图像还被缩放为具有相同的高度。经对准和缩放的子图像被表示为
D={(Ji,li),i=1,2,...,V}, (6)
其中Ji表示第i子图像,li是标签,V是子图像的总数。
采样一组N个区域作为特征池{Ri,i=1,2,...,N},其具有不同的位置和大小并且被经对准的子图像覆盖。随机将两个区域组对并且比较它们的最小成本的视差值。这被执行K次以构造K维特征向量。
使用离散AdaBoost过程来学习T个决策树分类器及其权重。所述过程开始于将一致的权重指派给训练样本。然后基于当前训练样本权重学习决策树。不正确分类的样本的权重被增加,以使得权重在下一轮决策树分类器学习期间具有更多影响。基于加权错误率将权重指派给决策树分类器。此处理被重复T次以构造T个决策树分类器的集成分类器。下面描述该过程的伪代码。
输入:特征向量和类标签D={(f(Ji),li),i=1,2,...,V}
输出:集成分类器
开始于一致的权重
对于t=1,2,...,T
1.利用权重wi学习决策树分类器δt(J)∈{-1,1};
2.确定错误率ε=∑iwi|(δt(Ji)≠li);
3.确定决策树分类器权重
4.对于i=1,2,...,V,设定wi←wiexp(θt|(δt(Ji)≠li);并且
5.将样本权重正规化。
步骤2和4中使用的函数δt表示指示函数,其在括号内的陈述为真的情况下返回一,否则返回零。
Claims (10)
1.一种在从场景获取的成对的立体图像中检测物体的方法,其中各个立体图像包括像素,该方法包括以下步骤:
从所述成对的立体图像生成成本体积,其中,所述成本体积包括在成对的立体图像之间针对各个像素的视差值范围的匹配成本;
根据所述成本体积中的子图像,利用所述子图像内部的区域内具有最小累积成本的视差值的特征函数确定特征向量;以及
将分类器应用于所述特征向量以检测所述子图像是否包括物体,
其中,上述步骤在处理器中执行。
2.根据权利要求1所述的方法,该方法还包括:
在所述立体图像内定位所述物体。
3.根据权利要求1所述的方法,其中,从成对的训练立体图像学习所述分类器。
4.根据权利要求1所述的方法,该方法还包括:
调整所述成对的立体图像。
5.根据权利要求1所述的方法,该方法还包括:
平滑所述成对的立体图像。
6.根据权利要求1所述的方法,其中,所述生成还包括:
利用欧几里德范数来使所述成对的立体图像中的像素的颜色和梯度匹配。
7.根据权利要求1所述的方法,其中,所述特征函数为
其中J表示所述子图像,k表示所述特征向量的维度,min表示返回最小值的函数,表示所述子图像中的矩形区域中具有最小累积成本的视差值。
8.根据权利要求7所述的方法,其中
<mrow>
<msub>
<mi>d</mi>
<mi>min</mi>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>k</mi>
<mi>i</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>arg</mi>
<munder>
<mi>min</mi>
<mi>d</mi>
</munder>
<munder>
<mi>&Sigma;</mi>
<mrow>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>&Element;</mo>
<msubsup>
<mi>R</mi>
<mi>k</mi>
<mi>i</mi>
</msubsup>
</mrow>
</munder>
<mi>C</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>,</mo>
<mi>d</mi>
<mo>)</mo>
</mrow>
</mrow>
其中C(x,y,d)表示所述成本体积。
9.根据权利要求1所述的方法,其中,所述分类器是包括T个决策树分类器的集成分类器。
10.根据权利要求9所述的方法,其中,所述分类器针对子图像J提供检测得分s,所述检测得分为
<mrow>
<mi>s</mi>
<mrow>
<mo>(</mo>
<mi>J</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>t</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>T</mi>
</munderover>
<msub>
<mi>&theta;</mi>
<mi>t</mi>
</msub>
<msub>
<mi>&delta;</mi>
<mi>t</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>J</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
其中δt是决策树分类器,θt是对应权重。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/272,570 | 2014-05-08 | ||
US14/272,570 US9195904B1 (en) | 2014-05-08 | 2014-05-08 | Method for detecting objects in stereo images |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105096307A CN105096307A (zh) | 2015-11-25 |
CN105096307B true CN105096307B (zh) | 2018-01-02 |
Family
ID=54368107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510232293.0A Active CN105096307B (zh) | 2014-05-08 | 2015-05-08 | 在成对的立体图像中检测物体的方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9195904B1 (zh) |
JP (1) | JP6345147B2 (zh) |
CN (1) | CN105096307B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104864849B (zh) * | 2014-02-24 | 2017-12-26 | 电信科学技术研究院 | 视觉导航方法和装置以及机器人 |
US9626590B2 (en) * | 2015-09-18 | 2017-04-18 | Qualcomm Incorporated | Fast cost aggregation for dense stereo matching |
US10482331B2 (en) * | 2015-11-20 | 2019-11-19 | GM Global Technology Operations LLC | Stixel estimation methods and systems |
CN105718910A (zh) * | 2016-01-22 | 2016-06-29 | 孟玲 | 一种局部和全局特征相结合的蓄电池室 |
KR101825459B1 (ko) * | 2016-08-05 | 2018-03-22 | 재단법인대구경북과학기술원 | 다중 클래스 객체 검출 장치 및 그 방법 |
US9989964B2 (en) | 2016-11-03 | 2018-06-05 | Mitsubishi Electric Research Laboratories, Inc. | System and method for controlling vehicle using neural network |
CN106845520B (zh) * | 2016-12-23 | 2018-05-18 | 深圳云天励飞技术有限公司 | 一种图像处理方法及终端 |
US11272163B2 (en) * | 2017-02-07 | 2022-03-08 | Sony Corporation | Image processing apparatus and image processing method |
US10554957B2 (en) * | 2017-06-04 | 2020-02-04 | Google Llc | Learning-based matching for active stereo systems |
US10395144B2 (en) * | 2017-07-24 | 2019-08-27 | GM Global Technology Operations LLC | Deeply integrated fusion architecture for automated driving systems |
US10956712B1 (en) | 2018-05-31 | 2021-03-23 | The Charles Stark Draper Laboratory, Inc. | System and method for multidimensional gradient-based cross-spectral stereo matching |
TWI709725B (zh) * | 2019-12-03 | 2020-11-11 | 阿丹電子企業股份有限公司 | 箱體的體積量測裝置及體積量測方法 |
KR102192322B1 (ko) * | 2020-04-13 | 2020-12-17 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | 픽셀 블록 단위로 상보적인 픽슬렛 구조가 적용된 카메라 시스템 및 그 동작 방법 |
US11577723B2 (en) | 2020-06-29 | 2023-02-14 | Uatc, Llc | Object trajectory association and tracking |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6301370B1 (en) * | 1998-04-13 | 2001-10-09 | Eyematic Interfaces, Inc. | Face recognition from video images |
CN101976455A (zh) * | 2010-10-08 | 2011-02-16 | 东南大学 | 一种基于立体匹配的彩色图像三维重建方法 |
CN102026013A (zh) * | 2010-12-18 | 2011-04-20 | 浙江大学 | 基于仿射变换的立体视频匹配方法 |
CN103226821A (zh) * | 2013-04-27 | 2013-07-31 | 山西大学 | 基于视差图像素分类校正优化的立体匹配方法 |
CN103366354A (zh) * | 2012-03-27 | 2013-10-23 | 富士通株式会社 | 用于立体匹配的方法和系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9111342B2 (en) * | 2010-07-07 | 2015-08-18 | Electronics And Telecommunications Research Institute | Method of time-efficient stereo matching |
KR20120049997A (ko) * | 2010-11-10 | 2012-05-18 | 삼성전자주식회사 | 영상 변환 장치 및 이를 이용하는 디스플레이 장치와 그 방법들 |
US8406470B2 (en) * | 2011-04-19 | 2013-03-26 | Mitsubishi Electric Research Laboratories, Inc. | Object detection in depth images |
WO2013106418A1 (en) | 2012-01-09 | 2013-07-18 | Tk Holdings, Inc. | Stereo-vision object detection system and method |
JP2014096062A (ja) * | 2012-11-09 | 2014-05-22 | Yamaguchi Univ | 画像処理方法及び画像処理装置 |
-
2014
- 2014-05-08 US US14/272,570 patent/US9195904B1/en active Active
-
2015
- 2015-04-02 JP JP2015075866A patent/JP6345147B2/ja active Active
- 2015-05-08 CN CN201510232293.0A patent/CN105096307B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6301370B1 (en) * | 1998-04-13 | 2001-10-09 | Eyematic Interfaces, Inc. | Face recognition from video images |
CN101976455A (zh) * | 2010-10-08 | 2011-02-16 | 东南大学 | 一种基于立体匹配的彩色图像三维重建方法 |
CN102026013A (zh) * | 2010-12-18 | 2011-04-20 | 浙江大学 | 基于仿射变换的立体视频匹配方法 |
CN103366354A (zh) * | 2012-03-27 | 2013-10-23 | 富士通株式会社 | 用于立体匹配的方法和系统 |
CN103226821A (zh) * | 2013-04-27 | 2013-07-31 | 山西大学 | 基于视差图像素分类校正优化的立体匹配方法 |
Non-Patent Citations (4)
Title |
---|
Airborne Vehicle Detection in Dense Urban Areas Using HoG Features and Disparity Maps;Sebastian Tuermer 等;《IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing》;20131231;第6卷(第6期);第2327-2337页 * |
Fast Cost-Volume Filtering for Visual Correspondence and Beyond;Asmaa Hosni 等;《IEEE Transactions on Pattern Analysis & Machine Intelligence》;20120801;第35卷(第2期);第504-511页 * |
Stereo Vision-Based Improving Cascade Classifier Learning for Vehicle Detection;Jonghwan Kim 等;《Advances in Visual Computing》;20111231;第2节、第3节、图3、图7 * |
Towards a Simulation Driven Stereo System;Martin Peris 等;《21st International Conference on Pattern Recognition》;20121115;第2节 * |
Also Published As
Publication number | Publication date |
---|---|
US20150324659A1 (en) | 2015-11-12 |
JP6345147B2 (ja) | 2018-06-20 |
US9195904B1 (en) | 2015-11-24 |
JP2015215877A (ja) | 2015-12-03 |
CN105096307A (zh) | 2015-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105096307B (zh) | 在成对的立体图像中检测物体的方法 | |
Zhai et al. | Detecting vanishing points using global image context in a non-manhattan world | |
CN105095905B (zh) | 目标识别方法和目标识别装置 | |
CN105389554B (zh) | 基于人脸识别的活体判别方法和设备 | |
US9704017B2 (en) | Image processing device, program, image processing method, computer-readable medium, and image processing system | |
CN104835175B (zh) | 一种基于视觉注意机制的核环境中目标检测方法 | |
CN103390164B (zh) | 基于深度图像的对象检测方法及其实现装置 | |
CN105740780B (zh) | 人脸活体检测的方法和装置 | |
US9305206B2 (en) | Method for enhancing depth maps | |
EP2811423A1 (en) | Method and apparatus for detecting target | |
CN110490936B (zh) | 车辆摄像头的标定方法、装置、设备及可读存储介质 | |
WO2015161816A1 (en) | Three-dimensional facial recognition method and system | |
CN106709568A (zh) | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 | |
KR20170006355A (ko) | 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치 | |
CN105335725A (zh) | 一种基于特征融合的步态识别身份认证方法 | |
CN102982334B (zh) | 基于目标边缘特征与灰度相似性的稀疏视差获取方法 | |
CN113850865A (zh) | 一种基于双目视觉的人体姿态定位方法、系统和存储介质 | |
Poggi et al. | Deep stereo fusion: combining multiple disparity hypotheses with deep-learning | |
CN106997478B (zh) | 基于显著中心先验的rgb-d图像显著目标检测方法 | |
CN107909034A (zh) | 一种人脸检测方法、装置和计算机可读存储介质 | |
CN104463240B (zh) | 一种仪表定位方法及装置 | |
CN111368682A (zh) | 一种基于faster RCNN台标检测与识别的方法及系统 | |
CN107392191B (zh) | 身份判定方法、装置及电子设备 | |
CN115862124A (zh) | 视线估计方法、装置、可读存储介质及电子设备 | |
CN113436735A (zh) | 基于人脸结构度量的体重指数预测方法、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |