CN110431562B - 图像识别装置 - Google Patents

图像识别装置 Download PDF

Info

Publication number
CN110431562B
CN110431562B CN201880019314.2A CN201880019314A CN110431562B CN 110431562 B CN110431562 B CN 110431562B CN 201880019314 A CN201880019314 A CN 201880019314A CN 110431562 B CN110431562 B CN 110431562B
Authority
CN
China
Prior art keywords
image
processing unit
candidate
distance
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880019314.2A
Other languages
English (en)
Other versions
CN110431562A (zh
Inventor
斋藤繁
香山信三
竹本征人
石井基范
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of CN110431562A publication Critical patent/CN110431562A/zh
Application granted granted Critical
Publication of CN110431562B publication Critical patent/CN110431562B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Processing (AREA)

Abstract

图像识别装置(10)具备:亮度图像生成部(3)以及距离图像生成部(4),基于从受光元件(2)输出的拍摄对象物(9)的图像信号分别生成亮度图像和距离图像;对象物识别处理部(5),利用机器学习用数据库(7),从亮度图像中提取对象物候选;以及立体物判别处理部(6),使用距离图像判别所提取的对象物候选是否为立体物,在判别为对象物候选不是立体物的情况下,在机器学习用数据库(7)中,禁止将从亮度图像中提取出的对象物候选用作用于提取对象物的特征量的图像数据。

Description

图像识别装置
技术领域
本公开涉及一种用于车载相机等的图像识别装置。
背景技术
以往,为了判别行驶车辆等移动体中有无行驶障碍物等,正在推进使用了相机等摄像装置的物体检测系统的开发。
在专利文献1中公开了如下的物体检测技术:通过搭载于车辆等的终端装置,从由车载相机等拍摄到的图像中简单地检测对象物的候选物体之后,仅将包含该候选物体的图像发送给服务器,在服务器侧细查所接收到的图像来识别对象物。根据该技术,即使在影像内的图像的亮度改变的情况下,也能够可靠地分离图像内的背景和背景内的物体而收集高效地检测出的对象物的图像,并且抑制终端装置以及服务器之间的数据通信量。另外,在专利文献1中公开了通过机器学习来识别对象物的技术。
另一方面,在专利文献2中公开了如下技术:使用立体相机拍摄对象物的外形,并且在测量与对象物之间的距离时,在所检测到的对象物中指定多个点,通过比较所指定的点与相机之间的距离来判断对象物是否是立体的,生成立体显示的左眼用图像和右眼用图像。
现有技术文献
专利文献
专利文献1:日本特开2016-218760号公报
专利文献2:日本特开2013-168729号公报
发明内容
发明要解决的问题
然而,例如,在专利文献1所公开的那样的基于机器学习的对象物识别中,存储在机器学习用数据库(以下称为DB)中的数据参数越大,所生成的识别器的数量等越增加,因此识别精度提高。另一方面,由于处理速度本身变慢,因此有时不利于在短时间内判别行驶障碍物的有无等。
另外,在专利文献2所公开的结构中,由于距离差根据指定对象物的哪个点而变化,所以有时根据指定的部位而几乎没有距离差,在该情况下,有可能导致判别对象物是否为立体物的判别精度降低。
本公开鉴于这一点而完成,其目的是提供一种图像识别设备,其从拍摄到的图像中提取人或车的对象物候选,并快速且可靠地识别所提取的对象物候选是否是实际的人或车。
用于解决问题的手段
为了达到上述目的,本公开的一方式的图像识别装置,具备:光源,出射在时间上被调制强度后的调制光;受光元件,接收来自被照射了该调制光的拍摄对象物的反射光;亮度图像生成部,基于从所述受光元件输出的所述拍摄对象物的图像信号生成亮度图像;距离图像生成部,基于从所述受光元件输出的所述拍摄对象物的图像信号生成距离图像;对象物识别处理部,利用机器学习用数据库从所述亮度图像中提取对象物候选,该机器学习用数据库中存储有用于识别对象物的特征量的图像数据;以及立体物判别处理部,使用所述距离图像来判别由所述对象物识别处理部提取出的所述对象物候选是否是立体物,在利用所述立体物判别处理部判别为所述对象物候选不是立体物的情况下,禁止在所述机器学习用数据库中将从所述亮度图像提取出的所述对象物候选用作用于提取对象物的特征量的图像数据。
根据该结构,通过使用亮度图像和距离图像这两者,能够可靠地识别所提取出的对象物候选是实际的对象物还是描绘在海报等上的图画或照片。另外,通过将对象物候选是否为立体物的判别结果反映到机器学习用数据库中,能够提高对象物的识别精度。
也可以是,所述立体物判别处理部在所述对象物候选的距离图像的多行上计算由所述对象物识别处理部提取出的所述对象物候选与所述受光元件之间的距离,计算该多行中的一行的距离的平均值和偏差,基于相对于该平均值的差相对于该偏差为规定值以上的像素占该一行的像素数的比例,判别所述对象物候选是否为立体物。
也可以是,所述立体物判别处理部在相对于所述平均值的差为所述偏差的两倍以上的像素占所述一行的像素数的10%以上的情况下,判别为所述对象物候选为立体物。
此外,从所述光源出射的调制光的波长可以在800nm~1100nm的范围内。
根据该结构,能够不给人的视觉带来影响地取得对象物的亮度图像以及距离图像。
根据本公开的图像识别装置,能够从拍摄对象物提取对象物候选并可靠地识别其是否是实际的对象物。另外,通过将对象物候选是否为立体物的判别结果反映到机器学习用数据库中,能够提高对象物的识别精度。
附图说明
图1是表示实施方式的图像识别装置的结构例及其周边的框图。
图2是基于亮度图像分析的人候选的提取结果的一例。
图3A是基于距离图像分析的立体物的识别结果的一例。
图3B是基于距离图像分析的立体物的识别结果的另一例。
图4是示出使用了实施方式的图像识别装置的人识别方法的流程图的一例。
具体实施方式
以下,基于附图对本实施方式进行详细说明。另外,以下说明的实施方式均表示本发明的优选的一个具体例。以下的实施方式所示的数值、形状、材料、构成要素、构成要素的配置位置以及连接方式等是一例,并非限定本发明的主旨。另外,关于以下的实施方式中的构成要素中的、表示本发明的最上位概念的独立权利要求中没有记载的构成要素,作为构成更优选的方式的任意的构成要素进行说明。另外,各图是示意图,不一定表示严格的尺寸。
图1是示出实施方式的图像识别装置10的结构例及其周边的框图。图2示出基于亮度图像分析的人候选的提取结果的一例。图3A和图3B示出了基于本实施方式的距离图像分析的立体物的识别结果的示例。另外,为了便于说明,在图2以及图3A、3B中,亮度图像仅显示人候选的轮廓。
图1的图像识别装置10具备光源1、受光元件2、亮度图像生成部3和距离图像生成部4。另外,在图1中,还图示了图像识别装置10的周边的机器学习用数据库7、显示部8以及拍摄对象物9。
光源1由使用波长在800nm至1100nm范围内的近红外光的激光或LED构成。使用该波段的光的理由是因为能够不对人的视觉带来影响地取得拍摄对象物9的亮度图像和距离图像。进而,从光源1出射的出射光在时间上被调制强度。从光源1出射的出射光的脉冲宽度能够在几纳秒至几百纳秒的范围内控制,由必要的测定距离范围、距离精度、帧频等决定。
受光元件2具有光电转换部,该光电转换部具有二维状排列的多个像素,像素中包含主要由Si类材料构成的光电二极管。受光元件2是集成了光电转换部和传送或处理来自上述像素的信号的电路部的半导体元件。
通过摄像透镜,将从光源1出射的出射光被拍摄对象物9反射后的反射光成像在受光元件2的受光面上,从而能够由受光元件2得到来自拍摄对象物9的光学信息。
另外,图像识别装置10具有:对象物识别处理部5,基于由亮度图像生成部3得到的亮度图像,判定所拍摄的拍摄对象物9是否为对象物候选,并提取被判定为对象物候选的拍摄对象物9的图像;以及立体物判别处理部6,基于由距离图像生成部4得到的距离图像,判别所提取的拍摄对象物9是否为立体物。
亮度图像生成部3根据被拍摄对象物9反射并被受光元件2接收的受光信号强度生成亮度图像。能够从亮度图像得到被摄体的对比度。将该亮度图像向对象物识别处理部5传送数据,进行拍摄对象物9是否为对象物候选的判断。
距离图像生成部4基于被拍摄对象物9反射并被受光元件2接收的受光信号的到达时间,生成距离图像。具体地,以来自光源1的光出射定时为基准,测定来自拍摄对象物9的反射光到达受光元件2的时间,并将该时间除以光的速度,从而能够测定从受光元件2到拍摄对象物9的距离。该方法被称为Time-of-Flight((TOF))法,是一般公知的。将测定出的距离按照受光元件2的每个像素在二维上作图而得到距离图像。
对象物识别处理部5使用由亮度图像生成部3生成的亮度图像,识别所拍摄的拍摄对象物9是否为对象物候选,并提取对象物候选。例如,对象物候选作为与对象物候选对应的亮度图像中的部分的图像数据被提取。在本实施方式中,由于对象物是人,因此在以后的说明中,对人候选的识别等进行说明。在识别人候选时,通过利用各种方法从拍摄对象物9的亮度图像中提取特征量来进行判断,并且主要基于拍摄对象物9的外形是否与人相对应来识别是否是人候选。为了提高识别精度,需要将数千~数万张图像数据存储到机器学习用DB7中,进而使用这些图像数据,生成能够通过机器学习来识别人候选的识别器。对于这些特征量的计算、识别器生成提出了各种方法(例如,HOG(Histograms of OrientedGradients)特征量、SVM(Support Vector Machine)识别器等),在此不特别限定。如图2所示,例如,能够在显示部8上显示并检测由对象物识别处理部5提取出的人候选的外形、拍摄区域内的位置。
立体物判别处理部6判别由对象物识别处理部5提取出的人候选是否为立体物。有时无法判别由对象物识别处理部5提取出的人候选是实际的人还是海报、招牌等中的临摹图画。例如,在图2中,从左侧的亮度图像中作为人候选提取的图像(左角的图像)在右侧的距离图像中示出均匀的板状的轮廓,可知该图像不是实际的人,而是海报或招牌的平面物。例如,在具有搭载于移动体的车载相机等的图像识别装置中,若仅根据亮度图像判断人,则有可能错误地将海报或招牌等识别为人,从而产生因紧急停止或紧急的方向盘操作而引起的事故。
因此,在本实施方式的图像识别装置10中,为了防止这些误识别,在立体物判别处理部6中,判别基于亮度图像而提取的人候选是否为立体物,并判断人候选是否为实际的人。另外,该结果能够显示在显示部8上而进行检测。
机器学习用DB7保存有数千~数万张图像数据,在本实施方式中,图像数据被对象物识别处理部5读出,用于生成识别人的特征量等的识别器等。
显示部8例如是液晶显示器或有机EL显示器,显示亮度图像、距离图像、或者对它们进行图像处理后的结果等。
在立体物判别处理部6中,对于由距离图像生成部4获得的距离图像,在水平方向上进行多行扫描,并比较各自的距离。在此,以隔开规定间隔地分离的方式对行进行扫描。如果如图3A所示那样在距离图像中包含立体物,则在上述的多行中,距离分布不会重合,但如图3B所示那样,在距离图像是拍摄壁纸等平面物而得到的图像时,在上述的多行中,距离分布一致。
计算一行中的测定距离的平均值和偏差,根据相对于平均值的差相对于上述偏差为规定值以上的像素在该一行的像素数中所占的比例,判别拍摄对象物9是否为立体物。在本实施方式中,求出一行中的测定距离的平均和偏差,在相对于平均的差相对于上述偏差为两倍以上的像素相对于扫描后的一行的像素数占10%以上的情况下,判别为拍摄对象物9是立体物。然而,拍摄对象物9是否是立体物的判断标准不特别限于此,可以根据例如扫描的行的间隔、一行上的像素数、以及是否通过设置在移动物体上的光源和受光元件来进行拍摄对象物9的拍摄而适当变更判断标准。另外,能够使立体物判别处理部6中的判别结果反映于机器学习用DB7,并进一步提高在拍摄图像中是否包含人的识别精度。另外,在图3A以及图3B中,示出了在水平方向上扫描距离图像来计算各个点处的距离的方法,但并不特别限定于此,例如,也可以在垂直方向上扫描来计算距离。
图4是示出使用了实施方式的图像识别装置的人识别方法的流程图的一例。
首先,从光源1对拍摄对象物9照射强度调制后的光(步骤S1),由受光元件2接收被拍摄对象物9反射的反射光,对拍摄对象物9进行拍摄(步骤S2)。接着,将从受光元件2输出的拍摄对象物9的图像信号发送至亮度图像生成部3和距离图像生成部4,分别生成拍摄对象物9的亮度图像和距离图像(步骤S3)。
所生成的亮度图像从亮度图像生成部3被发送到对象物识别处理部5。并且,从对象物识别处理部5访问机器学习用DB7(步骤S4)。基于机器学习用DB7中存储的图像数据,提取用于识别是否是人的特征量,并且在对象物识别处理部5中生成识别器(步骤S5)。使用这些特征量和识别器来识别拍摄对象物9是否是人候选(步骤S6)。
如果拍摄对象物9是人候选,则接着在立体物判别处理部6中,实施多个对应的距离图像的水平或垂直方向的像素的行扫描,计算多个测定点处的距离分布(步骤S7)。基于该距离分布,通过立体物判别处理部6判别所提取的人候选是否为立体物(步骤S8)。该判别方法以与使用图3A和图3B在上述中说明的方法相同的方法进行。如果提取出的人候选是立体物,则认为该人候选是实际的人,例如,将拍摄对象物9的图像也保存在机器学习用DB7中(步骤S8),再次继续进行拍摄。
在步骤S6中,如果拍摄对象物9不是人候选,则再次继续进行拍摄。另一方面,如果在步骤S7中判别为人候选不是立体物,则在机器学习用DB7内禁止使用作为人候选而提取出的图像数据(步骤S10),再次继续进行拍摄。作为禁止使用的例子,例如可列举不将作为人候选而提取出的图像数据保存于机器学习DB7、或者保存于机器学习DB7也不用于识别人的特征量的识别器的生成等。
这样,根据本实施方式,通过将在时间上调制强度后的光照射到对象物并对反射光进行拍摄而生成亮度图像和距离图像,能够分别求出拍摄对象物9的外形、对比度和拍摄对象物9的到光源的距离。另外,通过使用机器学习用DB7从亮度图像中提取人等对象物候选,使用距离图像来判别所提取出的对象物候选是否是立体物,能够识别所拍摄的拍摄对象物9是否是实际的对象物。
另外,在提取出的人等对象物候选不是立体物的情况下,通过不将用于提取对象物候选的图像数据用作用于提取对象物的特征量等的数据,能够提高识别拍摄对象物9是否是实际的对象物的识别速度。例如,在行驶的道路上设置有多个绘制有对象物的同种招牌的情况下,通过不将招牌中对象物的图像数据用于对象物的识别,提高对象物识别的精度以及速度。由此,能够抑制对象物的误识别。
在本实施方式中,示出了识别拍摄对象物9是否是人的例子,但是,也可以识别拍摄对象物9是否是车辆、搭乘于车辆的人、或者特定的动物等。作为在该情况下使用的机器学习用DB7的图像数据,当然分别使用车辆、搭乘于车辆的人、或者特定的动物的图像数据。另外,也可以将机器学习用DB7或显示部8、或者这两者都组装到图像识别装置10中。
以上,基于实施方式对本发明的图像识别装置进行了说明,但本公开并不限定于实施方式。只要不脱离本公开的主旨,将本领域技术人员想到的各种变形实施于本实施方式而得到的方式、将实施方式以及变形例中的一部分构成要素任意组合而构建的其他方式也包含于本公开的范围内。
工业上的可利用性
本公开的图像识别装置能够抑制人等对象物的误识别,作为车载相机的图像识别用相机等是有用的。另外,也可以应用于监视、安全等用途。
标号说明
1光源
2受光元件
3亮度图像生成部
4距离图像生成部
5对象物识别处理部
6立体物判别处理部
7机器学习用数据库
8显示部
9拍摄对象物
10图像识别装置

Claims (4)

1.一种图像识别装置,具备:
光源,出射在时间上被调制强度后的调制光;
受光元件,接收来自被照射了该调制光的拍摄对象物的反射光;
亮度图像生成部,基于从所述受光元件输出的所述拍摄对象物的图像信号生成亮度图像;
距离图像生成部,基于从所述受光元件输出的所述拍摄对象物的图像信号生成距离图像;
对象物识别处理部,利用机器学习用数据库从所述亮度图像中提取对象物候选,该机器学习用数据库中存储有用于识别对象物的特征量的图像数据;以及
立体物判别处理部,使用所述距离图像来判别由所述对象物识别处理部提取出的所述对象物候选是否是立体物,
在利用所述立体物判别处理部判别出所述对象物候选是立体物的情况下,将从所述亮度图像提取出的所述对象物候选作为用于提取对象物的特征量的图像数据保存至所述机器学习用数据库,在判别出所述对象物候选不是立体物的情况下,禁止在所述机器学习用数据库中将从所述亮度图像提取出的所述对象物候选用作用于提取对象物的特征量的图像数据。
2.根据权利要求1所述的图像识别装置,其中,
所述立体物判别处理部在所述对象物候选的距离图像的多行上计算由所述对象物识别处理部提取出的所述对象物候选与所述受光元件之间的距离,计算该多行中的一行的距离的平均值和偏差,基于相对于该平均值的差相对于该偏差为规定值以上的像素占该一行的像素数的比例,判别所述对象物候选是否为立体物。
3.根据权利要求2所述的图像识别装置,其中,
所述立体物判别处理部在相对于所述平均值的差为所述偏差的两倍以上的像素占所述一行的像素数的10%以上的情况下,判别为所述对象物候选为立体物。
4.根据权利要求1至3中任一项所述的图像识别装置,其中,
从所述光源出射的调制光的波长在800nm~1100nm的范围内。
CN201880019314.2A 2017-03-22 2018-03-12 图像识别装置 Active CN110431562B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017056350A JP6782433B2 (ja) 2017-03-22 2017-03-22 画像認識装置
JP2017-056350 2017-03-22
PCT/JP2018/009377 WO2018173819A1 (ja) 2017-03-22 2018-03-12 画像認識装置

Publications (2)

Publication Number Publication Date
CN110431562A CN110431562A (zh) 2019-11-08
CN110431562B true CN110431562B (zh) 2023-08-01

Family

ID=63584414

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880019314.2A Active CN110431562B (zh) 2017-03-22 2018-03-12 图像识别装置

Country Status (5)

Country Link
US (1) US10984221B2 (zh)
EP (1) EP3605454A4 (zh)
JP (1) JP6782433B2 (zh)
CN (1) CN110431562B (zh)
WO (1) WO2018173819A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10839220B2 (en) * 2018-10-15 2020-11-17 Kepler Vision Technologies B.V. Method for categorizing a scene comprising a sub-scene with machine learning
JP7288460B2 (ja) * 2018-11-30 2023-06-07 株式会社小糸製作所 車載用物体識別システム、自動車、車両用灯具、分類器の学習方法、演算処理装置
CN113168691A (zh) * 2018-12-07 2021-07-23 索尼半导体解决方案公司 信息处理装置、信息处理方法、程序、移动体控制装置和移动体
US11303877B2 (en) * 2019-08-13 2022-04-12 Avigilon Corporation Method and system for enhancing use of two-dimensional video analytics by using depth data
WO2021152340A1 (ja) * 2020-01-31 2021-08-05 日産自動車株式会社 物体認識方法及び物体認識装置
CN116848436A (zh) * 2021-02-15 2023-10-03 松下知识产权经营株式会社 物体信息生成系统、物体信息生成方法以及物体信息生成程序

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8326084B1 (en) * 2003-11-05 2012-12-04 Cognex Technology And Investment Corporation System and method of auto-exposure control for image acquisition hardware using three dimensional information
GB0405014D0 (en) * 2004-03-05 2004-04-07 Qinetiq Ltd Movement control system
JP2005311691A (ja) * 2004-04-21 2005-11-04 Toyota Central Res & Dev Lab Inc 物体検出装置及び方法
JP5404064B2 (ja) * 2008-01-16 2014-01-29 株式会社半導体エネルギー研究所 レーザ処理装置、および半導体基板の作製方法
JP5275122B2 (ja) * 2008-05-30 2013-08-28 パナソニック株式会社 ダイナミックレンジ圧縮装置、ダイナミックレンジ圧縮方法、プログラム、集積回路および撮像装置
KR101681538B1 (ko) * 2010-10-20 2016-12-01 삼성전자주식회사 영상 처리 장치 및 방법
US9171372B2 (en) * 2010-11-23 2015-10-27 Qualcomm Incorporated Depth estimation based on global motion
US8401225B2 (en) * 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
CN104012081B (zh) * 2011-12-19 2017-04-19 日产自动车株式会社 三维物体检测装置
JP2013168729A (ja) 2012-02-14 2013-08-29 Nikon Corp 画像処理装置およびプログラム
US20130266174A1 (en) * 2012-04-06 2013-10-10 Omek Interactive, Ltd. System and method for enhanced object tracking
JP5962393B2 (ja) * 2012-09-28 2016-08-03 株式会社Jvcケンウッド 画像処理装置、画像処理方法及び画像処理プログラム
EP2728306A1 (en) * 2012-11-05 2014-05-07 Hexagon Technology Center GmbH Method and device for determining three-dimensional coordinates of an object
JP6013884B2 (ja) * 2012-11-08 2016-10-25 日立オートモティブシステムズ株式会社 物体検出装置及び物体検出方法
JP2014106685A (ja) * 2012-11-27 2014-06-09 Osaka Univ 車両周辺監視装置
US10057498B1 (en) * 2013-03-15 2018-08-21 Cognex Corporation Light field vision system camera and methods for using the same
JP6398347B2 (ja) * 2013-08-15 2018-10-03 株式会社リコー 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム
JP5906224B2 (ja) * 2013-09-27 2016-04-20 富士重工業株式会社 車外環境認識装置
JP5893601B2 (ja) * 2013-10-31 2016-03-23 富士重工業株式会社 車両制御システム
CN111985344A (zh) * 2013-12-17 2020-11-24 索尼公司 信息处理设备和方法以及非易失性计算机可读存储介质
JP6540009B2 (ja) * 2013-12-27 2019-07-10 株式会社リコー 画像処理装置、画像処理方法、プログラム、画像処理システム
JP2016001464A (ja) * 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム、及び、処理方法
JP6648411B2 (ja) * 2014-05-19 2020-02-14 株式会社リコー 処理装置、処理システム、処理プログラム及び処理方法
JP6329438B2 (ja) * 2014-06-12 2018-05-23 株式会社Subaru 車外環境認識装置
US9778476B2 (en) * 2014-11-03 2017-10-03 Aquifi, Inc. 3D depth sensor and projection system and methods of operating thereof
JP6457278B2 (ja) * 2015-01-23 2019-01-23 トヨタ自動車株式会社 物体検出装置及び物体検出方法
EP3274978A1 (en) * 2015-03-23 2018-01-31 Philips Lighting Holding B.V. Luminaire parking guidance
US9690984B2 (en) * 2015-04-14 2017-06-27 Microsoft Technology Licensing, Llc Two-dimensional infrared depth sensing
JP6549898B2 (ja) * 2015-05-20 2019-07-24 株式会社日立製作所 物体検出システム、物体検出方法、poi情報作成システム、警告システム、及び誘導システム
WO2017014691A1 (en) * 2015-07-17 2017-01-26 Heptagon Micro Optics Pte. Ltd. Generating a distance map based on captured images of a scene
JP6657789B2 (ja) * 2015-10-29 2020-03-04 株式会社リコー 画像処理装置、撮像装置、機器制御システム、頻度分布画像生成方法、及びプログラム
KR20230004905A (ko) * 2015-11-10 2023-01-06 루미리즈 홀딩 비.브이. 적응형 광원
JP6310899B2 (ja) * 2015-11-25 2018-04-11 株式会社Subaru 車外環境認識装置
US20170228606A1 (en) * 2016-02-09 2017-08-10 Haike Guan Information processing apparatus, information processing method, and recording medium
KR102529120B1 (ko) * 2016-07-15 2023-05-08 삼성전자주식회사 영상을 획득하는 방법, 디바이스 및 기록매체
US10976705B2 (en) * 2016-07-28 2021-04-13 Cy Vision Inc. System and method for high-quality speckle-free phase-only computer-generated holographic image projection
US20180136332A1 (en) * 2016-11-15 2018-05-17 Wheego Electric Cars, Inc. Method and system to annotate objects and determine distances to objects in an image
US10242454B2 (en) * 2017-01-25 2019-03-26 Google Llc System for depth data filtering based on amplitude energy values
KR102647351B1 (ko) * 2017-01-26 2024-03-13 삼성전자주식회사 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
US20190138786A1 (en) * 2017-06-06 2019-05-09 Sightline Innovation Inc. System and method for identification and classification of objects
US10683034B2 (en) * 2017-06-06 2020-06-16 Ford Global Technologies, Llc Vehicle remote parking systems and methods
US10444761B2 (en) * 2017-06-14 2019-10-15 Trifo, Inc. Monocular modes for autonomous platform guidance systems with auxiliary sensors
KR102422021B1 (ko) * 2017-07-27 2022-07-15 삼성전자주식회사 광 검출기 선택 장치 및 방법과, 산란계수 측정 장치 및 방법
JP7028588B2 (ja) * 2017-09-04 2022-03-02 株式会社日立エルジーデータストレージ 3次元距離測定装置
JP6970376B2 (ja) * 2017-12-01 2021-11-24 オムロン株式会社 画像処理システム、及び画像処理方法
JP7236680B2 (ja) * 2018-02-09 2023-03-10 パナソニックIpマネジメント株式会社 投影システム
CN108648225B (zh) * 2018-03-31 2022-08-02 奥比中光科技集团股份有限公司 目标图像获取系统与方法
US11030458B2 (en) * 2018-09-14 2021-06-08 Microsoft Technology Licensing, Llc Generating synthetic digital assets for a virtual scene including a model of a real-world object
KR101981202B1 (ko) * 2018-12-11 2019-05-22 메디컬아이피 주식회사 의료영상 재구성 방법 및 그 장치

Also Published As

Publication number Publication date
US10984221B2 (en) 2021-04-20
CN110431562A (zh) 2019-11-08
EP3605454A1 (en) 2020-02-05
EP3605454A4 (en) 2020-04-15
JP2018160049A (ja) 2018-10-11
JP6782433B2 (ja) 2020-11-11
US20200097702A1 (en) 2020-03-26
WO2018173819A1 (ja) 2018-09-27

Similar Documents

Publication Publication Date Title
CN110431562B (zh) 图像识别装置
EP2889641B1 (en) Image processing apparatus, image processing method, program and image processing system
CN108351207B (zh) 立体相机装置
EP2919197B1 (en) Object detection device and object detection method
JP5867807B2 (ja) 車両識別装置
CN106170828B (zh) 外界识别装置
EP2602640B1 (en) Vehicle occupancy detection using time-of-flight sensor
JP6459659B2 (ja) 画像処理装置、画像処理方法、運転支援システム、プログラム
WO2017158958A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
EP3705371A1 (en) Obstacle detecting device
US20140347484A1 (en) Apparatus and method for providing surrounding environment information of vehicle
CN106573588A (zh) 驾驶辅助装置、驾驶辅助方法和程序
WO2020105527A1 (ja) 画像解析装置、画像解析システム、および制御プログラム
JP5955404B2 (ja) 距離測定装置及びそれを用いた車両
JP2005156199A (ja) 車両検知方法及び車両検知装置
JP2008165595A (ja) 障害物検出方法、障害物検出装置、障害物検出システム
CN114724104B (zh) 一种视认距离检测的方法、装置、电子设备、系统及介质
JPH07244717A (ja) 車両用走行環境認識装置
KR101868293B1 (ko) 차량용 라이다 장치
JP4765113B2 (ja) 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
CN107992789B (zh) 识别交通灯的方法、装置及车辆
JP2009104232A (ja) 車種判別装置
JP2004280593A (ja) 画像情報処理システム
KR20080054094A (ko) 물체 인식 및 거리 계측 방법
Kasahara et al. A dynamic background subtraction method for detecting walkers using mobile stereo-camera

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant