CN114467111A - 物体识别方法及物体识别装置 - Google Patents
物体识别方法及物体识别装置 Download PDFInfo
- Publication number
- CN114467111A CN114467111A CN201980099868.2A CN201980099868A CN114467111A CN 114467111 A CN114467111 A CN 114467111A CN 201980099868 A CN201980099868 A CN 201980099868A CN 114467111 A CN114467111 A CN 114467111A
- Authority
- CN
- China
- Prior art keywords
- sensor
- point group
- point
- objects
- polygon
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明的物体识别方法是使用了获取存在于周围的物体的位置并作为在俯视中由多个反射点构成的点群的传感器的物体识别方法,根据接近程度对点群进行分组,在对分组后的点群进行多边形近似时,判定构成分组后的点群的至少一部分检测点相对于传感器是否位于对点群进行多边形近似时的近似多边形的死角。在判定为检测点相对于传感器位于死角的情况下,识别为分组后的点群是与多个物体对应的点群,在判定为检测点相对于传感器不位于死角的情况下,识别为分组后的点群是与近似多边形的单体物体对应的点群。
Description
技术领域
本发明涉及一种物体识别方法以及物体识别装置。
背景技术
以往,已知的物体追踪装置使用利用了激光的收发传感器测量在本车辆的周围行驶的检测对象车辆的位置(参照JP2016-148514A)。
根据JP2016-148514A中公开的上述装置,在由收发传感器获取的点群中对相互接近的点进行分组,通过用矩形进行近似而计算出物体位置的基准点。但是,如果仅对相互接近的点进行分组,则有时将属于接近的多个物体的点群误识别为属于同一物体的点群。例如,在由两个物体的侧面形成L字形的凹部的情况下,有时将属于该两个物体的侧面的点群误识别为同一物体的点群。此时,若基于该点群进行矩形近似,则存在有时识别为在不存在物体的凹部中存在矩形的物体(凸物体)的问题。
发明内容
本发明的目的在于提供一种通过判定使用传感器获取的点群是否为与多个的物体(多个物体)对应的点群,从而能够正确地识别存在于周围的物体的位置的技术。
本发明的一方式的物体识别方法是使用了获取存在于周围的物体的位置并作为在俯视中由多个反射点构成的点群的传感器的物体识别方法,根据接近程度对点群进行分组,在对分组后的点群进行多边形近似时,判定构成分组后的点群的至少一部分检测点相对于传感器是否位于对点群进行多边形近似时的近似多边形的死角。在判定为检测点相对于传感器位于死角的情况下,识别为分组后的点群是与多个物体对应的点群,在判定为检测点相对于传感器不位于死角的情况下,识别为分组后的点群是与近似多边形的单体物体对应的点群。
附图说明
图1是表示第一实施方式的物体识别装置的结构例的块图。
图2是说明物体识别装置获取的点群的一例的图。
图3是说明第一实施方式的物体识别装置的物体识别方法的流程图。
图4是说明近似多边形构成边死角判定的方法的图。
图5是说明近似多边形反射点所属判定方法的一例的图。
图6是表示第二实施方式的物体识别装置的结构例的块图。
图7是说明第二实施方式的物体识别装置的物体识别方法的流程图。
图8是说明第二实施方式的物体识别装置的物体识别方法的流程图。
图9是表示第三实施方式的物体识别装置的结构例的块图。
图10是说明具备传感器以及摄像机的物体识别装置所获取的存在于周围的物体的信息的图。
图11是说明第三实施方式的物体识别装置的物体识别方法的流程图。
图12是说明判定传感器所获取的与物体相关的信息和摄像机所获取的与物体相关的信息是否匹配的方法的图。
具体实施方式
以下,结合附图详细说明本发明的实施方式。
(第一实施方式)
图1是表示本发明的第一实施方式的物体识别装置100的结构例的块图。本实施方式的物体识别装置100例如适用于汽车。
本实施方式的物体识别装置100构成为包括传感器1、和对传感器1所获取的信息进行处理的控制器10。另外,控制器10包括:点群分组部11、多边形近似部12、近似多边形点群所属判定部13。
传感器1作为三维点群获取单元而发挥功能,该三维点群获取单元获取传感器1的周围环境、即在本实施方式中为搭载有物体识别装置100的车辆周围存在的物体的三维点群数据。传感器1例如设想为激光雷达(LiDAR)、雷达或立体摄像机等,但本实施方式的传感器1采用激光雷达。所获取的三维点群数据(以下也简称为点群)被输入到控制器10。参照图2在后面叙述所获取的点群的一例。
控制器10例如由中央运算装置(CPU)、只读存储器(ROM)、随机存取存储器(RAM)以及输入输出接口(I/O接口)构成。另外,在控制器10所具备的ROM中存储有用于执行以下说明的各功能部分别具有的各功能的程序。换言之,控制器10构成为通过执行存储在ROM中的各种程序,实现以下说明的点群分组部11、多边形近似部12以及近似多边形点群所属判定部13的功能。
点群分组部11将传感器1获取的点群投影到与地面平行的二维平面上,根据接近程度对这些点群进行分组。作为这种分组方法,在本实施方式中使用欧氏聚类(EuclideanClustering)的方法,但不限于该方法,也可以使用根据点群的接近程度进行分组的其他方法。
多边形近似部12执行所谓的多边形拟合,其将由点群分组部11分组的点群近似为预定多边形。
近似多边形点群所属判定部13根据传感器1与由多边形近似部12近似的近似多边形之间的位置关系,判定在构成近似多边形的各个边中、与分组后的点群相对应的边在从传感器1观察时是否为死角。然后,近似多边形点群所属判定部13在判定为分组后的点群所对应的边从传感器1观察是死角的情况下,判断为与该边对应的点群属于多个的物体(多个物体),并识别为该点群表示多个物体的位置。另一方面,在判定为分组后的点群所对应的边从传感器1观察不是死角的情况下,判断为构成该边的点群属于单一的物体(单体物体),并识别为该点群表示与通过多边形近似而生成的近似多边形相当的单体物体的位置。
通过这样的结构,物体识别装置100能够判定所获取的点群所示的物体是单体物体还是多个物体。
接着,参照图2及图3对判定所获取的点群是单体物体还是多个物体的方法的详细情况进行说明。
图2是说明物体识别装置100获取的点群的一例的图。在图2所示的例子中,示出了在搭载有传感器1的车辆的前方,车辆20与路旁(道路与人行道的边界附近)的植被30相邻地停车的状况。另外,以传感器1为起点扩展的扇形的线表示传感器1的视场角,从传感器1观察,视场角扩展的方向是车辆的前方。
在此,作为本实施方式中的三维点群获取单元而采用的传感器1,向视场角内的多个方向输出激光(发射波),并且检测碰到存在于视场角内的物体表面上的多个反射点而反弹回来的该激光(反射波),由此获取与物体的传感器1侧的侧面的位置对应的多个反射点2(以下简称为反射点2)相对于传感器1的相对位置的激光雷达或者传感器。而且,物体识别装置100基于将使用传感器1获取的多个反射点2构成为多个检测点的点群来识别存在于物体识别装置100的周围的物体的位置。
另外,传感器1只要能够获取视场角内的物体表面的位置作为点群,则可以是任意的传感器,并不限定于雷达或激光雷达。传感器1例如可以是立体摄像机。即,物体识别装置100例如也可以针对与由立体摄像机拍摄到的存在于规定的视场角(视场角)内的物体对应的每个像素,计算物体表面的位置,并基于将与各像素对应的位置作为检测点的点群,来识别存在于物体识别装置100的周围的物体的位置。
在以下的记载中,作为三维点群获取单元而采用的传感器1是激光雷达或雷达。
在此,在图2所示的情况下,根据接近程度对传感器1所获取的点群进行分组的结果,有时将植被30的传感器1侧的侧面和停车车辆20的后端的点群分组成一组。即,实际上有时将与由植被30和停车车辆20构成的多个物体对应的点群作为与一个物体(单体物体)对应的点群而分组成一组。于是,在现有技术中,基于作为单体物体而分组的点群来进行作为多边形近似的矩形近似,结果生成图2所示的虚线矩形形状的近似多边形(近似矩形)。而且,若生成这样的近似矩形,则会识别为在生成该近似矩形的位置存在与近似矩形相当的单体物体。但是,由于生成近似矩形的位置实际上是通过将基于植被30和停车车辆20的多个物体配置成L字型而产生的凹部分,因此,存在根据通过多边形近似得到的近似矩形识别出的物体的位置与实际物体的位置不同的问题。
在本实施方式中,为了不产生这样的差异,判定使用传感器1获取的点群是否是与多个物体对应的点群。如果能够判定点群与多个物体对应,则即使通过多边形近似暂时生成近似多边形,也能够正确地识别出生成该近似多边形的位置是由多个物体形成的凹部分,在该位置不存在物体。以下,详细说明判定使用传感器1获取的点群是否与多个物体对应的方法。
图3是说明本实施方式的物体识别装置100的物体识别方法的流程图。该流程图中说明的处理在物体识别装置100起动的期间,以按照一定的间隔始终执行的方式由控制器10进行编程。
在步骤S101中,控制器10使用传感器1获取由多个反射点2构成的点群。若获取到点群,则执行接下来的步骤S102的处理。
在步骤S102中,控制器10将在步骤S101中获取的点群投影到与地面平行的二维平面上,并根据接近程度进行分组。
在步骤S103中,控制器10执行基于在步骤S102中分组的点群的多边形近似(多边形拟合)。在本实施方式中近似的多边形为矩形(长方形),但也可以是三角形或其他多边形。以使构成近似多边形的边的位置与点群的位置之间的误差最小的方式对近似多边形进行拟合。
在步骤S104中,控制器10执行近似多边形构成边死角判定。在近似多边形构成边死角判定中,控制器10确定构成在步骤S103中近似的近似多边形的边中的、在从传感器1观察的情况下成为近似多边形的死角的边(包含成为死角的反射点2的边,以下也记载为死角边)。换言之,确定近似多边形中不与传感器1对应的边。参照图4对确定成为死角的边的方法进行详细说明。
图4是说明本实施方式的近似多边形构成边死角判定的方法的图。图中的4个角用A~D表示的长方形是基于在步骤S101中获取的点群近似后的长方形(近似矩形)。
图4(a)是说明近似多边形构成边死角判定方法的一例的图。在本例中,在构成在多边形近似中生成的近似矩形的边与传感器1的关系中,先确定传感器1能够观测的边(从传感器1观察不是死角的边,与传感器1相对的边),从而将其他边确定为死角边。
具体而言,首先,在近似矩形的4个角的点A~D中,确定离传感器1最近的点和其两侧相邻的点共计3个点。然后,从所确定的3个点中选择2个点,调查将所选择的2个点分别与传感器1连结的线所呈的角度为最大的2个点的组合。
参照图4(a)的左侧的图,离传感器1最近的点是点C,点C的两侧相邻的点是点A、D。如图所示,这三个点A、C、D中的2个点与传感器1的连线所呈的角度最大的2个点的组合是点A、D。
参照图4(a)的右侧的图,离传感器1最近的点是点C,点C的两侧相邻的点是点A、D。如图所示,这三个点A、C、D中的2个点与传感器1的连线所呈的角度最大的2个点的组合是点C、D。另外,在传感器1与点C、D的各距离相同且是最近的点的情况下,可以选择点C、D中的任意一个。
然后,在构成近似矩形的边中,将作为角度最大的2个点的组合而选择的2个点与离传感器1最近的点连结的全部线段被确定为传感器1可观测的边,将该边以外的边确定为死角边。参照图4(a)的左侧的图,可观测的边被确定为图中粗线包围的边、即边A-C、边C-D,死角边被确定为可观测的边以外的边、即边A-B和边B-D。参照图4(a)的右侧的图,可观测的边被确定为图中粗线包围的边、即边C-D,死角边被确定为可观测的边以外的边、即边A-B、边A-C、以及边B-D。
图4(b)是说明近似多边形构成边死角判定方法的其他例子的图。在本例中,不确定可观测的边而直接确定死角边。
具体而言,选择近似矩形的4个角的点A~D中的1个点,在连结所选择的1个点和传感器1的直线与连接于该选择的1个点的边以外的边交叉的情况下,将与该选择的点连接的边确定为死角边。通过对点A~D的全部进行调查,能够从构成近似矩形的全部的边中确定死角边。
参照图4(b)的左侧的图,由于连结点B和传感器1的直线与连接于点B的边A-B及边B-D以外的边、即边C-D交叉,所以与点B连接的图中用粗线包围的边、即边A-B及边B-D被确定为死角边。
参照图4(b)的右侧的图,由于连结点A和传感器1的直线与连接于点A的边A-B以及边A-C以外的边、即边C-D交叉,因此,与点A连接的图中粗线包围的边即边A-C以及边A-B被确定为死角边。进而,由于连结点B和传感器1的直线与连接于点B的边A-B及边B-D以外的边、即边C-D交叉,因此,与点B连接的边A-B及边B-D也被确定为死角边。另外,使用图4(b)说明的方法不限于长方形状的近似矩形,也可以适用于其他所有的多边形状。
这样,当确定了构成近似矩形的边中的从传感器1观察时成为死角的边时,执行接下来的步骤S105的处理(图3参照)。
在步骤S105中,控制器10执行近似多边形反射点所属判定。在近似多边形反射点所属判定中,控制器10判定构成作为通过多边形近似而生成的近似矩形的基础的点群的多个反射点2与构成该近似矩形的边中的哪个边对应(所属)。更具体而言,控制器10判定构成在步骤S101中获取的点群的多个反射点2是否属于不是在步骤S104中确定的死角边的边(传感器1可观测的边)。参照图5说明判定反射点2所属的边的方法。
图5是说明本实施方式的近似多边形反射点所属判定方法的一例的图。由四个角的点A~D表示的长方形表示在步骤S103中近似的近似矩形。另外,反射点2a、2b、2c表示构成在步骤S101中获取的点群的多个反射点2的一部分。在近似多边形反射点所属判定中,基于构成所获取的点群的多个反射点2的一部分,判定该反射点2构成的点群属于构成近似矩形的边中的哪个边。
在本例中,首先,从反射点2向构成近似矩形的边引出垂线。此时,在不能从反射点2向构成近似矩形的边引出垂线的情况下,判定为该反射点2不存在所属的边。另一方面,在存在从反射点2引出的垂线与近似矩形的边的交点的情况下,判定为该反射点2属于存在交点的边中的、从反射点2到交点的距离最小的边。
参照图5,例如如果是反射点2a,则能够向边A-B和边C-D引出垂线。而且,在从反射点2a引出的两条垂线中,存在与长度最小的垂线的交点的边是边A-B。因此,判断为反射点2a属于边A-B。
由于反射点2b不能向任何边引出垂线,所以判定为不存在所属的边。
反射点2c能够向所有的边引出垂线,但与这些垂线中长度最小的垂线的交点存在于边A-C。因此,判定为反射点2c属于边A-C。
这样,能够判定在步骤S101中获取的构成点群的反射点2属于构成近似矩形的边中的哪个边。当判定了反射点2所属的边后,接着执行步骤S106的处理。
在步骤S106中,控制器10判定在步骤S101中获取的构成点群的反射点2是否属于构成近似矩形的边中的从传感器1观察不是死角的边。即,控制器10判定在步骤S105中判定的反射点2所属的边是否是死角边以外的边(可观测的边)。在判定为在步骤S101中获取的构成点群的多个反射点2中存在属于死角边以外的边的反射点2的情况下,判定为反射点2相对于传感器1不位于近似矩形的死角,执行步骤S107的处理。另一方面,在判定为不存在属于死角边以外的边的反射点2的情况下,即,在判定为反射点2属于死角边的情况下,判定为反射点2相对于传感器1位于近似矩形的死角,执行步骤S108的处理。
在步骤S107中,判定为所获取的构成点群的反射点2属于不是死角的边,因此,控制器10判定为反射点2相对于传感器1不位于近似矩形的死角,判定为在步骤S101中获取的点群所示的物体是单体物体。其结果是,物体识别装置100识别为,在通过基于在步骤S101中获取的点群进行多边形近似而生成的近似矩形的位置,实际存在俯视时外形相当于该近似矩形的物体。
另一方面,在步骤S108中,判定为所获取的构成点群的反射点2属于死角边,因此,控制器10判定为反射点2相对于传感器1位于近似矩形的死角,判定为在步骤S101中获取的点群所示的物体是多个物体。其结果是,物体识别装置100识别为,与通过基于在步骤S101中获取的点群的多边形近似而生成了近似矩形的位置对应的实际场所是由多个物体(例如在图2所示的例子中为植被30和停车车辆20)形成的凹部分,实际不存在相当于近似矩形的物体。
当通过以上的处理而判定出点群所示的物体是由单体物体的反射点2构成的物体还是由多个物体的反射点2构成的物体后,控制器10结束与物体识别相关的一系列的处理。
另外,在进行了多边形近似之后,不一定需要始终进行判定所获取的构成点群的反射点2属于近似多边形的哪一个边的处理(步骤S104以后的处理)。例如,在点群所示的物体是细长物体的情况下,有时难以判定点群所属的边。另外,例如存在于路旁的细长物体有时对车辆的行驶没有较大的影响而能够忽略。因此,也可以构成为仅在构成近似多边形的边中的最短的边的长度为规定值以上的情况下,执行步骤S104以后的处理。由此,仅对难以判定反射点2所属的边的细长物体、或者无需识别程度的细长物体以外的物体执行步骤S104以后的处理,因此能够降低运算负荷。
另外,通过按时间序列追踪所获取的点群,有时能够根据一组的点群的移动形态来判别该点群所示的物体的属性。更具体而言,例如有时通过使用所谓的时间序列跟踪技术来按时间序列测量存在于周围的物体的位置,从而能够根据点群的大小和移动形态对该点群所示的物体赋予属性。在该情况下,在能够根据点群所示的物体的属性判别为该物体明显为单体物体的情况下,也可以省略步骤S104以后的处理。由此,由于仅在无法明确地辨别点群所示的物体为单体物体的情况下执行步骤S104以后的处理,因此能够降低运算负荷。
以上,通过执行参照图3说明的处理,本实施方式的物体识别装置100能够适当地判定对分组后的点群进行多边形近似时所生成的近似多边形是否正确地表示实际物体的位置、或者近似多边形是否不表示实际物体而是实际上由多个物体形成的凹部分,该近似多边形是否未正确地表示实际物体的位置。由此,在进行基于在识别存在于周围的物体的位置时获取的点群的多边形近似的情况下,能够可靠地判断所生成的近似多边形是否是正确地表示实际物体的位置的结果。
另一方面,在判定使用传感器1获取的点群所示的物体是单体物体还是多个物体时,不一定需要进行基于点群的多边形近似。例如,在能够高精度地检测出构成该点群的多个反射点2各自与传感器1之间的距离的情况下,物体识别装置100即使不进行多边形近似,也能够判定在进行多边形近似时构成点群的多个反射点2位于近似多边形的死角,因此能够判定点群所示的物体是否是多个物体。更具体而言,物体识别装置100在所获取的构成点群的多个反射点2中,在离传感器1最远的反射点2的两侧存在离传感器1更近的反射点2的情况下,不进行多边形近似,而判定为在对点群进行多边形近似时反射点2位于近似多边形的死角,从而判定为该点群所示的物体为多个物体。另外,也可以构成为,在离传感器1最近的反射点2的两侧存在离传感器1更远的反射点2的情况下,不进行多边形近似,而判定为在对点群进行多边形近似时反射点2不位于近似多边形的死角,从而判定为该点群所示的物体为单体物体。但是,通常,多个反射点2各自与传感器1之间的距离会产生测量误差,因此,优选根据如上所述对点群进行多边形近似的结果,基于反射点2是否位于近似多边形的死角,来判定该点群所示的物体是单体物体还是多个物体。
以上,第一实施方式的物体识别装置100是使用了获取存在于周围的物体的位置作为在俯视中由多个反射点2(检测点)构成的点群的传感器1的物体识别方法,根据接近程度对点群进行分组,在对分组后的点群进行多边形近似后,判定构成分组后的点群的至少一部分反射点2相对于传感器1是否位于对点群进行多边形近似后的近似多边形的死角,在判定为反射点2相对于传感器1位于近似多边形的死角的情况下,将分组后的点群识别为是与多个物体对应的点群,在判定为反射点2相对于传感器1不位于近似多边形的死角的情况下,将分组后的点群识别为是与近似多边形的单体物体对应的点群。由此,能够判定实际是否存在与对分组后的点群进行多边形近似而得到的近似多边形所示的物体。另外,能够判断出分组后的点群所示的物体是多个物体,因此,能够正确地识别出分组后的点群是相当于由多个物体形成的凹部分的点群,且在该位置不存在物体。
另外,第一实施方式的物体识别装置100在构成近似多边形的边中最短的边的长度比规定值长的情况下,判定构成点群的至少一部分反射点2是否与构成近似多边形的边中相对于传感器1成为死角的边对应。由此,能够仅针对难以判定点群所属的边的细长物体、或者无需识别程度的细长物体以外的物体,判定反射点2(检测点)是否位于死角,因此能够降低运算负荷。
另外,第一实施方式的物体识别装置100按时间序列测量存在于周围的物体的位置,判别按时间序列测量出的物体的属性,在分组后的点群与未判别出属性的物体对应的情况下,判定构成该点群的至少一部分反射点2相对于传感器1是否位于近似多边形的死角。由此,仅在无法明确地判别点群所示的物体是单体物体的情况下,才能够判定反射点2是否位于近似多边形的死角,因此能够降低运算负荷。
(第二实施方式)
以下,对本发明的第二实施方式的物体识别装置200进行说明。
图6是表示本实施方式的物体识别装置200的结构例的块图。物体识别装置200与第一实施方式的物体识别装置100的不同点在于,还具备点群削减部21和分割部22。以下,以与第一实施方式的不同点为中心进行说明。
点群削减部21削减传感器1所获取的点群数量(反射点2的数量)。
分割部22在获取到的点群所示的物体被判定为多个物体的情况下,将构成基于该点群而近似的近似多边形的多个边分别识别为多个物体。参照图7对点群消减部21和分割部22执行的处理进行说明。
图7是说明本实施方式的物体识别装置200的物体识别方法的流程图。该流程图中说明的处理在物体识别装置200起动的期间,以按照一定的间隔始终执行的方式由控制器10进行编程。另外,与参照图3所述的第一实施方式的物体识别方法的不同点在于,追加了步骤S201和步骤S202。以下,以与第一实施方式的不同点为中心进行说明,省略与第一实施方式相同的步骤的说明。
在步骤S201中,控制器10削减在步骤S101中获取的点群。削减的方法没有特别限定,例如可以使用体素滤波器。通过在本步骤中削减点群,能够削减基于点群进行的后级处理的运算负荷。另外,在不需要降低运算负荷的情况下,不需要进行本步骤S101的处理,不是一定必要的处理。
步骤S202是在判定为所获取的点群所示的物体是多个物体的情况下进行的处理。控制器10从构成近似矩形的边中,将判定为反射点2所属的边、即死角边按照每个边进行分割。然后,控制器10执行按该死角边切出并进行识别(分割识别)的处理。即,控制器10识别为与每个死角边对应的反射点2是与单体物体对应的反射点2。参照图8详细说明基于死角边切出物体并进行识别的方法(物体分割方法)。另外,为了简化,在以下的记载中,将在每个死角边将反射点2识别为与单体物体对应的反射点2的情况表现为“切出”或“物体分割”。
图8是说明本实施方式的物体识别装置200进行的物体分割方法的图。图中的4个角用A~D表示的长方形是基于在步骤S101中获取的点群进行了矩形近似的长方形(近似矩形)。
图8(a)是说明在判定为点群所示的物体为多个物体的情况下执行的物体分割方法的图。如在第一实施方式中参照图4所说明的那样,通过在步骤S106中确定构成点群的反射点2属于死角边,从而判定为该点群所示的物体为多个物体。
根据本实施方式的物体分割,按照反射点2所属的每个死角边,将与死角边对应的反射点2识别为与单体物体对应的反射点2。例如,在图8(a)的左侧的图中,通过物体分割,按照反射点2所属的每个死角边(边A-B、边B-D),切出与各死角边对应的反射点2作为与点群的分布对应的两个矩形单体物体(图中,粗线框所示形状的物体)。作为另一例,在图8(a)的右侧的图中,通过物体分割,按照反射点2所属的每个死角边(边A-B、边A-C、边B-D),切出与各死角边对应的反射点2作为与点群的分布对应的三个矩形单体物体(图中,粗线框所示形状的物体)。由于所切出的矩形单体物体(下文中简称为矩形物体)与存在于周围环境中的实际物体的位置对应,因此,物体识别装置200可以基于该矩形物体更准确地识别存在于周围环境中的物体的位置。另外,例如,若图8(a)的左侧的图是检测出的图2所示的周围环境的结果,则与边A-B有关的矩形物体与植被30对应,与边B-D有关的矩形物体与停车车辆20的后端对应。
另外,如图8(a)所示,不一定需要切出反射点2所属的全部死角边,可以切出至少一个边以上的一部分死角边作为特定边。在该情况下,例如,可以优先切出属于死角边的反射点2的数量多的边、或者与死角边的长度对应的反射点2的数量的比例多的边作为特定边。
另外,在检测存在于物体识别装置200周围的物体时,有时不仅使用传感器1,还使用与传感器1不同的至少一个以上的其他传感器,使用这些多个传感器同时检测存在于周围的物体。在该情况下,也可以构成为,仅在传感器1检测出的物体与不同于传感器1的其他传感器检测出的物体相匹配的情况下,将相匹配的该物体识别为在周围环境中实际存在的物体。由此,与仅使用传感器1来检测存在于周围环境中的物体的位置的情况相比,能够更高精度地进行检测。
在物体识别装置200这样构成的情况下,通过进行上述物体分割,生成相当于传感器1检测出的多个物体的多个矩形物体,因此,能够更容易地判定传感器1检测出的物体与不同于传感器1的其他传感器检测出的物体的匹配。另外,在第三实施方式的说明中后述判定多个传感器检测出的物体的匹配的方法的一例。
另外,图8(b)是说明判定为点群所示的物体不是多个物体的情况的图。如图所示,在反射点2属于不是死角边的边(可观测的边)的情况下,判定为点群所示的物体是单体物体(步骤S107),因此不进行物体分割。
以上,根据第二实施方式的物体识别装置200,在物体被识别为多个物体的情况下,将构成近似多边形的边中反射点2所对应的每个边识别为单体物体。由此,能够正确地识别存在于周围环境中的物体的位置。
另外,根据第二实施方式的物体识别装置200,根据对应的反射点2的数量来确定识别为单体物体的边。由此,例如,能够优先将靠近传感器1且反射更多从传感器1输出的激光的物体识别为单体物体。
(第三实施方式)
以下,对本发明的第三实施方式的物体识别装置300进行说明。
图9是表示本实施方式的物体识别装置300的结构例的块图。物体识别装置300与第二实施方式的物体识别装置200的不同点在于,还具备摄像机3、属性判定部32、信息综合部33。以下,以与第二实施方式的不同点为中心进行说明。
摄像机3作为属性判别源信息获取部而发挥功能,该属性判别源信息获取部获取用于在后述的属性判定部32中判别存在于周围环境中的物体的属性的信息。这里的属性是指表示例如人(行人)、车、护栏、植被等主要根据物体的形状来辨识的该物体的性质的信息。摄像机3拍摄周围环境,并将拍摄到的影像数据(摄像机图像)作为属性判别源信息提供给属性判定部32。另外,作为属性判别源信息获取部所采用的结构并不限定于摄像机3。属性判别源信息获取部也可以是能够获取通过后级的处理能够判别属性的信息的其他传感器。
属性判定部32基于摄像机3获取的摄像机图像,按每个物体判别存在于周围的物体(周围物体)的属性,并将判别出的属性赋予该周围物体。
信息综合部33对由属性判定部32赋予了属性的周围物体和与使用传感器1检测出的物体相关的信息进行综合。参照图10、11对这些各功能部执行的处理的详细情况进行说明。
首先,参照图10对进行传感器1以及摄像机3分别获取的与物体相关的信息的整合的情况进行说明。图10是说明第三实施方式的传感器1以及摄像机3获取与存在于周围的物体相关的信息的方法的图。
首先,传感器1获取与存在于周围的物体相关的信息的方法与在第一实施方式中参照图2说明的方法相同。即,传感器1获取与存在于以传感器1为起点扩展的扇形的传感器视场角内的物体的传感器1侧的侧面的位置对应的点群。而且,传感器1所获取的点群经过多边形近似,被确定为单体物体或通过物体分割而切出的多个矩形物体。
如图所示,摄像机3构成为获取与传感器1相同的方向上的周围环境的图像。即,根据图10所示的场景,摄像机3获取包含与传感器1获取的点群所示的物体相同的物体、即植被30的侧面和停车车辆20的后端的摄像机图像,作为与存在于周围的物体相关的信息。
图11是说明本实施方式的物体识别装置300的物体识别方法的流程图。该流程图中说明的处理在物体识别装置300起动的期间,以按照一定的间隔始终执行的方式由控制器10进行编程。另外,与参照图7所述的第二实施方式的物体识别方法的不同点在于,追加了步骤S301至步骤S303。以下,以与第二实施方式的不同点为中心进行说明,省略与第二实施方式相同的步骤的说明。
在步骤S301中,控制器10基于摄像机3获取的图像来判别周围物体的属性。
在步骤S302中,控制器10判定传感器1获取的与物体相关的信息和摄像机3获取的与物体相关的信息是否匹配。在本实施方式中,基于与物体有关的信息的一致度来判定这些信息的匹配。
一致度例如可以基于传感器1检测出的物体与摄像机3检测出的物体的位置关系来计算。具体而言,例如也可以检测出从传感器1到存在于周围的物体的距离,并且检测出从摄像机3到存在于周围的物体的距离,基于各物体到传感器1及摄像机3的距离的差分来计算一致度。距离越接近,越能够判定为传感器1和摄像机3分别检测出的物体的一致度越高。然后,在计算出的一致度超过预定的阈值的情况下,判定为与这些各物体相关的信息匹配。在这样的计算方法的基础上、或者代替这样的计算方法,也可以采用其他计算方法。参照图12说明一致度的其他计算方法。
图12是说明判定传感器1所获取的与物体相关的信息和摄像机3所获取的与物体相关的信息是否匹配的方法的图。
首先,在摄像机3所获取的摄像机图像中,提取摄像机图像内的物体的占有框(包围图像内的物体外形的框)。例如,在摄像机3获取的图像内映现出图10所示的停车车辆20的情况下,作为从后方拍摄停车车辆20时映现出的停车车辆20的占有框,提取与停车车辆20的后端面的外形大致一致的图形B。另外,对该图形B赋予在步骤S302中判别出的属性“车”。
另一方面,从基于传感器1获取的点群而生成的与物体相关的信息中,提取图形A作为表示从水平方向观察到的该物体的外形的长方形状的投影框。具体而言,如果传感器1获取的点群所示的物体是单体物体,则通过将在步骤S103中进行了多边形近似的近似矩形投影到摄像机图像上进行二维化,来生成作为投影框的图形A。另外,如果传感器1所获取的点群所示的物体为多个物体,则将通过物体分割而切出的矩形物体投影到摄像机图像上进行二维化,由此生成图形A。另外,图形A在摄像机图像内被投影到与传感器1获取的点群的位置以及大小大致一致的位置以及大小。但是,由于成为图形A的基础的近似多边形是投影到二维平面上而生成的信息,所以不包含与图形A的高度相关的信息。因此,对于图形A的高度方向的大小,设定作为存在于道路上的物体的适当的一定值。这样,在提取出图形B的摄像机图像内,投影基于传感器1获取的点群而生成的图形A。
然后,在摄像机图像内,计算作为所拍摄的周围物体的占有框的图形B、与作为基于点群生成的近似多边形或切出的矩形物体的投影框的图形A的共有范围(一致范围)。然后,在计算出的共有范围为阈值以上的情况下、即满足下述式(1)的情况下,判定为传感器1和摄像机3分别单独获取的各物体匹配(同一物体)。另外,阈值作为能够信赖各物体的匹配性的值,考虑所采用的传感器1和摄像机3的性能等来适当设定。
(A∧B)/(A∨B)>阈值(1)
在步骤S301中,判定为传感器1所获取的与物体相关的信息和摄像机3所获取的与物体相关的信息匹配,当判断为这些物体是同一物体时,执行接下来的步骤S302的处理。在不满足上述式(1),且传感器1获取的与物体相关的信息和摄像机3获取的与物体相关的信息不匹配的情况下,结束本流程的1个循环,反复执行从步骤S101开始的处理。
在步骤S302中,控制器10将传感器1获取到的与物体相关的信息和被判定为与该物体匹配的摄像机图像内的与物体相关的信息进行综合。由此,对传感器1所获取的物体赋予基于摄像机3所获取的信息而判别出的属性。其结果是,能够提高传感器1获取的与物体相关的信息的信息量、正确性以及可靠性。
以上,根据第三实施方式的物体识别装置300,使用与传感器1不同的识别单元(摄像机3),识别存在于周围的物体并判别该物体的属性,判定使用传感器1识别出的多个物体或单体物体与使用摄像机3识别出的物体是否匹配,在判定为多个物体或单体物体与使用识别单元识别出的物体匹配的情况下,对多个物体或单个物体赋予属性。由此,能够对仅通过传感器1获取的与物体相关的信息而属性不明的物体赋予属性。另外,在识别多个同一物体且判定它们的匹配的基础上赋予属性,因此,能够提高传感器1获取的与物体相关的信息的可靠性。
另外,根据第三实施方式的物体识别装置300,检测从传感器1到存在于周围的物体的距离,检测从摄像机3到存在于周围的物体的距离,基于从传感器1到物体的距离和从摄像机3到物体的距离,判定使用传感器1识别出的多个物体或单体物体与使用摄像机3识别出的物体是否匹配。由此,能够基于传感器1检测出的物体与摄像机3检测出的物体之间的位置关系,来判定各物体是否匹配。
另外,根据第三实施方式的物体识别装置300,摄像机3获取包含存在于周围的物体的图像,将使用传感器1识别出的多个物体或单体物体投影到图像上,计算图像中包含的物体与投影到该图像上的多个物体或单体物体的共有范围,基于计算出的共有范围,判定使用传感器1识别出的多个物体或单体物体与使用摄像机3识别出的物体是否匹配。由此,基于传感器1检测出的物体和摄像机3检测出的物体的面或空间中的共有范围,能够判定各物体是否匹配。其结果是,能够仅对彼此是同一物体的可能性高的物体综合信息。
以上,对本发明的实施方式进行了说明,但上述实施方式只不过示出了本发明的应用例的一部分,并非旨在将本发明的技术范围限定于上述实施方式的具体结构。另外,上述实施方式能够在不产生矛盾的范围内适当组合。
Claims (9)
1.一种物体识别方法,使用了获取存在于周围的物体的位置并作为在俯视中由多个检测点构成的点群的传感器,其特征在于,
根据接近程度对所述点群进行分组,
在对分组后的所述点群进行多边形近似时,
判定构成所述分组后的点群的至少一部分所述检测点相对于所述传感器是否位于对所述点群进行多边形近似时的近似多边形的死角,
在判定为所述检测点相对于所述传感器位于死角的情况下,识别为所述分组后的点群是与多个物体对应的点群,在判定为所述检测点相对于所述传感器不位于死角的情况下,识别为所述分组后的点群是与所述近似多边形的单体物体对应的点群。
2.如权利要求1所述的物体识别方法,其特征在于,
在所述物体被识别为所述多个物体的情况下,将与构成所述近似多边形的边中的至少一个边即特定边对应的所述检测点,识别为与所述单体物体对应的检测点。
3.如权利要求2所述的物体识别方法,其特征在于:
所述特定边根据对应的所述检测点的数量来确定。
4.如权利要求1~3中任一项所述的物体识别方法,其特征在于,
在构成所述近似多边形的边中的最短的边的长度比预定的规定长度长的情况下,判定构成所述点群的至少一部分所述检测点相对于所述传感器是否位于所述近似多边形的死角。
5.如权利要求1~4中任一项所述的物体识别方法,其特征在于,
按时间序列测量存在于周围的物体的位置,
判别按时间序列测量的所述物体的属性,
在分组后的所述点群与所述属性未被判别的所述物体对应的情况下,判定构成该点群的至少一部分所述检测点相对于所述传感器是否位于所述近似多边形的死角。
6.如权利要求1~5中任一项所述的物体识别方法,其特征在于,
使用与所述传感器不同的识别单元来识别存在于周围的物体并且判别该物体的属性,
判定使用所述传感器识别出的所述多个物体或所述单体物体与使用所述识别单元识别出的所述物体是否匹配,
当判定为所述多个物体或所述单体物体与使用所述识别单元识别出的所述物体相匹配时,向使用所述传感器识别出的所述多个物体或所述单体物体赋予所述属性。
7.如权利要求6所述的物体识别方法,其特征在于,
检测从所述传感器到存在于周围的物体的距离,
检测从所述识别单元到存在于周围的物体的距离,
基于从所述传感器到所述物体的距离和从所述识别单元到所述物体的距离,判定使用所述传感器识别出的所述多个物体或所述单体物体与使用所述识别单元识别出的所述物体是否为同一物体。
8.如权利要求6或7所述的物体识别方法,其特征在于:
所述识别单元获取包含存在于周围的所述物体的图像,
将使用所述传感器识别出的所述多个物体或所述单体物体投影到所述图像上,
计算所述图像上的所述物体所占的区域即占有区域、与投影在该图像上的所述多个物体或所述单体物体所占的区域即投影区域的一致范围,
基于计算出的所述一致范围,判定使用所述传感器识别出的所述多个物体或所述单体物体与使用所述识别单元识别出的所述物体是否为同一物体。
9.一种物体识别装置,具备:传感器,其获取存在于周围的物体的位置并作为在俯视中由多个检测点构成的点群;以及控制器,其对该传感器所获取的所述点群进行处理,其特征在于,
所述控制器进行如下的控制:
根据接近程度对所述点群进行分组,
在对分组后的所述点群进行多边形近似时,
判定构成所述分组后的点群的至少一部分所述检测点相对于所述传感器是否位于对所述点群进行多边形近似时的近似多边形的死角,
在判定为所述检测点相对于所述传感器位于死角的情况下,识别为所述分组后的点群是与多个物体对应的点群,在判定为所述检测点相对于所述传感器不位于死角的情况下,识别为所述分组后的点群是与所述近似多边形的单体物体对应的点群。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/IB2019/001359 WO2021038267A1 (ja) | 2019-08-28 | 2019-08-28 | 物体認識方法、及び、物体認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114467111A true CN114467111A (zh) | 2022-05-10 |
CN114467111B CN114467111B (zh) | 2023-08-22 |
Family
ID=74683849
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980099868.2A Active CN114467111B (zh) | 2019-08-28 | 2019-08-28 | 物体识别方法及物体识别装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11861914B2 (zh) |
EP (1) | EP4024330B1 (zh) |
JP (1) | JP7226565B2 (zh) |
CN (1) | CN114467111B (zh) |
WO (1) | WO2021038267A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210241437A1 (en) * | 2020-01-31 | 2021-08-05 | Carl Zeiss Industrielle Messtechnik Gmbh | Method and arrangement for determining a position of an object |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230221408A1 (en) * | 2022-01-11 | 2023-07-13 | Gm Cruise Holdings Llc | Radar multipath filter with track priors |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10283477A (ja) * | 1997-04-04 | 1998-10-23 | Fuji Heavy Ind Ltd | 車外監視装置 |
US20080025338A1 (en) * | 2006-07-26 | 2008-01-31 | Alexei Gorokhov | Data transmission with supplemental resources |
CN101617197A (zh) * | 2007-02-16 | 2009-12-30 | 三菱电机株式会社 | 道路地物测量装置、地物识别装置、道路地物测量方法、道路地物测量程序、测量装置、测量方法、测量程序、测量位置数据、测量终端装置、测量服务器装置、作图装置、作图方法、作图程序以及作图数据 |
US20120010238A1 (en) * | 2010-07-09 | 2012-01-12 | Victor Piryatinsky | Deuterated n-ethyl-n-phenyl-1,2-dihydro-4-hydroxy-5-chloro-1-methyl-2-oxoquinoline-3-carboxamide, salts and uses thereof |
CN102472612A (zh) * | 2010-07-27 | 2012-05-23 | 3维媒体有限公司 | 三维物体识别装置以及三维物体识别方法 |
JP2014168551A (ja) * | 2013-03-01 | 2014-09-18 | Daiichi Shokai Co Ltd | 遊技機 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4082286B2 (ja) * | 2003-06-16 | 2008-04-30 | 日産自動車株式会社 | 前方物体位置検出装置 |
JP2012173230A (ja) | 2011-02-24 | 2012-09-10 | Daihatsu Motor Co Ltd | 物体認識装置 |
JP5712859B2 (ja) * | 2011-08-11 | 2015-05-07 | 富士通株式会社 | 画像認識装置および画像認識方法 |
JP6460822B2 (ja) * | 2015-02-10 | 2019-01-30 | 国立大学法人金沢大学 | 移動物体追跡方法および移動物体追跡装置 |
JP6685836B2 (ja) * | 2016-05-30 | 2020-04-22 | 株式会社東芝 | 情報処理装置、および、情報処理方法 |
JP6720715B2 (ja) * | 2016-06-17 | 2020-07-08 | 日産自動車株式会社 | 駐車支援方法および装置 |
EP3330893A1 (en) | 2016-11-30 | 2018-06-06 | Ricoh Company Ltd. | Information processing device, information processing method, and carrier means |
JP7052265B2 (ja) * | 2016-11-30 | 2022-04-12 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム |
-
2019
- 2019-08-28 JP JP2021542287A patent/JP7226565B2/ja active Active
- 2019-08-28 US US17/637,720 patent/US11861914B2/en active Active
- 2019-08-28 CN CN201980099868.2A patent/CN114467111B/zh active Active
- 2019-08-28 WO PCT/IB2019/001359 patent/WO2021038267A1/ja unknown
- 2019-08-28 EP EP19943826.8A patent/EP4024330B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10283477A (ja) * | 1997-04-04 | 1998-10-23 | Fuji Heavy Ind Ltd | 車外監視装置 |
US20080025338A1 (en) * | 2006-07-26 | 2008-01-31 | Alexei Gorokhov | Data transmission with supplemental resources |
CN101617197A (zh) * | 2007-02-16 | 2009-12-30 | 三菱电机株式会社 | 道路地物测量装置、地物识别装置、道路地物测量方法、道路地物测量程序、测量装置、测量方法、测量程序、测量位置数据、测量终端装置、测量服务器装置、作图装置、作图方法、作图程序以及作图数据 |
US20120010238A1 (en) * | 2010-07-09 | 2012-01-12 | Victor Piryatinsky | Deuterated n-ethyl-n-phenyl-1,2-dihydro-4-hydroxy-5-chloro-1-methyl-2-oxoquinoline-3-carboxamide, salts and uses thereof |
CN102472612A (zh) * | 2010-07-27 | 2012-05-23 | 3维媒体有限公司 | 三维物体识别装置以及三维物体识别方法 |
JP2014168551A (ja) * | 2013-03-01 | 2014-09-18 | Daiichi Shokai Co Ltd | 遊技機 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210241437A1 (en) * | 2020-01-31 | 2021-08-05 | Carl Zeiss Industrielle Messtechnik Gmbh | Method and arrangement for determining a position of an object |
US11948293B2 (en) * | 2020-01-31 | 2024-04-02 | Carl Zeiss Industrielle Messtechnik Gmbh | Method and arrangement for determining a position of an object |
Also Published As
Publication number | Publication date |
---|---|
JP7226565B2 (ja) | 2023-02-21 |
EP4024330A4 (en) | 2022-09-07 |
CN114467111B (zh) | 2023-08-22 |
EP4024330A1 (en) | 2022-07-06 |
JPWO2021038267A1 (zh) | 2021-03-04 |
EP4024330B1 (en) | 2023-08-09 |
US11861914B2 (en) | 2024-01-02 |
US20220270375A1 (en) | 2022-08-25 |
WO2021038267A1 (ja) | 2021-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3349060B2 (ja) | 車外監視装置 | |
JP3596314B2 (ja) | 物体端の位置計測装置および移動体の通行判断装置 | |
US5910817A (en) | Object observing method and device | |
JP4118452B2 (ja) | 物体認識装置 | |
JP5145585B2 (ja) | 物標検出装置 | |
CN111712731A (zh) | 目标检测方法、系统及可移动平台 | |
KR102536037B1 (ko) | 차량의 주변 환경에 있는 물체와 관련된 정보를 결정하기 위한 방법 및 처리 유닛 | |
JP2001004368A (ja) | 物体認識装置 | |
CN107491065B (zh) | 利用障碍物的地面边界信息检测物体的侧面的方法和装置 | |
US10748014B2 (en) | Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium | |
JP7050763B2 (ja) | カメラ画像からのオブジェクトの検出 | |
JP4102885B2 (ja) | 駐車車両検知方法及び駐車車両検知システム | |
CN112130158B (zh) | 对象距离测量装置和方法 | |
US11881034B2 (en) | Processing device | |
JP2000266539A (ja) | 車間距離計測装置 | |
JP2001052171A (ja) | 周囲環境認識装置 | |
WO2020127151A1 (en) | Method for improved object detection | |
CN114467111B (zh) | 物体识别方法及物体识别装置 | |
JP5248388B2 (ja) | 障害物危険度算出装置、方法及びプログラム | |
CN113496199B (zh) | 对目标对象的基于直方图的l形检测 | |
KR20220081741A (ko) | 라이다 센서를 이용한 객체 추적 장치 및 방법 | |
KR20120086962A (ko) | 차량용 내비게이션에서의 영상에서 앞차 검출을 통한 거리 인식 시스템 및 방법 | |
JP7227227B2 (ja) | オブジェクト識別システム、自動車、車両用灯具 | |
JP3740531B2 (ja) | 駐車車両検知方法、検知システム及び駐車車両検出装置 | |
JP3586938B2 (ja) | 車載用距離測定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |