JP2012123471A - Object recognition device - Google Patents

Object recognition device Download PDF

Info

Publication number
JP2012123471A
JP2012123471A JP2010271743A JP2010271743A JP2012123471A JP 2012123471 A JP2012123471 A JP 2012123471A JP 2010271743 A JP2010271743 A JP 2010271743A JP 2010271743 A JP2010271743 A JP 2010271743A JP 2012123471 A JP2012123471 A JP 2012123471A
Authority
JP
Japan
Prior art keywords
probability
coordinate position
group
assigned
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010271743A
Other languages
Japanese (ja)
Other versions
JP5630249B2 (en
Inventor
Seiwa Takagi
聖和 高木
Masafumi Hashimoto
雅文 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Doshisha Co Ltd
Original Assignee
Denso Corp
Doshisha Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Doshisha Co Ltd filed Critical Denso Corp
Priority to JP2010271743A priority Critical patent/JP5630249B2/en
Priority to DE102011087751.7A priority patent/DE102011087751B4/en
Publication of JP2012123471A publication Critical patent/JP2012123471A/en
Application granted granted Critical
Publication of JP5630249B2 publication Critical patent/JP5630249B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately and quickly recognize a moving object.SOLUTION: On the basis of information on whether or not a coordinate position is allocated to a grid cell on an absolute coordinate system in mapping processing at the present point of time, likelihood information predetermined for the likelihood of the presence/absence of the allocation of the coordinate position in the mapping processing, and an occupancy probability of the grid cell for the past closest to the present point of time as a prior probability in Bayesian estimation, the occupancy probability in each grid cell at the present point of time is calculated using the Bayesian estimation. On the basis of the calculated occupancy probability, an object corresponding to the set of the coordinate positions allocated to the grid cells whose occupancy probability is within a prescribed range is recognized as a moving object.

Description

本発明は、移動物の認識を行う物体認識装置に関するものである。   The present invention relates to an object recognition apparatus that recognizes a moving object.

例えば、特許文献1には、静止物と移動物とを区別して認識することができる歩行者認識装置が開示されている。この歩行者認識装置においては、レーザレーダで反射物体(つまり、反射点)の位置を検出し、複数のメッシュに分割された絶対座標系上の位置を決定する。続いて、レーザレーダによる検出周期の数が所定回数(例えば4回)となったときに連続して同一メッシュ内に反射点の位置データが存在する場合には、そのメッシュには静止物が位置するものとみなしてその位置データを削除していくことで、絶対座標系に移動物の位置データのみを残していく。そして、移動物のものとみなした位置データのうち近接するもの同士をグルーピングすることで歩行者の認識を行う。   For example, Patent Document 1 discloses a pedestrian recognition device that can distinguish and recognize a stationary object and a moving object. In this pedestrian recognition device, the position of a reflecting object (that is, a reflection point) is detected by a laser radar, and the position on an absolute coordinate system divided into a plurality of meshes is determined. Subsequently, when the position data of the reflection point is continuously present in the same mesh when the number of detection periods by the laser radar reaches a predetermined number (for example, 4 times), a stationary object is located on the mesh. By deleting the position data on the assumption that it is to be performed, only the position data of the moving object is left in the absolute coordinate system. And a pedestrian is recognized by grouping the adjacent things among the positional data regarded as the thing of a moving object.

特開2008−26997号公報JP 2008-26997 A

しかしながら、特許文献1に開示の歩行者認識装置では、静止物の位置データを特定した後でなければ移動物の位置データを特定することができないので、移動物を特定するのに、静止物を特定するのにかかる時間よりも多くの時間が必要となる。これに加え、静止物の位置データの特定には、レーザレーダによる反射点の位置の検出を例えば4回といった複数回行う必要があるので、移動物の位置データを特定して歩行者を認識するのに時間がかかるという問題点があった。レーザレーダによる反射点の位置の検出を例えば4回といった複数回行うのは、誤検出の影響を抑えて歩行者の認識の精度を上げるためと考えられる。   However, in the pedestrian recognition device disclosed in Patent Document 1, since the position data of the moving object can be specified only after the position data of the stationary object is specified, the stationary object is used to specify the moving object. More time than the time it takes to specify is required. In addition to this, in order to specify the position data of the stationary object, it is necessary to detect the position of the reflection point by the laser radar a plurality of times, for example, four times. Therefore, the position data of the moving object is specified to recognize the pedestrian. There was a problem that it took time. The reason for detecting the position of the reflection point by the laser radar a plurality of times, for example, four times, is considered to suppress the influence of erroneous detection and improve the accuracy of pedestrian recognition.

本発明は、上記従来の問題点に鑑みなされたものであって、その目的は、移動物の認識を精度良く、且つ、より迅速に行うことを可能にする物体認識装置を提供することにある。   The present invention has been made in view of the above-described conventional problems, and an object of the present invention is to provide an object recognition device that can recognize a moving object accurately and more quickly. .

請求項1の物体認識装置においては、測距センサにおける探査波の送信および反射波の受信の結果をもとに決定した絶対座標系における物体の座標位置を、当該絶対座標系を所定の大きさの区画単位に分割した区画にマッピング手段で逐次割り当てることになる。そして、所定の時点とその直近の過去とのそれぞれにおけるマッピング手段で座標位置を割り当てられたか否かの情報に応じて定まる、当該所定の時点での各区画における占有確率(各区画における物体が実際に存在し続けていた確かさの割合)を算出し、占有確率が所定の範囲にある区画に割り当てられた座標位置に対応する物体を移動物として認識することになる。   In the object recognition device according to claim 1, the coordinate position of the object in the absolute coordinate system determined based on the results of the transmission of the exploration wave and the reception of the reflected wave by the distance measuring sensor is set to a predetermined size. The mapping means sequentially assigns the partitions divided into the partition units. Then, the occupancy probability in each section at the predetermined time point (the actual object in each section is actually determined) is determined according to the information on whether or not the coordinate position is assigned by the mapping means at each of the predetermined time point and the past past. The ratio of the certainty that has continued to exist) is calculated, and the object corresponding to the coordinate position assigned to the section having the occupation probability within a predetermined range is recognized as a moving object.

占有確率は、各区画における物体が実際に存在し続けていた確かさの割合であるので、占有確率が高くなるほど物体がその区画に静止し続けている可能性が高く、占有確率が低くなるほど物体がその区画に存在しない可能性が高い。そして、占有確率がそれらの中間の場合には、物体がその区画に移動してきた可能性が高い。請求項1の構成によれば、占有確率が所定の範囲にある区画に割り当てられた座標位置に対応する物体を移動物として認識するので、物体が移動してきた可能性が高い区画に割り当てられた座標位置に対応する物体を移動物としてより精度良く認識することが可能になる。   Occupancy probability is the percentage of certainty that an object in each section has actually existed, so the higher the occupancy probability, the more likely that the object will remain stationary in that section, and the lower the occupancy probability, the more Is not likely to exist in the compartment. When the occupation probability is intermediate between them, there is a high possibility that the object has moved to the section. According to the configuration of claim 1, since the object corresponding to the coordinate position assigned to the section having the occupation probability within the predetermined range is recognized as the moving object, the object is assigned to the section having a high possibility that the object has moved. An object corresponding to the coordinate position can be recognized as a moving object with higher accuracy.

占有確率は所定の時点とその直近の過去とのマッピング手段で座標位置を割り当てられたか否かの情報に応じて定まるので、多くてもマッピング手段での座標位置の割り当ての処理を2回行いさえすれば占有確率を算出することができ、移動物の認識にかかる時間をより短く抑えることができる。また、静止物を先に認識することが移動物を認識するための必須の条件ではないので、静止物を特定するのにかかる時間よりも多くの時間を移動物の特定に必要としなくても済むようにできる。   Since the occupation probability is determined according to information on whether or not the coordinate position is assigned by the mapping means between the predetermined time point and the latest past, the mapping position assignment process by the mapping means is performed at most twice. Thus, the occupation probability can be calculated, and the time required for recognition of the moving object can be further reduced. In addition, since recognition of a stationary object first is not an essential condition for recognizing a moving object, it may not require more time to identify a moving object than it takes to identify a stationary object. Can be done.

請求項2の構成においては、所定の時点におけるマッピング手段で前記座標位置を割り当てられたか否かの情報(以下、割り当て情報)と、マッピング手段での座標位置の割り当ての有無の尤もらしさについて予め定められた尤度情報と、ベイズ推定における事前確率としての当該所定の時点の直近の過去についての占有確率とをもとに、ベイズ推定を用いて当該所定の時点での各区画における占有確率を算出することになる。   In the configuration of claim 2, information indicating whether or not the coordinate position is assigned by the mapping means at a predetermined time (hereinafter, assignment information) and the likelihood of whether or not the coordinate position is assigned by the mapping means are determined in advance. Based on the obtained likelihood information and the occupation probability for the most recent past of the predetermined time as a prior probability in Bayesian estimation, the occupation probability in each block at the predetermined time is calculated using Bayesian estimation. Will do.

ベイズ推定では、事前確率に尤度関数を掛けることによって、目的とする確率を少ない試行回数で精度良く求めることができる。請求項2の構成によれば、所定の時点における割り当て情報と尤度情報と当該所定の時点の直近の過去についての占有確率とをもとにベイズ推定を用いて占有確率を算出するので、所定の時点での各区画における占有確率を迅速かつ精度良く算出することができる。その結果、移動物の認識をさらに精度良く、且つ、より迅速に行うことが可能になる。   In Bayesian estimation, the target probability can be accurately obtained with a small number of trials by multiplying the prior probability by a likelihood function. According to the configuration of claim 2, the occupation probability is calculated using Bayesian estimation based on the allocation information and likelihood information at a predetermined time point and the occupation probability for the most recent past at the predetermined time point. The occupation probability in each section at the time of can be calculated quickly and accurately. As a result, the moving object can be recognized more accurately and more quickly.

請求項3の構成においては、座標位置を割り当てられた区画のうち、お互いが隣接するものについてはグルーピング手段でグループにまとめ、そのグループについての占有確率(グループ占有確率)を算出し、グループ占有確率が所定の範囲にあるグループに含まれる座標位置の集合に対応する物体を移動物として認識することになる。これによれば、反射波が得られた物体が、ある物体の一部分であった場合に、ある物体の構成部分のデータ同士をグループにまとめて扱うことが可能になる。   In the configuration of claim 3, among the sections to which coordinate positions are assigned, those that are adjacent to each other are grouped by a grouping means, and an occupation probability (group occupation probability) for the group is calculated, and the group occupation probability is calculated. Is recognized as a moving object corresponding to a set of coordinate positions included in a group within a predetermined range. According to this, when the object from which the reflected wave is obtained is a part of a certain object, it is possible to handle the data of the constituent parts of the certain object in a group.

請求項4の構成においては、グループ占有確率が所定の範囲にあるグループのうち、残像区画検出手段で検出した残像区画(過去には座標位置が割り当てられていた区画)が所定個数以上隣接しているグループについて、そのグループに含まれる座標位置の集合に対応する物体を移動物として認識することになる。座標位置を割り当てられた区画が残像区画に隣接している場合には、当該座標位置に対応する物体がその残像区画から移動してきた可能性が高いと考えられることから、残像区画が所定個数以上隣接しているグループに含まれる座標位置の集合に対応する物体は移動物である可能性が高い。よって、以上の構成によれば、移動物の認識の精度をさらに高めることが可能になる。   In the configuration of claim 4, among the groups having the group occupation probability within a predetermined range, afterimage sections detected by the afterimage section detection means (sections to which coordinate positions have been assigned in the past) are adjacent by a predetermined number or more. For a certain group, an object corresponding to a set of coordinate positions included in the group is recognized as a moving object. If the section to which the coordinate position is assigned is adjacent to the afterimage section, there is a high possibility that the object corresponding to the coordinate position has moved from the afterimage section. An object corresponding to a set of coordinate positions included in an adjacent group is likely to be a moving object. Therefore, according to the above configuration, it is possible to further increase the accuracy of recognition of moving objects.

請求項5の構成においては、占有確率が所定の範囲にある区画のうち、残像区画検出手段で検出した残像区画が所定個数以上隣接している区画について、その区画に割り当てられた座標位置に対応する物体を移動物として認識することになる。座標位置を割り当てられた区画が残像区画に隣接している場合には、当該座標位置に対応する物体がその残像区画から移動してきた可能性が高いと考えられることから、残像区画が所定個数以上隣接している区画に割り当てられた座標位置に対応する物体は移動物である可能性が高い。よって、以上の構成によっても、請求項4の構成と同様に移動物の認識の精度をさらに高めることが可能になる。   In the configuration of claim 5, among the sections having the occupation probability within a predetermined range, the sections where the afterimage sections detected by the afterimage section detecting means are adjacent by a predetermined number or more correspond to the coordinate positions assigned to the sections. The object to be recognized is recognized as a moving object. If the section to which the coordinate position is assigned is adjacent to the afterimage section, there is a high possibility that the object corresponding to the coordinate position has moved from the afterimage section. An object corresponding to a coordinate position assigned to an adjacent section is highly likely to be a moving object. Therefore, also with the above configuration, it is possible to further increase the accuracy of recognition of the moving object as in the configuration of the fourth aspect.

請求項6の構成によれば、測距センサの探査波が到達不能な領域である検出不能領域に該当する区画を残像区画として検出しないようにすることが可能になるので、検出不能領域に該当する区画を残像区画として検出した場合に生じる移動物の誤認識を防ぐことが可能になる。   According to the configuration of claim 6, since it becomes possible not to detect the section corresponding to the undetectable area that is the area where the exploration wave of the distance measuring sensor is unreachable, it corresponds to the undetectable area. It is possible to prevent erroneous recognition of a moving object that occurs when a section to be detected is detected as an afterimage section.

請求項7の構成においては、占有確率が所定の範囲を超える区画に割り当てられた座標位置か占有確率が所定の範囲を超える区画に割り当てられた座標位置かに応じて、物体が移動物か静止物かを認識手段で認識することになる。よって、物体が移動物か静止物かの区別は同じタイミングで行われることになり、移動物の認識を静止物の認識にかかるのと同じ時間で行うことができる。   The structure according to claim 7, wherein the object is a moving object or a stationary object depending on whether the coordinate position is assigned to a section where the occupation probability exceeds a predetermined range or the coordinate position is assigned to a section where the occupation probability exceeds a predetermined range. It will be recognized by the recognition means. Therefore, the distinction between the moving object and the stationary object is performed at the same timing, and the recognition of the moving object can be performed at the same time as that required for the recognition of the stationary object.

物体認識システム100の概略的な構成を示すブロック図である。1 is a block diagram showing a schematic configuration of an object recognition system 100. FIG. ECU2での移動体の認識に関する動作フローを示すフローチャートである。It is a flowchart which shows the operation | movement flow regarding recognition of the moving body in ECU2. グループの占有確率の算出を説明するための模式図である。It is a schematic diagram for demonstrating calculation of the occupation probability of a group. 移動候補グループと静止グループとの判別を説明するための模式図である。It is a schematic diagram for demonstrating discrimination | determination with a movement candidate group and a stationary group. 残像セルの検出を説明するための模式図である。It is a schematic diagram for demonstrating the detection of an afterimage cell. 従来技術と本願発明との効果の比較を説明するための図である。It is a figure for demonstrating the comparison of the effect of a prior art and this invention.

以下、本発明の実施形態について図面を用いて説明する。図1は、本発明が適用された物体認識システム100の概略的な構成を示すブロック図である。図1に示す物体認識システム100は、車両に搭載されるものであり、測距センサ1およびECU(electronic control unit)2を含んでいる。なお、本実施形態では、物体認識システム100は、車両の周囲、特に車両の前方に位置する移動物を検出する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of an object recognition system 100 to which the present invention is applied. An object recognition system 100 shown in FIG. 1 is mounted on a vehicle and includes a distance measuring sensor 1 and an ECU (electronic control unit) 2. In the present embodiment, the object recognition system 100 detects a moving object located around the vehicle, particularly in front of the vehicle.

測距センサ1は、例えばレーザレーダであって、発光部11、受光部12、および時間計測部13を備えている。発光部11および受光部12は、自車両の前方に存在する物体を検出できるように、自車両の前部に設けられる。   The distance measuring sensor 1 is a laser radar, for example, and includes a light emitting unit 11, a light receiving unit 12, and a time measuring unit 13. The light emitting unit 11 and the light receiving unit 12 are provided at the front of the host vehicle so that an object existing in front of the host vehicle can be detected.

発光部11は、レーザダイオードを備えており、ECU2からの駆動信号に従って、車幅方向および車高方向それぞれの所定角度の範囲で不連続にパルス状のレーザ光を掃引照射(スキャン)する。これら車幅方向および車高方向それぞれにレーザ光が照射される角度範囲によって、レーザレーダの検知エリアが規定される。   The light emitting unit 11 includes a laser diode, and sweeps and scans (pulses) pulsed laser light in a range of predetermined angles in the vehicle width direction and the vehicle height direction according to a drive signal from the ECU 2. A detection area of the laser radar is defined by an angle range in which the laser beam is irradiated in each of the vehicle width direction and the vehicle height direction.

受光部12は、発光部11から照射されたレーザ光が物体に反射された反射光を受光レンズで受光し、受光素子(フォトダイオード)に与える。受光素子は、反射光の強度に対応する電圧を出力する。この受光素子の出力電圧は、増幅器にて増幅された後にコンパレータに出力される。コンパレータは増幅器の出力電圧を基準電圧と比較し、出力電圧が基準電圧よりも大きくなったとき、所定の受光信号を時間計測部13へ出力する。   The light receiving unit 12 receives reflected light, which is the laser light emitted from the light emitting unit 11 and reflected by an object, by a light receiving lens, and supplies the light receiving element (photodiode). The light receiving element outputs a voltage corresponding to the intensity of the reflected light. The output voltage of the light receiving element is amplified by an amplifier and then output to a comparator. The comparator compares the output voltage of the amplifier with the reference voltage, and outputs a predetermined light reception signal to the time measuring unit 13 when the output voltage becomes larger than the reference voltage.

時間計測部13には、ECU2から発光部11へ出力される駆動信号も入力されている。この時間計測部13は、駆動信号を出力してから受光信号が発生するまでの時間、すなわちレーザ光を出射した時刻と反射光を受光した時刻との時間差を計測し、この時間差の情報(以下、計測時間情報)をECU2に入力する。   A drive signal output from the ECU 2 to the light emitting unit 11 is also input to the time measuring unit 13. The time measuring unit 13 measures the time from when the drive signal is output until the light receiving signal is generated, that is, the time difference between the time when the laser light is emitted and the time when the reflected light is received, and information on this time difference (hereinafter referred to as the time difference information). , Measurement time information) is input to the ECU 2.

発光部11が実際に自車両の前方に存在する物体を検出するためにレーザ光を照射する際には、照射エリア(つまり、検知エリア)内を定められたパターンで順番にレーザ光がスキャンするようにECU2から発光部11に駆動信号が出力される。このように、レーザ光がスキャンするパターンが定められているので、反射光を受光した場合には、その反射光が得られたレーザ光の照射角度が一義的に定まるようになっている。   When the light emitting unit 11 emits laser light to detect an object that actually exists in front of the host vehicle, the laser light scans sequentially in a predetermined pattern within the irradiation area (that is, the detection area). As described above, a drive signal is output from the ECU 2 to the light emitting unit 11. Thus, since the pattern scanned by the laser light is determined, when the reflected light is received, the irradiation angle of the laser light from which the reflected light is obtained is uniquely determined.

ECU2は、CPU、ROM、RAM、バックアップRAM等よりなるマイクロコンピュータを主体として構成され、入力される情報をもとに、ROMに記憶された各種の制御プログラムを実行することで各種の処理を実行する。ECU2は、請求項の物体認識装置に相当する。   The ECU 2 is composed mainly of a microcomputer composed of a CPU, ROM, RAM, backup RAM, etc., and executes various processes by executing various control programs stored in the ROM based on input information. To do. The ECU 2 corresponds to the object recognition device in the claims.

ECU2は、測距センサ1の時間計測部13から計測時間情報(つまり、レーザ光の出射時刻と反射光の受光時刻との時間差)が入力された場合、その時間差に基づいて物体までの距離を算出する。ECU2は、算出した物体までの距離と反射光が得られたレーザ光の照射角度とをもとにして、物体(詳しくはレーザ光の反射点)の位置データを作成する。詳しくは、発光部11および受光部12の中心を原点(0,0,0)とし、車幅方向をX軸、車両前後方向をY軸、高さ方向をZ軸とするセンサ座標系におけるX座標、Y座標、およびZ座標を求める。つまり、発光部11および受光部12の中心(つまり、自車両の位置に相当)に対する物体の相対的な位置を求める。   When the measurement time information (that is, the time difference between the laser beam emission time and the reflected light reception time) is input from the time measurement unit 13 of the distance measurement sensor 1, the ECU 2 determines the distance to the object based on the time difference. calculate. The ECU 2 creates position data of the object (specifically, the reflection point of the laser light) based on the calculated distance to the object and the irradiation angle of the laser light from which the reflected light is obtained. Specifically, the center of the light emitting unit 11 and the light receiving unit 12 is the origin (0, 0, 0), the vehicle width direction is the X axis, the vehicle longitudinal direction is the Y axis, and the height direction is the Z axis. The coordinates, Y coordinate, and Z coordinate are obtained. That is, the relative position of the object with respect to the center of the light emitting unit 11 and the light receiving unit 12 (that is, corresponding to the position of the host vehicle) is obtained.

ECU2には、さらに自車両の走行速度を検出する車速センサ、自車両に作用するヨーレートの大きさを検出するヨーレートセンサ、およびステアリングホイールの操舵角を検出する操舵角センサなどからセンサ信号が入力される。ECU2は、これらのセンサからのセンサ信号を用いて、自車両の移動量を算出する。   The ECU 2 further receives sensor signals from a vehicle speed sensor that detects the traveling speed of the host vehicle, a yaw rate sensor that detects the magnitude of the yaw rate acting on the host vehicle, and a steering angle sensor that detects the steering angle of the steering wheel. The The ECU 2 uses the sensor signals from these sensors to calculate the amount of movement of the host vehicle.

ここで、図2を用いて、ECU2での移動物の認識に関する動作フローについての説明を行う。図2は、ECU2での移動物の認識に関する動作フローを示すフローチャートである。本フローは、例えば自車両のIGスイッチやACCスイッチがオンされ、物体認識システム100に電力が供給されたときに開始される。また、本フローは、物体認識システム100への電力の供給が停止されたときに終了する。   Here, the operation flow related to the recognition of the moving object in the ECU 2 will be described with reference to FIG. FIG. 2 is a flowchart showing an operation flow related to recognition of a moving object in the ECU 2. This flow is started when, for example, an IG switch or an ACC switch of the host vehicle is turned on and power is supplied to the object recognition system 100. Also, this flow ends when the supply of power to the object recognition system 100 is stopped.

なお、本フローは、車速センサのセンサ信号をもとに自車両の速度が例えば5km/h等の所定値(車速センサの検出限界の速度など)よりも大きくなったときに開始され、自車両の速度が所定値以下になったときに終了する構成としてもよい。   This flow is started when the speed of the host vehicle becomes higher than a predetermined value such as 5 km / h based on the sensor signal of the vehicle speed sensor (speed of detection limit of the vehicle speed sensor). It is good also as a structure which is complete | finished when this speed becomes below a predetermined value.

まず、ステップS1では、観測処理を行ってステップS2に移る。観測処理では、測距センサ1に駆動信号を出力し、検知エリアに向けてレーザ光を掃引照射させるとともに、測距センサ1から出力される計測時間情報の入力を受け付ける。なお、測距センサ1による測定周期は例えば100msecに設定される。   First, in step S1, an observation process is performed and the process proceeds to step S2. In the observation process, a driving signal is output to the distance measuring sensor 1, the laser light is swept toward the detection area, and input of measurement time information output from the distance measuring sensor 1 is accepted. The measurement cycle by the distance measuring sensor 1 is set to 100 msec, for example.

ステップS2では、マッピング処理を行ってステップS3に移る。マッピング処理では、測距センサ1から入力された計測時間情報(つまり、レーザ光の出射時刻と反射光の受光時刻との時間差)に基づいて反射点までの距離を算出し、前述したようにセンサ座標系における反射点の位置データを作成する。   In step S2, a mapping process is performed and the process proceeds to step S3. In the mapping process, the distance to the reflection point is calculated based on the measurement time information input from the distance measuring sensor 1 (that is, the time difference between the emission time of the laser beam and the reception time of the reflected light), and as described above, Create position data of reflection points in the coordinate system.

また、マッピング処理では、自車両の車速、ヨーレート、操舵角などを用いて自車両の移動量を算出し、算出した自車両の移動量に基づいて、絶対座標系における自車両位置を算出する。絶対座標系の原点となる地点は、任意に設定可能であるが、例えば測距センサ1による計測を開始した時点(t=0)における発光部11および受光部12の中心を原点とする。絶対座標系は、車幅方向をX軸、車両前後方向をY軸、高さ方向をZ軸とする。   In the mapping process, the movement amount of the own vehicle is calculated using the vehicle speed, yaw rate, steering angle, etc. of the own vehicle, and the own vehicle position in the absolute coordinate system is calculated based on the calculated movement amount of the own vehicle. The point that is the origin of the absolute coordinate system can be arbitrarily set. For example, the center of the light emitting unit 11 and the light receiving unit 12 at the time when measurement by the distance measuring sensor 1 is started (t = 0) is set as the origin. In the absolute coordinate system, the vehicle width direction is the X axis, the vehicle longitudinal direction is the Y axis, and the height direction is the Z axis.

絶対座標系における自車両位置の算出は、例えば特許文献1に開示されているのと同様にして、前後2輪モデルを使用して算出した自車両の移動量に基づいて行う構成とすればよい。なお、自車両の移動量は、前後2輪モデル等の車両モデルにあてはめて算出する以外にも、測距センサ1による測定で得られる固定物の位置データを使ったスキャンマッチングによる自己位置の推定、自車両(例えば4輪車両の場合)の4輪の車輪速度差、GPSによって検出される自車両の位置変化の情報等を利用して算出する構成としてもよい、
そして、絶対座標系における自車両の位置を定めた後に、センサ座標系の位置データ(座標位置)を用いて、各反射点の絶対座標系における位置を求める。つまり、センサ座標系における反射点の位置データを絶対座標系における位置データに変換する。具体的には、センサ座標系における反射点の座標位置を、絶対座標系における座標位置に変換するためには、センサ座標系の車両前後方向(Y軸)を絶対座標系における自車両の進行方向に一致するようにセンサ座標系を回転させつつ、自車両の絶対座標系における座標位置に基づいて、車幅方向(X軸)、車両前後方向(Y軸)、高さ方向(Z軸)の3次元座標を絶対座標系に当てはめればよい。よって、ステップS2が請求項の絶対位置決定手段に相当する。
The calculation of the position of the host vehicle in the absolute coordinate system may be performed based on the movement amount of the host vehicle calculated using the front and rear two-wheel model, for example, as disclosed in Patent Document 1. . In addition to calculating the movement amount of the own vehicle by applying it to a vehicle model such as a front and rear two-wheel model, the self-position is estimated by scan matching using position data of a fixed object obtained by measurement by the distance measuring sensor 1. The vehicle may be configured to calculate using the wheel speed difference of the four wheels of the own vehicle (for example, in the case of a four-wheel vehicle), information on the position change of the own vehicle detected by the GPS,
Then, after determining the position of the vehicle in the absolute coordinate system, the position of each reflection point in the absolute coordinate system is obtained using the position data (coordinate position) of the sensor coordinate system. That is, the reflection point position data in the sensor coordinate system is converted into position data in the absolute coordinate system. Specifically, in order to convert the coordinate position of the reflection point in the sensor coordinate system to the coordinate position in the absolute coordinate system, the vehicle front-rear direction (Y-axis) in the sensor coordinate system is the traveling direction of the host vehicle in the absolute coordinate system. While rotating the sensor coordinate system so as to match, the vehicle width direction (X-axis), the vehicle longitudinal direction (Y-axis), and the height direction (Z-axis) based on the coordinate position in the absolute coordinate system of the host vehicle What is necessary is just to apply a three-dimensional coordinate to an absolute coordinate system. Therefore, step S2 corresponds to the absolute position determining means in the claims.

絶対座標系は、ある大きさを持ったグリッドセル(例えば50cm)に分割されており、絶対座標系における座標位置に変換された座標位置は、その座標位置に応じたグリッドセルに割り当てられることになる。よって、ステップS2が請求項のマッピング手段に相当し、グリッドセルが請求項の区画に相当する。なお、以降では便宜上、車幅方向(X軸)および車両前後方向(Y軸)の2軸の平面に並ぶグリッドセルを用いて説明を行うものとするが、車幅方向(X軸)および高さ方向(Z軸)、車両前後方向(Y軸)および高さ方向(Z軸)の2軸の平面に並ぶグリッドセルについても同様であるものとする。 The absolute coordinate system is divided into grid cells (for example, 50 cm 3 ) having a certain size, and the coordinate position converted into the coordinate position in the absolute coordinate system is assigned to the grid cell corresponding to the coordinate position. become. Therefore, step S2 corresponds to the mapping means of the claims, and the grid cell corresponds to the section of the claims. Hereinafter, for the sake of convenience, the description will be made using grid cells arranged in two planes in the vehicle width direction (X axis) and the vehicle longitudinal direction (Y axis). The same applies to grid cells arranged in two planes in the vertical direction (Z-axis), the vehicle front-rear direction (Y-axis), and the height direction (Z-axis).

ステップS3では、グルーピング処理を行ってステップS4に移る。グルーピング処理では、ステップS2で座標位置を割り当てられたグリッドセルのうち、お互いが隣接するグリッドセル同士についてはグループにまとめる。よって、ステップS3が請求項のグルーピング手段に相当する。   In step S3, a grouping process is performed and the process proceeds to step S4. In the grouping process, among the grid cells to which coordinate positions are assigned in step S2, grid cells adjacent to each other are grouped together. Therefore, step S3 corresponds to grouping means in claims.

ステップS4では、絶対座標系の各グリッドセルの占有確率を算出する。よって、ステップS4が請求項の占有確率算出手段に相当する。グリッドセルの占有確率は、グリッドセルに座標位置が割り当てられたか否かに応じて、ベイズ推定を用いて算出する。以下では、座標位置が割り当てられたグリッドセルを占有セル、座標位置が割り当てられなかったグリッドセルを非占有セルと呼ぶ。   In step S4, the occupation probability of each grid cell in the absolute coordinate system is calculated. Therefore, step S4 corresponds to the occupation probability calculation means in the claims. The occupation probability of the grid cell is calculated using Bayesian estimation depending on whether or not a coordinate position is assigned to the grid cell. Hereinafter, a grid cell to which a coordinate position is assigned is referred to as an occupied cell, and a grid cell to which no coordinate position is assigned is referred to as an unoccupied cell.

占有セルについては、以下の(1)式から占有確率を算出する。(1)式において、p(x|z)は、グリッドセルに座標位置が割り当てられた(つまり、グリッドセル内の反射点が観測された)場合に、そのグリッドセルに実際に反射点が存在する確率を示している。p(x)はベイズ推定における事前確率であって、グリッドセルに実際に反射点が存在する確率を示している。p(x―t)はグリッドセルに実際に反射点が存在しない確率を示しており、p(x―t)=1−p(x)と表される。x―tの部分には、以下の記号1が本来は当てはまり、以降の数式以外の文章においても同様であるものとする。 For the occupied cell, the occupation probability is calculated from the following equation (1). In the equation (1), p (x t | z t ) is a reflection point that is actually applied to a grid cell when a coordinate position is assigned to the grid cell (that is, a reflection point in the grid cell is observed). Indicates the probability of existence. p (x t ) is a prior probability in Bayesian estimation, and indicates the probability that a reflection point actually exists in the grid cell. p (x −t ) indicates the probability that a reflection point does not actually exist in the grid cell, and is expressed as p (x −t ) = 1−p (x t ). It is assumed that the following symbol 1 originally applies to the part of x− t, and the same applies to sentences other than the following mathematical expressions.

Figure 2012123471
Figure 2012123471

Figure 2012123471
また、p(x)は、過去の時点についての占有確率が算出済みの場合には、p(x)=p(xt−1|zt−1)となるが、測距センサ1による計測を開始した時点(t=0)のように、過去の時点についての占有確率が算出済みでない場合には、確率は1/2であるのでp(x0)=0.5となる。さらに、p(z|x)およびp(z|x―t)は予め定められた定数であって、p(z|x)はベイズ推定における尤度にあたる。p(z|x)は、物体が存在するときに物体(反射点)が観測される確率に相当し、p(z|x―t)は物体が存在しないときに物体(反射点)が観測される確率に相当する。p(z|x)およびp(z|x―t)は、測距センサ1の測定精度に応じて設定すればよく、本実施形態では、p(z|x)=0.8、p(z|x―t)=0.1とする。なお、0.0001≦p(x|z)≦0.9999であるものとする。
Figure 2012123471
Further, p (x t ) is p (x t ) = p (x t−1 | z t−1 ) when the occupation probability for the past time point has been calculated. When the occupancy probability for the past time point has not been calculated, such as the time point when the measurement by (1) is started (t = 0), the probability is ½, so p (x 0 ) = 0.5. Further, p (z t | x t ) and p (z t | x −t ) are predetermined constants, and p (z t | x t ) is a likelihood in Bayesian estimation. p (z t | x t ) corresponds to the probability that an object (reflection point) is observed when the object is present, and p (z t | x −t ) is the object (reflection point when the object is not present). ) Corresponds to the probability of being observed. p (z t | x t ) and p (z t | x −t ) may be set according to the measurement accuracy of the distance measuring sensor 1. In this embodiment, p (z t | x t ) = 0. .8, p (z t | x −t ) = 0.1. Note that 0.0001 ≦ p (x t | z t ) ≦ 0.9999.

非占有セルについては、以下の(2)式から占有確率を算出する。(2)式において、p(x|z―t)は、グリッドセルに座標位置が割り当てられなかった(つまり、グリッドセル内の反射点が観測された)場合に、そのグリッドセルに実際に反射点が存在する確率を示している。p(x)、p(x―t)については(1)式に説明したのと同様である。pz―tの部分には、以下の記号2が本来は当てはまり、以降の数式以外の文章においても同様であるものとする。
For unoccupied cells, the occupancy probability is calculated from the following equation (2). In equation (2), p (x t | z −t ) is actually assigned to a grid cell when no coordinate position is assigned to the grid cell (ie, a reflection point in the grid cell is observed). The probability that a reflection point exists is shown. p (x t ) and p (x −t ) are the same as described in the equation (1). It is assumed that the following symbol 2 originally applies to the part of pz- t, and the same applies to sentences other than the following mathematical expressions.

Figure 2012123471
Figure 2012123471

Figure 2012123471
また、p(z―t|x)およびp(z―t|x―t)は予め定められた定数であって、p(z―t|x)はベイズ推定における尤度にあたる。p(z―t|x)は、物体が存在するときに物体(反射点)が観測されない確率に相当し、p(z―t|x―t)は物体が存在しないときに物体(反射点)が観測されない確率に相当する。p(z―t|x)はp(z―t|x)=1−p(z|x)と表され、p(z―t|x―t)は、p(z―t|x―t)=1−p(z|x―t)と表される。本実施形態では、p(z―t|x)=0.2、p(z―t|x―t)=0.9となる。なお、0.0001≦p(x|z―t)≦0.9999であるものとする。
Figure 2012123471
Further, p (z -t | x t ) and p (z -t | x -t) is a predetermined constant, p (z -t | x t ) is equivalent to the likelihood in Bayesian estimation. p (z −t | x t ) corresponds to the probability that an object (reflection point) will not be observed when an object exists, and p (z −t | x −t ) represents an object (reflection) when no object exists. This corresponds to the probability that a point) is not observed. p (z -t | x t) is p expressed as | | (x t z t) , p (z -t x t) = 1-p (z -t | x -t) is, p (z - t | x −t ) = 1−p (z t | x −t ) In this embodiment, p (z −t | x t ) = 0.2 and p (z −t | x −t ) = 0.9. Note that 0.0001 ≦ p (x t | z −t ) ≦ 0.9999.

グリッドセルがオクルージョン領域に該当する場合には、そのグリッドセルについては占有確率の算出を行わないものとする。オクルージョン領域とは、レーザ光が到達不能な領域のことであって、測距センサ1の検知エリア外の領域や物体の陰に相当する領域を指している。検知エリア外の領域については、スキャンの範囲をもとにECU2で特定する構成とすればよい。また、物体の陰に相当する領域については、反射波が得られたときのレーザ光の照射角度から、レーザ光を反射した物体によってレーザ光が遮られる範囲を推定することで特定する構成とすればよい。よって、ECU2が請求項の検出不能領域判断手段に相当する。なお、グリッドセルがオクルージョン領域に該当する場合には、占有確率を0.5としてもよい。   When a grid cell corresponds to an occlusion area, the occupation probability is not calculated for the grid cell. The occlusion region is a region where the laser beam cannot reach, and indicates a region outside the detection area of the distance measuring sensor 1 or a region corresponding to the shadow of the object. The region outside the detection area may be configured to be specified by the ECU 2 based on the scan range. The area corresponding to the shadow of the object is identified by estimating the range where the laser beam is blocked by the object reflecting the laser beam from the irradiation angle of the laser beam when the reflected wave is obtained. That's fine. Therefore, the ECU 2 corresponds to the non-detectable area determination means in the claims. When the grid cell corresponds to the occlusion area, the occupation probability may be set to 0.5.

グリッドセルがオクルージョン領域に該当するか否かは、例えばグリッドセルが一部でもオクルージョン領域を含んでいる場合にオクルージョン領域に該当すると判定する構成としてもよいし、グリッドセルの半分以上などの所定の範囲を超えるオクルージョン領域を含んでいる場合にオクルージョン領域に該当すると判定する構成としてもよい。   Whether or not a grid cell corresponds to an occlusion area may be determined to be an occlusion area when a part of the grid cell includes an occlusion area, or may be a predetermined value such as a half or more of the grid cell. A configuration may be adopted in which an occlusion area exceeding the range is included and determined to be an occlusion area.

なお、本実施形態では、グルーピング処理を行った後に、絶対座標系の各グリッドセルの占有確率を算出する構成を示したが、必ずしもこれに限らない。例えば、絶対座標系の各グリッドセルの占有確率を算出した後に、グルーピング処理を行う構成としてもよい。   In the present embodiment, a configuration is shown in which the occupation probability of each grid cell in the absolute coordinate system is calculated after performing the grouping process, but the present invention is not limited to this. For example, the grouping process may be performed after calculating the occupation probability of each grid cell in the absolute coordinate system.

ステップS5では、グループの占有確率(以下、グループ占有確率)の算出を行ってステップS6に移る。よって、ステップS5が請求項のグループ占有確率算出手段に相当する。グループ占有確率は、ステップS4で算出した各グリッドセルにおける占有確率とステップS2で各グリッドセルに割り当てられた座標位置の数とをもとに座標位置の比重に従って算出する。   In step S5, the group occupation probability (hereinafter, group occupation probability) is calculated, and the process proceeds to step S6. Therefore, step S5 corresponds to the group occupation probability calculating means in the claims. The group occupation probability is calculated according to the specific gravity of the coordinate position based on the occupation probability in each grid cell calculated in step S4 and the number of coordinate positions assigned to each grid cell in step S2.

ここで、図3を用いて、グループの占有確率の算出の具体例を示す。図3は、グループの占有確率の算出を説明するための模式図である。図中の各升目がグリッドセルを示しており、升目の中の数字が各グリッドセルの占有確率を示している。また、破線で囲ったグリッドセル群がグループ(以下、グループBCDE)を示しており、枠Aで示す点の集合がグループBCDEに含まれる座標位置群を示している。   Here, a specific example of calculating the occupation probability of the group will be shown using FIG. FIG. 3 is a schematic diagram for explaining calculation of the group occupation probability. Each cell in the figure indicates a grid cell, and the number in each cell indicates the occupation probability of each grid cell. A grid cell group surrounded by a broken line indicates a group (hereinafter referred to as a group BCDE), and a set of points indicated by a frame A indicates a coordinate position group included in the group BCDE.

図3の例では、Bで示すグリッドセルは含まれる座標位置の数が5つで占有確率は0.1、Cで示すグリッドセルは含まれる座標位置の数が2つで占有確率が0.3、Dで示すグリッドセルは含まれる座標位置の数が1つで占有確率が0.2、Eで示すグリッドセルは含まれる座標位置の数が1つで占有確率が0.5である。この場合には、グループ占有確率は、(0.1×5+0.3×2+0.2×1+0.5×1)/9=0.2となる。   In the example of FIG. 3, the grid cell indicated by B includes five coordinate positions and the occupation probability is 0.1, and the grid cell indicated by C includes two coordinate positions and the occupation probability is 0. 3 and D, the grid cell indicated by D has one coordinate position and the occupation probability is 0.2, and the grid cell indicated by E has one coordinate position and the occupation probability is 0.5. In this case, the group occupation probability is (0.1 × 5 + 0.3 × 2 + 0.2 × 1 + 0.5 × 1) /9=0.2.

ステップS6では、ステップS5で算出したグループ占有確率をもとに、移動候補グループか否かの判別(つまり、移動候補グループと静止グループとの判別)を行う。詳しくは、グループ占有確率が所定の下限の閾値以上、且つ、所定の上限の閾値以下(つまり、所定の範囲)である場合には、移動候補グループと判別(ステップS6でYES)し、ステップS7に移る。一方、グループ占有確率が所定の上限の閾値よりも大きい(つまり、所定の範囲を超える)場合には、静止グループと判別(ステップS6でNO)し、ステップS10に移る。なお、所定の上限の閾値および所定の下限の閾値は任意に設定可能な値である。   In step S6, based on the group occupation probability calculated in step S5, it is determined whether or not it is a movement candidate group (that is, determination of a movement candidate group and a stationary group). Specifically, if the group occupancy probability is equal to or greater than a predetermined lower limit threshold and equal to or lower than a predetermined upper limit threshold (that is, a predetermined range), it is determined as a movement candidate group (YES in step S6), and step S7 is performed. Move on. On the other hand, if the group occupancy probability is greater than the predetermined upper limit threshold (that is, exceeds the predetermined range), it is determined as a stationary group (NO in step S6), and the process proceeds to step S10. The predetermined upper limit threshold and the predetermined lower limit threshold are values that can be arbitrarily set.

ここで、図4を用いて、移動候補グループと静止グループとの判別の具体例を示す。図4は、移動候補グループと静止グループとの判別を説明するための模式図である。図4の例では、所定の上限の閾値が0.92、所定の下限の閾値が0.002であるものとする。また、図4に示すグループは図3で示すグループBCDEであり、グループ占有確率は0.2である。   Here, a specific example of discrimination between a movement candidate group and a stationary group will be described with reference to FIG. FIG. 4 is a schematic diagram for explaining discrimination between a movement candidate group and a stationary group. In the example of FIG. 4, it is assumed that the predetermined upper limit threshold is 0.92, and the predetermined lower limit threshold is 0.002. 4 is the group BCDE shown in FIG. 3, and the group occupation probability is 0.2.

図4の例では、グループ占有確率が0.002以上、且つ、0.92以下の範囲にある場合に移動候補グループと判別され、グループ占有確率が0.92よりも大きい場合に静止グループと判別される。グループBCDEのグループ占有確率は0.2であるので、図4の例では、グループBCDEが移動候補グループと判別されることになる。   In the example of FIG. 4, when the group occupation probability is in the range of 0.002 or more and 0.92 or less, it is determined as a movement candidate group, and when the group occupation probability is greater than 0.92, it is determined as a stationary group. Is done. Since the group occupation probability of the group BCDE is 0.2, the group BCDE is determined to be a movement candidate group in the example of FIG.

ステップS7では、残像セル探索処理を行ってステップS8に移る。残像セル探索処理では、絶対座標系の各グリッドセルのうちから、前述のオクルージョン領域に該当せず、且つ、ステップS2で座標位置を割り当てられていないグリッドセルであって、所定の下限の閾値以上、且つ、所定の上限の閾値以下(つまり、所定の範囲)であるグリッドセルを残像セルとして検出する。よって、ステップS7が請求項の残像区画検出手段に相当する。   In step S7, an afterimage cell search process is performed and the process proceeds to step S8. In the afterimage cell search process, among the grid cells in the absolute coordinate system, the grid cells that do not correspond to the above-described occlusion area and to which no coordinate position is assigned in step S2 are equal to or greater than a predetermined lower limit threshold value. In addition, a grid cell that is not more than a predetermined upper limit threshold (that is, a predetermined range) is detected as an afterimage cell. Therefore, step S7 corresponds to the afterimage section detection means in the claims.

ここで、図5を用いて、残像セルの検出の具体例を示す。図5は、残像セルの検出を説明するための模式図である。図5に示すB〜Eで示すグリッドセルからなるグループは図3で示すグループBCDEである。図5の例では、F〜Hで示すグリッドセルが占有確率0.4である他は、B〜H以外のグリッドセルの占有確率は0.001であるものとする。また、所定の上限の閾値および所定の下限の閾値は、移動候補グループと静止グループとの判別に用いたのと同様の値であるものとする。なお、図5の例では、オクルージョン領域に該当するグリッドセルは存在しないものとする。   Here, a specific example of afterimage cell detection will be described with reference to FIG. FIG. 5 is a schematic diagram for explaining detection of an afterimage cell. A group composed of grid cells indicated by B to E shown in FIG. 5 is a group BCDE shown in FIG. In the example of FIG. 5, it is assumed that the occupation probability of grid cells other than B to H is 0.001, except that the grid cells indicated by F to H have an occupation probability of 0.4. In addition, the predetermined upper limit threshold and the predetermined lower limit threshold are the same values as those used for discrimination between the movement candidate group and the stationary group. In the example of FIG. 5, it is assumed that there is no grid cell corresponding to the occlusion area.

図5の例では、座標位置を割り当てられていないグリッドセルのうち、占有確率が0.002以上、且つ、0.92以下の範囲にあるものは、F〜Hで示すグリッドセルであるので、F〜Hで示すグリッドセルが残像セルとして検出されることになる。   In the example of FIG. 5, among the grid cells to which no coordinate position is assigned, those having an occupation probability in the range of 0.002 or more and 0.92 or less are grid cells indicated by F to H. The grid cells indicated by F to H are detected as afterimage cells.

なお、残像セルの検出に用いる所定の上限の閾値および所定の下限の閾値は、移動候補グループと静止グループとの判別に用いた所定の上限の閾値および所定の下限の閾値とは別の値とする構成としてもよい。また、ステップS2で座標位置を割り当てられていないグリッドセルの占有確率は大きくはならないため、残像セル探索処理では、絶対座標系の各グリッドセルのうちから、前述のオクルージョン領域に該当せず、且つ、ステップS2で座標位置を割り当てられていないグリッドセルであって、所定の下限の閾値以上であるグリッドセルを残像セルとして検出する構成としてもよい。   The predetermined upper limit threshold and the predetermined lower limit threshold used for detecting the afterimage cell are different from the predetermined upper limit threshold and the predetermined lower limit threshold used for distinguishing the movement candidate group from the stationary group. It is good also as composition to do. In addition, since the occupancy probability of the grid cell to which the coordinate position is not assigned in step S2 does not increase, the afterimage cell search process does not correspond to the aforementioned occlusion area from among the grid cells of the absolute coordinate system, and A grid cell that is not assigned a coordinate position in step S2 and that is equal to or greater than a predetermined lower limit threshold may be detected as an afterimage cell.

ステップS8では、移動候補グループの近傍に残像セルが2個以上(つまり、複数)存在するか否かを判定する。そして、複数存在した場合(ステップS8でYES)には、ステップS9に移る。また、複数存在しなかった場合(ステップS8でNO)には、ステップS10に移る。ここで言うところの近傍とは、例えば移動候補グループからグリッドセル所定個数分の範囲内である。例えば移動候補グループからグリッドセル数個分の範囲内などとしてもよいし、移動候補グループからグリッドセル1個分の範囲内(つまり、移動候補グループに隣接)としてもよい。   In step S8, it is determined whether or not there are two or more (that is, a plurality of) afterimage cells in the vicinity of the movement candidate group. If there are a plurality (YES in step S8), the process proceeds to step S9. If there is not a plurality (NO in step S8), the process proceeds to step S10. The vicinity mentioned here is, for example, within a predetermined number of grid cells from the movement candidate group. For example, it may be within the range of several grid cells from the movement candidate group, or may be within the range of one grid cell from the movement candidate group (that is, adjacent to the movement candidate group).

ステップS9では、移動物判定処理を行ってステップS1に戻り、フローを繰り返す。移動物判定処理では、残像セルが複数隣接している移動候補グループに含まれる座標位置の集合を移動物と判定する。移動物判定処理では、座標位置の集合の占める範囲の大きさに応じて、歩行者などの移動物の種類まで判定する構成としてもよい。   In step S9, a moving object determination process is performed, the process returns to step S1, and the flow is repeated. In the moving object determination process, a set of coordinate positions included in a movement candidate group in which a plurality of afterimage cells are adjacent to each other is determined as a moving object. The moving object determination process may be configured to determine the type of moving object such as a pedestrian according to the size of the range occupied by the set of coordinate positions.

例えば、図5に示した例では、移動候補グループであるグループBCDEに隣接する残像セルはF〜Hの3つであるので、グループBCDEに含まれる座標位置の集合が移動物と判定されることになる。なお、本実施形態では、隣接する残像セルが複数存在する場合に、移動候補グループに含まれる座標位置の集合を移動物と判定する構成を示したが、必ずしもこれに限らない。例えば、隣接する残像セルが1つでも存在する場合に、移動候補グループに含まれる座標位置の集合を移動物と判定する構成としてもよい。   For example, in the example shown in FIG. 5, since there are three afterimage cells F to H adjacent to the group BCDE that is the movement candidate group, a set of coordinate positions included in the group BCDE is determined to be a moving object. become. In the present embodiment, a configuration is described in which when a plurality of adjacent afterimage cells exist, a set of coordinate positions included in the movement candidate group is determined as a moving object, but the present invention is not necessarily limited thereto. For example, when there is even one afterimage cell that is adjacent, a set of coordinate positions included in the movement candidate group may be determined as a moving object.

ステップS10では、静止物判定処理を行ってステップS1に戻り、フローを繰り返す。静止物判定処理では、グループに含まれる座標位置の集合を静止物と判定する。よって、ステップS8〜ステップS10が請求項の認識手段に相当する。   In step S10, a stationary object determination process is performed, the process returns to step S1, and the flow is repeated. In the stationary object determination process, a set of coordinate positions included in the group is determined as a stationary object. Therefore, Steps S8 to S10 correspond to recognition means in the claims.

本フローが繰り返され、所定の時点(例えば現時点)において、その直近の過去の時点での各グリッドセルの占有確率が算出済みとなった場合には、ステップS4では、直近の過去の時点の占有確率p(xt−1|zt−1)を現時点での事前確率p(x)として用いて、現時点での各グリッドセルにおける占有確率を算出することになる。 When this flow is repeated and the occupation probability of each grid cell at the most recent past time has already been calculated at a predetermined time (for example, the current time), the occupation at the most recent past time is obtained in step S4. Using the probability p (x t-1 | z t-1 ) as the current prior probability p (x t ), the occupation probability in each grid cell at the current time is calculated.

直近の過去の時点の占有確率p(xt−1|zt−1)を現時点での事前確率p(x)として用いて、現時点での各グリッドセルにおける占有確率を算出すると、前述の(1)式から明らかなように、物体が存在し続けているグリッドセルは、占有確率が1に近い値になっていく。また、物体が存在しない状態が続いているグリッドセルは、占有確率が0に近い値になっていき、物体が存在する状態が変化したグリッドセルは、それらの中間の値(物体が存在し続けているグリッドセルに比べて小さい値)になる。 Using the occupation probability p (x t-1 | z t-1 ) of the most recent past time as the prior probability p (x t ) at the present time, the occupation probability in each grid cell at the present time is calculated. As is clear from the equation (1), the grid cell in which the object continues to exist has an occupancy probability close to 1. In addition, the grid cell in which the state in which the object does not exist continues to have a value close to 0, and the grid cell in which the state in which the object exists has changed, the intermediate value between them (the object continues to exist) Smaller value than the grid cell).

このように、占有確率は、各グリッドセルにおける物体が実際に存在し続けていた確かさの割合であり、本実施形態の構成によれば、占有確率が所定の範囲にあるグリッドセルに割り当てられた座標位置に対応する物体を移動物として認識するので、物体が移動してきた可能性が高いグリッドセルに割り当てられた座標位置に対応する物体を移動物としてより精度良く認識することが可能になる。   Thus, the occupation probability is a ratio of the certainty that the object in each grid cell has actually existed, and according to the configuration of the present embodiment, the occupation probability is assigned to a grid cell in a predetermined range. Since the object corresponding to the coordinate position is recognized as a moving object, the object corresponding to the coordinate position assigned to the grid cell to which the object has a high possibility of movement can be more accurately recognized as the moving object. .

ベイズ推定では、事前確率に尤度関数を掛けることによって、目的とする確率を少ない試行回数で精度良く求めることができるが、以上の構成によれば、現時点における割り当て情報と尤度と現時点の直近の過去についての占有確率とをもとにベイズ推定を用いて占有確率を算出するので、現時点での各グリッドセルにおける占有確率を迅速かつ精度良く算出することができる。   In Bayesian estimation, the target probability can be obtained accurately with a small number of trials by multiplying the prior probability by the likelihood function. Since the occupation probability is calculated using Bayesian estimation based on the occupation probability of the past, the occupation probability in each grid cell at the present time can be calculated quickly and accurately.

また、以上の構成によれば、測距センサ1の探査波が到達不能な領域(以下、検出不能領域)に該当するグリッドセルを残像セルとして検出しないようにするので、検出不能領域に該当するグリッドセルを残像セルとして検出した場合に生じる移動物の誤認識を防ぐことができる。   Further, according to the above configuration, the grid cell corresponding to the region where the exploration wave of the distance measuring sensor 1 cannot reach (hereinafter referred to as the undetectable region) is not detected as the afterimage cell, and thus corresponds to the undetectable region. It is possible to prevent erroneous recognition of a moving object that occurs when a grid cell is detected as an afterimage cell.

ここで、本発明における作用効果について、具体的に図6を用いて説明を行う。特許文献1に開示の歩行者認識装置によって歩行者の認識を行った場合の誤認識の回数と、物体認識システム100によって歩行者の認識を行った場合の誤認識の回数とを比較したところ、特許文献1に開示の歩行者認識装置に比べ、物体認識システム100の方が誤認識の回数が少なかった。   Here, the effect in this invention is demonstrated concretely using FIG. When comparing the number of misrecognitions when the pedestrian recognition is performed by the pedestrian recognition device disclosed in Patent Document 1 and the number of misrecognitions when the pedestrian is recognized by the object recognition system 100, Compared to the pedestrian recognition device disclosed in Patent Document 1, the object recognition system 100 had fewer erroneous recognitions.

また、特許文献1に開示の歩行者認識装置では、静止物を認識するために、レーザ光を掃引照射(スキャン)して物体の座標位置を絶対座標系上のメッシュ(つまり、グリッドセル)に割り当てる作業を繰り返すが、誤認識を低く抑えるためには、この作業を7スキャン分は繰り返す必要がある。そして、静止物を認識した後に、移動物を認識するので、上記作業の8スキャン分に相当する時間がかかることになる。   Further, in the pedestrian recognition apparatus disclosed in Patent Document 1, in order to recognize a stationary object, laser light is swept (scanned), and the coordinate position of the object is converted to a mesh (that is, a grid cell) on the absolute coordinate system. The assignment work is repeated, but it is necessary to repeat this work for seven scans in order to suppress erroneous recognition. Since a moving object is recognized after recognizing a stationary object, it takes time corresponding to 8 scans of the above work.

これに対して、本実施形態では、現時点における割り当て情報と尤度と現時点の直近の過去についての占有確率とをもとにベイズ推定を用いて占有確率を算出し、移動物か静止物かの認識を行うことになる。本実施形態では、測距センサ1の測定精度をベイズ推定における尤度に組み込んでいるので、少ない試行回数でも誤認識を低く抑えて移動物か静止物かの認識を行うことができる。具体的には、レーザ光を掃引照射(スキャン)して物体の座標位置を絶対座標系上のメッシュ(つまり、グリッドセル)に割り当てる作業の2スキャン分に相当する時間で移動物の認識も静止物の認識も行うことができる。つまり、特許文献1に開示の歩行者認識装置に比べ、移動物の認識を精度良く、且つ、より迅速に行うことができる。   On the other hand, in the present embodiment, the occupation probability is calculated using Bayesian estimation based on the allocation information and likelihood at the present time and the occupation probability for the most recent past at the present time. Recognition. In this embodiment, since the measurement accuracy of the distance measuring sensor 1 is incorporated into the likelihood in Bayesian estimation, it is possible to recognize whether the object is a moving object or a stationary object even with a small number of trials while suppressing erroneous recognition. Specifically, moving object recognition is stationary in a time corresponding to two scans of the task of assigning the coordinate position of the object to the mesh (that is, grid cell) on the absolute coordinate system by sweeping irradiation (scanning) of the laser beam. It can also recognize objects. That is, compared with the pedestrian recognition apparatus disclosed in Patent Document 1, it is possible to recognize a moving object with high accuracy and more quickly.

なお、本実施形態では、センサ座標系の車両前後方向(Y軸)を絶対座標系における自車両の進行方向に一致するようにセンサ座標系を回転させつつ、自車両の絶対座標系における座標位置に基づいて、車幅方向(X軸)、車両前後方向(Y軸)、高さ方向(Z軸)の3次元座標を絶対座標系に当てはめることによって、センサ座標系における反射点の座標位置を、絶対座標系における座標位置に変換する構成を示したが、必ずしもこれに限らない。例えば、センサ座標系の車両前後方向(Y軸)を絶対座標系における自車両の進行方向に一致するようにセンサ座標系を回転させつつ、自車両の絶対座標系における座標位置に基づいて、車幅方向(X軸)および車両前後方向(Y軸)の2次元座標を絶対座標系に当てはめる構成としてもよい。   In the present embodiment, the coordinate position in the absolute coordinate system of the host vehicle is rotated while rotating the sensor coordinate system so that the vehicle longitudinal direction (Y axis) of the sensor coordinate system matches the traveling direction of the host vehicle in the absolute coordinate system. By applying the three-dimensional coordinates in the vehicle width direction (X axis), the vehicle longitudinal direction (Y axis), and the height direction (Z axis) to the absolute coordinate system, the coordinate position of the reflection point in the sensor coordinate system is Although the configuration for converting to the coordinate position in the absolute coordinate system is shown, it is not necessarily limited to this. For example, while rotating the sensor coordinate system so that the vehicle front-rear direction (Y-axis) of the sensor coordinate system matches the traveling direction of the host vehicle in the absolute coordinate system, the vehicle is based on the coordinate position in the absolute coordinate system of the host vehicle. The two-dimensional coordinates in the width direction (X axis) and the vehicle front-rear direction (Y axis) may be applied to the absolute coordinate system.

また、本実施形態では、移動候補グループに隣接する残像セルが複数存在するか否かを判定し、複数存在した場合に、その移動候補グループに含まれる座標位置の集合を移動物と判定する構成を示したが、必ずしもこれに限らない。例えば、占有確率が0.002以上、且つ、0.92以下の範囲にあるグリッドセル(以下、移動候補セル)に隣接する残像セルが複数存在するか否かを判定し、複数存在した移動候補セル同士をグループにまとめ、そのグループに含まれる座標位置の集合を移動物と判定する構成としてもよい。   Further, in the present embodiment, it is determined whether or not there are a plurality of afterimage cells adjacent to the movement candidate group, and when there are a plurality of afterimage cells, a set of coordinate positions included in the movement candidate group is determined as a moving object. However, the present invention is not limited to this. For example, it is determined whether there are a plurality of afterimage cells adjacent to a grid cell (hereinafter referred to as a movement candidate cell) whose occupation probability is 0.002 or more and 0.92 or less. The cells may be grouped together, and a set of coordinate positions included in the group may be determined as a moving object.

なお、本実施形態では、測距センサ1としてレーザレーダを用いる構成を示したが、必ずしもこれに限らない。超音波センサや赤外線センサなど、探査波の送信およびその探査波の反射波の受信の結果をもとに物体の距離や位置を測定するものであれば、測距センサ1として用いることができる。   In the present embodiment, a configuration in which a laser radar is used as the distance measuring sensor 1 has been described. However, the configuration is not necessarily limited thereto. Any device such as an ultrasonic sensor or an infrared sensor that can measure the distance and position of an object based on the results of transmission of the exploration wave and reception of the reflected wave of the exploration wave can be used as the distance measurement sensor 1.

また、本実施形態では、ベイズ推定を用いてグリッドセルの占有確率を算出する構成を示したが、必ずしもこれに限らない。例えば、所定の時点(例えば現時点)におけるマッピング処理でグリッドセルに座標位置を割り当てられたか否かの情報とその直近の過去におけるマッピング処理でグリッドセルに座標位置を割り当てられたか否かの情報とをもとに応じて定まる占有確率を推定可能な手法であれば他の方法を用いてグリッドセルの占有確率を算出する構成としてもよい。   In the present embodiment, the configuration in which the occupancy probability of the grid cell is calculated using Bayesian estimation is shown, but the present invention is not necessarily limited thereto. For example, information on whether or not a coordinate position has been assigned to a grid cell in a mapping process at a predetermined time (for example, the current time) and information on whether or not a coordinate position has been assigned to a grid cell in a mapping process in the past in the past Any other method may be used to calculate the occupancy probability of the grid cell as long as the occupancy probability determined according to the original can be estimated.

なお、本発明は、上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the technical means disclosed in different embodiments can be appropriately combined. Such embodiments are also included in the technical scope of the present invention.

1 測距センサ、2 ECU(物体認識装置、検出不能領域判断手段)、11 発光部、12 受光部、13 時間計測部、100 物体認識システム、S2 絶対位置決定手段、マッピング手、S3 グルーピング手段、S4 占有確率算出手段、S5 グループ占有確率算出手段、S7 残像区画検出手段、S8〜S10 認識手段 DESCRIPTION OF SYMBOLS 1 Distance sensor, 2 ECU (object recognition apparatus, undetectable area determination means), 11 Light emission part, 12 Light reception part, 13 Time measurement part, 100 Object recognition system, S2 Absolute position determination means, Mapping hand, S3 Grouping means, S4 occupation probability calculation means, S5 group occupation probability calculation means, S7 afterimage section detection means, S8 to S10 recognition means

Claims (7)

車両に搭載され、
所定の周期で探査波を送信させるとともにその探査波が物体によって反射された反射波を受信する測距センサにおける探査波の送信および反射波の受信の結果をもとに、所定の位置を原点とする絶対座標系における当該物体の座標位置を逐次決定する絶対位置決定手段と、
前記絶対位置決定手段で絶対座標系における前記物体の座標位置を決定するごとに、当該絶対座標系を所定の大きさの区画単位に分割した各区画のうちの当該座標位置に対応する区画に、当該座標位置を割り当てるマッピング手段と、を備える物体認識装置であって、
所定の時点において前記マッピング手段で前記座標位置を割り当てられたか否かの情報と当該所定の時点の直近の過去において前記マッピング手段で前記座標位置を割り当てられたか否かの情報とに応じて定まる、当該所定の時点での前記各区画における前記物体が実際に存在し続けていた確かさの割合である占有確率を算出する占有確率算出手段と、
前記占有確率算出手段で算出した占有確率をもとに、占有確率が所定の範囲にある区画に割り当てられた座標位置に対応する物体を移動物として認識する認識手段とを備えることを特徴とする物体認識装置。
Mounted on the vehicle,
Based on the results of the transmission of the exploration wave and the reception of the reflected wave by the distance measuring sensor that transmits the exploration wave at a predetermined period and receives the reflected wave reflected by the object, the predetermined position is set as the origin. Absolute position determining means for sequentially determining the coordinate position of the object in the absolute coordinate system;
Each time the absolute position determination means determines the coordinate position of the object in the absolute coordinate system, a section corresponding to the coordinate position of the sections obtained by dividing the absolute coordinate system into partition units of a predetermined size, Mapping means for assigning the coordinate position, and an object recognition device comprising:
It is determined according to information on whether or not the coordinate position has been assigned by the mapping means at a predetermined time point and information on whether or not the coordinate position has been assigned by the mapping means in the immediate past of the predetermined time point, An occupancy probability calculating means for calculating an occupancy probability which is a ratio of certainty that the object in each of the sections at the predetermined time has actually existed;
Recognizing means for recognizing, as a moving object, an object corresponding to a coordinate position assigned to a section having an occupation probability within a predetermined range based on the occupation probability calculated by the occupation probability calculating means. Object recognition device.
請求項1において、
前記占有確率算出手段は、前記所定の時点における前記マッピング手段で前記座標位置を割り当てられたか否かの情報と、前記マッピング手段での前記座標位置の割り当ての有無の尤もらしさについて予め定められた尤度情報と、ベイズ推定における事前確率としての当該所定の時点の直近の過去についての前記占有確率とをもとに、ベイズ推定を用いて当該所定の時点での前記各区画における占有確率を算出するものであって、
当該過去についての前記占有確率が既に算出済みである場合には、算出済みの当該占有確率を当該所定の時点での前記各区画における占有確率の算出に用いる一方、当該過去についての前記占有確率が算出済みでない場合には、予め定めた値を当該占有確率として当該所定の時点での前記各区画における占有確率の算出に用いることを特徴とする物体認識装置。
In claim 1,
The occupancy probability calculating means is information on whether or not the coordinate position has been assigned by the mapping means at the predetermined time, and a likelihood that is determined in advance as to whether or not the coordinate position is assigned by the mapping means. Based on the degree information and the occupancy probability of the past in the past as the prior probability in Bayesian estimation, the occupancy probability in each section at the predetermined time point is calculated using Bayesian estimation. And
If the occupancy probability for the past has already been calculated, the calculated occupancy probability is used to calculate the occupancy probability in each section at the predetermined time point, while the occupancy probability for the past is If not already calculated, a predetermined value is used as the occupancy probability to calculate the occupancy probability in each of the sections at the predetermined time point.
請求項1または2において、
前記マッピング手段で前記座標位置を割り当てられた区画のうち、お互いが隣接するものについてはグループにまとめるグルーピング手段と、
前記占有確率算出手段で算出した前記各区画における占有確率とその各区画に割り当てられた前記座標位置の数とをもとに、前記グルーピング手段でまとめたグループについての前記占有確率であるグループ占有確率を算出するグループ占有確率算出手段とをさらに備え、
前記認識手段は、前記グループ占有確率算出手段で算出したグループ占有確率をもとに、グループ占有確率が所定の範囲にあるグループに含まれる座標位置の集合に対応する物体を移動物として認識することを特徴とする物体認識装置。
In claim 1 or 2,
Among the sections to which the coordinate position is assigned by the mapping means, grouping means for grouping adjacent ones into groups,
A group occupancy probability that is the occupancy probability for the group grouped by the grouping means based on the occupancy probability in each section calculated by the occupancy probability calculating means and the number of coordinate positions assigned to each section. And a group occupation probability calculating means for calculating
The recognition unit recognizes an object corresponding to a set of coordinate positions included in a group having a group occupation probability within a predetermined range as a moving object based on the group occupation probability calculated by the group occupation probability calculation unit. An object recognition device.
請求項3において、
前記マッピング手段で前記座標位置を割り当てられていないこと、および前記占有確率算出手段で算出した占有確率が所定値よりも大きいことをもとに、過去には前記座標位置が割り当てられていた区画である残像区画を前記各区画のうちから検出する残像区画検出手段をさらに備え、
前記認識手段は、前記グループ占有確率算出手段で算出したグループ占有確率が所定の範囲にあるグループのうち、前記残像区画検出手段で検出した残像区画が近傍に所定個数以上存在しているグループについて、そのグループに含まれる座標位置の集合に対応する物体を移動物として認識することを特徴とする物体認識装置。
In claim 3,
Based on the fact that the coordinate position is not assigned by the mapping means and the occupation probability calculated by the occupation probability calculation means is greater than a predetermined value, Further comprising afterimage section detection means for detecting a certain afterimage section from among the sections,
The recognizing unit is a group in which the group occupancy probability calculated by the group occupancy probability calculating unit is in a predetermined range, and the group having a predetermined number or more of afterimage sections detected by the afterimage section detecting unit, An object recognition apparatus that recognizes an object corresponding to a set of coordinate positions included in the group as a moving object.
請求項1または2において、
前記マッピング手段で前記座標位置を割り当てられていないこと、および前記占有確率算出手段で算出した占有確率が所定値よりも大きいことをもとに、過去には前記座標位置が割り当てられていた区画である残像区画を前記各区画のうちから検出する残像区画検出手段をさらに備え、
前記認識手段は、前記占有確率算出手段で算出した占有確率が所定の範囲にある区画のうち、前記残像区画検出手段で検出した残像区画が近傍に所定個数以上存在している区画について、その区画に割り当てられた座標位置に対応する物体を移動物として認識することを特徴とする物体認識装置。
In claim 1 or 2,
Based on the fact that the coordinate position is not assigned by the mapping means and the occupation probability calculated by the occupation probability calculation means is greater than a predetermined value, Further comprising afterimage section detection means for detecting a certain afterimage section from among the sections,
The recognizing unit is configured to determine a segment having a predetermined number or more of the afterimage segments detected by the afterimage segment detecting unit among the segments having the occupation probability calculated by the occupation probability calculating unit within a predetermined range. An object recognition apparatus for recognizing an object corresponding to a coordinate position assigned to as a moving object.
請求項4または5において、
前記測距センサの探査波が到達不能な領域である検出不能領域を判断する検出不能領域判断手段をさらに備え、
前記残像区画検出手段は、前記マッピング手段で前記座標位置を割り当てられていないこと、および前記占有確率算出手段で算出した占有確率が所定値よりも大きいことに加え、前記検出不能領域判断手段で判断した検出不能領域に該当しないことをもとに、前記残像区画を前記各区画のうちから検出することを特徴とする物体認識装置。
In claim 4 or 5,
An undetectable area determination means for determining an undetectable area that is an area where the exploration wave of the ranging sensor is unreachable;
The afterimage section detecting means is determined by the undetectable area determining means in addition to the fact that the coordinate position is not assigned by the mapping means and the occupation probability calculated by the occupation probability calculating means is greater than a predetermined value. An object recognition apparatus, wherein the afterimage section is detected from among the sections based on the fact that it does not correspond to the undetectable area.
請求項1〜6のいずれか1項において、
前記認識手段は、前記占有確率が所定の範囲にある区画に割り当てられた座標位置に対応する物体の場合には移動物として認識する一方、前記占有確率が所定の範囲を超える区画に割り当てられた座標位置に対応する物体の場合には静止物として認識することを特徴とする物体認識装置。
In any one of Claims 1-6,
The recognizing unit recognizes the object as a moving object in the case of an object corresponding to the coordinate position assigned to the section having the occupation probability within a predetermined range, while being assigned to the section with the occupation probability exceeding the predetermined range. An object recognition apparatus characterized by recognizing an object corresponding to a coordinate position as a stationary object.
JP2010271743A 2010-12-06 2010-12-06 Object recognition device Active JP5630249B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010271743A JP5630249B2 (en) 2010-12-06 2010-12-06 Object recognition device
DE102011087751.7A DE102011087751B4 (en) 2010-12-06 2011-12-05 Method and device for detecting the presence of objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010271743A JP5630249B2 (en) 2010-12-06 2010-12-06 Object recognition device

Publications (2)

Publication Number Publication Date
JP2012123471A true JP2012123471A (en) 2012-06-28
JP5630249B2 JP5630249B2 (en) 2014-11-26

Family

ID=46083127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010271743A Active JP5630249B2 (en) 2010-12-06 2010-12-06 Object recognition device

Country Status (2)

Country Link
JP (1) JP5630249B2 (en)
DE (1) DE102011087751B4 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101734654B1 (en) * 2015-06-25 2017-05-11 현대자동차주식회사 System and Method for writing Occupancy Grid Map of sensor centered coordinate system using laser scanner
JP2017187422A (en) * 2016-04-07 2017-10-12 トヨタ自動車株式会社 Nearby article detection apparatus
JP2019109393A (en) * 2017-12-19 2019-07-04 トヨタ自動車株式会社 Stationary object map information generator
CN111868562A (en) * 2018-03-26 2020-10-30 三菱电机株式会社 Object detection device, vehicle, object detection method, and object detection program
CN112009470A (en) * 2020-09-08 2020-12-01 科大讯飞股份有限公司 Vehicle running control method, device, equipment and storage medium
JP7378302B2 (en) 2020-01-23 2023-11-13 日産自動車株式会社 Object detection method and object detection device

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012214307A1 (en) * 2012-08-10 2014-02-13 Robert Bosch Gmbh Method and device for modeling an environment
EP3770637B1 (en) * 2018-03-22 2024-05-08 Hitachi Astemo, Ltd. Object recognizing device
CN108776338B (en) * 2018-06-19 2022-05-24 四川大学 Signal source space sensing method and device and active sensing system
FR3097972B1 (en) * 2019-06-28 2021-12-10 Aptiv Tech Ltd Method and system for mapping a physical environment using an occupancy grid
DE102022200151A1 (en) * 2022-01-10 2023-07-13 Robert Bosch Gesellschaft mit beschränkter Haftung sensor

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06148328A (en) * 1992-11-06 1994-05-27 Toyota Central Res & Dev Lab Inc Obstacle recognition apparatus for vehicle
JP2008026997A (en) * 2006-07-18 2008-02-07 Denso Corp Pedestrian recognition device and pedestrian recognition method
JP2008257652A (en) * 2007-04-09 2008-10-23 Toyota Motor Corp Traffic environment prediction device
JP2009508199A (en) * 2005-09-09 2009-02-26 アンスティテュ ナスィヨナル ドゥ ラ ルシェルシュ アン アンフォルマティク エ アン オートマティク Vehicle driving assistance method and improved related apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007013023B4 (en) * 2007-03-19 2017-10-05 Sick Ag Probabilistic raster map

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06148328A (en) * 1992-11-06 1994-05-27 Toyota Central Res & Dev Lab Inc Obstacle recognition apparatus for vehicle
JP2009508199A (en) * 2005-09-09 2009-02-26 アンスティテュ ナスィヨナル ドゥ ラ ルシェルシュ アン アンフォルマティク エ アン オートマティク Vehicle driving assistance method and improved related apparatus
JP2008026997A (en) * 2006-07-18 2008-02-07 Denso Corp Pedestrian recognition device and pedestrian recognition method
JP2008257652A (en) * 2007-04-09 2008-10-23 Toyota Motor Corp Traffic environment prediction device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101734654B1 (en) * 2015-06-25 2017-05-11 현대자동차주식회사 System and Method for writing Occupancy Grid Map of sensor centered coordinate system using laser scanner
US9827994B2 (en) 2015-06-25 2017-11-28 Hyundai Motor Company System and method for writing occupancy grid map of sensor centered coordinate system using laser scanner
JP2017187422A (en) * 2016-04-07 2017-10-12 トヨタ自動車株式会社 Nearby article detection apparatus
JP2019109393A (en) * 2017-12-19 2019-07-04 トヨタ自動車株式会社 Stationary object map information generator
CN111868562A (en) * 2018-03-26 2020-10-30 三菱电机株式会社 Object detection device, vehicle, object detection method, and object detection program
JP7378302B2 (en) 2020-01-23 2023-11-13 日産自動車株式会社 Object detection method and object detection device
CN112009470A (en) * 2020-09-08 2020-12-01 科大讯飞股份有限公司 Vehicle running control method, device, equipment and storage medium
CN112009470B (en) * 2020-09-08 2022-01-14 科大讯飞股份有限公司 Vehicle running control method, device, equipment and storage medium

Also Published As

Publication number Publication date
JP5630249B2 (en) 2014-11-26
DE102011087751A1 (en) 2012-06-06
DE102011087751B4 (en) 2016-03-31

Similar Documents

Publication Publication Date Title
JP5630249B2 (en) Object recognition device
US11209284B2 (en) System and method for creating driving route of vehicle
US11740352B2 (en) Obstacle recognition device, vehicle system including the same, and method thereof
US7920087B2 (en) Apparatus for estimating state of vehicle located in frontward field
KR101900228B1 (en) Method and apparatus for parking assistance
JP6720715B2 (en) Parking assistance method and device
JP6756124B2 (en) Object detection device and object detection program
US11255681B2 (en) Assistance control system
CN104793202A (en) Object fusion system of multiple radar imaging sensors
JP6505470B2 (en) Noise removal method and object recognition apparatus
US20150336575A1 (en) Collision avoidance with static targets in narrow spaces
JP5712900B2 (en) Peripheral object detection device
CN104569979A (en) Target detection apparatus
JP6460822B2 (en) Moving object tracking method and moving object tracking apparatus
WO2020235396A1 (en) Obstacle detection device and obstacle detection method
CN109633686B (en) Method and system for detecting ground obstacle based on laser radar
CN112997093A (en) Method and processing unit for determining information about objects in a vehicle environment
JP2019105654A (en) Noise removal method and object recognition device
JP6263453B2 (en) Momentum estimation device and program
CN110954912B (en) Method and apparatus for optical distance measurement
JP6075168B2 (en) Vehicle object detection device
JP2021043838A (en) Information processing device, control method, program and storage medium
US20230094836A1 (en) Method for Detecting Moving Objects in the Surroundings of a Vehicle, and Motor Vehicle
US11846726B2 (en) Method and device for identifying objects detected by a LiDAR device
KR102521915B1 (en) Method and apparatus of detecting transparent obstacles using laser range finder

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140922

R150 Certificate of patent or registration of utility model

Ref document number: 5630249

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250