JP6930394B2 - 物体認識装置 - Google Patents

物体認識装置 Download PDF

Info

Publication number
JP6930394B2
JP6930394B2 JP2017225972A JP2017225972A JP6930394B2 JP 6930394 B2 JP6930394 B2 JP 6930394B2 JP 2017225972 A JP2017225972 A JP 2017225972A JP 2017225972 A JP2017225972 A JP 2017225972A JP 6930394 B2 JP6930394 B2 JP 6930394B2
Authority
JP
Japan
Prior art keywords
lane
information
roadside
vehicle
predetermined range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017225972A
Other languages
English (en)
Other versions
JP2019096132A (ja
Inventor
照元 小森
照元 小森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017225972A priority Critical patent/JP6930394B2/ja
Priority to US16/139,237 priority patent/US10302754B1/en
Priority to CN201811307201.0A priority patent/CN109839636B/zh
Publication of JP2019096132A publication Critical patent/JP2019096132A/ja
Application granted granted Critical
Publication of JP6930394B2 publication Critical patent/JP6930394B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Geometry (AREA)
  • Traffic Control Systems (AREA)
  • Mechanical Engineering (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本発明は、物体認識装置に関する。
特許第5812064号公報には、ミリ波レーダーから検出した第1の物体の位置を中心とする領域と、車載カメラの撮像画像に基づいて検出した第2の物体の位置を中心とする領域とが重複する場合、第1の物体と第2の物体が同一の物体であると判定する物体認識装置が開示されている。
特許第5812064号公報
上記物体認識装置では、第1の物体の位置を中心とする領域に、ミリ波レーダーの特性に基づいた誤差が考慮されている。また、第2の物体の位置を中心とする領域に、車載カメラの特性に基づいた誤差が考慮されている。しかし、これらの領域は検出物体の相対方向に固定されていることから、カーブレーンにおいて検出された異なる物体を同一の物体であると誤判定する可能性がある。
具体的には、上記物体認識装置を搭載した車両の前方のカーブレーンを走行する先行車両(第1の物体)と、その隣のカーブレーンを走行する他の先行車両(第2の物体)とが同一の相対方向に検出されたときには、これらを同一の物体であると誤判定する可能性がある。カーブレーンを走行する先行車両(第1の物体)と、その傍のガードレールや擁壁などの路側物(第2の物体)とが同一の相対方向に検出されたときも同様である。故に、このような誤判定を防ぐための改良が要求される。
本発明は、上述した課題に鑑みてなされたものであり、カーブレーンにおいて検出された異なる物体を同一の物体であると誤判定するのを防ぐことのできる技術を提供することを目的とする。
第1の発明は、上述した課題を解決するための物体認識装置であり次の特徴を有する。
前記物体認識装置は、第1検出装置と、第2検出装置と、物体統合部と、を備える。
前記第1検出装置は、自車両の周囲の第1物体に関する情報を第1情報として検出する。
前記第2検出装置は、前記自車両の周囲の第2物体に関する情報を第2情報として検出する。
前記物体統合部は、前記第1情報および前記第2情報に基づいて、前記第1物体と前記第2物体が同一物体であるか否かの判定処理を行う。
前記物体認識装置は、更に、地図データベースを備える。
前記地図データベースは、レーンの形状および位置に関するレーン情報を含む。
前記物体統合部は、レーン傾き角度推定部と、判定領域設定部と、を備えている。
前記レーン傾き角度推定部は、前記自車両の進行方向に対するレーンの傾き角度の推定処理を行う。
前記判定領域設定部は、前記判定処理に使用する判定領域を設定する設定処理を行う。 前記推定処理は、
前記第1情報から得られる前記第1物体の検出位置と、前記レーン情報と、に基づいて、前記第1物体の検出位置での前記進行方向に対するレーンの第1傾き角度を推定する処理、および、
前記第2情報から得られる前記第2物体の検出位置と、前記レーン情報と、に基づいて、前記第2物体の検出位置での前記進行方向に対するレーンの第2傾き角度を推定する処理の少なくとも一方の処理である。
前記設定処理は、
前記第1傾き角度および前記第2傾き角度のうちの一方が推定された場合、前記第1物体の検出位置を含む第1所定範囲、および、前記第2物体の検出位置を含む第2所定範囲を、前記推定された第1傾き角度および前記第2傾き角度のうちの一方と同じ角度だけそれぞれ回転させて、前記判定領域として設定し、
前記第1傾き角度および前記第2傾き角度の両方が推定された場合、前記推定された第1所定範囲を前記第1傾き角度と同じ角度だけ回転させ、且つ、前記推定された第2所定範囲を前記第2傾き角度と同じ角度だけ回転させて、前記判定領域として設定する処理である。
第2の発明は、第1の発明において次の特徴を有する。
前記地図データベースには、路側物に関する路側物情報が含まれる。
前記物体認識装置は、路側物判定部を更に備える。
前記路側物判定部は、自車両の位置および前記路側物情報に基づいて、前記自車両が走行するレーンに隣接する隣接路側帯に路側物が存在するか否かを判定する。
前記判定領域設定部は、前記隣接路側帯に路側物が存在すると判定された場合、前記設定処理において前記第1所定範囲および前記第2所定範囲を回転させる前に、前記第1所定範囲および前記第2所定範囲の前記隣接路側帯側の幅を狭くする。
第1の発明によれば、判定領域設定部による設定処理において、第1所定範囲および第2所定範囲が、レーン傾き角度推定部により推定された第1傾き角度または第2傾き角度に基づいて回転させられる。具体的に、第1傾き角度および第2傾き角度のうちの一方が推定された場合、第1所定範囲および第2所定範囲が、推定された一方の角度だけ回転させられる。第1および第2傾き角度の両方が推定された場合、第1所定範囲は第1傾き角度だけ回転させられ、第2所定範囲は第2傾き角度だけ回転させられる。第1傾き角度は、第1物体の検出位置での自車両の進行方向に対するレーンの傾き角度である。第2傾き角度は、第2物体の検出位置での自車両の進行方向に対するレーンの傾き角度である。そのため、第1傾き角度または第2傾き角度に基づいて第1所定範囲および第2所定範囲を回転させれば、第1物体の検出位置と第2物体の検出位置がカーブレーン上にある場合に、第1所定範囲または第2所定範囲が、自車両の走行レーンを越えて設定されるのを抑えることができる。従って、カーブレーンにおいて検出された異なる物体を同一の物体であると誤判定するのを防ぐことができる。
第2の発明によれば、隣接路側帯に路側物が存在すると判定された場合、第1所定範囲および第2所定範囲を回転させる前に、第1所定範囲および第2所定範囲の隣接路側帯側の幅が狭くされる。従って、カーブレーンに隣接する路側帯に存在する路側物を、カーブレーン上の第1物体または第2物体と同一の物体であると誤判定するのを防ぐことができる。
本発明の実施の形態1に係る物体認識装置の構成を示すブロック図である。 レーン形状・位置推定部による推定処理の一例を説明する図である。 レーン傾き推定部による推定処理の一例を説明する図である。 グルーピングエリア設定部による設定処理の一例を説明する図である。 同一物判定部による判定処理の一例を説明する図である。 本発明の実施の形態1に係る物体認識装置による第1の効果を説明する図である。 本発明の実施の形態1に係る物体認識装置による第2の効果を説明する図である。 本発明の実施の形態1に係る物体認識装置による第3の効果を説明する図である。 本発明の実施の形態2に係る物体認識装置の構成を示すブロック図である。 グルーピングエリア設定部によるグルーピングエリアGAの設定処理の一例を説明する図である。
以下、図面を参照して本発明の実施の形態について説明する。ただし、以下に示す実施の形態において各要素の個数、数量、量、範囲等の数に言及した場合、特に明示した場合や原理的に明らかにその数に特定される場合を除いて、その言及した数に、この発明が限定されるものではない。また、以下に示す実施の形態において説明する構造やステップ等は、特に明示した場合や明らかに原理的にそれに特定される場合を除いて、この発明に必ずしも必須のものではない。
実施の形態1.
先ず、図1乃至図8を参照して本発明の実施の形態1について説明する。
1.物体認識装置の構成
図1は、本発明の実施の形態1に係る物体認識装置の構成を示すブロック図である。図1に示す物体認識装置1は、車両に搭載されて、当該車両の前方、側方および後方に存在する立体物を認識するものである。認識対象である立体物は、例えば、歩行者、自転車、自動車などの移動物、および、樹木、電柱、建物、道路構造物などの固定物である。道路構造物には、例えば、ガードレール、道路看板、擁壁、防音壁といった路側帯に設置される構造物(以下、「路側物」ともいう。)が含まれる。本明細書において、この物体認識装置1が搭載された車両を「自車両OV」ともいう。
図1に示すように、物体認識装置1は、GPS(Global Positioning System)受信機11、地図データベース12、ミリ波レーダー13、ライダー(LIDAR: Laser Imaging Detection and Ranging)14、カメラ15、およびECU(Electric Control Unit)10を備えている。ミリ波レーダー13、ライダー14およびカメラ15のそれぞれの台数は、少なくとも1である。ミリ波レーダー13、ライダー14およびカメラ15は、「自律認識センサ」と総称される装置である。以下、ミリ波レーダー13、ライダー14またはカメラ15を指す場合は、「自律認識センサ」ともいう。
GPS受信機11は、3個以上のGPS衛星からの信号を受信することにより、自車両OVの現在位置(例えば、自車両OVの緯度および経度)を測定する。GPS受信機11は、測定した自車両OVの現在位置情報をECU10に送信する。
地図データベース12は、高精度地図情報を備えるデータベースである。地図データベース12は、例えば、自車両OVに搭載されたHDD(Hard Disk Drive)内に形成されている。高精度地図情報には、例えば、レーンを区画する区画線(以下、「レーン区画線」ともいう。)の位置情報(例えば、緯度および経度)、レーンの形状情報(例えば、カーブレーン、直線レーンの種別、カーブレーンの曲率等)、交差点および分岐点の位置情報が含まれる。高精度地図情報には、また、固定物の位置情報(例えば、緯度および経度)や、スタイル情報(例えば、高さ、幅、奥行き)に関する情報が含まれる。
ミリ波レーダー13は、自車両OVの周囲にミリ波(電磁波の一例)を発射し、そのミリ波が立体物で反射した反射波を受信することで、立体物を検出する。ミリ波レーダー13によれば、ミリ波を発射してから、反射波を受信するまでの時間に基づき、自車両OVに対する立体物の相対速度を推定することができる。ミリ波レーダー13によれば、反射波が自車両OVに飛来する方向に基づき、自車両OVに対する立体物の相対位置を推定することもできる。ミリ波レーダー13は、相対速度および相対位置からなる相対状態量を、立体物情報としてECU10に送信する。
ライダー14は、自車両OVの周囲にパルス状に発光するレーザーを照射し、立体物からの反射レーザー光を受信することで、立体物を検出する。ミリ波レーダー13同様、ライダー14によれば、自車両OVに対する立体物の相対速度、および自車両OVに対する立体物の相対位置(つまり、相対状態量)を推定することができる。これに加え、ライダー14によれば、立体物の外形(例えば、高さ、幅)を認識することもできる。ライダー14は、相対状態量や、立体物の外形を立体物情報としてECU10に送信する。
カメラ15は、自車両OVの外部状況を撮像する。カメラ15は、例えば、自車両OVのフロントガラスの裏側に設けられている。カメラ15は、単眼カメラであってもよく、ステレオカメラであってもよい。ステレオカメラは、例えば、両眼視差を再現するように配置された二つの撮像部を有している。ステレオカメラの撮像情報には、奥行き方向の情報も含まれている。カメラ15は、撮像情報をECU10に送信する。ECU10においてこの撮像情報が解析されると、立体物の相対状態量や立体物の外形に関する立体物情報を得ることができる。カメラ15において撮像情報が解析され、立体物情報がECU10に送信されてもよい。
ECU10は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、CAN(Controller Area Network)通信回路等を有する制御ユニットである。ECU10では、例えば、ROMに記憶されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより各種の機能を実現する。ECU10は、複数の電子制御ユニットから構成されていてもよい。
2.ECU10の構成
次に、ECU10の機能的構成について説明する。ECU10は、自車両OVの周囲に存在する物体を認識する機能を有している。この機能は、ECU10が備えるレーン形状・位置推定部16、および立体物統合部17により実現される。レーン形状・位置推定部16、および立体物統合部17は、ECU10内にハードウェアとして存在するものではなく、ROMに記憶されたプログラムがCPUで実行されたときにソフトウェア的に実現される。
レーン形状・位置推定部16は、自車両OVの周囲のレーンの形状および位置を推定する推定処理を行う。処理負荷を軽減するため、この推定処理では、自車両OVが走行するレーン(以下、「自レーン」ともいう。)の形状および位置に限った推定が行われてもよい。図2は、レーン形状・位置推定部16による推定処理の一例を説明する図である。図2に示す推定処理では、先ず、GPS受信機11からの現在位置情報に基づいて、自車両OVの周囲のレーン区画線の位置情報が地図データベース12から読み出され、この位置情報が平面直角座標系に変換される(Step 1)。続いて、この平面直角座標系が、自車両OVの基準点を原点とする基準座標系に変換される(Step 2)。この基準座標系のY軸は自車両OVの進行方向(車長方向)に一致し、X軸は自車両OVの横方向(車幅方向)に一致している。なお、本発明に適用可能なレーンの形状および位置の推定手法に特に限定はなく、公知の手法を適用することができる。
立体物統合部17は、ミリ波レーダー13、ライダー14およびカメラ15で別々に検出した立体物の統合処理を行う。ミリ波レーダー13およびライダー14から立体物統合部17へは、自車両OVの周囲に存在する複数の立体物に関する立体物情報が連続的に送信されてくる。立体物統合部17には、カメラ15からの撮像情報の解析に基づいて作成された立体物情報も連続的に送信されてくる。統合処理では、これらの立体物情報に基づいて、ある自律認識センサ(例えば、ミリ波レーダー13)で検出された立体物が、それとは異なる自律認識センサ(例えば、ライダー14)で検出された立体物と同一物であるか否かが判定される。なお、同一種類の自律認識センサ(例えば、3台のミリ波レーダー13)が自車両OVの異なる位置(例えば、自車両OVの前方左、前方中央および前方右)に搭載されている場合、判定処理では、これらの自律認識センサでそれぞれ検出された立体物が、同一物であるか否かが判定される。
立体物統合部17は、統合処理を実現するための機能として、レーン傾き推定部17aと、グルーピングエリア設定部17bと、同一物判定部17cと、を備えている。レーン傾き推定部17aは、自律認識センサで検出した立体物の検出位置でのレーンの傾き角度θを推定する推定処理を行う。グルーピングエリア設定部17bは、同一物判定部17cでの判定処理において使用するグルーピングエリアGAを設定する設定処理を行う。同一物判定部17cは、グルーピングエリアGAに基づいて、ある自律認識センサで検出された立体物が、それとは異なる自律認識センサで検出された立体物と同一物であるか否かを判定する判定処理を行う。
図3は、レーン傾き推定部17aによる推定処理の一例を説明する図である。なお、説明の便宜上、図3の基準座標系には、自レーン上の先行車両LV1、自レーンに隣接するレーン(以下、「隣接レーン」ともいう。)上の先行車両LV2、および、自レーンの左方に位置する擁壁RW1が、立体物として描かれている。図3において、先行車両LV1の立体物情報は、「Sensor 1」によって検出されている。先行車両LV1および擁壁RW1の立体物情報は、「Sensor 2」によって検出されている。先行車両LV2の立体物情報は、「Sensor 3」によって検出されている。「Sensor 1」、「Sensor 2」および「Sensor 3」は、自律認識センサである。
レーン傾き推定部17aによる推定処理では、先ず、基準座標系における立体物の各検出位置に最も近いレーン区画線(以下、「最寄りの区画線」ともいう。)が特定される。例えば、「Sensor 1」からの立体物情報に基づく検出位置(S1,1)の最寄りの区画線は、自レーンと隣接レーンを区画する線(境界線BL)である。この境界線BLは、「Sensor 2」からの立体物情報に基づく検出位置(S2,1)の最寄りの区画線でもあり、また、「Sensor 3」からの立体物情報に基づく検出位置(S3,1)の最寄りの区画線でもある。「Sensor 2」からの立体物情報に基づく検出位置(S2,2)の最寄りの区画線は、自レーンと路側帯を区画する線(左側線LL)である。なお、検出位置(Sx,y)のxは自律認識センサの番号(x=1〜3)を表し、yはその自律認識センサが検出した立体物の通し番号を表すものとする。
レーン傾き推定部17aによる推定処理では、続いて、最短投影位置が特定される。「最短投影位置」とは、立体物の検出位置を最寄りの区画線上に投影したときに、立体物の検出位置からの距離が最も短くなる当該最寄りの区画線上の位置を指す。例えば、検出位置(S1,1)の最短投影位置は、境界線BL上の位置NP(S1,1)となる。検出位置(S2,1)のおよび検出位置(S3,1)の最短投影位置も境界線BL上である。検出位置(S2,1)の最短投影位置は位置NP(S2,1)となり、検出位置(S3,1)の最短投影位置は位置NP(S3,1)となる。検出位置(S2,2)の最短投影位置は、左側線LL上の位置NP(S2,2)となる。
レーン傾き推定部17aによる推定処理では、続いて、最短投影位置における接線と、自レーンの中央線CLとのなす角度θが算出される。中央線CLは、レーン形状・位置推定部16による推定処理に際して読み出されたレーン区画線の中央を通る線として特定されるものである。境界線BLの位置NP(S1,1)における接線TL(S1,1)と、中央線CLとのなす角度θ(S1,1)が、検出位置(S1,1)でのレーンの傾き角度θである。他の検出位置でのレーンの傾き角度θは、傾き角度θ(S1,1)と同様にして算出される。なお、処理負荷を軽減するため、この推定処理では、代表的な検出位置(例えば、検出位置(S1,1))でのレーンの傾き角度θrに限って算出し、他の検出位置でのレーンの傾き角度θの算出を省略してもよい。
図4は、グルーピングエリア設定部17bによるグルーピングエリアGAの設定処理の一例を説明する図である。なお、説明の便宜上、図4の基準座標系には、立体物の各検出位置でのレーンの傾き角度θの内、検出位置(S1,1)でのレーンの傾き角度θ(S1,1)のみを示す。グルーピングエリアGA(S1,1)は、検出位置(S1,1)を略中心とする所定面積の領域である。
図4には、横方向の幅がW1+W1で、長手方向の幅がL1+L2の矩形領域RAが描かれている。矩形領域RAの長手方向は、自車両OVの進行方向と一致している。グルーピングエリアGAの設定処理では、このような矩形領域RAが、検出位置(S1,1)を回転中心として傾き角度θ(S1,1)だけ回転させられる。矩形領域RAを角度θ(S1,1)だけ回転させた後の領域が、検出位置(S1,1)に対応するグルーピングエリアGA(S1,1)である。グルーピングエリアGA(S1,1)と同様、グルーピングエリアGAの設定処理では、他の検出位置に対応するグルーピングエリアGAも、それぞれの検出位置でのレーンの傾き角度θだけ矩形領域RAを回転させられる。なお、代表的な傾き角度θrのみを算出した場合、他の検出位置に対応するグルーピングエリアGAは、他の検出位置をそれぞれ回転中心として当該傾き角度θrだけ回転させられる。
なお、矩形領域RAの横方向と進行方向には、自律認識センサの特性に応じて予め設定した誤差分の幅が追加されていてもよい。また、矩形領域RAは一例に過ぎず、グルーピングエリアGAの設定処理において、矩形領域RAの代わりに、楕円形領域、台形領域や多角形領域が設定されてもよい。
図5は、同一物判定部17cによる判定処理の一例を説明する図である。図5に示すGA(S1,1)、GA(S2,1)、GA(S2,2)およびGA(S3,1)は、立体物の各検出位置に対応するグルーピングエリアGAである。同一物判定部17cによる判定処理では、異なる2つのグルーピングエリアGAの間に重複部が存在する場合、異なる2つの自律認識センサで検出された立体物が同一物であると判定する。図5では、グルーピングエリアGA(S1,1)とグルーピングエリアGA(S2,1)に重複部が存在する。そのため、同一物判定部17cによる判定処理では、検出位置(S1,1)の立体物が、検出位置(S2,1)の立体物と同一物であると判定される。
これに対し、グルーピングエリアGA(S2,2)には、他のグルーピングエリアGAとの間に重複部が存在しない。そのため、同一物判定部17cによる判定処理では、検出位置(S2,2)の立体物と同一物であると判定される立体物がないと判定される。また、グルーピングエリアGA(S3,1)には、他のグルーピングエリアGAとの間に重複部が存在しない。そのため、同一物判定部17cによる判定処理では、検出位置(S3,1)の立体物と同一物であると判定される立体物がないと判定される。
立体物統合部17による統合処理では、同一物判定部17cによる判定処理において同一物であると判定された立体物の相対状態量が統合される。相対状態量の統合手法に特に限定はなく、公知の手法を適用することができる。例えば、判定処理において同一物であると判定された立体物の相対状態量の平均値を求める手法でもよいし、自律認識センサの特性に応じた重み付けを行う手法でもよい。カルマンフィルタ等を用いた確率的推定手法を統合処理に適用してもよい。
3.実施の形態1に係る物体認識装置による効果
図6乃至図8を参照して、実施の形態1に係る物体認識装置による効果について説明する。図6は、レーンの形状および位置の推定処理の後、レーン傾き推定部17aによる推定処理が行われることなくグルーピングエリアGAが設定される場合の問題点を説明する図である。レーン傾き推定部17aによる推定処理が行われない場合は、図4で説明した矩形領域RAが立体物の各検出位置にそのまま設定されることになる。そのため、グルーピングエリアGAの長手方向が、自車両OVの進行方向と一致することになる。図6に示すグルーピングエリアGA’(S1,1)は、検出位置(S1,1)を略中心とする矩形領域RAに相当する。グルーピングエリアGA’(S3,1)は、検出位置(S3,1)を略中心とする矩形領域RAに相当する。グルーピングエリアGA’(S1,1)およびグルーピングエリアGA’(S3,1)の長手方向は共に、自車両OVの進行方向と一致している。
また、図6に示すように、グルーピングエリアGA’(S1,1)とグルーピングエリアGA’(S3,1)の間には重複部が存在している。そのため、同一物判定部17cによる判定処理では、検出位置(S1,1)の立体物が、検出位置(S3,1)の立体物と同一物であると判定されてしまう。検出位置(S1,1)の立体物(先行車両LV1)と検出位置(S3,1)の立体物(先行車両LV2)は実際には同一物でない。つまり、同一物判定部17cによる判定処理において、判定に誤りが生じている。
この点、実施の形態1に係る物体認識装置によれば、レーン傾き推定部17aによる推定処理により、傾き角度θが推定される(図3参照)。また、グルーピングエリアGAの設定処理により、立体物の各検出位置に設定される矩形領域RAが、傾き角度θに応じて回転させられる(図4,図5参照)。従って、図6で説明した誤判定の発生を防ぐことが可能になる。
図7は、レーン形状・位置推定部16による推定処理の後に、自レーンの推定位置と推定形状を基準としてグルーピングエリアGAが設定された場合の問題点を説明する図である。自レーンの推定位置と推定形状を基準としてグルーピングエリアGAが設定される場合は、立体物の各検出位置でのレーンの方向を考慮することができる。しかし、図7に一点鎖線で示すレーンの推定位置の、同図に破線で示すレーンの実際の位置からの誤差がある場合、グルーピングエリアGAの位置が、立体物の検出位置から離れることになる。
図7に示すグルーピングエリアGA’’(S1,1)は、検出位置(S1,1)での自レーンの推定形状を基準として設定された領域である。図7に示すように、検出位置(S1,1)と、グルーピングエリアGA’’(S1,1)の中心位置との間には隔たりがある。そのため、自レーンの推定位置の実際の位置からの誤差が大きい場合には、この隔たりが大きくなるので、グルーピングエリアGA’’(S1,1)から検出位置(S1,1)が外れてしまう。そして、グルーピングエリアGA’’(S1,1)から検出位置(S1,1)が外れた場合には、検出位置(S1,1)の立体物が、自レーン外の立体物として処理されてしまう。
この点、実施の形態1に係る物体認識装置によれば、立体物の検出位置を回転中心として傾き角度θだけ矩形領域RAを回転させることで、この検出位置に対応するグルーピングエリアGAが設定される。従って、自レーンの推定位置の実際の位置からの誤差が大きい場合であっても、検出位置を略中心としてグルーピングエリアGAが設定される。具体的には、図7に破線で示すグルーピングエリアGA(S1,1)を、検出位置(S1,1)を略中心として設定することができる。よって、検出位置(S1,1)と、グルーピングエリアGA(S1,1)の中心位置との間に隔たりが生じるのを防ぐことができる。
図8は、実施の形態1に係る物体認識装置による第3の効果を説明する図である。説明の便宜上、図8の基準座標系には、先行車両LV1の前方を走行する先行車両LV3が立体物として描かれている。図8において、先行車両LV1および先行車両LV3の立体物情報は、「Sensor 1」によって検出されている。先行車両LV1および擁壁RW1の立体物情報は、「Sensor 2」によって検出されている。
図8に示す「Sensor 1」および「Sensor 2」は、ミリ波レーダー13またはライダー14である。ミリ波レーダー13またはライダー14によれば、ミリ波や光の回折等により、先行車両LV3をカメラ15で直接的に捉えることができない場合でも、先行車両LV3の立体物情報を得ることができる。
実施の形態1に係る物体認識装置では、レーン形状・位置推定部16による推定処理が地図データベース12に基づいて行われる。そのため、ライダー14からの立体物情報やカメラ15の撮像情報に基づいた推定に比べて、自車両OVの周囲のレーンの形状および位置の推定の精度を高めることができる。自車両OVの周囲のレーンの形状および位置の推定の精度が高くなれば、同一物判定部17cによる判定処理において、異なるレーンを走行する2つの立体物が同一物と誤判定されるのを抑えることが可能になる。
また、実施の形態1に係る物体認識装置では、レーン形状・位置推定部16での推定処理の後、ミリ波レーダー13またはライダー14からの立体物情報が一旦得られれば、レーン傾き推定部17aおよびグルーピングエリア設定部17bでの処理によって、グルーピングエリアGAの設定が行われる。具体的に、レーン傾き推定部17aによる推定処理が行われることで、図8に示す境界線BL上の位置NP(S1,2)が検出位置(S1,2)の最短投影位置として特定される。また、境界線BLの位置NP(S1,2)における接線TL(S1,2)と、中央線CLとのなす角度θ(S1,2)が、検出位置(S1,2)でのレーンの傾き角度θとして算出される。そして、グルーピングエリア設定部17bによるグルーピングエリアGAの設定処理が行われることで、検出位置(S1,2)を略中心とするグルーピングエリアGA(S1,2)が設定される。従って、検出位置(S1,2)の立体物(先行車両LV3)の統合処理が可能になる。
なお、上記実施の形態1においては、異なる2種類の自律認識センサ、または、同一種類の2つの自律認識センサが、上記第1の発明の「第1検出装置」および「第2検出装置」に相当している。また、自律認識センサからECU10に送信される情報(より具体的には、ミリ波レーダー13またはライダー14からの立体物情報、または、カメラ15からの撮像情報)が、上記第1の発明の「第1情報」または「第2情報」に相当している。また、立体物統合部17が上記第1の発明の「物体統合部」に相当している。また、グルーピングエリア設定部17bが、上記第1の発明の「判定領域設定部」に相当している。また、矩形領域RA(自律認識センサの特性に応じて誤差分の幅を追加した場合は、追加後の矩形領域RA)が、上記第1の発明の「第1所定範囲」および「第2所定範囲」に相当している。また、グルーピングエリアGAが、上記第1の発明の「判定領域」に相当している。
実施の形態2.
次に、図9乃至図10を参照して本発明の実施の形態2について説明する。
1.物体認識装置の構成
図9は、本発明の実施の形態2に係る物体認識装置の構成を示すブロック図である。図9に示す物体認識装置2の構成は、図1に示した物体認識装置1の構成と基本的に共通する。共通構成の説明については省略する。本明細書においては、図1に示した物体認識装置1が搭載された車両と同様に、図9に示す物体認識装置2が搭載された車両を「自車両OV」ともいう。
図1に示した物体認識装置1と異なり、図9に示す物体認識装置2は、路側物判定部18を備えている。路側物判定部18は、ECU20が自車両OVの周囲に存在する物体を認識する機能を実現するための構成である。路側物判定部18は、ECU20内にハードウェアとして存在するものではなく、ROMに記憶されたプログラムがCPUで実行されたときにソフトウェア的に実現される。
路側物判定部18は、自レーンに隣接する路側帯(以下、「隣接路側帯」ともいう。)に路側物が存在するか否かを判定する判定処理を行う。路側物判定部18による判定処理では、先ず、GPS受信機11からの現在位置情報に基づいて、自車両OVの周囲の道路構造物の位置情報が地図データベース12から読み出される。続いて、道路構造物の位置情報に基づいて、隣接路側帯に路側物が存在するか否かを判定する。路側物の存在の判定範囲は、自車両OVよりも前方の所定距離に限定する。但し、この所定距離は、自車両OVの走行速度や自律認識センサの特性に応じて延長または短縮してもよい。
隣接路側帯に路側物が存在すると判定された場合、グルーピングエリア設定部17bは、矩形領域RAの面積を狭くする処理を行ってグルーピングエリアGAを設定する。図10は、グルーピングエリア設定部17bによるグルーピングエリアGAの設定処理の一例を説明する図である。なお、説明の便宜上、図10の基準座標系には、検出位置(S1,1)に対応するグルーピングエリアGA(S1,1)のみを示す。
図10に示す例では、自レーンの左側に路側物(擁壁RW1)があると判定されている。そのため、グルーピングエリアGAの設定処理では、横方向の幅がW1+W2で、長手方向の幅がL1+L2の矩形領域RAmが設定される。図4に示した矩形領域RAと比較すると分かるように、矩形領域RAmの左方向の幅W2は、右方向の幅W1よりも狭くなっている。この理由は、路側物があると判定された方向(つまり、左方向)の幅を狭くしたためである。設定処理では、このような矩形領域RAmが、検出位置(S1,1)を回転中心として傾き角度θ(S1,1)だけ回転させられる。矩形領域RAmを角度θ(S1,1)だけ回転させた後の領域が、検出位置(S1,1)に対応するグルーピングエリアGA(S1,1)である。グルーピングエリアGAの設定処理では、他の検出位置に対応するグルーピングエリアGAが、何れも矩形領域RAmに基づいて設定される。
幅W2は、例えば、自レーンの推定幅の半分と所定幅の内の小さい方とする。自レーンの推定幅は、レーン形状・位置推定部16による推定処理により得られる自レーンの推定形状に基づいて算出される。路側物の位置から当該路側物の位置に最も近いレーン区画線までの距離と、自レーンの推定幅の和の半分と上記所定幅の内の小さい方を幅W2とすることもできる。
3.実施の形態2に係る物体認識装置による効果
以上説明した実施の形態2に係る物体認識装置によれば、地図データベース12から読み出した道路構造物の位置情報に基づいて、隣接路側帯に路側物が存在するか否かが判定される。そして、隣接路側帯に路側物が存在すると判定された場合は、その路側物の存在方向における矩形領域RAの面積が狭くされる。従って、同一物判定部17cによる判定処理での誤判定の発生を防いで、立体物統合部17による統合処理の精度を高めることができる。
1,2 物体認識装置
11 GPS受信機
12 地図データベース
13 ミリ波レーダー
14 ライダー
15 カメラ
16 レーン形状・位置推定部
17 立体物統合部
17a レーン傾き推定部
17b グルーピングエリア設定部
17c 同一物判定部
18 路側物判定部
GA グルーピングエリア
LV1,LV2,LV3 先行車両
OV 自車両
RA,RAm 矩形領域
RW1 擁壁
TL 接線
θ 傾き角度

Claims (2)

  1. 自車両の周囲の第1物体に関する情報を第1情報として検出する第1検出装置と、
    前記自車両の周囲の第2物体に関する情報を第2情報として検出する第2検出装置と、
    前記第1情報および前記第2情報に基づいて、前記第1物体と前記第2物体が同一物体であるか否かの判定処理を行う物体統合部と、
    を備える物体認識装置であって、
    レーンの形状および位置に関するレーン情報を含む地図データベースを更に備え、
    前記物体統合部が、前記自車両の進行方向に対するレーンの傾き角度の推定処理を行うレーン傾き角度推定部と、前記判定処理に使用する判定領域を設定する設定処理を行う判定領域設定部と、を備え、
    前記推定処理が、
    前記第1情報から得られる前記第1物体の検出位置と、前記レーン情報と、に基づいて、前記第1物体の検出位置での前記進行方向に対するレーンの第1傾き角度を推定する処理、および、
    前記第2情報から得られる前記第2物体の検出位置と、前記レーン情報と、に基づいて、前記第2物体の検出位置での前記進行方向に対するレーンの第2傾き角度を推定する処理の少なくとも一方の処理であり、
    前記設定処理が、
    前記第1傾き角度および前記第2傾き角度のうちの一方が推定された場合、前記第1物体の検出位置を含む第1所定範囲、および、前記第2物体の検出位置を含む第2所定範囲を、前記推定された第1傾き角度および前記第2傾き角度のうちの一方と同じ角度だけそれぞれ回転させて、前記判定領域として設定し、
    前記第1傾き角度および前記第2傾き角度の両方が推定された場合、前記推定された第1所定範囲を前記第1傾き角度と同じ角度だけ回転させ、且つ、前記推定された第2所定範囲を前記第2傾き角度と同じ角度だけ回転させて、前記判定領域として設定する処理であることを特徴とする物体認識装置。
  2. 前記地図データベースには、路側物に関する路側物情報が含まれ、
    前記自車両の位置および前記路側物情報に基づいて、前記自車両が走行するレーンに隣接する隣接路側帯に路側物が存在するか否かを判定する路側物判定部を更に備え、
    前記判定領域設定部が、前記隣接路側帯に路側物が存在すると判定された場合、前記設定処理において前記第1所定範囲および前記第2所定範囲を回転させる前に、前記第1所定範囲および前記第2所定範囲の前記隣接路側帯側の幅を狭くすることを特徴とする請求項1に記載の物体認識装置。
JP2017225972A 2017-11-24 2017-11-24 物体認識装置 Active JP6930394B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017225972A JP6930394B2 (ja) 2017-11-24 2017-11-24 物体認識装置
US16/139,237 US10302754B1 (en) 2017-11-24 2018-09-24 Object recognition device
CN201811307201.0A CN109839636B (zh) 2017-11-24 2018-11-05 物体识别装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017225972A JP6930394B2 (ja) 2017-11-24 2017-11-24 物体認識装置

Publications (2)

Publication Number Publication Date
JP2019096132A JP2019096132A (ja) 2019-06-20
JP6930394B2 true JP6930394B2 (ja) 2021-09-01

Family

ID=66633007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017225972A Active JP6930394B2 (ja) 2017-11-24 2017-11-24 物体認識装置

Country Status (3)

Country Link
US (1) US10302754B1 (ja)
JP (1) JP6930394B2 (ja)
CN (1) CN109839636B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2590115B (en) * 2019-09-13 2023-12-06 Motional Ad Llc Extended object tracking using radar
CN111274974B (zh) * 2020-01-21 2023-09-01 阿波罗智能技术(北京)有限公司 定位元素检测方法、装置、设备和介质
JP7115502B2 (ja) 2020-03-23 2022-08-09 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
JP7359735B2 (ja) 2020-04-06 2023-10-11 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
JP7318600B2 (ja) 2020-07-06 2023-08-01 トヨタ自動車株式会社 車両及び他車両の認識方法
JPWO2022102371A1 (ja) * 2020-11-16 2022-05-19

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3125550B2 (ja) * 1993-12-24 2001-01-22 日産自動車株式会社 移動車の前方認識装置ならびに車輌用走行制御装置
JP3574235B2 (ja) * 1995-08-31 2004-10-06 本田技研工業株式会社 車両の操舵力補正装置
JP2001331787A (ja) * 2000-05-19 2001-11-30 Toyota Central Res & Dev Lab Inc 道路形状推定装置
JP3788312B2 (ja) * 2001-11-01 2006-06-21 日産自動車株式会社 先行車検出装置
US8106755B1 (en) * 2008-02-14 2012-01-31 Epsilon Lambda Electronics Corp. Triple-function vehicle safety sensor system
WO2010086895A1 (ja) * 2009-01-29 2010-08-05 トヨタ自動車株式会社 物体認識装置および物体認識方法
JP4858574B2 (ja) * 2009-05-19 2012-01-18 トヨタ自動車株式会社 物体検出装置
JP2011216011A (ja) * 2010-04-01 2011-10-27 Toyota Motor Corp 物体検出装置
JP5267592B2 (ja) * 2010-04-09 2013-08-21 株式会社デンソー 物体認識装置
US8781644B2 (en) * 2011-03-21 2014-07-15 Denso Corporation Method and apparatus for recognizing shape of road for vehicles
JP5402968B2 (ja) * 2011-03-21 2014-01-29 株式会社デンソー 車両用道路形状認識方法及び装置、記録媒体
KR101181505B1 (ko) * 2012-02-28 2012-09-10 한국과학기술원 다양하고 정교한 정보전달을 위한 입력 지점과 출력 지점이 분리된 햅틱 인터페이스
JP5812064B2 (ja) 2012-11-22 2015-11-11 株式会社デンソー 物標検出装置
JP6108974B2 (ja) * 2013-06-14 2017-04-05 日立オートモティブシステムズ株式会社 車両制御システム
US9145139B2 (en) * 2013-06-24 2015-09-29 Google Inc. Use of environmental information to aid image processing for autonomous vehicles
CN106463064B (zh) * 2014-06-19 2020-06-26 日立汽车系统株式会社 物体识别装置和使用该物体识别装置的车辆行驶控制装置
US9733348B2 (en) * 2014-07-03 2017-08-15 GM Global Technology Operations LLC Vehicle radar with beam adjustment
JP6363517B2 (ja) * 2015-01-21 2018-07-25 株式会社デンソー 車両の走行制御装置
JP6520203B2 (ja) * 2015-02-25 2019-05-29 株式会社デンソー 搭載角度誤差検出方法および装置、車載レーダ装置
DE102015213694A1 (de) * 2015-07-21 2017-01-26 Robert Bosch Gmbh Sensorsystem zum Erkennen überstehender oder freiliegender Objekte in der Umgebung eines Fahrzeugs
US9767687B2 (en) * 2015-09-11 2017-09-19 Sony Corporation System and method for driving assistance along a path
JP6631226B2 (ja) * 2015-12-15 2020-01-15 株式会社デンソー 自車線情報推定装置
KR101807088B1 (ko) * 2015-12-15 2017-12-08 현대오트론 주식회사 차량 전방 탐지 장치 및 방법
JP6323473B2 (ja) * 2016-02-25 2018-05-16 トヨタ自動車株式会社 走行制御装置
US10373002B2 (en) * 2017-03-31 2019-08-06 Here Global B.V. Method, apparatus, and system for a parametric representation of lane lines

Also Published As

Publication number Publication date
US10302754B1 (en) 2019-05-28
CN109839636B (zh) 2023-04-07
US20190162837A1 (en) 2019-05-30
JP2019096132A (ja) 2019-06-20
CN109839636A (zh) 2019-06-04

Similar Documents

Publication Publication Date Title
JP6930394B2 (ja) 物体認識装置
US11313976B2 (en) Host vehicle position estimation device
JP6616257B2 (ja) 位置推定装置
US9102329B2 (en) Tracking control apparatus
US10325163B2 (en) Vehicle vision
JP2004534947A (ja) 路上車用の物体の位置探知システム
US11351997B2 (en) Collision prediction apparatus and collision prediction method
JP6094337B2 (ja) 運転制御装置
JP6038422B1 (ja) 車両判定装置、車両判定方法及び車両判定プログラム
JP2017111054A (ja) 物体検出装置
US10353398B2 (en) Moving object detection device, program, and recording medium
US20230008630A1 (en) Radar device
CN114728657A (zh) 车辆控制方法及车辆控制装置
JP6740470B2 (ja) 測定装置、測定方法およびプログラム
JP7366695B2 (ja) 物体認識方法及び物体認識装置
JP7020353B2 (ja) 物体検出装置
JP6946972B2 (ja) 車両制御装置
JP7149060B2 (ja) 移動物体認識装置
JP2023118759A (ja) 測定装置、測定方法およびプログラム
JP6323222B2 (ja) 車両用測位装置
JP2023068009A (ja) 地図情報作成方法
WO2018212290A1 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP7401273B2 (ja) 移動体の制御装置及び方法
JP2019027995A (ja) 情報処理装置、プログラム、及び車両位置の推定方法
US20230008853A1 (en) Radar device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210726

R151 Written notification of patent or utility model registration

Ref document number: 6930394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151