JP7156195B2 - 物体認識装置 - Google Patents

物体認識装置 Download PDF

Info

Publication number
JP7156195B2
JP7156195B2 JP2019131937A JP2019131937A JP7156195B2 JP 7156195 B2 JP7156195 B2 JP 7156195B2 JP 2019131937 A JP2019131937 A JP 2019131937A JP 2019131937 A JP2019131937 A JP 2019131937A JP 7156195 B2 JP7156195 B2 JP 7156195B2
Authority
JP
Japan
Prior art keywords
object recognition
tolerance
vehicle
information
likelihood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019131937A
Other languages
English (en)
Other versions
JP2021018465A (ja
Inventor
寛 阪本
亮祐 深谷
秀往 松井
潤也 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019131937A priority Critical patent/JP7156195B2/ja
Priority to US16/926,817 priority patent/US11423661B2/en
Priority to CN202010684954.4A priority patent/CN112241004B/zh
Publication of JP2021018465A publication Critical patent/JP2021018465A/ja
Application granted granted Critical
Publication of JP7156195B2 publication Critical patent/JP7156195B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両の周辺の物体を認識する物体認識装置に関する。
特許文献1には、物標のオプティカルフローに基づいて物標が横断物標であることを判定する物標検出装置に関する技術が開示されている。この技術の物標検出装置は、ミリ波レーダー波を用いて物標を検出し、当該物標が車両の前方を横断する歩行者の横断物標であることの確からしさを表す総合尤度を算出する。そして、総合尤度が予め設定された閾値以上であると判定された場合、検出した物標を歩行者の横断物標と判定する。
特開2018-147399号公報
物体検出においては、物体のクラスとともに、その確からしさの度合(信頼度)を表す尤度が検出される。ここで、上記特許文献1の装置のように、検出された尤度と閾値との比較によって物体の検出の判定を行う構成では、尤度の閾値を低く設定することによって、高く設定する場合と比較して物体の未検出の可能性を減らすことができる。但し、尤度の閾値は安全性を考慮して低く設定すればよいものでもない。尤度の閾値を低く設定するほど物体の誤検出の可能性が高まるからである。物体の誤検出は、例えば、本来不要であった減速或いは回避動作を行わせることに繋がり、車両の円滑な走行が妨げられるおそれがある。このため、物体を効率的に検出するためには、物体の未検出に対するリスクをどこまで許容できるかを判断した上で、尤度の閾値を設定することが求められる。
ここで、物体検出において未検出が生じた際のリスクは、その物体のクラスによって異なる。例えば、歩行者と静止物とを比較すると、未検出に対するリスクは歩行者の方が高いといえる。上記特許文献1の技術では、物体を検出する際に、物体のクラス別のリスクに関する情報を考慮していない。このため、上記特許文献1の技術は、物体を効率よく検出することに対して改善の余地が残されている。
本発明は、上述のような課題に鑑みてなされたもので、物体のクラスに応じた効率的な物体検出を行うことができる物体認識装置を提供することを目的とする。
上記の課題を解決するため、第1又は第2の発明は、車両の周辺の物体を認識する物体認識装置に適用される。車両は、周辺情報を取得するセンサ装置を備える。物体認識装置は、周辺情報、及び物体の未検出に対する許容度合が当該物体のクラス別に表された許容度情報を格納する記憶装置と、車両の周辺の物体を認識する物体認識処理を行うプロセッサと、を備える。物体認識処理において、プロセッサは、周辺情報に基づいて、検出の対象となる物体及びそのクラスを識別し、物体の検出の確からしさを表すパラメータである尤度を算出し、許容度情報に基づいて、物体に対応する尤度の閾値を算出し、尤度と閾値との比較に基づいて、物体の識別結果を出力するかどうかを判定する。
特に、第1の発明は、更に以下の特徴を備える。
記憶装置には、車両の自己位置に関連付けられた複数の許容度情報が格納される。物体認識処理において、プロセッサは、自己位置を検出し、複数の許容度情報の中から、自己位置に対応する許容度情報を選択し、選択された許容度情報に基づいて、物体に対応する尤度の閾値を算出する。
また、第2の発明は、更に以下の特徴を備える。
記憶装置には、車両の周辺環境条件に関連付けられた複数の許容度情報が格納される。物体認識処理において、プロセッサは、車両の周辺の周辺環境条件を検出し、複数の許容度情報の中から、周辺環境条件に対応する許容度情報を選択し、選択された許容度情報に基づいて、物体に対応する尤度の閾値を算出する。
の発明は、第の発明において、更に以下の特徴を備える。
周辺環境条件は、車両の周辺の降雨量を示す降雨量条件である。物体認識処理において、プロセッサは、周辺環境条件として降雨量を検出する。
の発明は、第の発明において、更に以下の特徴を備える。
周辺環境条件は、車両の周辺の照度を示す照度条件である。物体認識処理において、プロセッサは、周辺環境条件として照度を検出する。
の発明は、第1乃至第の何れか1つの発明において、更に以下の特徴を備える。
センサ装置は、周辺環境の画像を撮像する撮像装置である。車両は、測距データを計測する測距センサを更に備える。プロセッサは、測距データをクラスタリングするクラスタリング処理と、クラスタリング処理により物標化された測距点群と、識別結果とを同一物体として認識するフュージョン処理と、を更に行うように構成される。
本発明に係る物体認識装置によれば、記憶装置には、物体の未検出に対する許容度合を当該物体のクラス別に表された許容度情報が格納されている。尤度の閾値は、この許容度情報に基づいて算出される。これにより、未検出に対する許容度合が閾値に反映されるので、物体のクラスに応じた効率的な物体検出を行うことが可能となる。
実施の形態1に係る物体認識装置の構成を説明するためのブロック図である。 許容度マップの一例を示す図である。 物体認識装置が物体認識処理を行うための機能を示すブロック図である。 測距センサ類の各種性能を比較した比較図である。 実施の形態1の物体認識処理の流れを示すフローチャートである。 実施の形態1の物体認識処理の流れを示すフローチャートである。 画像データの識別結果のイメージ画像を示す図である。 測距点群をクラスタリングによって物標化した結果のイメージ画像を示す図である。 フュージョン処理によって画像データの識別結果にクラスタリング物標を重ねた結果のイメージ画像を示す図である。 実施の形態2に係る物体認識装置の構成を説明するためのブロック図である。 実施の形態2に係る物体認識装置が許容度マップ選定処理を行うための機能を示すブロック図である。 実施の形態3に係る物体認識装置の構成を説明するためのブロック図である。 実施の形態3に係る物体認識装置が許容度マップ選定処理を行うための機能を示すブロック図である。 実施の形態4に係る物体認識装置の構成を説明するためのブロック図である。 実施の形態4に係る物体認識装置が許容度マップ選定処理を行うための機能を示すブロック図である。
以下、図面を参照して本発明の実施の形態について説明する。ただし、以下に示す実施の形態において各要素の個数、数量、量、範囲等の数に言及した場合、特に明示した場合や原理的に明らかにその数に特定される場合を除いて、その言及した数に、この発明が限定されるものではない。また、以下に示す実施の形態において説明する構造やステップ等は、特に明示した場合や明らかに原理的にそれに特定される場合を除いて、この発明に必ずしも必須のものではない。
1.実施の形態1.
1-1.物体認識装置の構成
図1は、実施の形態1に係る物体認識装置の構成を説明するためのブロック図である。物体認識装置10は、車両に搭載された自立認識センサ類20に接続されている。自立認識センサ類20は、車両の周辺情報を取得するセンサ装置として機能するものであり、カメラ22と、測距センサ24とを含んでいる。
カメラ22は、車両の周辺の画像を撮像する撮像装置である。カメラ22は、例えば車室内のフロントガラスの上方に車両前方に向けて設置される。
測距センサ24は、車両から対象物体までの距離を測定可能なセンサであり、例えばライダー(LIDAR:Laser Imaging Detection and Ranging)やレーダーを含んで構成されている。測距センサ24は、例えば車両のルーフ上に設置され、送信波を出力し、物体の測距点からの反射波を受け取る。反射波の受信状態から、物体までの距離と方向を検出する。
物体認識装置10は、車両の周辺の物体を認識する。物体認識装置10は、プロセッサ30と記憶装置40とを備えている。記憶装置40には各種情報が格納されている。プロセッサ30は、コンピュータプログラムを実行することにより各種処理を行う。コンピュータプログラムは、記憶装置40に格納されている。コンピュータ読み取り可能な記録媒体にコンピュータプログラムが記録されていてもよい。
プロセッサ30は、センサ情報42を取得する「センサ情報取得処理」を行う。プロセッサ30は、取得したセンサ情報42を記憶装置40に格納する。センサ情報42は、カメラ22による画像データと、測距センサ24による測距データを含んでいる。測距データには、測距点までの距離に関する情報、測距点の高さに関する情報、及び測距点の方向に関する情報が含まれる。
さらに、プロセッサ30は、車両の周辺の物体を認識する「物体認識処理」を行う。後述されるように、プロセッサ30は、センサ情報42及び許容度情報44に基づいて、物体認識処理を行う。
許容度情報44は、物体認識処理において物体が未検出となることへのリスクの高さをクラス別に表した情報である。言い換えると、許容度情報44は、物体認識処理において物体が未検出となることの許容度合を表した情報ともいえる。記憶装置40は、許容度情報44をクラス別の許容度合を、例えば数値化したマップとして格納している。このマップは、以下「許容度マップ」と呼ばれる。図2は、許容度マップの一例を示す図である。この図に示すように、許容度マップは、車両、歩行者、バイク、自転車といったクラス別に許容度が数値化されて記憶されている。許容度は、例えば、未検出に対する許容度合が低いほど、つまり未検出に対するリスクが高いほど小さな数値として表される。典型的には、歩行者、自転車又は自転車等、人の生命への影響が大きいクラスほど、許容度は小さく設定される。
なお、物体認識装置10は、例えば車両に搭載されたマイクロコンピュータによって実現される。但し、物体認識装置10は、必ずしも車両に搭載されていなくてもよい。物体認識処理に必要な情報を取得することができる範囲において、物体認識装置10の設置位置に限定はない。以下、物体認識処理について更に詳細に説明する。
1-2.物体認識処理
図3は、物体認識装置が物体認識処理を行うための機能を示すブロック図である。物体認識処理は、物体認識装置10が備える物体検出・識別部102、クラス別閾値算出部104、出力判定部106、クラスタリング演算部108、フュージョン物標演算部110、及び車両行動計画演算部112により実現される。これらの部102、104、106、108,110、112は、記憶装置40に記憶されたコンピュータプログラムがプロセッサ30で実行されたときにソフトウェア的に実現される。
物体検出・識別部102は、センサ情報取得処理によって取得した画像データを入力として、画像内の物体を検出する。また、物体検出・識別部102は、検出した物体の位置、大きさ、クラス及びその尤度を識別し、その識別結果を識別結果情報46として記憶装置40に格納する。ここでの尤度は、検出した物体に対するクラスの確からしさ(信頼度)の度合を表すパラメータである。物体検出・識別部102によって識別される物体、クラス及び尤度のそれそれは、以下、「識別物標」、「識別クラス」及び「識別尤度」と呼ばれる。典型的には、識別尤度は、0から1の間の数値で表すことができる。確からしさが低いほど識別尤度は「0」に近い値となり、確からしさが高いほど識別尤度は「1」に近い値となる。物体検出・識別部102において識別された識別結果情報46は、クラス別閾値算出部104及び出力判定部106にも出力される。
クラス別閾値算出部104は、識別結果情報46を入力として、尤度の閾値を算出する。クラス別閾値算出部104は、記憶装置40に記憶されている許容度情報44(許容度マップ)を用いて、識別結果情報46に含まれる識別クラスに対応する許容度を特定する。そして、クラス別閾値算出部104は、特定された許容度に基づいて、尤度閾値を算出する。典型的には、許容度が小さいほど尤度閾値が小さな値として算出される。算出された尤度閾値は、出力判定部106に出力される。
出力判定部106は、識別結果情報46に含まれる識別尤度と、クラス別閾値算出部104において算出された尤度閾値を入力として、識別結果を出力するか否かを判定する。出力判定部106は、識別尤度が尤度閾値よりも大きい場合、識別結果情報46をフュージョン物標演算部110に出力する。一方、出力判定部106は、識別尤度が尤度閾値以下である場合、記憶装置40に記憶されている識別結果情報46を破棄する。
クラスタリング演算部108は、センサ情報取得処理によって取得した測距データをクラスタリングする「クラスタリング処理」を行う。クラスタリング処理は、例えば車両を中心として車両の前後方向にX軸(縦軸)をとり左右方向にY軸(横軸)をとった基準座標系での各測距点の位置と高さとに基づいて行われる。また、前回のフレームでのクラスタリング処理の結果との連続性を保つように行われる。クラスタリング演算部108によるクラスタリング処理の具体的方法には特に限定はない。公知のクラスタリング方法を用いることができる。クラスタリング処理が施された測距点群は、基準座標系において例えば長方形の枠で囲まれて1つの物標とされる。基準座標系における物標の位置は検出された物体の自車両に対する相対位置を示し、物標の枠の範囲は検出された物体の平面上での範囲を示している。クラスタリング処理により導き出された物標は、以下「クラスタリング物標」と呼ばれる。演算されたクラスタリング物標は、フュージョン物標演算部110に出力される。なお、物標の枠の形状は長方形に限らず、例えば台形や楕円等、測距点群が示す形状に近似する形状を採用することとしてもよい。
フュージョン物標演算部110は、クラスタリング演算部108において演算されたクラスタリング物標と、出力判定部106において識別された識別物標とを同一物体として認識する「フュージョン処理」を行う。図4は、測距センサ類の各種性能を比較した比較図である。一般的に、ライダーやレーダーはカメラに比べて計測精度の点において優れているが、分解能の点において劣るという特徴がある。物体認識処理では、フュージョン処理によってこれらのセンサの特徴をうまく組み合わせることが重要となる。
フュージョン処理では、フュージョン物標演算部110は、クラスタリング演算部108から入力されるクラスタリング物標に対して、出力判定部106から入力される識別結果情報46を付与する。フュージョン処理が施された物標は、以下「フュージョン物標」と呼ばれる。演算されたフュージョン物標は、車両行動計画演算部112へ出力される。
車両行動計画演算部112は、フュージョン物標演算部110での演算結果の入力から、車両の行動計画を演算する。なお、ここでの車両の行動計画は、物体認識処理の結果を利用する運転支援制御又は自動運転制御のための行動計画である。
1-3.物体認識処理において実行される具体的処理
上記の各部102、104、106、108、110、112の機能により、物体認識装置10は、車両の周辺の物体を認識する物体認識処理を行う装置として機能する。図5及び図6は、実施の形態1の物体認識処理の流れを示すフローチャートである。物体認識装置10のプロセッサ30は、これらのフローチャートに示す処理をそれぞれ所定の周期で実行する。
まず、図5に示すフローチャートの処理について説明する。ステップS100では、カメラ22によって車両の周辺の画像データが取得される。また、ステップS102では、画像データ内の物体を検出し、検出した物体毎に、識別物標、識別クラス及び識別尤度を含む識別結果情報46を演算する。図7には、画像データの識別結果のイメージ画像が示されている。図7に示す例では、物体検出・識別部102によって識別された識別物標が長方形で囲まれて表されている。例えば、このイメージ画像において、車両の前方には、先行車両の識別物標T1や歩行者の識別物標H1等が表されている。
ステップS104では、許容度情報44を用いて、ステップS102において識別された物体の識別クラスに対応した尤度閾値を演算する。次のステップS106では、識別尤度が尤度閾値よりも大きいか否かが判定される。その結果、識別尤度が尤度閾値より大きい場合、処理はステップS108に進み、識別尤度が尤度閾値以下である場合、処理はステップS110に進む。
ステップS108では、ステップS102において識別された識別結果情報46をフュージョン物標演算部110に出力する。一方、ステップS108では、ステップS102において識別された識別結果情報46を棄却する。ステップS108又はステップS110の処理が完了すると、本ルーチンは終了される。
次に、図6に示すフローチャートの処理について説明する。物体認識装置10のプロセッサ30は、図6に示すフローチャートの処理を、図5に示すフローチャートの処理と並行して実行する。ステップS200では、レーダー又はライダー等の測距センサ24により、車両の周辺に存在する物体の測距データが取得される。ステップS202では、ステップS200で取得された測距データにクラスタリング処理が施され、測距点群がクラスタリング物標として物標化される。図8には、測距点群をクラスタリングによって物標化した結果のイメージ画像が示されている。図8に示す例では、クラスタリング処理によって物標化されたクラスタリング物標が長方形で囲まれて表されている。例えば、このイメージ画像において、車両の前方には、先行車両のクラスタリング物標T2や歩行者のクラスタリング物標H2等が表されている。
ステップS204では、クラスタリング演算部108において演算されたクラスタリング物標と、出力判定部106において識別された識別物標とが同一物体として認識される。図9には、フュージョン処理によって画像データの識別結果にクラスタリング物標を重ねた結果のイメージ画像が示されている。ステップS206では、同一物体として認識されたフュージョン物標が車両の行動計画の演算に利用される。
以上の手順で行われる物体認識処理によれば、物体のクラス別に許容度合を反映した尤度閾値が算出されるので、許容度合の低い未検出、つまりリスクの高い未検出を減らすことができる。これにより、その後のフュージョン処理における物標の未分類が減るので、車両の行動計画の安全性を高めることが可能となる。
また、実施の形態1の物体認識処理によれば、尤度閾値に許容度合を反映させる構成のため、物体検出・識別部102において演算される識別結果情報46に対しては許容度合を反映させる必要がない。これにより、物体検出・識別部102の構成を一般化(簡素化)することが可能となる。
1-4. 実施の形態1に係る物体認識装置の変形例
実施の形態1に係る物体認識装置10は、以下のように変形した構成を適用することができる。
物体検出・識別部102は、カメラ22により取得した画像データを入力として、画像内の物体を検出する構成に限らず、ライダーやレーダー等の測距センサ24により取得した測距データを入力として、画像内の物体を検出する構成でもよい。この変形例は、後述する他の実施の形態においても適用することができる。
2.実施の形態2.
次に、図を参照して実施の形態2の物体認識装置について説明する。
2-1.実施の形態2に係る物体認識装置の概要
実施の形態1に係る物体認識装置では、クラス別の許容度を記憶した許容度マップを用いてクラス別の尤度閾値を演算することとした。ここで、物体の未検出に対するリスクは、車両の自己位置によって異なる。例えば、車両が横断歩道付近に位置する場合、他の位置よりも歩行者が存在する可能性が高いと考えられる。このため、横断歩道付近では、例えば歩行者の許容度を低く設定して、歩行者についての尤度閾値を低く設定したほうが安全性の観点から好適といえる。一方において、例えば車両が高速道路上に位置する場合、一般動路上に位置する場合よりも歩行者が存在する可能性が低いと考えられる。このため、高速道路上では、例えば許容度を高く設定して歩行者についての尤度閾値を高く設定した方が車両の円滑な走行の観点から好適といえる。このように、物体認識処理を車両の自己位置によって最適化することを考えた場合、単一の許容度マップでは対処できない。
そこで、実施の形態2に係る物体認識装置10は、複数の許容度マップの中から、車両の自己位置に応じた最適な許容度マップを選定する「許容度マップ選定処理」を行う。実施の形態2に係る物体認識装置10は、地理的な領域区分に関連付けられた複数の許容度マップを保有している。ここでの領域区分は、例えば、高速道路、一般道、市街地、横断歩道付近等である。許容度マップ選定処理では、プロセッサ30は、車両の自己位置が属する領域区分を特定し、対応する許容度マップを選定する。そして、プロセッサ30は、選定された許容度マップを用いて、検出された物体に対応する尤度閾値を演算する。このような許容度マップ選定処理によれば、車両の自己位置に関する情報を反映させた尤度閾値を設定することができるので、物体の誤検出率を上げることなく物体の識別率を上げることが可能となる。
2-2.実施の形態2に係る物体認識装置の構成
図10は、実施の形態2に係る物体認識装置の構成を説明するためのブロック図である。実施の形態2に係る物体認識装置10は、一部の構成を除き、図1に示す実施の形態1の物体認識装置10と基本的に同一である。したがって、ここでは、図1に示す実施の形態1の物体認識装置10との差異点を中心に説明し、共通する要素についての詳細な説明は省略する。
実施の形態2に係る物体認識装置10には、GPS(Global Positioning System)受信機50及び地図データベース52が接続されている。GPS受信機50は、車両に搭載され、GPS衛星が発信する信号に基づいて車両の位置を示す位置情報を取得する。地図データベース52は、例えば車両に搭載されたHDDやSSD等のストレージ内に形成されている。地図データベース52が有する地図情報には、道路の位置情報、道路形状の情報、交差点及び分岐点の位置情報、道路のレーン情報等が含まれる。地図データベース52は物体認識装置の記憶装置40に格納されていてもよい。記憶装置40に格納されている許容度情報44には、車両の自己位置の領域区分毎に関連付けられた複数の許容度マップが含まれている。
図11は、実施の形態2に係る物体認識装置が許容度マップ選定処理を行うための機能を示すブロック図である。実施の形態2に係る許容度マップ選定処理は、車両自己位置演算部120及び許容度マップ選定部122により実現される。GPS受信機50によって取得された位置情報は、車両自己位置演算部120に入力される。車両自己位置演算部120は、入力された位置情報と、地図データベース52が有する地図情報に基づいて、車両の自己位置を推定する。推定された自己位置は、許容度マップ選定部122に出力される。
許容度マップ選定部122は、入力された自己位置の属する領域区分を取得する。そして、許容度マップ選定部122は、許容度情報44に含まれる複数の許容度マップの中から当該領域区分に対応付けられた許容度マップを選定する。物体認識処理では、許容度マップ選定部122において選定された許容度マップが尤度閾値を算出に利用される。
以上の手順で行われる許容度マップ選定処理によれば、物体認識処理において、車両の自己位置に対応して設定された許容度マップを用いることができる。これにより、物体の誤検出率を上げることなく物体の識別率を上げることが可能となる。
2-3.実施の形態2に係る物体認識装置の変形例
実施の形態2に係る物体認識装置10は、以下のように変形した構成を適用することができる。
車両自己位置演算部120において実行される自己位置の推定の方法に限定はない。すなわち、車両の自己位置を推定する方法は、既に多くの文献で公知になっている。車両自己位置演算部120における処理では、これらの公知な方法を適宜適用して車両の自己位置を推定することができる。
3.実施の形態3.
次に、図を参照して実施の形態3の物体認識装置について説明する。
3-1.実施の形態3に係る物体認識装置の概要
実施の形態2に係る物体認識装置では、車両の自己位置に基づいて許容度マップ選定処理を行うこととした。ここで、カメラ22から得られる画像データは、車両の周辺環境条件によっても変わってくる。例えば、降雨時には車両のウインドシールドに付着した雨滴によって視界が不鮮明となるため、歩行者等の物体の未検出が増加するおそれがある。このため、物体認識処理を車両周辺の天候(降雨量)によって最適化することを考えた場合、単一の許容度マップでは対処できない。
実施の形態3に係る物体認識装置10は、降雨量条件に関連付けられた複数の許容度マップを保有している。実施の形態3に係る物体認識装置10の許容度マップ選定処理では、車両の降雨量に基づいて最適な許容度マップを選定する。複数の許容度マップは、例えば、降雨量が所定の閾値以上である場合に選択される第一許容度マップと、降雨量が閾値未満である場合に選択される第二許容度マップと、を含む。例えば、第一許容度マップは、第二許容度マップよりも同一物体に対する許容度を低く設定することができる。許容度マップ選定処理では、プロセッサ30は、降雨量に応じて対応する許容度マップを選定する。これにより、降雨量に応じた未検出リスクの低減が可能となる。
3-2.実施の形態3に係る物体認識装置の構成
図12は、実施の形態3に係る物体認識装置の構成を説明するためのブロック図である。実施の形態3に係る物体認識装置10は、一部の構成を除き、図1に示す実施の形態1の物体認識装置10と基本的に同一である。したがって、ここでは、図1に示す実施の形態1の物体認識装置10との差異点を中心に説明し、共通する要素についての詳細な説明は省略する。
実施の形態3に係る物体認識装置10には、雨滴センサ60に接続されている。雨滴センサ60は、例えば車両のウインドシールドに搭載され、ウインドシールドに付着した雨滴の量に応じた信号を出力する。なお、雨滴センサ60の構成に限定はない。雨滴センサ60は、降雨量を検出する公知のセンサを用いることができる。また、記憶装置40に格納されている許容度情報44には、降雨量に関連付けられた複数の許容度マップが含まれている。
図13は、実施の形態3に係る物体認識装置が許容度マップ選定処理を行うための機能を示すブロック図である。実施の形態3に係る許容度マップ選定処理は、降雨量演算部130及び許容度マップ選定部132により実現される。雨滴センサの出力信号は、降雨量演算部130に入力される。降雨量演算部130は、入力された出力信号に基づいて、車両周辺の降雨量を推定する。推定された降雨量は、許容度マップ選定部132に出力される。
許容度マップ選定部132は、入力された降雨量が所定の閾値以上か否かを判定する。そして、許容度マップ選定部132は、入力された降雨量が所定の閾値以上である場合に、許容度情報44に含まれる複数の許容度マップの中から第一降雨量に対応付けられた許容度マップを選定する。一方、許容度マップ選定部122は、入力された降雨量が所定の閾値未満である場合に、許容度情報44に含まれる複数の許容度マップの中から第二降雨量に対応付けられた許容度マップを選定する。物体認識処理では、許容度マップ選定部122において選定された許容度マップが尤度閾値の算出に利用される。
以上の手順で行われる許容度マップ選定処理によれば、物体認識処理において、降雨量に対応した許容度マップが選択される。これにより、降雨による影響を物体検出に反映させることができるので、誤検出率を上げることなく物体の識別率を上げることが可能となる。
3-3.実施の形態3に係る物体認識装置の変形例
実施の形態3に係る物体認識装置10は、以下のように変形した構成を適用することができる。
複数の許容度マップは、異なる降雨量条件に関連付けられた少なくとも2以上の許容度マップによって構成されていれば、その内容に限定はない。例えば、許容度マップは、晴れ、小雨、大雨等、降雨量の異なる3以上の降雨量条件に関連付けられた複数の許容度マップとして構成されていてもよい。
4.実施の形態4.
次に、図を参照して実施の形態4の物体認識装置について説明する。
4-1.実施の形態4に係る物体認識装置の概要
実施の形態3に係る物体認識装置では、車両の周辺環境条件である降雨量条件に基づいて許容度マップ選定処理を行うこととした。ここで、カメラ22から得られる画像データは、降雨量だけでなく例えば周辺の明るさ等によっても変わってくる。例えば、トンネル内や夜間等の暗所環境下では、歩行者等の物体の未検出が増加するおそれがある。このため、物体認識処理を車両周辺の明るさに応じて最適化することを考えた場合、単一の許容度マップでは対処できない。
実施の形態4に係る物体認識装置10は、車両周辺の照度条件に関連付けられた複数の許容度マップを保有している。実施の形態4に係る物体認識装置10の許容度マップ選定処理では、車両の周辺の照度に基づいて最適な許容度マップを選定する。複数の許容度マップは、例えば、照度が所定の閾値以上である場合に選択される第一許容度マップと、照度が閾値量未満である場合に選択される第二許容度マップと、を含む。例えば、第一許容度マップは、第二許容度マップよりも同一物体に対する許容度を低く設定することができる。許容度マップ選定処理では、プロセッサ30は、検出された照度に対応する許容度マップを選定する。これにより、車両周辺の明暗状態に応じた未検出リスクの低減が可能となる。
4-2.実施の形態4に係る物体認識装置の構成
図14は、実施の形態4に係る物体認識装置の構成を説明するためのブロック図である。実施の形態4に係る物体認識装置10は、一部の構成を除き、図1に示す実施の形態1の物体認識装置10と基本的に同一である。したがって、ここでは、図1に示す実施の形態1の物体認識装置10との差異点を中心に説明し、共通する要素についての詳細な説明は省略する。
実施の形態4に係る物体認識装置10には、照度センサ70が接続されている。照度センサ70は、例えば車両のウインドシールドに搭載され、車両の周辺環境条件である照度条件に応じた信号を出力する。なお、照度センサ70の構造に限定はない。照度センサ70は、照度を検出する種々の公知の構造を採用することができる。また、記憶装置40に格納されている許容度情報44には、照度条件に関連付けられた複数の許容度マップが含まれている。
図15は、実施の形態4に係る物体認識装置が許容度マップ選定処理を行うための機能を示すブロック図である。実施の形態4に係る許容度マップ選定処理は、照度演算部140及び許容度マップ選定部142により実現される。照度センサ70の出力信号は、照度演算部140に入力される。照度演算部140は、入力された出力信号に基づいて、車両の周辺の照度を推定する。推定された照度は、許容度マップ選定部142に出力される。
許容度マップ選定部142は、入力された照度が所定の閾値以上か否かを判定する。そして、許容度マップ選定部142は、入力された照度が所定の閾値以上である場合に、許容度情報44に含まれる複数の許容度マップの中から第一許容度マップを選定する。一方、許容度マップ選定部142は、入力された照度が所定の閾値未満である場合に、許容度情報44に含まれる複数の許容度マップの中から第二許容度マップを選定する。物体認識処理では、許容度マップ選定部142において選定された許容度マップが尤度閾値の算出に利用される。
以上の手順で行われる許容度マップ選定処理によれば、物体認識処理において、車両周辺の照度に応じて選択された許容度マップを用いることができる。これにより、車両周囲の明るさによる影響を物体検出に反映させることができるので、物体の誤検出率を上げることなく物体の識別率を上げることが可能となる。
4-3.実施の形態4に係る物体認識装置の変形例
実施の形態4に係る物体認識装置10は、以下のように変形した構成を適用することができる。
複数の許容度マップは、異なる照度条件に関連付けられた少なくとも2以上の許容度マップによって構成されていれば、その内容に限定はない。例えば、許容度マップは、昼間、夕方、夜間等、3以上の異なる照度条件に関連付けられた複数の許容度マップとして構成されていてもよい。
10 物体認識装置
20 自立認識センサ類
22 カメラ
24 測距センサ
30 プロセッサ
40 記憶装置
42 センサ情報
44 許容度情報
46 識別結果情報
102 物体検出・識別部
104 クラス別閾値算出部
106 出力判定部
108 クラスタリング演算部
110 フュージョン物標演算部
112 車両行動計画演算部
120 車両自己位置演算部
122 許容度マップ選定部
130 降雨量演算部
132 許容度マップ選定部
140 照度演算部
142 許容度マップ選定部

Claims (5)

  1. 車両の周辺の物体を認識する物体認識装置であって、
    前記車両は、周辺情報を取得するセンサ装置を備え、
    前記物体認識装置は、
    前記周辺情報、及び物体の未検出に対する許容度合が当該物体のクラス別に表された許容度情報を格納する記憶装置と、
    前記車両の周辺の物体を認識する物体認識処理を行うプロセッサと、を備え、
    前記物体認識処理において、前記プロセッサは、
    前記周辺情報に基づいて、検出の対象となる物体及びそのクラスを識別し、
    前記物体の検出の確からしさを表すパラメータである尤度を算出し、
    前記許容度情報に基づいて、前記物体に対応する前記尤度の閾値を算出し、
    前記尤度と前記閾値との比較に基づいて、前記物体の識別結果を出力するかどうかを判定するように構成され、
    前記記憶装置には、前記車両の自己位置に関連付けられた複数の許容度情報が格納され、
    前記物体認識処理において、前記プロセッサは、
    前記自己位置を検出し、
    前記複数の許容度情報の中から、前記自己位置に対応する許容度情報を選択し、
    選択された前記許容度情報に基づいて、前記物体に対応する前記尤度の閾値を算出する
    ように構成される物体認識装置。
  2. 車両の周辺の物体を認識する物体認識装置であって、
    前記車両は、周辺情報を取得するセンサ装置を備え、
    前記物体認識装置は、
    前記周辺情報、及び物体の未検出に対する許容度合が当該物体のクラス別に表された許容度情報を格納する記憶装置と、
    前記車両の周辺の物体を認識する物体認識処理を行うプロセッサと、を備え、
    前記物体認識処理において、前記プロセッサは、
    前記周辺情報に基づいて、検出の対象となる物体及びそのクラスを識別し、
    前記物体の検出の確からしさを表すパラメータである尤度を算出し、
    前記許容度情報に基づいて、前記物体に対応する前記尤度の閾値を算出し、
    前記尤度と前記閾値との比較に基づいて、前記物体の識別結果を出力するかどうかを判定するように構成され、
    前記記憶装置には、前記車両の周辺環境条件に関連付けられた複数の許容度情報が格納され、
    前記物体認識処理において、前記プロセッサは、
    前記車両の周辺の周辺環境条件を検出し、
    前記複数の許容度情報の中から、前記周辺環境条件に対応する許容度情報を選択し、
    選択された前記許容度情報に基づいて、前記物体に対応する前記尤度の閾値を算出する
    ように構成される物体認識装置。
  3. 前記周辺環境条件は、前記車両の周辺の降雨量を示す降雨量条件であり、
    前記物体認識処理において、前記プロセッサは、
    前記周辺環境条件として降雨量を検出する
    請求項に記載の物体認識装置。
  4. 前記周辺環境条件は、前記車両の周辺の照度を示す照度条件であり、
    前記物体認識処理において、前記プロセッサは、
    前記周辺環境条件として照度を検出する
    請求項に記載の物体認識装置。
  5. 前記センサ装置は、周辺環境の画像を撮像する撮像装置であり、
    前記車両は、測距データを計測する測距センサを更に備え、
    前記プロセッサは、
    前記測距データをクラスタリングするクラスタリング処理と、
    前記クラスタリング処理により物標化された測距点群と、前記識別結果とを同一物体として認識するフュージョン処理と、
    を更に行うように構成される請求項1乃至の何れか1項に記載の物体認識装置。
JP2019131937A 2019-07-17 2019-07-17 物体認識装置 Active JP7156195B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019131937A JP7156195B2 (ja) 2019-07-17 2019-07-17 物体認識装置
US16/926,817 US11423661B2 (en) 2019-07-17 2020-07-13 Object recognition apparatus
CN202010684954.4A CN112241004B (zh) 2019-07-17 2020-07-16 物体识别装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019131937A JP7156195B2 (ja) 2019-07-17 2019-07-17 物体認識装置

Publications (2)

Publication Number Publication Date
JP2021018465A JP2021018465A (ja) 2021-02-15
JP7156195B2 true JP7156195B2 (ja) 2022-10-19

Family

ID=74171403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019131937A Active JP7156195B2 (ja) 2019-07-17 2019-07-17 物体認識装置

Country Status (2)

Country Link
US (1) US11423661B2 (ja)
JP (1) JP7156195B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11852723B2 (en) * 2020-12-16 2023-12-26 Hyundai Mobis Co., Ltd. System and method for controlling detecting distance of ultrasonic sensor based on ground recognition

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005091015A1 (ja) 2004-03-23 2005-09-29 Murata Manufacturing Co., Ltd. レーダ
JP2007274037A (ja) 2006-03-30 2007-10-18 Daihatsu Motor Co Ltd 障害物認識方法及び障害物認識装置
WO2011160672A1 (en) 2010-06-21 2011-12-29 Centre De Visió Per Computador Method for obtaining drivable road area
JP2013120551A (ja) 2011-12-08 2013-06-17 Denso It Laboratory Inc 車両用運転支援装置
US20170201687A1 (en) 2014-07-09 2017-07-13 Jaguar Land Rover Limited Vehicle Camera System
JP2018177216A (ja) 2017-04-18 2018-11-15 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH 車両が自動的に再び動き出すことを可能にする装置
US20190208136A1 (en) 2017-12-29 2019-07-04 Waymo Llc High-speed image readout and processing

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19852631C2 (de) * 1998-11-14 2001-09-06 Daimler Chrysler Ag Vorrichtung und Verfahren zur Verkehrszeichenerkennung
US20150158495A1 (en) * 2013-12-05 2015-06-11 Elwha Llc Systems and methods for reporting characteristics of operator performance
JP6534609B2 (ja) * 2015-12-04 2019-06-26 クラリオン株式会社 追跡装置
JP6540482B2 (ja) * 2015-12-04 2019-07-10 株式会社デンソー 情報処理システム、情報処理装置及び出力制御方法
KR101996419B1 (ko) * 2016-12-30 2019-07-04 현대자동차주식회사 센서 융합 기반 보행자 탐지 및 보행자 충돌 방지 장치 및 방법
JP6717240B2 (ja) 2017-03-08 2020-07-01 株式会社デンソー 物標検出装置
WO2018229549A2 (en) * 2017-06-16 2018-12-20 Nauto Global Limited System and method for digital environment reconstruction
WO2020068868A1 (en) * 2018-09-24 2020-04-02 Chad Steelberg Object detection machine learning
US11150656B2 (en) * 2018-11-19 2021-10-19 Honda Motor Co., Ltd. Autonomous vehicle decision making
US10817732B2 (en) * 2018-12-20 2020-10-27 Trimble Inc. Automated assessment of collision risk based on computer vision
CN112513891A (zh) * 2019-01-02 2021-03-16 松下电器(美国)知识产权公司 信息处理装置、信息处理方法及程序
US11347225B2 (en) * 2019-02-05 2022-05-31 Intel Corporation Mechanism for conflict resolution and avoidance of collisions for highly automated and autonomous vehicles

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005091015A1 (ja) 2004-03-23 2005-09-29 Murata Manufacturing Co., Ltd. レーダ
JP2007274037A (ja) 2006-03-30 2007-10-18 Daihatsu Motor Co Ltd 障害物認識方法及び障害物認識装置
WO2011160672A1 (en) 2010-06-21 2011-12-29 Centre De Visió Per Computador Method for obtaining drivable road area
JP2013120551A (ja) 2011-12-08 2013-06-17 Denso It Laboratory Inc 車両用運転支援装置
US20170201687A1 (en) 2014-07-09 2017-07-13 Jaguar Land Rover Limited Vehicle Camera System
JP2018177216A (ja) 2017-04-18 2018-11-15 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH 車両が自動的に再び動き出すことを可能にする装置
US20190208136A1 (en) 2017-12-29 2019-07-04 Waymo Llc High-speed image readout and processing

Also Published As

Publication number Publication date
US20210019534A1 (en) 2021-01-21
CN112241004A (zh) 2021-01-19
US11423661B2 (en) 2022-08-23
JP2021018465A (ja) 2021-02-15

Similar Documents

Publication Publication Date Title
US9713983B2 (en) Lane boundary line recognition apparatus and program for recognizing lane boundary line on roadway
US8175331B2 (en) Vehicle surroundings monitoring apparatus, method, and program
US8988276B2 (en) Vehicle surroundings monitoring device
WO2020090251A1 (ja) 物体認識装置、物体認識方法および物体認識プログラム
US20140293052A1 (en) Image-based vehicle detection and distance measuring method and apparatus
EP1930863A2 (en) Detecting and recognizing traffic signs
US20150120160A1 (en) Method and device for detecting a braking situation
CN108573611B (zh) 一种限速标识融合方法以及限速标识融合系统
US20180134289A1 (en) Lane division line recognition apparatus, lane division line recognition method, driving assist apparatus including lane division line recognition apparatus, and driving assist method including lane division line recognition method
JP2021165080A (ja) 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
US10846546B2 (en) Traffic signal recognition device
US20180107884A1 (en) Road marking recognition device
US6597984B2 (en) Multisensory correlation of traffic lanes
CN113435237B (zh) 物体状态识别装置、识别方法和计算机可读的记录介质以及控制装置
US20160188984A1 (en) Lane partition line recognition apparatus
JP2009181315A (ja) 物体検出装置
US20230148097A1 (en) Adverse environment determination device and adverse environment determination method
CN210667171U (zh) 一种基于激光检测道路车辆抓拍识别系统
JP7156195B2 (ja) 物体認識装置
CN109073393B (zh) 通过地标确定至少部分自动驾驶的车辆的姿态的方法
JP2019146012A (ja) 撮像装置
JP6500607B2 (ja) 自車位置判定装置及び自車位置判定方法
CN112241004B (zh) 物体识别装置
US11741718B2 (en) Light interference detection during vehicle navigation
JP6500606B2 (ja) 自車位置判定装置及び自車位置判定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220919

R151 Written notification of patent or utility model registration

Ref document number: 7156195

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151