JP2022067324A - 物体検知装置、物体検知方法、および物体検知プログラム - Google Patents

物体検知装置、物体検知方法、および物体検知プログラム Download PDF

Info

Publication number
JP2022067324A
JP2022067324A JP2020175974A JP2020175974A JP2022067324A JP 2022067324 A JP2022067324 A JP 2022067324A JP 2020175974 A JP2020175974 A JP 2020175974A JP 2020175974 A JP2020175974 A JP 2020175974A JP 2022067324 A JP2022067324 A JP 2022067324A
Authority
JP
Japan
Prior art keywords
detection
vehicle
point
detecting
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020175974A
Other languages
English (en)
Other versions
JP7452374B2 (ja
Inventor
翔也 石田
Shoya Ishida
秀典 田中
Hidenori Tanaka
嘉紀 早川
Yoshinori Hayakawa
明宏 貴田
Akihiro Takada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Soken Inc
Original Assignee
Denso Corp
Toyota Motor Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp, Soken Inc filed Critical Denso Corp
Priority to JP2020175974A priority Critical patent/JP7452374B2/ja
Publication of JP2022067324A publication Critical patent/JP2022067324A/ja
Application granted granted Critical
Publication of JP7452374B2 publication Critical patent/JP7452374B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

Figure 2022067324000001
【課題】従来よりも良好な物体検知精度を実現可能な、物体検知装置、物体検知方法、および物体検知プログラムを提供する。
【解決手段】物体検知装置(8)は、測距点取得部(803)と、検知面取得部(805)と、物体検知部(808)とを備える。測距点取得部は、自車両の周囲の測距点(Ps)を検知するための測距センサ(2)を用いた、測距点の検知結果を取得する。検知面取得部は、物体の外表面である物体面を検知するための面検知センサ(3)を用いた、物体面の検知結果である検知面(Ft)を取得する。物体検知部は、自車両の周囲の空間における検知面との位置関係に応じて選択された測距点に基づいて、物体を検知する。
【選択図】図2

Description

本発明は、自車両に搭載されることで当該自車両の周囲に存在する物体を検知するように構成された、物体検知装置に関する。また、本発明は、かかる物体検知装置により実行されることで自車両の周囲に存在する物体を検知する、物体検知方法に関する。また、本発明は、かかる物体検知装置により実行される物体検知プログラムに関する。
特許文献1に記載の装置は、超音波センサと電子カメラとを備えている。超音波センサは、車両の両側面の後部にて、側方を向いて設置されている。超音波センサは、センサから検知領域内の対象物までの距離を検知する。電子カメラは、光軸を超音波センサの中心軸と一致させることにより超音波センサの検出領域と重複するように、車両の後部にて側方を向いて設置されている。
特許文献1に記載の装置は、超音波センサにより対象物までの距離を測定し、駐車スペースが存在するかを判定する。また、この装置は、駐車スペースの奥行き位置を検出するために、電子カメラを用いて駐車スペースを撮影し、画像を取得する。
特開2002-170103号公報
この種の装置において、駐車車両等の障害物の表面に対応する、超音波センサ等の測距センサによる複数の測距点のうち、位置誤差が大きな「外れ点」が生じることがあり得る。このような「外れ点」が生じると、例えば、本来は駐車スペースが存在するにもかかわらず、かかる「外れ点」に起因する障害物の誤検知により、駐車スペースが存在しない旨の誤判定が生じることがあり得る。
本発明は、上記に例示した事情等に鑑みてなされたものである。すなわち、本発明は、例えば、従来よりも良好な物体検知精度を実現可能な、物体検知装置、物体検知方法、および物体検知プログラムを提供する。
請求項1に記載の物体検知装置(8)は、自車両(V)に搭載されることで、当該自車両の周囲に存在する物体(Vt)を検知するように構成されている。
この物体検知装置は、
前記自車両の周囲の測距点(Ps)を検知するための測距センサ(2)を用いた、前記測距点の検知結果を取得する、測距点取得部(803)と、
前記物体の外表面である物体面を検知するための面検知センサ(3)を用いた、前記物体面の検知結果である検知面(Ft)を取得する、検知面取得部(805)と、
前記自車両の周囲の空間における前記検知面との位置関係に応じて選択された前記測距点に基づいて前記物体を検知する、物体検知部(808)と、
を備えている。
請求項7に記載の物体検知方法は、自車両(V)に搭載された物体検知装置(8)により実行されることで、当該自車両の周囲に存在する物体(Vt)を検知する方法であって、
前記自車両の周囲の測距点(Ps)を検知するための測距センサ(2)を用いた、前記測距点の検知結果を取得し、
前記物体の外表面である物体面を検知するための面検知センサ(3)を用いた、前記物体面の検知結果である検知面(Ft)を取得し、
前記自車両の周囲の空間における前記検知面との位置関係に応じて選択された前記測距点に基づいて、前記物体を検知する。
請求項13に記載の物体検知プログラムは、自車両(V)に搭載されることで当該自車両の周囲に存在する物体(Vt)を検知するように構成された物体検知装置(8)により実行されるプログラムであって、
前記物体検知装置により実行される処理は、
前記自車両の周囲の測距点(Ps)を検知するための測距センサ(2)を用いた、前記測距点の検知結果を取得する処理と、
前記物体の外表面である物体面を検知するための面検知センサ(3)を用いた、前記物体面の検知結果である検知面(Ft)を取得する処理と、
前記自車両の周囲の空間における前記検知面との位置関係に応じて選択された前記測距点に基づいて、前記物体を検知する処理と、
を含む。
なお、出願書類において、各要素に括弧付きの参照符号が付される場合がある。しかしながら、この場合であっても、かかる参照符号は、各要素と後述する実施形態に記載の具体的手段との対応関係の単なる一例を示すものにすぎない。よって、本発明は、上記の参照符号の記載によって、何ら限定されるものではない。
自車両における駐車支援動作の概要を示す模式的な平面図である。 図1に示された車載システムの概略的な機能構成を示すブロック図である。 図2に示された車載システムの動作例を説明するための模式的な平面図である。 図2に示された車載システムの動作例を説明するための模式的な平面図である。 図2に示された車載システムの動作例を説明するための模式的な平面図である。 図2に示された駐車支援ECUの動作例を示すフローチャートである。
(実施形態)
以下、本発明の実施形態を、図面に基づいて説明する。なお、一つの実施形態に対して適用可能な各種の変形例については、当該実施形態に関する一連の説明の途中に挿入されると、当該実施形態の理解が妨げられるおそれがある。このため、変形例については、当該実施形態に関する一連の説明の途中ではなく、その後にまとめて説明する。
(構成)
図1を参照すると、自車両Vは、いわゆる四輪自動車であって、平面視にて略矩形状の車体を備えている。「平面視」とは、或る物を重力作用方向と一致する視線で当該物の上方から見た場合の、当該物の外観をいう。自車両Vには、車載システム1が搭載されている。車載システム1は、自車両Vにおける各種制御(例えば駐車支援制御)を実行可能に構成されている。具体的には、車載システム1は、他車両Vtを含む、自車両Vの周囲に存在する物体を、測距センサ2および面検知センサ3の出力に基づいて検知するように構成されている。
測距センサ2は、自車両Vの周囲の測距点Psを検知するためのセンサ(例えば超音波センサあるいはミリ波レーダーセンサ等)であって、探査波を発信して物体による当該探査波の反射波を受信するように構成されている。すなわち、測距センサ2は、探査波および反射波の伝播時間に基づいて、測距点Psに対応する物体との距離を計測する、いわゆるTOF型センサとしての構成を有している。TOFはTime of Flightの略である。「測距点」は、物体の外表面である物体面Fb上における、測距センサ2から発信された探査波を反射したと推定される点であり、具体的には、測距センサ2からの距離が測距距離となる、検知範囲の軸中心を通る半直線上の点である。測距距離は、伝播時間に基づいて算出された、測距センサ2と測距点Psとの間の距離である。
自車両Vの前進走行中にて側方に駐車スペースSPを検知するための測距センサ2は、自車両Vにおける車体側面にて探査波を側方に発信するように装着されている。具体的には、かかる測距センサ2は、自車両Vにおける車体の右前部、右後部、左前部、および左後部のそれぞれに設けられている。なお、自車両Vには、当該自車両Vの前方、前側方、後方、および後側方の障害物を検知するための測距センサ2も搭載され得る。但し、以下の説明における測距センサ2は、特段の注記を設けない限り、自車両Vの前進走行中にて側方に駐車スペースSPを検知するために、車体側面に装着されたものとする。
面検知センサ3は、物体面Fbを検知するためのセンサである。すなわち、車載システム1は、面検知センサ3を用いて、物体面Fbに対応する検知面Ftを検知するように構成されている。本実施形態においては、面検知センサ3は、所定の視野内の物体を光学的に検知する光学センサ(例えばカメラあるいはLIDARセンサ等)としての構成を有している。LIDARはLight Detection and RangingあるいはLaser Imaging Detection and Rangingの略である。すなわち、面検知センサ3は、図中一点鎖線で示された測距センサ2の検知範囲よりも広範囲な視野内において、物体を面として検知可能に設けられている。よって、面検知センサ3は、「広角センサ」とも称され得る。「視野」は、検知範囲あるいはスキャン範囲とも称され得る。
自車両Vの前進走行中にて側方に駐車スペースSPを検知するための面検知センサ3は、自車両Vの側方に存在する物体を視野内に収めるように配置されている。具体的には、面検知センサ3は、車体の両側面における所定箇所(例えばドアミラーあるいはその近傍)に、1個ずつ設けられている。面検知センサ3は、その中心線Lcが、平面視にて、面検知センサ3における検知範囲の中心軸線と略平行となるように設置されている。中心線Lcは、面検知センサ3による検知範囲の軸中心を通る半直線であって、面検知センサ3がカメラである場合は光軸に対応する。
物体面Fbは、対向面Fbfおよび非対向面Fbsを含む。図1に示されているように、自車両Vが、縦列駐車中の複数の他車両Vtの間にて駐車スペースSPを探索中である場合、対向面Fbfは当該他車両Vtにおける車体側面であり、非対向面Fbsは当該他車両Vtにおける車体前面あるいは車体後面である。
対向面Fbfは、自車両Vあるいは自車両Vの進行中通路に対向する物体面Fbである。具体的には、対向面Fbfは、その外向法線が平面視にて自車両Vの前進走行中に面検知センサ3を通過する直視状態にて、上記の外向法線と中心線Lcとのなす角度である方位角が面検知センサ3の視野角度以内となる物体面Fbである。典型的には、対向面Fbfは、上記の方位角が0~α度となるような物体面Fbである。αは例えば45~60である。非対向面Fbsは、上記の直視状態が成立しないか、成立しても上記の方位角が面検知センサ3の視野角度を超えるような物体面Fbである。典型的には、非対向面Fbsは、対向面Fbfと実質的に直交する物体面Fbである。
図2を参照すると、車載システム1は、上述の測距センサ2および面検知センサ3に加えて、挙動センサ4と、ロケータ5と、DCM6と、ユーザインタフェース装置7と、駐車支援ECU8と、車両制御システム9と、車載ネットワーク10とを備えている。DCMはData Communication Moduleの略である。ECUはElectronic Control Unitの略である。
挙動センサ4は、挙動情報、すなわち、自車両Vの運転状態あるいは運転挙動に対応する情報あるいは信号を、駐車支援ECU8および車両制御システム9に出力するように設けられている。すなわち、挙動センサ4は、シフトポジションセンサ、アクセル開度センサ、車速センサ、操舵角センサ、加速度センサ、ヨーレートセンサ、等の各種センサを総称したものである。
ロケータ5は、いわゆる複合測位により、自車両Vの高精度な位置情報等を取得するように構成されている。「高精度な位置情報」とは、例えば、「SAE J3016」におけるレベル2~5の高度な運転自動化レベルに利用可能な程度、具体的には、誤差が10cm未満となるような程度の位置精度を有する位置情報である。SAEはSociety of Automotive Engineersの略である。「SAE J3016」におけるレベル2,3,4,および5は、それぞれ、「高度運転支援」,「条件付自動運転」,「高度自動運転」,および「完全自動運転」と称される。
DCM6は、車載通信モジュールであって、LTEあるいは5G等の通信規格に準拠した無線通信により、自車両Vの周囲の基地局との間で情報通信可能に設けられている。LTEはLong Term Evolutionの略である。5Gは5th Generationの略である。具体的には、例えば、DCM6は、不図示のクラウド上に設けられたプローブサーバから最新の高精度地図情報を取得するように構成されている。
高精度地図情報には、数メートル程度の位置誤差に対応する従来のカーナビゲーションシステムにて用いられていた地図情報よりも、高精度な地図情報が含まれている。具体的には、高精度地図情報には、ADASIS規格等の所定の規格に準拠して、三次元道路形状情報、レーン数情報、規制情報、等の、「SAE J3016」におけるレベル2以上の運転自動化レベルに利用可能な情報が格納されている。ADASISはAdvanced Driver Assistance Systems Interface Specificationの略である。
ユーザインタフェース装置7は、自車両Vのドライバを含む乗員からの各種入力と、かかる乗員への各種情報提示のための出力とを実行可能に設けられている。具体的には、ユーザインタフェース装置7は、例えば、入力デバイス(タッチパネル等)、表示デバイス、スピーカ、マイク、等を備えている。
駐車支援ECU8は、図示しないCPU、ROM、RAM、不揮発性リライタブルメモリ、入出力インタフェース、等を備えた、いわゆる車載マイクロコンピュータとして構成されている。CPUはCentral Processing Unitの略である。ROMはRead Only Memoryの略である。RAMはRandom Access Memoryの略である。不揮発性リライタブルメモリは、例えば、ハードディスク、EEPROM、フラッシュROM、等である。EEPROMはElectronically Erasable and Programmable ROMの略である。ROMおよび不揮発性リライタブルメモリは、コンピュータ読み取り可能な非遷移的実体的記憶媒体に相当するものである。
駐車支援ECU8は、CPUがROMまたは不揮発性リライタブルメモリからプログラムを読み出して実行することで、各種の制御動作を実現可能に構成されている。このプログラムには、後述のフローチャートあるいはルーチンに対応するものが含まれている。また、RAMおよび不揮発性リライタブルメモリは、CPUがプログラムを実行する際の処理データを一時的に格納可能に構成されている。さらに、ROMおよび/または不揮発性リライタブルメモリには、プログラムの実行の際に用いられる各種のデータが、あらかじめ格納されている。かかる各種のデータは、例えば、初期値、ルックアップテーブル、マップ、等である。
本発明の物体検知装置としての駐車支援ECU8は、自車両Vに搭載されることで、自車両Vの周囲に存在する他車両Vt等の物体を検知するとともに、物体検知結果に応じた駐車支援制御を実行するように構成されている。具体的には、駐車支援ECU8は、車載マイクロコンピュータ上にて実現される、以下の機能構成を有している。
すなわち、駐車支援ECU8は、挙動取得部801と、位置推定部802とを有している。また、駐車支援ECU8は、測距点取得部803と、検知点取得部804と、検知面取得部805と、高精度面取得部806とを有している。さらに、駐車支援ECU8は、マップ生成部807と、物体検知部808と、駐車スペース抽出部809と、駐車経路算出部810とを有している。
図3~図5は、駐車支援ECU8による駐車支援動作、特に、駐車スペースSPの検知のための物体検知動作の概要を示す。以下、図1~図5を参照しつつ、駐車支援ECU8における上記の機能構成の各々について説明する。
挙動取得部801は、駐車支援動作開始時点からの自車両Vの位置を推定するために必要な挙動情報を取得するようになっている。すなわち、挙動取得部801は、挙動情報を挙動センサ4から受信して、RAMおよび/または不揮発性リライタブルメモリに一時格納するようになっている。位置推定部802は、挙動取得部801にて取得した挙動情報に基づいて、所定のXY座標系における自車両Vの位置を、推定すなわち算出するようになっている。「所定のXY座標系」は、駐車支援動作開始時点にて設定された、自車両Vの車高方向と直交する平面内の二次元座標系である。かかる所定のXY座標系を、以下単に「並進座標系」と称する。
測距点取得部803は、測距センサ2を用いた測距点Psの検知結果を取得するようになっている。具体的には、測距点取得部803は、位置推定部802にて推定された自車両Vの位置と、測距センサ2から受信した出力信号に含まれる測距情報とに基づいて、並進座標系における測距点Psの位置を算出するようになっている。また、測距点取得部803は、算出した測距点Psの位置を、時系列で所定個数分あるいは所定期間分、保持すなわちRAMおよび/または不揮発性リライタブルメモリに一時格納するようになっている。
検知点取得部804は、図3に示されているように、面検知センサ3を用いた検知点Pdの検知結果を取得するようになっている。検知点Pdは、面検知センサ3の視野内に存在する物体の外表面である物体面Fb上のものとして検知された点である。具体的には、例えば、面検知センサ3がカメラである場合、検知点Pdは、いわゆる特徴点である。あるいは、例えば、面検知センサ3がLIDARセンサである場合、検知点Pdは、3次元座標で構成される点群データに含まれるデータ点であり、「測距点」とも称され得るものである。具体的には、本実施形態においては、検知点取得部804は、面検知センサ3に内蔵されたセンサECUによる検知点Pdの抽出結果を、面検知センサ3から受信して、保持すなわちRAMおよび/または不揮発性リライタブルメモリに一時格納するようになっている。
検知面取得部805は、図4に示されているように、面検知センサ3を用いた検知面Ftの検知結果を取得するようになっている。検知面Ftは、検知点Pdによって形成される平面または曲面であって、物体面Fbの検知結果に相当するものである。具体的には、本実施形態においては、検知面取得部805は、面検知センサ3を用いて取得された複数の検知点Pdの集合状態に基づいて、検知面Ftを取得すなわち算出あるいは推定するようになっている。
高精度面取得部806は、検知精度すなわち並進座標系における位置精度が高い検知面Ftである、高精度面FtHを取得するようになっている。高精度面FtHは、検知精度が、所定の高い精度であると想定される検知面Ftである。具体的には、本実施形態においては、高精度面取得部806は、少なくとも1つ検知された検知面Ftから、自車両Vの周囲の空間における面検知センサ3と検知面Ftとの配置関係に基づいて、高精度面FtHを取得するようになっている。高精度面FtHの取得の詳細については後述する。
マップ生成部807は、自車両Vの周囲の空間における物体の存在確率を示すマップMを生成するようになっている。マップMは、「存在確率マップ」とも称され得る。具体的には、マップ生成部807は、2次元配置された複数のグリッドGに並進座標系を格子状に分割して形成したマップMにおける、各グリッドGに対して、所定の割り付け条件に基づいて、物体の存在確率を割り付けるようになっている。「所定の割り付け条件」は、例えば、測距点Ps、検知点Pd、検知面Ft、および高精度面FtHの、取得結果のうちの少なくとも1つを含む。本実施形態においては、「所定の割り付け条件」は、少なくとも高精度面FtHの取得結果を含む。より詳細には、本実施形態においては、マップ生成部807は、図5を参照すると、検知点グリッドGnにおける存在確率を高く設定するとともに、面外グリッドGtにおける存在確率を低く設定するようになっている。
検知点グリッドGnは、測距点Psまたは検知点Pdが含まれるグリッドGである。図3~図5において、検知点Pdによる検知点グリッドGnが、図中斜線ハッチングで示されている。面外グリッドGtは、検知点Pdおよび高精度面FtHの配置状態に基づいて、面上グリッドGpの「外側」に位置すると判定されるグリッドGである。「外側」とは、面上グリッドGpに対応する物体から離隔する側をいうものとする。図5において、面外グリッドGtが、図中クロスハッチングで示されている。面上グリッドGpは、高精度面FtHが通過するグリッドGであり、典型的には、高精度面FtHが通過する検知点グリッドGnである。すなわち、マップ生成部807は、高精度面FtHに基づいて、存在確率が他の領域よりも低い低確率領域に相当する面外グリッドGtをマップMに設定するようになっている。
物体検知部808は、測距点Psに基づいて、自車両Vの周囲の物体を検知するようになっている。具体的には、物体検知部808は、自車両Vの周囲の物体の検知に用いる測距点PsをマップMに基づいて選択し、選択した測距点Psに基づいて、並進座標系における物体の位置あるいは外形形状を推定するようになっている。「自車両Vの周囲の物体の検知に用いる測距点Ps」を、以下、「物体検知用の測距点Ps」と称する。すなわち、物体検知部808は、存在確率が所定程度以上高いグリッドGに対応する測距点Psを、物体検知用の測距点Psとして選択するようになっている。
本実施形態においては、物体検知部808は、自車両Vの周囲の空間における検知面Ftとの位置関係に応じて、物体検知用の測距点Psを選択するようになっている。具体的には、物体検知部808は、高精度面FtHに基づいて、物体検知用の測距点Psを選択するようになっている。より詳細には、物体検知部808は、面外グリッドGtに対応する測距点Psを、物体検知用の測距点Psから除外するようになっている。また、物体検知部808は、面検知センサ3が正常作動時に検知した検知面Ftに基づいて、物体検知用の測距点Psを選択するようになっている。
駐車スペース抽出部809は、物体検知部808による物体検知結果に基づいて、駐車スペースSPを抽出するようになっている。駐車経路算出部810は、駐車スペース抽出部809により抽出された駐車スペースSPに基づいて、自車両Vを駐車スペースSPに駐車するための走行経路である駐車経路を算出するようになっている。
車両制御システム9は、駆動機構および駆動制御ECUを含む駆動系システム、制動機構および制動制御ECUを含む制動系システム、操舵機構および操舵制御ECUを含む操舵系システム、等の、自車両Vにおける運転制御を実行するための構成を有している。すなわち、車両制御システム9は、駐車支援ECU8により取得された駐車スペースSPおよび駐車経路に基づいて、自車両Vが駐車スペースSPに駐車するために必要な加減速、操舵、および制動等の運転制御を実行するように構成されている。
測距センサ2、面検知センサ3、挙動センサ4、ロケータ5、DCM6、ユーザインタフェース装置7、駐車支援ECU8、および車両制御システム9は、車載ネットワーク10を介して互いに信号あるいは情報を授受可能に接続されている。車載ネットワーク10は、CAN(国際登録商標:国際登録番号1048262A)、FlexRay(国際登録商標)、LIN等の所定の規格に準拠するように構成されている。CAN(国際登録商標)はController Area Networkの略である。LINはLocal Interconnect Networkの略である。
(動作概要)
以下、駐車支援ECU8の動作概要について説明する。駐車支援ECU8は、駐車支援動作を開始するための所定の指令入力に基づいて、駐車支援動作を開始する。かかる指令入力は、例えば、自車両Vのドライバによるユーザインタフェース装置7の入力操作である。あるいは、かかる指令入力は、例えば、ロケータ5からの、自車両Vが駐車場内に進入した旨の情報の入力である。
所定の指令入力に応じて、駐車支援ECU8におけるCPUは、ROMまたは不揮発記憶媒体から、駐車支援動作のためのプログラムを読み出して実行する。かかるプログラムは、本発明に係る物体検知プログラムに相当する。また、かかるプログラムの実行により、本発明に係る物体検知方法が実施される。駐車支援動作開始時点は、かかるプログラムの実行開始時点、具体的には上記の指令入力時点である。かかるプログラムが実行されると、駐車支援ECU8における各機能ブロック構成は、以下の通り動作する。
マップ生成部807は、駐車支援動作開始時点における所定位置(例えば自車両Vの平面視における中心位置)を原点とし、自車両Vの前方をX軸正方向とし、自車両Vの右方または左方をY軸正方向とする、並進座標系を設定する。また、マップ生成部807は、格子状に2次元配列された複数のグリッドGを、並進座標系に設定する。さらに、マップ生成部807は、各グリッドGに割り付けられる存在確率を、初期値に設定する。存在確率は、値が大きくなるほど高くなる一方で値が小さくなるほど低くなるものとし、本実施形態においては、初期値は物体の存否不明を示す値「0」であり、最大値は+Ωであり、最小値は-Ωであるものとする。Ωは自然数(例えば255)である。
位置推定部802は、挙動取得部801にて取得した挙動情報に基づいて、並進座標系における自車両Vの位置を推定する。測距点取得部803は、測距センサ2を用いた測距点Psの検知結果を取得する。具体的には、測距点取得部803は、位置推定部802にて推定された自車両Vの位置と、測距センサ2から受信した測距情報とに基づいて、並進座標系における測距点Psの位置を算出する。また、測距点取得部803は、算出した測距点Psの位置を、時系列で所定個数分あるいは所定期間分保持する。
検知点取得部804は、面検知センサ3を用いた検知点Pdの検知結果を取得する。面検知センサ3がカメラである場合、検知点Pdは特徴点である。特徴点は、撮影画像中の物体の形状を特徴付ける点である。具体的には、特徴点は、撮影画像の画角すなわち画像フレーム内における、特徴的な点すなわち画素である。例えば、特徴点は、隣接する画素との間での輝度変化が大きな画素である。
検知面取得部805は、検知点Pdの集合状態、すなわち、個数および配列状態(例えば長さ)に基づいて、検知面Ftを取得する。具体的には、検知面取得部805は、N個以上且つ長さD以上の、複数の検知点Pdからなる点群を、検知面Ftとして認識する。例えば、検知面取得部805は、並進座標系における隣接点間の距離が所定距離以内となるi個の検知点Pdからなる点群を抽出する。i≧Nである場合、検知面取得部805は、i個の点群にフィットする近似曲線を最小二乗法等により算出する。そして、検知面取得部805は、かかる近似曲線の長さがD以上である場合に、かかる近似曲線を検知面Ftとする。
高精度面取得部806は、検知精度すなわち並進座標系における位置精度が高い検知面Ftである高精度面FtHを取得する。具体的には、本実施形態においては、高精度面取得部806は、並進座標系における面検知センサ3および検知面Ftの配置関係に基づいて、高精度面FtHを取得する。以下、面検知センサ3がカメラである場合における、高精度面FtHの取得の詳細について説明する。
カメラである面検知センサ3による、検知点Pdの方位精度は、CMOS等の撮像素子の分解能に依存する。CMOSはComplementary MOSの略である。近年の撮像素子は分解能が非常に高い(例えば25ピクセル/deg程度)。よって、検知点Pdの方位精度は高い。
これに対し、面検知センサ3から検知点Pdまでの距離は、異なる時間に撮影された複数の画像データを用いた移動ステレオの原理により算出される。このとき、画像上の検知点Pdの位置誤差が増幅された形で、検知点Pdの距離誤差が生じる。このため、検知点Pdの距離精度は、方位精度に比して低い。
図3~図5は、自車両Vが縦列駐車する際の駐車支援動作の具体例を示す。このとき、図4を参照すると、駐車車両である他車両Vtにおける車体前面である非対向面Fbsに対応する第一検知面Ft1は、面検知センサ3から見て奥行き方向に延設されているために距離精度は問題にならない一方で、上記の通り、方位精度は高い。これに対し、かかる他車両Vtにおける車体側面である対向面Fbfに対応する第二検知面Ft2は、自車両Vの進行方向に沿って延設されているために方位精度は問題にならない一方で、上記の通り、距離精度は低い。
そこで、図3~図5の例においては、高精度面取得部806は、方位精度が高い第一検知面Ft1を、高精度面FtHとして選択する。具体的には、高精度面取得部806は、例えば、並進座標系における、検知面Ftと中心線Lcとのなす角度が所定の閾値角度以下である検知面Ftを、高精度面FtHとして選択する。
あるいは、高精度面取得部806は、例えば、並進座標系における、検知面Ftの延長線と当該検知面Ftの取得時点における面検知センサ3との最短距離が所定の閾値距離以下である検知面Ftを、高精度面FtHとして選択する。図4に示されている例においては、第一検知面Ft1に対応する第一延長線L1は、面検知センサ3の近くを通り、最短距離は閾値距離以下となる。これに対し、第二検知面Ft2に対応する第二延長線L2は、面検知センサ3の遠くを通り、最短距離は閾値距離を超える。よって、高精度面取得部806は、第一検知面Ft1を、高精度面FtHとして選択する。
マップ生成部807は、マップMにおける各グリッドGに対して、所定の割り付け条件に基づいて、物体の存在確率を割り付ける。具体的には、マップ生成部807は、例えば、測距点Psおよび検知点Pdが存在する検知点グリッドGnにおける存在確率に、所定の正値を加算する。
また、マップ生成部807は、存在確率が他の領域よりも低い低確率領域に対応する面外グリッドGtを、取得あるいは選択した高精度面FtHに基づいてマップMに設定する。具体的には、マップ生成部807は、面外グリッドGtにおける存在確率を、物体の不存在に対応する所定の負値、すなわち、絶対値が大きな負値に設定する。なお、本実施形態においては、測距点Psが存在する検知点グリッドGnが面外グリッドGtにも該当する場合は、面外グリッドGtに対する処理が優先されるものとする。
ところで、カメラまたはLIDARセンサ等である面検知センサ3は、降雨あるいは霧発生等の悪条件が発生した場合、検知精度が低下する。あるいは、面検知センサ3に何らかの異常が発生する場合があり得る。これらの場合、高精度面FtHを良好に取得することは困難となる。そこで、マップ生成部807は、面検知センサ3が正常作動時に検知した検知面Ftに基づいて、高精度面FtHを取得する。
物体検知部808は、マップMに基づいて、物体検知用の測距点Psを選択する。すなわち、物体検知部808は、存在確率が高いグリッドGに含まれる測距点Psを、物体検知用の測距点Psとして選択する。そして、物体検知部808は、選択した測距点Psに基づいて、自車両Vの周囲に存在する物体(例えば図3~図5に示された他車両Vt)の並進座標系における物体の位置あるいは外形形状を推定することで、当該物体を検知する。駐車スペース抽出部809は、物体検知部808による物体検知結果に基づいて、駐車スペースSPを抽出する。駐車経路算出部810は、駐車スペース抽出部809により抽出された駐車スペースSPに対応する駐車経路を算出する。
(動作例)
以下、本実施形態の構成による具体的な動作例について、図6に示したフローチャートを用いて説明する。なお、図6において、「ステップ」を単に「S」と略記する。
駐車支援ECU8は、所定の起動条件成立中に、図6に示されたルーチンを、所定時間間隔で繰り返し起動する。かかるルーチンが起動されると、駐車支援ECU8は、まず、ステップ601~ステップ605の処理を順に実行する。
ステップ601にて、駐車支援ECU8は、自車両Vの挙動情報を取得する。ステップ602にて、駐車支援ECU8は、並進座標系における自車両Vの位置を推定する。ステップ603にて、駐車支援ECU8は、測距点Psを取得する。ステップ604にて、駐車支援ECU8は、ステップ603にて取得した測距点Psに基づいて、マップMを改定する。具体的には、駐車支援ECU8は、測距点Psに対応する検知点グリッドGnにおける存在確率に、所定の正値を加算する。
ステップ605にて、駐車支援ECU8は、面検知センサ3が正常動作中であるか否かを判定する。具体的には、例えば、駐車支援ECU8は、面検知センサ3が自己診断中であるか否かを判定する。あるいは、駐車支援ECU8は、面検知センサ3における自己診断結果を、面検知センサ3から受信する。あるいは、例えば、駐車支援ECU8は、雨滴検知結果および霧検知結果を、挙動センサ4あるいは外部装置から受信する。かかる外部装置は、例えば、車両制御システム9、あるいは、不図示の雨滴検知センサ等である。あるいは、例えば、駐車支援ECU8は、ワイパおよびフォグランプの動作状態を受信する。そして、駐車支援ECU8は、受信した上記の情報あるいは信号に基づいて、面検知センサ3が正常動作中であるか否かを判定する。
面検知センサ3が正常動作中である場合(すなわちステップ605=YES)、駐車支援ECU8は、処理をステップ606~ステップ609に進行させる。ステップ606にて、駐車支援ECU8は、面検知センサ3を用いた検知点Pdの検知結果を取得する。ステップ607にて、駐車支援ECU8は、ステップ606にて取得した検知点Pdに基づいて、検知面Ftを取得する。ステップ608にて、駐車支援ECU8は、ステップ607にて取得した検知面Ftに基づいて、高精度面FtHを取得する。
ステップ609にて、駐車支援ECU8は、ステップ608の処理によって高精度面FtHが取得できたか否かを判定する。高精度面FtHが取得できた場合(すなわちステップ609=YES)、駐車支援ECU8は、処理をステップ610に進行させる。一方、高精度面FtHが取得できなかった場合(すなわちステップ609=NO)、駐車支援ECU8は、処理をステップ611に進行させる。
ステップ610にて、駐車支援ECU8は、検知点Pdおよび高精度面FtHに基づいて、マップMを改定する。具体的には、駐車支援ECU8は、検知点Pdに対応する検知点グリッドGnにおける存在確率に、所定の正値を加算する。また、駐車支援ECU8は、高精度面FtHに基づいて特定あるいは設定した面外グリッドGtにおける存在確率を、物体の不存在に対応する所定の負値に設定する。
ステップ611にて、駐車支援ECU8は、検知点Pdに基づいて、マップMを改定する。具体的には、駐車支援ECU8は、検知点Pdに対応する検知点グリッドGnにおける存在確率に、所定の正値を加算する。
ステップ610またはステップ611の処理の後、駐車支援ECU8は、処理をステップ612に進行させる。また、面検知センサ3が正常動作中ではない場合(すなわちステップ605=NO)、駐車支援ECU8は、ステップ606~ステップ611の処理をスキップして、処理をステップ605からステップ612に進行させる。
ステップ612にて、駐車支援ECU8は、マップMに基づいて、物体検知用の測距点Psを選択する。ステップ613にて、駐車支援ECU8は、選択した測距点Psに基づいて、自車両Vの周囲に存在する物体の位置を推定する。すなわち、駐車支援ECU8は、選択した測距点Psに基づいて、自車両Vの周囲に存在する物体を検知あるいは認識する。その後、駐車支援ECU8は、本ルーチンを一旦終了する。
(効果)
本実施形態に係る駐車支援ECU8、ならびに、これによって実行される物体検知方法および物体検知プログラムによれば、以下のような効果が奏され得る。以下、本実施形態に係る駐車支援ECU8、ならびに、これによって実行される物体検知方法および物体検知プログラムを総称して、単に「本実施形態」と称する。
(1)本実施形態においては、測距点取得部803は、自車両Vの周囲の測距点Psを検知するための測距センサ2を用いた、測距点Psの検知結果を取得する。検知面取得部805は、物体面Fbを検知するための面検知センサ3を用いた、物体面Fbの検知結果である検知面Ftを取得する。物体検知部808は、自車両Vの周囲の空間における検知面Ftとの位置関係に応じて選択された測距点Psに基づいて、物体を検知する。
本実施形態によれば、測距センサ2による複数の測距点のPsうち、位置誤差が大きな「外れ点」が生じても、かかる「外れ点」に該当しない測距点Psを、検知面Ftとの位置関係に応じて選択して物体検知に用いることができる。具体的には、例えば、自車両Vの周囲の空間における検知面Ftとの位置関係に応じて「外れ点」を特定することで、特定した「外れ点」を物体検知用の測距点Psから除外することができる。
このように、本実施形態によれば、「外れ点」に起因する障害物の誤検知、および、かかる誤検知に伴う誤判定の発生を、良好に抑制することが可能となる。したがって、本実施形態によれば、従来よりも良好な物体検知精度を実現可能な、物体検知装置、物体検知方法、および物体検知プログラムを提供することが可能となる。
(2)本実施形態においては、物体検知部808は、面検知センサ3が正常作動時に検知した検知面Ftに基づいて、物体検知用の測距点Psを選択する。本実施形態によれば、検知面Ftを良好に検知可能な状況にて、かかる検知面Ftの取得結果を用いることで、物体検知用の測距点Psを良好に選択することができる。
(3)本実施形態においては、検知面取得部805は、面検知センサ3を用いて取得された、物体面Fb上の複数の検知点Pdの、集合状態に基づいて、検知面Ftを取得する。面検知センサ3によれば、多数の検知点Pdを、ほぼ同時あるいは短時間で取得することができる。このように取得された多数の検知点Pdにおいて、一定の幅および奥行きの範囲に所定個数の点群が存在すれば、かかる点群が物体面Fbに対応する蓋然性が高いといえる。したがって、本実施形態によれば、簡易な処理により良好な精度で検知面Ftを取得することが可能となる。
(4)本実施形態においては、物体検知部808は、検知精度が所定の高い精度である検知面Ftである高精度面FtHに基づいて、物体検知用の測距点Psを選択する。本実施形態によれば、測距センサ2による複数の測距点のPsうち、位置誤差が大きな「外れ点」が生じても、かかる「外れ点」に該当しない測距点Psを、高精度面FtHに基づいて選択して物体検知に用いることができる。したがって、本実施形態によれば、「外れ点」に該当しない測距点Psを、高精度で選択することが可能となる。
(5)本実施形態は、自車両Vの周囲の空間における物体の存在確率を示すマップMを生成するマップ生成部807を備えている。マップ生成部807は、高精度面FtHに基づいて、存在確率が他の領域よりも低い低確率領域すなわち面外グリッドGtをマップMに設定する。物体検知部808は、この低確率領域に対応する測距点Psを、物体検知用の測距点Psから除外する。
本実施形態においては、マップMに設定した低確率領域すなわち面外グリッドGtに対応する測距点Psを「外れ点」として除外することで、物体検知用の測距点Psを選択することができる。したがって、本実施形態によれば、物体検知用の測距点Psを、高精度で選択することが可能となる。
(6)本実施形態においては、高精度面取得部806は、自車両Vの周囲の空間における面検知センサ3および検知面Ftの配置関係に基づいて、高精度面FtHを取得する。したがって、本実施形態によれば、高精度面FtHを良好な精度で取得することが可能となる。
(変形例)
本発明は、上記実施形態に限定されるものではない。故に、上記実施形態に対しては、適宜変更が可能である。以下、代表的な変形例について説明する。以下の変形例の説明においては、上記実施形態との相違点を主として説明する。また、上記実施形態と変形例とにおいて、相互に同一または均等である部分には、同一符号が付されている。したがって、以下の変形例の説明において、上記実施形態と同一の符号を有する構成要素に関しては、技術的矛盾または特段の追加説明なき限り、上記実施形態における説明が適宜援用され得る。
本発明は、上記実施形態にて示された具体的な装置構成に限定されない。すなわち、例えば、適用対象である自車両Vは、四輪自動車に限定されない。具体的には、自車両Vは、三輪自動車であってもよいし、貨物トラック等の六輪または八輪自動車でもよい。自車両Vの種類は、内燃機関のみを備えた自動車であってもよいし、内燃機関を備えない電気自動車または燃料電池車であってもよいし、いわゆるハイブリッド自動車であってもよい。車体の形状および構造も、箱状すなわち平面視における略矩形状に限定されない。
上記実施形態において、駐車支援ECU8は、CPUがROM等からプログラムを読み出して起動する、いわゆる車載マイクロコンピュータとしての構成を有していた。しかしながら、本発明は、かかる構成に限定されない。具体的には、例えば、駐車支援ECU8の全部または一部は、上記のような動作を可能に構成されたデジタル回路、例えばASICあるいはFPGAを備えた構成であってもよい。ASICはApplication Specific Integrated Circuitの略である。FPGAはField Programmable Gate Arrayの略である。よって、駐車支援ECU8において、車載マイクロコンピュータ部分とデジタル回路部分とは併存し得る。
上記実施形態にて説明した、各種の動作、手順、あるいは処理を実行可能とする、本発明に係るプログラムは、DCM6等によるV2X通信を介して、ダウンロードあるいはアップグレードされ得る。V2XはVehicle to Xの略である。あるいは、かかるプログラムは、自車両Vの製造工場、整備工場、販売店、等に設けられた端末機器を介して、ダウンロードあるいはアップグレードされ得る。かかるプログラムの格納先は、メモリーカード、光学ディスク、磁気ディスク、等であってもよい。
このように、上記の各機能構成および方法は、コンピュータプログラムにより具体化された一つあるいは複数の機能を実行するようにプログラムされた、プロセッサおよびメモリを含む専用コンピュータにより、実現されてもよい。あるいは、上記の各機能構成および方法は、一つ以上の専用論理回路によって提供された専用ハードウエアにより、実現されてもよい。
あるいは、上記の各機能構成および方法は、一つあるいは複数の機能を実行するようにプログラムされたプロセッサおよびメモリと、一つ以上の論理回路によって構成されたハードウエアとの組み合わせにより構成された、一つ以上の専用処理装置により、実現されてもよい。
コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移的実体的記憶媒体に記憶されていてもよい。すなわち、上記の各機能構成および方法は、これを実現するための処理あるいは手順を含むコンピュータプログラム、あるいは、当該プログラムを記憶した非遷移的実体的記憶媒体としても表現可能である。
本発明に係る物体検知装置は、上記実施形態においては、駐車支援制御装置である駐車支援ECU8として実現されていた。しかしながら、本発明は、かかる態様に限定されない。すなわち、例えば、挙動取得部801~物体検知部808は、「SAE J3016」におけるレベル1~5の運転自動化レベルを実現するための、運転支援ECUあるいは自動運転ECUにて実現されてもよい。レベル1の「運転支援」には、衝突被害軽減ブレーキ、アダプティブクルーズコントロール、レーンキープアシスト、等が含まれる。
本発明は、上記実施形態にて示された具体的な動作態様あるいは処理態様に限定されない。すなわち、例えば、マップMを用いなくても、検知点Pdと高精度面FtHと測距点Psとの並進座標系における相対位置関係に基づいて、物体検知用の測距点Psを選択することが可能である。具体的には、かかる相対位置関係に基づけば、高精度面FtHの「外側」に位置すると判定される測距点Psを特定して、物体検知用の測距点Psから除外することが可能である。この場合、マップ生成部807は、省略される。
測距点Psは、ある時点t(n)における測距センサ2の位置および測距距離と、時点t(n)の1つ前の時点t(n-1)における測距センサ2の位置および測距距離とに基づいて、三角測量の原理で算出された点であってもよい。すなわち、「測距点Ps」は、「反射点Ps」、「測距センサ検知点Ps」、あるいは「第一検知点Ps」とも称され得る。この場合、「検知点Pd」は、「面検知センサ検知点Pd」あるいは「第二検知点Pd」とも称され得る。
検知面Ftの取得には、機械学習が用いられ得る。具体的には、パターンマッチング、セマンティックセグメンテーション、等が利用可能である。これにより、より高精度あるいは高速で、検知面Ftを取得することが可能となる。
図6に示されたフローチャートに対しては、適宜変更が可能である。具体的には、例えば、ステップ604は、省略され得る。すなわち、測距点Psは、マップMにおける存在確率に反映されなくてもよい。
面外グリッドGtにおける存在確率に対する処理は、物体の不存在に対応する所定の負値への設定に限定されない。すなわち、例えば、かかる処理は、所定の負値の加算であってもよい。
面外グリッドGtは、高精度面FtHの外側のグリッドGに限定されない。すなわち、例えば、面検知センサ3の種類あるいは構造等によっては、すべての検知面Ftが高精度で取得される場合があり得る。具体的には、例えば、面検知センサ3が、複眼ステレオカメラ装置であったり、カメラと他のセンサとを含むフュージョンセンサであったりする場合、すべての検知面Ftが高精度で取得され得る。このような場合、面外グリッドGtは検知面Ftの外側のグリッドGとなり、高精度面取得部806は省略される。
Kを閾値あるいは所定値とした場合、「K以上」と「Kを超える」とは、技術的に矛盾あるいは不都合がない限り、互換可能である。「K以下」と「K未満」とについても同様である。
「取得」、「推定」、「検出」、「検知」、「算出」、「抽出」、「生成」、等の、相互に類似する表現は、技術的に矛盾しない範囲内において、適宜置換可能である。
上記実施形態を構成する要素は、特に必須であると明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、構成要素の個数、量、範囲等の数値が言及されている場合、特に必須であると明示した場合および原理的に明らかに特定の数値に限定される場合等を除き、その特定の数値に本発明が限定されることはない。同様に、構成要素等の形状、方向、位置関係等が言及されている場合、特に必須であると明示した場合および原理的に特定の形状、方向、位置関係等に限定される場合等を除き、その形状、方向、位置関係等に本発明が限定されることはない。
変形例も、上記の例示に限定されない。また、複数の変形例が、互いに組み合わされ得る。さらに、上記実施形態の全部または一部と、変形例の全部または一部とが、互いに組み合わされ得る。
2 測距センサ
3 面検知センサ
8 駐車支援ECU(物体検知装置)
803 測距点取得部
805 検知面取得部
808 物体検知部
Ft 検知面
Ps 測距点
V 自車両
Vt 他車両

Claims (18)

  1. 自車両(V)に搭載されることで当該自車両の周囲に存在する物体(Vt)を検知するように構成された、物体検知装置(8)であって、
    前記自車両の周囲の測距点(Ps)を検知するための測距センサ(2)を用いた、前記測距点の検知結果を取得する、測距点取得部(803)と、
    前記物体の外表面である物体面を検知するための面検知センサ(3)を用いた、前記物体面の検知結果である検知面(Ft)を取得する、検知面取得部(805)と、
    前記自車両の周囲の空間における前記検知面との位置関係に応じて選択された前記測距点に基づいて前記物体を検知する、物体検知部(808)と、
    を備えた物体検知装置。
  2. 前記物体検知部は、前記面検知センサが正常作動時に検知した前記検知面に基づいて、前記物体の検知に用いる前記測距点を選択する、
    請求項1に記載の物体検知装置。
  3. 前記検知面取得部は、前記面検知センサを用いて取得された、前記物体面上の複数の検知点(Pd)の、集合状態に基づいて、前記検知面を取得する、
    請求項1または2に記載の物体検知装置。
  4. 前記物体検知部は、検知精度が所定の高い精度である前記検知面である高精度面(FtH)に基づいて、前記物体の検知に用いる前記測距点を選択する、
    請求項1~3のいずれか1つに記載の物体検知装置。
  5. 前記自車両の周囲の前記空間における前記物体の存在確率を示すマップ(M)を生成する、マップ生成部(807)をさらに備え、
    前記マップ生成部は、前記高精度面に基づいて、前記存在確率が他の領域よりも低い低確率領域(Gt)を前記マップに設定し、
    前記物体検知部は、前記低確率領域に対応する前記測距点を、前記物体の検知に用いる前記測距点から除外する、
    請求項4に記載の物体検知装置。
  6. 前記自車両の周囲の前記空間における前記面検知センサおよび前記検知面の配置関係に基づいて、前記高精度面を取得する、高精度面取得部(806)をさらに備えた、
    請求項4または5に記載の物体検知装置。
  7. 自車両(V)に搭載された物体検知装置(8)により実行されることで当該自車両の周囲に存在する物体(Vt)を検知する、物体検知方法であって、
    前記自車両の周囲の測距点(Ps)を検知するための測距センサ(2)を用いた、前記測距点の検知結果を取得し、
    前記物体の外表面である物体面を検知するための面検知センサ(3)を用いた、前記物体面の検知結果である検知面(Ft)を取得し、
    前記自車両の周囲の空間における前記検知面との位置関係に応じて選択された前記測距点に基づいて、前記物体を検知する、
    物体検知方法。
  8. 前記物体を検知することは、前記面検知センサが正常作動時に検知した前記検知面に基づいて、前記物体の検知に用いる前記測距点を選択することを含む、
    請求項7に記載の物体検知方法。
  9. 前記検知面を取得することは、前記面検知センサを用いて取得された、前記物体面上の複数の検知点(Pd)の、集合状態に基づいて、前記検知面を取得することを含む、
    請求項7または8に記載の物体検知方法。
  10. 前記物体を検知することは、検知精度が所定の高い精度である前記検知面である高精度面(FtH)に基づいて、前記物体の検知に用いる前記測距点を選択することを含む、
    請求項7~9のいずれか1つに記載の物体検知方法。
  11. 前記高精度面に基づいて、前記自車両の周囲の前記空間における前記物体の存在確率が他の領域よりも低い低確率領域(Gt)を、前記存在確率を示すマップ(M)に設定することをさらに含み、
    前記物体の検知に用いる前記測距点を選択することは、前記低確率領域に対応する前記測距点を、前記物体の検知に用いる前記測距点から除外することを含む、
    請求項10に記載の物体検知方法。
  12. 前記自車両の周囲の前記空間における前記面検知センサおよび前記検知面の配置関係に基づいて、前記高精度面を取得することをさらに含む、
    請求項10または11に記載の物体検知方法。
  13. 自車両(V)に搭載されることで当該自車両の周囲に存在する物体(Vt)を検知するように構成された物体検知装置(8)により実行される物体検知プログラムであって、
    前記物体検知装置により実行される処理は、
    前記自車両の周囲の測距点(Ps)を検知するための測距センサ(2)を用いた、前記測距点の検知結果を取得する処理と、
    前記物体の外表面である物体面を検知するための面検知センサ(3)を用いた、前記物体面の検知結果である検知面(Ft)を取得する処理と、
    前記自車両の周囲の空間における前記検知面との位置関係に応じて選択された前記測距点に基づいて、前記物体を検知する処理と、
    を含む物体検知プログラム。
  14. 前記物体を検知する前記処理は、前記面検知センサが正常作動時に検知した前記検知面に基づいて、前記物体の検知に用いる前記測距点を選択する処理を含む、
    請求項13に記載の物体検知プログラム。
  15. 前記検知面を取得する前記処理は、前記面検知センサを用いて取得された、前記物体面上の複数の検知点(Pd)の、集合状態に基づいて、前記検知面を取得する処理を含む、
    請求項13または14に記載の物体検知プログラム。
  16. 前記物体を検知する前記処理は、検知精度が所定の高い精度である前記検知面である高精度面(FtH)に基づいて、前記物体の検知に用いる前記測距点を選択する処理を含む、
    請求項13~15のいずれか1つに記載の物体検知プログラム。
  17. 前記高精度面に基づいて、前記自車両の周囲の前記空間における前記物体の存在確率が他の領域よりも低い低確率領域(Gt)を、前記存在確率を示すマップ(M)に設定する処理をさらに含み、
    前記物体の検知に用いる前記測距点を選択する前記処理は、前記低確率領域に対応する前記測距点を、前記物体の検知に用いる前記測距点から除外する処理を含む、
    請求項16に記載の物体検知方法。
  18. 前記自車両の周囲の前記空間における前記面検知センサおよび前記検知面の配置関係に基づいて、前記高精度面を取得する処理をさらに含む、
    請求項16または17に記載の物体検知プログラム。
JP2020175974A 2020-10-20 2020-10-20 物体検知装置および物体検知プログラム Active JP7452374B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020175974A JP7452374B2 (ja) 2020-10-20 2020-10-20 物体検知装置および物体検知プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020175974A JP7452374B2 (ja) 2020-10-20 2020-10-20 物体検知装置および物体検知プログラム

Publications (2)

Publication Number Publication Date
JP2022067324A true JP2022067324A (ja) 2022-05-06
JP7452374B2 JP7452374B2 (ja) 2024-03-19

Family

ID=81390485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020175974A Active JP7452374B2 (ja) 2020-10-20 2020-10-20 物体検知装置および物体検知プログラム

Country Status (1)

Country Link
JP (1) JP7452374B2 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256138A (ja) * 2009-04-23 2010-11-11 Canon Inc 撮像装置及びその制御方法
JP2015212942A (ja) * 2014-04-25 2015-11-26 グーグル インコーポレイテッド レーザー点クラウドを用いる物体検出のための方法及びシステム
JP2016085694A (ja) * 2014-10-28 2016-05-19 キヤノン株式会社 画像処理装置及びその制御方法、プログラム
WO2018159289A1 (ja) * 2017-02-28 2018-09-07 ソニーセミコンダクタソリューションズ株式会社 測距装置、測距方法、および測距システム
JP2018200273A (ja) * 2017-05-29 2018-12-20 株式会社デンソー 測距センサ
JP2019526056A (ja) * 2016-05-18 2019-09-12 オキーフェ, ジェームスO’KEEFEE, James 車両の形状に適応したダイナミックステアドlidar
WO2020100922A1 (ja) * 2018-11-13 2020-05-22 ソニーセミコンダクタソリューションズ株式会社 データ配信システム、センサデバイス及びサーバ
WO2020170680A1 (ja) * 2019-02-18 2020-08-27 株式会社小糸製作所 汚れ検出システム、LiDARユニット、車両用センシングシステム及び車両
JP2020527500A (ja) * 2017-07-06 2020-09-10 華為技術有限公司Huawei Technologies Co.,Ltd. オンボードセンサの外部パラメータを較正する方法及び装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256138A (ja) * 2009-04-23 2010-11-11 Canon Inc 撮像装置及びその制御方法
JP2015212942A (ja) * 2014-04-25 2015-11-26 グーグル インコーポレイテッド レーザー点クラウドを用いる物体検出のための方法及びシステム
JP2016085694A (ja) * 2014-10-28 2016-05-19 キヤノン株式会社 画像処理装置及びその制御方法、プログラム
JP2019526056A (ja) * 2016-05-18 2019-09-12 オキーフェ, ジェームスO’KEEFEE, James 車両の形状に適応したダイナミックステアドlidar
WO2018159289A1 (ja) * 2017-02-28 2018-09-07 ソニーセミコンダクタソリューションズ株式会社 測距装置、測距方法、および測距システム
JP2018200273A (ja) * 2017-05-29 2018-12-20 株式会社デンソー 測距センサ
JP2020527500A (ja) * 2017-07-06 2020-09-10 華為技術有限公司Huawei Technologies Co.,Ltd. オンボードセンサの外部パラメータを較正する方法及び装置
WO2020100922A1 (ja) * 2018-11-13 2020-05-22 ソニーセミコンダクタソリューションズ株式会社 データ配信システム、センサデバイス及びサーバ
WO2020170680A1 (ja) * 2019-02-18 2020-08-27 株式会社小糸製作所 汚れ検出システム、LiDARユニット、車両用センシングシステム及び車両

Also Published As

Publication number Publication date
JP7452374B2 (ja) 2024-03-19

Similar Documents

Publication Publication Date Title
EP3470789A1 (en) Autonomous driving support apparatus and method
US9714034B2 (en) Vehicle control device
CN106608261B (zh) 控制行驶车辆之间的距离的车辆和方法
GB2555214A (en) Depth map estimation with stereo images
CN110867132B (zh) 环境感知的方法、装置、电子设备和计算机可读存储介质
GB2558777A (en) Vehicle collision avoidance
CN111507130B (zh) 车道级定位方法及系统、计算机设备、车辆、存储介质
CN103502876A (zh) 用于校正车辆的投影装置的方法和设备
US11397440B2 (en) Vehicle control system, external electronic control unit, vehicle control method, and application
WO2020021842A1 (ja) 車両用表示制御装置、車両用表示制御方法、制御プログラム、および持続的有形コンピュータ読み取り媒体
CN113168691A (zh) 信息处理装置、信息处理方法、程序、移动体控制装置和移动体
CN109927629B (zh) 用于控制投影设备的显示控制设备、显示控制方法及车辆
JP2021117048A (ja) 変化点検出装置及び地図情報配信システム
US20220205804A1 (en) Vehicle localisation
CN111806421B (zh) 车辆姿态确定系统和方法
JP2019133324A (ja) 物体検知装置および駐車支援装置
JP2021043164A (ja) 物体検知装置および物体検知方法
JP7452374B2 (ja) 物体検知装置および物体検知プログラム
US11100353B2 (en) Apparatus of controlling region of interest of image and method for controlling the same
US20210103752A1 (en) Recognition device, recognition method, and storage medium
CN110995981B (zh) 图像处理装置及其控制方法、非暂时性可读记录介质、信息处理系统
WO2021075377A1 (ja) 物体検知装置、物体検知方法、および物体検知プログラム
US11166003B1 (en) Dynamic vibration sensor optics distortion prediction
US20220307858A1 (en) Vehicle position estimation device, vehicle position estimation method, and non-transitory recording medium
KR20230000567A (ko) 센서를 이용한 차량의 각도 계산 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240219

R150 Certificate of patent or registration of utility model

Ref document number: 7452374

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150