JP7321035B2 - 物体位置検出方法及び物体位置検出装置 - Google Patents

物体位置検出方法及び物体位置検出装置 Download PDF

Info

Publication number
JP7321035B2
JP7321035B2 JP2019158836A JP2019158836A JP7321035B2 JP 7321035 B2 JP7321035 B2 JP 7321035B2 JP 2019158836 A JP2019158836 A JP 2019158836A JP 2019158836 A JP2019158836 A JP 2019158836A JP 7321035 B2 JP7321035 B2 JP 7321035B2
Authority
JP
Japan
Prior art keywords
lane
map
coordinate system
vehicle
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019158836A
Other languages
English (en)
Other versions
JP2021039437A (ja
Inventor
邦昭 野田
朋子 黒飛
尭史 池上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019158836A priority Critical patent/JP7321035B2/ja
Publication of JP2021039437A publication Critical patent/JP2021039437A/ja
Application granted granted Critical
Publication of JP7321035B2 publication Critical patent/JP7321035B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、物体位置検出方法及び物体位置検出装置に関する。
特許文献1には、レーザレーダから得られた測距データに基づいて路面上の立体物(物体)を検出する立体物検出装置が記載されている。この立体物検出装置は、レーザレーダで計測した3次元距離データ点群を蓄積したグリッドマップを生成して路面と立体物を判定する。路面と立体物の判定は、グリッドマップ上のセルに投影された点群の高さ方向の分散に基づいて行う。その際、画像の各方位に対して最近距離に存在する物体までの距離を抽出し、グリッドマップ上で物体の手前に存在する路面領域を探索して、その路面領域に含まれる点群から路面高さを推定する。それをもとに、画像中における路面と立体物の接地点を算出して立体物の位置を検出する。
特開2013-140515号公報
レーザレーダによる測定点の密度は、レーザレーダ本体から離れるほど低下する。このため、レーザレーダから遠距離に存在する物体の位置検出精度が低下するという問題がある。
本発明は、遠距離の物体の検出精度を向上させることを目的とする。
本発明の一態様に係る物体位置検出方法では、自車両の周囲の撮像画像を取得し、撮像画像内において、撮像された物体に対応する領域である部分領域を抽出し、地図情報に含まれている自車両の周囲のレーンの幅方向中央をレーンに沿って延びる中央線の地図上の座標を、撮像画像の画像座標系上の座標に変換し、部分領域の下端かつ幅方向で中央に位置する中心点に最も近い中央線上の位置である近傍点を画像座標系において検出し、近傍点の地図座標系上の位置に基づいて、前記物体の位置を検出する。
本発明によれば、遠距離の物体の位置検出精度を向上させることができる。
実施形態の走行支援装置を搭載する車両の概略構成の一例を示す図である。 自車両から前方を撮像した撮像画像の模式図である。 地図情報に含まれる走行レーンのデータを、自車両前方の撮像画像の画像座標系に投影した例を示す模式図である。 図1のコントローラの機能構成の一例を示す図である。 地図座標系と画像座標系との間の座標変換の一例の説明図である。 撮像画像上の物体の検出領域と地図データとの対応付けの第1例の説明図である。 撮像画像上の物体の検出領域と地図データとの対応付けの第2例の説明図である。 第1実施形態の物体位置検出方法の一例のフローチャートである。 第2実施形態の物体位置検出方法の一例の説明図である。 第2実施形態の物体位置検出方法の一例の説明図である。 第2実施形態の変形例の説明図である。 第2実施形態の変形例の説明図である。
以下、図面を参照して、本発明の実施形態を説明する。図面の記載において、同一又は類似の部分には同一又は類似の符号を付し、重複する説明を省略する。各図面は模式的なものであり、現実のものとは異なる場合が含まれる。以下に示す実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、下記の実施形態に例示した装置や方法に特定するものでない。本発明の技術的思想は、特許請求の範囲に記載された技術的範囲内において、種々の変更を加えることができる。
(第1実施形態)
(構成)
自車両1は、自車両1の走行支援を行う走行支援装置10を備える。走行支援装置10は、自車両1の現在位置である自己位置を検出し、検出した自己位置に基づいて自車両1の走行を支援する。
例えば、走行支援装置10は、検出した自己位置と周囲の走行環境とに基づいて、運転者が関与せずに自車両1を自動で運転する自律走行制御を行うことによって運転を支援する。なお、推定した自己位置と周囲の走行環境とに基づいて操舵角のみあるいは加減速のみを制御するなど、自車両1の走行に関わる運転動作を部分的に支援してもよい。
走行支援装置10は、測位装置11と、地図データベース12と、外部センサ13と、車両センサ14と、ナビゲーションシステム15と、コントローラ16と、アクチュエータ17を備える。なお、図面において、地図データベースを、「地図DB」と表記する。
測位装置11は、自車両1の現在位置を測定する。測位装置11は、例えば全地球型測位システム(GNSS)受信機を備えてよい。GNSS受信機は、例えば地球測位システム(GPS)受信機等であり、複数の航法衛星から電波を受信して自車両1の現在位置を測定する。
地図データベース12は、フラッシュメモリ等の記憶装置に格納され、自車両1の自己位置の推定に必要な道路形状や地物、ランドマーク等の物標の位置及び種類などの地図情報を記憶している。
地図データベース12として、例えば、自律走行用の地図として好適な高精度地図データ(以下、単に「高精度地図」という。)を記憶してよい。高精度地図は、ナビゲーション用の地図データ(以下、単に「ナビ地図」という。)よりも高精度の地図データであり、道路単位の情報よりも詳細な走行レーン(車線)単位の情報を含む。
例えば、高精度地図は走行レーン単位の情報として、走行レーン基準線(例えば走行レーン内の幅方向で中央位置を走行レーンに沿って延びる中央線)上の基準点を示す車線ノードの情報と、車線ノード間の車線の区間態様を示す車線リンクの情報、走行レーンの幅方向端部位置に沿って延びる車線区分線の情報を含む。
車線ノードの情報は、その車線ノードの識別番号、位置座標、接続される車線リンク数、接続される車線リンクの識別番号を含む。車線リンクの情報は、その車線リンクの識別番号、走行レーンの種類、走行レーンの進行方向、走行レーンの幅員、車線境界線(車線区分線)の種類、走行レーンの形状、車線境界線(車線区分線)の形状、走行レーン基準線の形状を含む。高精度地図は更に、走行レーン上又はその近傍に存在する信号機、停止線、標識、建物、電柱、縁石、横断歩道等の地物やランドマークといった物標の種類及び位置座標と、これらの位置座標に対応する車線ノードの識別番号及び車線リンクの識別番号等の、物標の情報を含む。
また、地図データベース12にはナビ地図が記憶されていてもよい。ナビ地図は道路単位の情報を含む。例えば、ナビ地図は道路単位の情報として、道路基準線(例えば道路の中央の線)上の基準点を示す道路ノードの情報と、道路ノード間の道路の区間態様を示す道路リンクの情報を含む。
なお、地図データベース12は、無線通信(路車間通信、または、車車間通信でも可)等の通信システムを介して外部から地図情報を取得してもよい。この場合、地図データベース12は、定期的に最新の地図情報を入手して、保有する地図情報を更新してもよい。また、地図データベース12は、自車両1が実際に走行した走路を、地図情報として蓄積してもよい。
外部センサ13は、自車両1の周囲環境についての様々な情報(周囲環境情報)、例えば自車両1の周囲の物体を検出する。外部センサ13は、自車両1の周囲に存在する物体、自車両1と物体との相対位置、自車両1と物体との距離、物体が存在する方向等の第1車両の周囲環境を検出する。
例えば外部センサ13は、自車両1に対する自車両1周囲の他車両や物標の相対位置を検出する。ここで、物標とは、例えば、自車両1が走行する走行路面上の線(車線区分線等)や、路肩の縁石、ガードレール等である。
外部センサ13は、例えばフルHD解像度のカラーカメラのような単眼のカメラ18を備えてよい。カメラ18は、自車両1の周囲環境の認識対象を含む画像を撮像し、その撮像画像を周囲環境情報としてコントローラ16へ出力する。
また、外部センサ13は、レーザレンジファインダ(LRF)やレーダ、LiDAR(Light Detection and Ranging)のレーザレーダなどの測距装置19を備えてよい。測距装置19は、例えば、自車両周囲に存在する物体との相対距離と方向により定まる相対位置を検出する。測距装置19は、検出した測距データを周囲環境情報としてコントローラ16へ出力する。
車両センサ14は、自車両1から得られる様々な情報(車両情報)を検出する。車両センサ14には、例えば、自車両1の走行速度(車速)を検出する車速センサ、自車両1が備える各タイヤの回転速度を検出する車輪速センサ、自車両1の3軸方向の加速度(減速度を含む)を検出する3軸加速度センサ(Gセンサ)、操舵角(転舵角を含む)を検出する操舵角センサ、自車両1に生じる角速度を検出するジャイロセンサ、ヨーレートを検出するヨーレートセンサ、自車両1のアクセル開度を検出するアクセルセンサと、運転者によるブレーキ操作量を検出するブレーキセンサが含まれる。
ナビゲーションシステム15は、測位装置11により自車両1の現在位置を認識し、その現在位置における地図情報を地図データベース12から取得する。ナビゲーションシステム15は、乗員が入力した目的地までの走行予定経路を設定し、この走行予定経路に従って乗員に経路案内を行う。
またナビゲーションシステム15は、設定した走行予定経路の情報をコントローラ16へ出力する。自律走行制御時にコントローラ16は、ナビゲーションシステム15が設定した走行予定経路に沿って自律走行するように自車両1を自動で運転(運転行動を制御)する。
コントローラ16は、自車両1の走行支援制御を行う電子制御ユニット(ECU:Electronic Control Unit)である。コントローラ16は、プロセッサ20と、記憶装置21等の周辺部品とを含む。プロセッサ20は、例えばCPU(Central Processing Unit)やMPU(Micro-Processing Unit)であってよい。
記憶装置21は、半導体記憶装置や、磁気記憶装置、光学記憶装置等を備えてよい。記憶装置21は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
以下に説明するコントローラ16の機能は、例えばプロセッサ20が、記憶装置21に格納されたコンピュータプログラムを実行することにより実現される。
なお、コントローラ16を、以下に説明する各情報処理を実行するための専用のハードウエアにより形成してもよい。
例えば、コントローラ16は、汎用の半導体集積回路中に設定される機能的な論理回路を備えてもよい。例えばコントローラ16はフィールド・プログラマブル・ゲート・アレイ(FPGA:Field-Programmable Gate Array)等のプログラマブル・ロジック・デバイス(PLD:Programmable Logic Device)等を有していてもよい。
コントローラ16は、自車両1の現在位置である自己位置を検出し、自己位置と、地図データベース12の道路の地図情報と、ナビゲーションシステム15から出力された経路情報と、周囲環境と、自車両1の走行状態とに基づいて、自車両1を走行させる目標走行軌道を設定する。
目標走行軌道を設定する際に、コントローラ16はカメラ18が取得した自車両1の周囲の撮像画像(例えば自車両の前方の撮像画像)に基づいて、自車両1の周囲の物体(例えば自車両の前方の物体)の位置と姿勢を検出し、自車両1の周囲の物体の検出結果に応じて目標走行軌道を設定する。
コントローラ16は、目標走行軌道に基づいて自車両1の自律走行制御を行い、アクチュエータ17を駆動して自車両1の走行を制御する。
アクチュエータ17は、コントローラ16からの制御信号に応じて、自車両1のステアリングホイール、アクセル開度及びブレーキ装置を操作して、自車両1の車両挙動を発生させる。アクチュエータ17は、ステアリングアクチュエータと、アクセル開度アクチュエータと、ブレーキ制御アクチュエータを備える。ステアリングアクチュエータは、自車両1のステアリングの操舵方向及び操舵量を制御する。アクセル開度アクチュエータは、自車両1のアクセル開度を制御する。ブレーキ制御アクチュエータは、自車両1のブレーキ装置の制動動作を制御する。
続いて、コントローラ16による自車両1の周囲の物体の位置を検出する動作の概要を説明する。図2Aを参照する。
コントローラ16は、カメラ18が自車両1の周囲環境を撮像して取得した撮像画像30を受信する。コントローラ16は、撮像画像30上において所定の認識対象の物体を検出し、これらの物体を検出した部分領域31を抽出する。認識対象の物体は、例えば、他車両や人間であってよい。
以下の説明において、認識対象の物体を検出した部分領域を「物体領域」と表記することがある。
撮像画像30上の物体領域31の抽出には、例えば非特許文献「Joseph Redmon et al, You Only Look Once: Unified, Real-Time Object Detection」に記載の技術を用いてよい。この技術によれば,1回の画像処理によって1枚の画像から複数個の認識対象の物体領域を同時に検出し、矩形領域のリストとして出力することができる。
図2Aの物体領域31の例は、検出した物体に接する最小の矩形領域であり、撮像画像30の画像座標系上の矩形領域の1つの頂点の座標(x,y)と高さと幅からなる大きさ(h,w)で表現できる。
参照符号32は、物体領域31の下端かつ幅方向で中央に位置する中心点を示す。
図2Bを参照する。コントローラ16は、地図データベース12から自車両1の周囲の走行レーンの地図データを読み出す。コントローラ16は、走行レーンの地図データを撮像画像30上に投影する。すなわち、地図座標系で表現された走行レーンの地図データの座標を、撮像画像30の画像座標系上の座標に変換する。地図データは、必ずしも撮像画像30上に重畳する必要はなく、地図データの画像座標系上の座標が得られればよい。
地図座標系と画像座標系との間の座標変換に用いるカメラ情報23は、図1に示す記憶装置21に格納されている。例えばカメラ情報23は、カメラ18の外部パラメータ(回転行列及び平行移動ベクトル)の算出に用いる自車両1へのカメラ18の搭載位置及び姿勢の情報と、カメラ18の内部パラメータ(焦点距離及び画像中心)を含む。
破線34a及び34bは、それぞれ第1走行レーン33a及び第2走行レーン33bの中央線を示し、実線35、36及び37は、第1走行レーン33a及び第2走行レーン33bの左右境界線を示す。
コントローラ16は、第1走行レーン33a及び第2走行レーン33bの地図データとして、これら中央線34a及び34bと左右車線境界線35~37の地図上の座標を、撮像画像30の画像座標系上の座標に変換する。
次にコントローラ16は、中央線34a及び34b上の点のうち、物体領域31の中心点32に最も近い近傍点38を、撮像画像30上で検出する。すなわち、画像座標系において近傍点38を検出する。
コントローラ16は、近傍点38の画像座標系上の座標を地図座標系上の座標に変換し、近傍点38の地図座標系上の座標に基づいて、検出した物体の地図座標系上の座標を検出する。例えば、近傍点38の地図座標系上の座標を、検出した物体の地図座標系上の座標として検出する。
本実施形態によれば、撮像画像30上で直接物体を判別して検出するので、レーザレーダでは測定点の密度が低下して物体検出が困難になる遠方でも、物体検出が可能となる。また、地図データを撮像画像30上に投影し、検出した物体と走行レーンとを撮像画像30上で対応付けることにより、単眼カメラの撮像画像を用いて物体の地図上の位置を検出できる。
カメラ18及びコントローラ16は、特許請求の範囲に記載の物体位置検出装置の一例を構成する。
次に、図3を参照して、コントローラ16の機能構成の一例を詳述する。コントローラ16は、物体検出部40と、自己位置推定部41と、物体位置推定部42と、マップ生成部43と、運転行動決定部44と、走行軌道生成部45と、走行制御部46を備える。
物体検出部40は、カメラ18が自車両1の周囲環境を撮像して取得した撮像画像30を受信する。
物体検出部40は、撮像画像30上において所定の認識対象の物体を検出し、これらの物体を検出した部分領域である物体領域31を抽出する。
上述のように物体検出部40は、検出した物体に接する最小の矩形領域を物体領域31として抽出してよい。なお、物体領域31の設定方法は検出した物体の画像上での位置を検出できれば矩形に限定されるものではなく、例えば平行四辺形や台形等の他の多角形であってもよい。
また例えば物体領域31は、検出した物体に内接する最大の円径領域であってもよい。この場合、画像上の円の中心位置及び半径により円径の物体領域31を表現してもよい。また、認識対象の物体の外縁を近似した直方体を画像座標系に投影した領域を物体領域31として検出してもよい。
自己位置推定部41は、外部センサ13が検出した自車両1と物標との相対位置と、地図データベース12に記憶されている物標の地図上の位置とに基づいて、自車両1の自己位置を推定する。
例えば、自己位置推定部41は、自己位置を前回推定した時点からの自車両1の移動量及び移動方向を算出し、これらの移動量及び移動方向により前回検出した自己位置を更新することにより、地図上の仮の自己位置を推定する。
自己位置推定部41は、地図上の仮の自己位置に基づいて、外部センサ13が検出した物標の相対位置の座標を地図上の座標に変換する。自己位置推定部41は、座標変換後の物標の位置と地図データベース12に記憶されている物標の位置とを照合し、その誤差が最小となる自車両1の位置及び姿勢を自己位置と推定する。
物体位置推定部42は、地図データベース12から自車両1の周囲の走行レーンの地図データを読み出す。地図データは、例えば走行レーンの中央線及び左右境界線の地図座標系上の座標を含む。
物体位置推定部42は、地図データベース12から読み出した走行レーンの地図データを撮像画像30上に投影する。すなわち、地図座標系で表現された走行レーンの地図データの座標を、撮像画像30の画像座標系上の座標に変換する。
例えば物体位置推定部42は、自己位置推定部41が推定した自車両1の位置及び姿勢と、カメラ情報23として記憶装置21に格納されたカメラ18の自車両1への搭載位置及び姿勢の情報とに基づいて、カメラ18の外部パラメータである回転行列R及び平行移動ベクトルtを算出する。
物体位置推定部42は、カメラ情報23として記憶装置21に格納されたカメラ18の内部パラメータである焦点距離f及び画像中心(c,c)と、回転行列R及び平行移動ベクトルtに基づいて、地図データの地図座標系上の座標P(X,Y,Z)を画像座標系上の座標(u,v)に変換する。
図4に示すピンホールカメラモデルの例の場合、物体位置推定部42は、地図座標系上の座標P(X,Y,Z)と画像座標系上の座標(u,v)との間の次の関係式にしたがって、地図データの座標を変換してよい。
Figure 0007321035000001
なお、図4においてFcはカメラ18の光学中心であり、Xc、Yc及びZcは、光学中心Fcを原点とするカメラ座標系の座標軸である。
次に、物体位置推定部42は、物体検出部40が抽出した物体領域31と、画像座標系上に投影された走行レーンの地図データとを対応付ける。
このとき、物体領域31が検出した物体が走行レーンの中央線上に接地していると仮定する。物体位置推定部42は、中央線上の何れかの点を物体の位置として検出し、検出した中央線上の点の座標を地図座標系上の座標に変換することにより、検出した物体の地図座標系上の位置を推定する。
例えば図5に示すように、物体領域31が矩形で表現されている場合には、矩形領域の下辺の中点を中心点32として算出し、撮像画像30上において走行レーン33aの中央線34aと中心点32との間の距離dを評価して、距離dが最も短くなる中央線34a上の位置を、中心点32に最も近い近傍点38として検出する。そして、近傍点38の座標を地図座標系上の座標に変換することにより、検出した物体の地図座標系上の位置を推定する。物体領域31が平行四辺形や台形で表現されている場合も同様である。
また、物体領域31が、物体の外縁を近似する直方体を画像座標系に投影した領域である場合には、直方体の何れかの側面の下辺の中点を中心点32として検出してもよい。
また、物体領域31が検出した物体に内接する最大の円径領域で表現される場合には、円径の物体領域31の最下端を中心点32として検出してもよい。
また、検出した物体が走行レーンを走行する車両である場合には、物体が道路構造に拘束されて移動することが明らかである。すなわち、物体は走行レーンの交通規則で定められた進行方向(以下、走行レーンの進行方向)に沿って走行することが明らかである。
したがって物体位置推定部42は、物体領域31が対応付けられた走行レーンの進行方向の情報を地図データベース12から読み出し、近傍点38における走行レーンの進行方向に基づいて検出した物体の姿勢を推定する。
なお、物体領域31と走行レーンの地図データとの対応付けは、上記の方法に限定されるものではなく、中心点32に最も近い中央線上の位置である近傍点38が検出する様々な方法を採用することができる。
例えば図6に示すように、物体位置推定部42は、物体領域31の下辺の線分と、撮像画像30上で走行レーンの左右境界線35及び36で囲まれた領域a(ハッチングされた領域)との重なりを算出し、最も重なりの大きな走行レーン33aを撮像画像30に対応する走行レーンとして選択する。物体位置推定部42は、選択した走行レーン33aの中央線34aとの交点を近傍点38として選択してもよい。
図3を参照する。物体位置推定部42は、推定した自車両1の周囲の物体の位置及び姿勢の情報をマップ生成部43へ出力する。
マップ生成部43は、物体位置推定部42が推定した自車両1の周囲の物体の位置及び姿勢と、周囲環境情報と、高精度地図とに基づいて、自車両1の周辺の経路や物体の有無を表現する経路空間マップと、走行場の危険度を数値化したリスクマップを生成する。
運転行動決定部44は、ナビゲーションシステム15により設定された走行予定経路と、経路空間マップ及びリスクマップに基づいて、走行予定経路上を自動で自車両1に走行させるための運転行動計画を生成する。
運転行動計画とは、自車両を走行させる走行レーン(車線)と、この走行レーンを走行させるのに要する運転行動とを定めた、中長距離の範囲におけるレーンレベル(車線レベル)での運転行動の計画である。
運転行動決定部44によって決定される運転行動には、停止線での停止や、交差点の右折、左折、直進や、所定曲率以上のカーブ路での走行、車線幅変化地点の通過、合流区間や複数車線を走行する際の車線変更が含まれる。
例えば運転行動決定部44は、物体位置推定部42が推定した他車両の位置に基づいて、他車両が存在する走行レーンとその進行方向を判定し、自車両1の走行レーンと交差するレーンを走行する他車両が自車両に近づいているか否かを判定してよい。他車両が自車両に接近していると判定した場合には、自車両を停止、又は減速し、若しくは回避操舵を伴う運転行動計画を生成する。
走行軌道生成部45は、運転行動決定部44が生成した運転行動計画、自車両1の運動特性、経路空間マップに基づいて、自車両1を走行させる走行軌道及び速度プロファイルの候補を生成する。
走行軌道生成部45は、リスクマップに基づいて各候補の将来リスクを評価して、最適な走行軌道及び速度プロファイルを選択し、自車両1に走行させる目標走行軌道及び目標速度プロファイルとして設定する。
走行制御部46は、走行軌道生成部45が生成した目標速度プロファイルに従う速度で自車両1が目標走行軌道を走行するように、アクチュエータ17を駆動することにより、自車両1が走行予定経路に沿って自動で走行するように自車両1の運転行動を制御する。
(動作)
次に、図7を参照して第1実施形態における物体位置検出方法の一例を説明する。
ステップS1においてカメラ18は、自車両1の周囲の撮像画像(例えば自車両の前方の撮像画像)30を取得する。
ステップS2において物体検出部40は、撮像画像30上において所定の認識対象の物体を検出し、これらの物体を検出した部分領域である物体領域31を抽出する。
ステップS3において物体位置推定部42は、地図データベース12から読み出した走行レーンの地図データを撮像画像30上に投影する。すなわち、地図座標系で表現された走行レーンの地図データの座標を、撮像画像30の画像座標系上の座標に変換する。
ステップS4において物体位置推定部42は、物体検出部40が抽出した物体領域31と、画像座標系上に投影された走行レーンの地図データとを対応付ける。すなわち、物体位置推定部42は、画像座標系上において物体領域(部分領域)31と地図データとの対応を評価する。
具体的には、画像座標系上に投影された走行レーンの中央線上の点のうち、物体領域31の下端かつ幅方向で中央に位置する中心点32に最も近い近傍点38を検出する。
ステップS5において物体位置推定部42は、近傍点38の地図座標系上の位置に基づいて、物体の位置を検出する。
具体的には、例えば、検出した近傍点38の地図座標系上の座標を物体の地図座標系上の座標と推定する。なお、近傍点38の地図座標系上の座標を例えば車両座標系等の地図座標系以外の他の座標系に変換して、物体の他の座標系上の位置を推定しても良く、近傍点38からどのような座標系における物体の位置を推定するかは適宜変更可能である。
また、物体位置推定部42は、走行レーンの進行方向の情報を地図データベース12から読み出し、近傍点38における走行レーンの進行方向に基づいて検出した物体の姿勢を推定する。
(第1実施形態の効果)
(1)カメラ18は、自車両1の周囲の撮像画像30を取得する。物体検出部40は、撮像画像30内において物体を検出した部分領域31を抽出する。物体位置推定部42は、地図データベース12の地図情報に含まれている自車両1の周囲の走行レーンの中央線の地図上の座標を、撮像画像の画像座標系上の座標に変換し、部分領域31の下端かつ幅方向で中央に位置する中心点32に最も近い中央線上の近傍点38を画像座標系において検出し、近傍点38の地図座標系上の位置に基づいて物体の位置を検出する。
これにより、撮像画像30上で直接物体を判別して検出するので、レーザレーダでは測定点の密度が低下して物体検出が困難になる遠方でも、物体検出が可能となる。また、地図データを撮像画像30上に投影し、検出した物体と走行レーンとを撮像画像30上で対応付けることにより、単眼カメラの撮像画像を用いて物体の地図上の位置を検出できる。
(2)物体位置推定部42は、近傍点38における走行レーンの進行方向に基づいて、検出した物体の姿勢を推定してよい。
これにより、道路構造に拘束されて移動することが明らかな車両等の物体の姿勢を推定することができる。
(3)物体位置推定部42は、矩形や、平行四辺形、台形などである部分領域31の下辺の中央点を中心点32として検出してよい。または、円形の部分領域31の最下端を中心点32として検出してもよい。
これにより、検出した物体が走行レーンの中央に存在し、且つ接地していると仮定した場合に、走行レーンの中央線に最も近くなる蓋然性が高い点を部分領域31から検出できる。
(4)物体位置推定部42は、画像座標系における部分領域31の下辺と中央線との交点を近傍点38として検出してもよい。これにより、検出した物体が接地していると仮定した場合に、中央線上にある物体の位置を特定できる。
このとき、物体位置推定部42は、走行レーンの左右境界35及び36の地図上の座標を画像座標系上の座標に各々変換し、左右境界35及び36に囲まれた画像座標系上の領域と部分領域31の下辺との重複を算出し、複数の走行レーンのうち重複が最も大きな走行レーンの中央線と、部分領域31の下辺との交点を近傍点38として検出してよい。これにより、検出した物体の周囲に複数の走行レーンがあっても、物体がどの走行レーンにいるかを判定できる。
(第2実施形態)
次に、第2実施形態を説明する。検出した物体が移動している場合には、カメラ18が時系列で撮像した複数の撮像画像30において物体を追跡することにより、撮像画像30上における同一物体の移動軌跡(移動履歴)を算出できる。
図8Aを参照する。参照符号31a、31b及び31cは、撮像画像30上において時系列順の時刻ta、tb及びtcにおいて同一物体を検出した物体領域を示す。
この場合、物体位置推定部42は、物体領域31a、31b及び31cの各々で検出した中心点32a、32b及び32cを追跡することにより、向きを持った移動軌跡50a及び50bを算出できる。以下、物体領域31a~31c、中心点32a~32c、移動軌跡50a及び50cをそれぞれ「物体領域31」、「中心点32」、「軌跡50」と総称することがある。
中心点32の軌跡50の代わりに、物体領域31自体の軌跡を算出してもよい。例えば、物体領域31が矩形である場合には、特定の頂点の軌跡を物体領域31の移動軌跡として算出してよい。物体領域31が円径である場合には、中心点の移動軌跡を物体領域31の移動軌跡として算出してよい。
物体位置推定部42は、中心点32の軌跡50の向き(移動方向)と、走行レーンの進行方向とを考慮して、物体領域31と画像座標系上に投影された走行レーンの地図データとを対応付けることができる。
具体的には図8Bに示すように、物体位置推定部42は、第1走行レーン33a及び第2走行レーン33bの進行方向に基づいて、中央線34a及び34bに対して撮像画像30上の向きを設定する。
次に、物体位置推定部42は、中央線34a及び34bの向きと中心点32の軌跡50の向きとに基づいて、中央線34a及び34bの何れかを選択する。
例えば、物体位置推定部42は、中央線34a及び34bの向きと軌跡50の向きとの差が、両者が略一致すると判定可能な程度の予め設定した所定の範囲内である中央線34aを選択する。
なお、上記に説明した形態においては第1走行レーン33a及び第2走行レーン33bの進行方向に基づいて、中央線34a及び34bに対して撮像画像30上の向きを設定したが、必ずしも中央線34a及び34bに対して向きを設定する必要は無い。例えば、第1走行レーン33a及び第2走行レーン33bのうち、画像座標系上で軌跡50の向きと進行方向との差が略一致する走行レーン33aを選択し、選択した走行レーン33aの中央線34aを選択するようにしても良い。すなわち、画像座標系上で軌跡50の向きに対して進行方向が略一致する走行レーンの中央線が選択できれば、中央線の選択方法は上記に限定されない。物体位置推定部42は、選択した中央線34a上の点のうち最新の中心点32cに最も近い近傍点38を算出する。
なお、図9Aに示すように、検出対象の物体51の周囲に同一の進行方向の複数の走行レーン33a及び33bと、33c及び33dとが存在する場合には、物体位置推定部42は、軌跡50の向きとの差が所定の範囲内である複数の中央線候補34a及び34bを選択してよい。
その後に物体位置推定部42は、図9Bに示すように、複数の中央線候補34a及び33b上の点のうち、最新の中心点32に最も近い中央線上の点を近傍点38として検出してよい。
(第2実施形態の効果)
物体位置推定部42は、時系列で撮像された複数の撮像画像30で検出された中心点32又は物体領域31の軌跡50を算出し、複数の走行レーンのうちで画像座標系上の進行方向と軌跡50の方向との差が予め定めた所定の範囲内である走行レーンの中央線を選択し、選択した中央線上の近傍点を算出する。
これにより、自車両1の周囲の物体から近い距離に複数の走行レーンが存在し、さらに検出誤差によって物体領域31の検出位置が安定しない場合であっても、物体が存在するレーンをより頑健に認識することができる。
1…自車両、10…走行支援装置、11…測位装置、12…地図データベース、13…外部センサ、14…車両センサ、15…ナビゲーションシステム、16…コントローラ、17…アクチュエータ、18…カメラ、19…測距装置、20…プロセッサ、21…記憶装置、23…カメラ情報、40…物体検出部、41…自己位置推定部、42…物体位置推定部、43…マップ生成部、44…運転行動決定部、45…走行軌道生成部、46…走行制御部

Claims (6)

  1. 自車両の周囲の撮像画像を取得する処理と
    前記撮像画像内において、撮像された物体に対応する領域である部分領域を抽出する処理と
    地図情報に含まれている前記自車両の周囲のレーンの幅方向中央を前記レーンに沿って延びる中央線の地図上の座標を、前記撮像画像の画像座標系上の座標に変換する処理と
    前記部分領域の下端かつ幅方向で中央に位置する中心点に最も近い前記中央線上の位置である近傍点を前記画像座標系において検出する処理と
    前記近傍点の地図座標系上の位置に基づいて、前記物体の位置を検出する処理と
    をコントローラが実行する物体位置検出方法であって、
    前記コントローラは、
    前記レーンの左右境界線の地図上の座標を前記画像座標系上の座標に各々変換し、
    前記左右境界線に囲まれた前記画像座標系上の領域と前記部分領域の下辺との重複を算出し、
    複数の前記レーンのうち前記重複が最も大きな前記レーンの前記中央線と、前記部分領域の下辺と、の交点を前記近傍点として検出する、
    ことを特徴とする物体位置検出方法。
  2. 前記コントローラは、前記近傍点における前記レーンの交通規則に応じた進行方向に基づいて、前記物体の姿勢を推定することを特徴とする請求項1に記載の物体位置検出方法。
  3. 前記部分領域は多角形であって、
    前記コントローラは、前記部分領域の下辺の中央点を前記中心点として検出することを特徴とする請求項1又は2に記載の物体位置検出方法。
  4. 前記部分領域は円形であって、
    前記コントローラは、円形の前記部分領域の最下端を前記中心点として検出することを特徴とする請求項1又は2に記載の物体位置検出方法。
  5. 前記部分領域は多角形であって、
    前記コントローラは、前記部分領域の下辺と前記中央線との交点を前記近傍点として検出することを特徴とする請求項1又は2に記載の物体位置検出方法。
  6. 自車両の周囲の撮像画像を取得するカメラと、
    前記撮像画像内において、撮像された物体に対応する領域である部分領域を抽出し、地図情報に含まれている前記自車両の周囲のレーンの幅方向中央を前記レーンに沿って延びる中央線の地図上の座標を、前記撮像画像の画像座標系上の座標に変換し、前記部分領域の下端かつ幅方向で中央に位置する中心点に最も近い前記中央線上の位置である近傍点を前記画像座標系において検出し、前記近傍点の地図座標系上の位置に基づいて前記物体の位置を検出するコントローラと、
    を備え
    前記コントローラは、
    前記レーンの左右境界線の地図上の座標を前記画像座標系上の座標に各々変換し、
    前記左右境界線に囲まれた前記画像座標系上の領域と前記部分領域の下辺との重複を算出し、
    複数の前記レーンのうち前記重複が最も大きな前記レーンの前記中央線と、前記部分領域の下辺と、の交点を前記近傍点として検出することを特徴とする、ことを特徴とする物体位置検出装置。
JP2019158836A 2019-08-30 2019-08-30 物体位置検出方法及び物体位置検出装置 Active JP7321035B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019158836A JP7321035B2 (ja) 2019-08-30 2019-08-30 物体位置検出方法及び物体位置検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019158836A JP7321035B2 (ja) 2019-08-30 2019-08-30 物体位置検出方法及び物体位置検出装置

Publications (2)

Publication Number Publication Date
JP2021039437A JP2021039437A (ja) 2021-03-11
JP7321035B2 true JP7321035B2 (ja) 2023-08-04

Family

ID=74848628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019158836A Active JP7321035B2 (ja) 2019-08-30 2019-08-30 物体位置検出方法及び物体位置検出装置

Country Status (1)

Country Link
JP (1) JP7321035B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157301A1 (ja) * 2022-02-21 2023-08-24 日立Astemo株式会社 電子制御装置及び軌道生成方法
JP2023136923A (ja) * 2022-03-17 2023-09-29 Kyb株式会社 演算装置、演算方法及びプログラム
KR102498028B1 (ko) * 2022-08-30 2023-02-10 주식회사 에프에스네트웍스 감시 카메라 시스템 및 그 시스템 사용 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010210435A (ja) 2009-03-10 2010-09-24 Denso Corp ナビゲーション装置における逆走検出方法
JP2017058235A (ja) 2015-09-16 2017-03-23 株式会社デンソー 車両位置補正装置
JP2017102861A (ja) 2015-12-04 2017-06-08 トヨタ自動車株式会社 物体認識装置
JP2018180772A (ja) 2017-04-07 2018-11-15 トヨタ自動車株式会社 物体検出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010210435A (ja) 2009-03-10 2010-09-24 Denso Corp ナビゲーション装置における逆走検出方法
JP2017058235A (ja) 2015-09-16 2017-03-23 株式会社デンソー 車両位置補正装置
JP2017102861A (ja) 2015-12-04 2017-06-08 トヨタ自動車株式会社 物体認識装置
JP2018180772A (ja) 2017-04-07 2018-11-15 トヨタ自動車株式会社 物体検出装置

Also Published As

Publication number Publication date
JP2021039437A (ja) 2021-03-11

Similar Documents

Publication Publication Date Title
JP6906011B2 (ja) オブジェクトの二次元境界枠を自動運転車両の三次元位置に転換するための方法[method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs)]
RU2645388C2 (ru) Устройство определения неправильного распознавания
CN108628324B (zh) 基于矢量地图的无人车导航方法、装置、设备及存储介质
RU2668459C1 (ru) Устройство оценки положения и способ оценки положения
CN108688660B (zh) 运行范围确定装置
US11340093B2 (en) Submap geographic projections
KR102425735B1 (ko) 로드뷰 또는 항공뷰 맵 정보를 이용한 자율주행 방법 및 그 시스템
JPWO2020012208A1 (ja) 走行環境情報の生成方法、運転制御方法、走行環境情報生成装置
JP7321035B2 (ja) 物体位置検出方法及び物体位置検出装置
JP6956268B2 (ja) 走行環境情報の生成方法、運転制御方法、走行環境情報生成装置
JP2022504728A (ja) ポジショニング方法、経路決定方法、装置、ロボットおよび記憶媒体
US11761787B2 (en) Map information correction method, driving assistance method, and map information correction device
CN111837136A (zh) 基于本地感测的自主导航以及相关联的系统和方法
CN111176270A (zh) 使用动态地标的定位
EP4059795B1 (en) Method for controlling vehicle and vehicle control device
JP2016218737A (ja) 先行車両推定装置及びプログラム
WO2021074660A1 (ja) 物体認識方法及び物体認識装置
JP2018185156A (ja) 物標位置推定方法及び物標位置推定装置
US20240067211A1 (en) Method and apparatus for operating a vehicle for highly automated driving, and vehicle for highly automated driving
CN115050203B (zh) 地图生成装置以及车辆位置识别装置
JP7302966B2 (ja) 移動体
CN115050205B (zh) 地图生成装置以及位置识别装置
US11867526B2 (en) Map generation apparatus
RU2777308C1 (ru) Способ оценки собственного местоположения и устройство для оценки собственного местоположения
JP7031748B2 (ja) 自己位置推定方法及び自己位置推定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230725

R150 Certificate of patent or registration of utility model

Ref document number: 7321035

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150