JP7297595B2 - 姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法 - Google Patents

姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法 Download PDF

Info

Publication number
JP7297595B2
JP7297595B2 JP2019152636A JP2019152636A JP7297595B2 JP 7297595 B2 JP7297595 B2 JP 7297595B2 JP 2019152636 A JP2019152636 A JP 2019152636A JP 2019152636 A JP2019152636 A JP 2019152636A JP 7297595 B2 JP7297595 B2 JP 7297595B2
Authority
JP
Japan
Prior art keywords
time
feature point
camera
feature points
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019152636A
Other languages
English (en)
Other versions
JP2021034857A (ja
Inventor
隆幸 小笹
康司 大西
直士 垣田
輝彦 上林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019152636A priority Critical patent/JP7297595B2/ja
Publication of JP2021034857A publication Critical patent/JP2021034857A/ja
Application granted granted Critical
Publication of JP7297595B2 publication Critical patent/JP7297595B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、カメラの姿勢を推定する姿勢推定装置、カメラの異常を検出する異常検出装置、カメラのパラメータを補正する補正装置、および、カメラの姿勢を推定する姿勢推定方法に関する。
従来、車載カメラを用いて、例えば車両の駐車支援等の運転支援が行われている。車載カメラは、車両を工場から出荷する前に、車両に固定状態で取り付けられる。しかしながら、車載カメラは、例えば不意の接触や経年変化等によって、工場出荷時の取付状態から位置ずれを起こすことがある。車載カメラの位置(車両のボディに対する車載カメラの相対位置)がずれると、カメラ画像を利用して判断されるハンドルの操舵量等に誤差が生じるために、車載カメラの位置ずれを検出することは重要である。
特許文献1には、車載カメラの光軸ずれを検出する技術が開示される。特許文献1における車載カメラの光軸ずれ検出装置は、画像処理手段と判断手段とを備える。画像処理手段は、運転支援する車体部上のマーキングを含む範囲を撮影する車載カメラの撮影画像から該マーキングの位置情報を検出する。判断手段は、初期設定されたマーキング位置情報と、新たに検出されたマーキングの位置情報とを比較することにより、撮影光軸ずれを判断する。
特開2004-173037号公報
車載カメラの撮影画像には、車両周囲の風景等が映るために、例えばマーキングがボンネットの一部の特定形状である場合、当該特定形状を簡単に抽出できないことがある。当該特定形状が誤検出されると、車載カメラの光軸ずれが正確に判断されない可能性がある。なお、車載カメラの光軸ずれとは、車載カメラの姿勢が設計通りでないことを意味している。
また、車載カメラの姿勢が設計通りであるか否かを判断するのに要する時間が長ければ、車載カメラの姿勢が設計通りでない状態が発生した場合に当該状態に対する対策の実施が遅れることになる。したがって、車載カメラの姿勢が設計通りであるか否かを判断するのに要する時間は短い方が望ましい。
本発明は、上記課題に鑑みて、カメラの姿勢を精度良く推定でき、推定に要する時間の長期化を抑制できる技術を提供することを目的とする。
本発明に係る姿勢推定装置は、移動体に搭載されたカメラで撮影された撮影画像を取得する取得部と、第1時刻と前記第1時刻より後の第2時刻で撮影された2つの前記撮影画像それぞれから特徴点を抽出し、前記第1時刻より後の第3時刻と前記第3時刻より後の第4時刻で撮影された2つの前記撮影画像それぞれから特徴点を抽出する抽出部と、前記第1時刻と前記第2時刻で撮影された2つの前記撮影画像から抽出された特徴点から、互いに対応する第1特徴点を選定し、該第1特徴点の位置変化を算出し、前記第3時刻と前記第4時刻で撮影された2つの前記撮影画像から抽出された特徴点から、前記第1特徴点とは異なり、互いに対応する第2特徴点を選定し、該第2特徴点の位置変化を算出し、前記第1特徴点の位置変化及び前記第2特徴点の位置変化に基づき、所定の平面との交線が互いに平行となる面の組を2組特定する特定部と、前記特定部で特定した面の組に基づき前記カメラの姿勢を推定する推定部と、を備える構成(第1の構成)である。
上記第1の構成の姿勢推定装置において、前記第1特徴点の位置変化と前記第2特徴点の位置変化との組合せは、前記移動体の移動情報に基づき決定される構成(第2の構成)であってもよい。
上記第2の構成の姿勢推定装置において、前記移動情報は、前記移動体の舵角情報を含む構成(第3の構成)であってもよい。
上記第2又は第3の構成の姿勢推定装置において、前記移動情報は、前記移動体の速度情報を含む構成(第4の構成)であってもよい。
上記第2~第4いずれかの構成の姿勢推定装置において、前記移動情報は、通信バスを経由して、前記姿勢推定装置に供給される構成(第5の構成)であってもよい。
上記第2~第4いずれかの構成の姿勢推定装置において、前記移動情報は、前記第1特徴点位置変化を前記所定の平面上に座標変換した結果、及び、前記第2特徴点位置変化を前記所定の平面上に座標変換した結果に基づき推定された情報である構成(第6の構成)であってもよい。
上記第1~第6いずれかの構成の姿勢推定装置において、前記第1特徴点の位置変化と前記第2特徴点の位置変化との組合せは、前記第1時刻及び前記第2時刻の少なくとも一方に関連する時刻と前記第3時刻及び前記第4時刻の少なくとも一方に関連する時刻との時間差に基づき決定される構成(第7の構成)であってもよい。
上記第1~第7いずれかの構成の姿勢推定装置において、前記特定部は、前記第1時刻から前記第2時刻までの前記移動体の速度と前記第3時刻から前記第4時刻までの前記移動体の速度との違いに基づき、前記第1特徴点の位置変化及び前記第2特徴点の位置変化の少なくとも一方を補正し、少なくとも一方が補正された前記第1特徴点の位置変化及び前記第2特徴点の位置変化に基づき、前記所定の平面との交線が互いに平行となる面の組を2組特定する構成(第8の構成)であってもよい。
本発明に係る異常検出装置は、上記第1~第8いずれかの構成の姿勢推定装置と、前記推定部によって推定された前記カメラの姿勢に基づき、前記カメラの取付けのずれが生じた状態であるか否かを判定する判定部と、を備える構成(第9の構成)である。
本発明に係る補正装置は、上記第1~第8のいずれかの構成の姿勢推定装置と、前記推定部によって推定された前記カメラの姿勢に基づき、前記カメラのパラメータを補正する補正部と、を備える構成(第10の構成)である。
本発明に係る姿勢推定方法は、移動体に搭載されたカメラで撮影された撮影画像を取得する取得工程と、第1時刻と前記第1時刻より後の第2時刻で撮影された2つの前記撮影画像それぞれから特徴点を抽出し、前記第1時刻より後の第3時刻と前記第3時刻より後の第4時刻で撮影された2つの前記撮影画像それぞれから特徴点を抽出する抽出工程と、前記第1時刻と前記第2時刻で撮影された2つの前記撮影画像から抽出された特徴点から、互いに対応する第1特徴点を選定し、該第1特徴点の位置変化を算出し、前記第3時刻と前記第4時刻で撮影された2つの前記撮影画像から抽出された特徴点から、前記第1特徴点とは異なり、互いに対応する第2特徴点を選定し、該第2特徴点の位置変化を算出し、前記第1特徴点の位置変化及び前記第2特徴点の位置変化に基づき、所定の平面との交線が互いに平行となる面の組を2組特定する特定工程と、前記特定工程で特定した面の組に基づき前記カメラの姿勢を推定する推定工程と、を備える構成(第11の構成)である。
本発明によると、カメラの姿勢を精度良く推定でき、推定に要する時間の長期化を抑制できる。
異常検出システムの構成を示すブロック図 車載カメラが車両に配置される位置を例示する図 撮影画像の一例を模式的に示す図 撮影画像の他の例を模式的に示す図 撮影画像の更に他の例を模式的に示す図 姿勢推定装置によるカメラの姿勢推定フローの一例を示すフローチャート 現フレームよりLフレーム前の撮影画像を模式的に示す図 現フレームを模式的に示す図 現フレームよりNフレーム前の撮影画像を模式的に示す図 現フレームよりMフレーム前の撮影画像を模式的に示す図 現フレームよりLフレーム前の撮影画像を模式的に示す図 現フレームを模式的に示す図 仮想的に形成される四角形を模式的に示す図 所定の平面との交線が互いに平行になる面の組を2組特定する手法を説明するための図 特定した面の組の一方に基づき、面同士の交線の方向を求める手法を説明するための図 特定した面の組の他方に基づき、面同士の交線の方向を求める手法を説明するための図 補正システムの構成を示すブロック図
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、移動体として車両を例にとり説明するが、移動体は車両に限定されない。車両には、例えば自動車、電車、無人搬送車等の車輪のついた乗り物が広く含まれる。車両以外の移動体として、例えば船舶や航空機等が挙げられる。
また以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向」とする。また、車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の右側から左側に向かう方向を「左方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の左側から右側に向かう方向を「右方向」とする。
<1.異常検出システム>
図1は、実施形態に係る異常検出システムSYS1の構成を示すブロック図である。本実施形態において、異常は、カメラの取付けのずれが生じた状態である。すなわち、異常検出システムSYS1は、車両に搭載されたカメラ(車載カメラ)の取付けのずれを検出するシステムである。図1に示すように、異常検出システムSYS1は、異常検出装置1及び撮影部2を備える。
異常検出装置1は、車載カメラで撮影された撮影画像に基づいて異常を検出する装置である。異常検出装置1は、車載カメラを搭載する車両ごとに備えられる。本実施形態では、異常検出装置1は、撮影部2から撮影画像を取得する。
撮影部2は、車両周辺の状況を監視する目的で設けられる。撮影部2は、4つのカメラ21~24を備える。4つのカメラ21~24は、車載カメラである。図2は、4つの車載カメラ21~24が車両5に配置される位置を例示する図である。
車載カメラ21は車両5の前端に設けられる。このため、車載カメラ21をフロントカメラ21とも呼ぶ。フロントカメラ21の光軸21aは上からの平面視で車両5の前後方向に沿っている。フロントカメラ21は車両5の前方向を撮影する。車載カメラ22は車両5の後端に設けられる。このため、車載カメラ22をバックカメラ22とも呼ぶ。バックカメラ22の光軸22aは上からの平面視で車両5の前後方向に沿っている。バックカメラ22は車両5の後方向を撮影する。フロントカメラ21及びバックカメラ22の取付位置は、車両5の左右中央であることが好ましいが、左右中央から左右方向に多少ずれた位置であってもよい。
車載カメラ23は車両5の左側ドアミラー51に設けられる。このため、車載カメラ23を左サイドカメラ23とも呼ぶ。左サイドカメラ23の光軸23aは上からの平面視で車両5の左右方向に沿っている。左サイドカメラ23は車両5の左方向を撮影する。車載カメラ24は車両5の右側ドアミラー52に設けられる。このため、車載カメラ24を右サイドカメラ24とも呼ぶ。右サイドカメラ24の光軸24aは上からの平面視で車両5の左右方向に沿っている。右サイドカメラ24は車両5の右方向を撮影する。なお、車両5がいわゆるドアミラーレス車である場合には、左サイドカメラ23は左サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられ、右サイドカメラ24は右サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられる。
各車載カメラ21~24の水平方向の画角θは180度以上である。このため、車載カメラ21~24によって、車両5の水平方向における全周囲を撮影することができる。また、車載カメラ21~24によって撮影される画像には、車載カメラ21~24を搭載する車両5のボディが映り込む。
なお、本実施形態では、車載カメラの数を4つとしているが、この数は適宜変更されてよく、複数であっても単数であってもよい。例えば、車両5がバックで駐車することを支援する目的で車載カメラが搭載されている場合には、車載カメラは、バックカメラ22、左サイドカメラ23、右サイドカメラ24の3つで構成されてもよい。
図1に戻って、本実施形態では、ステアリングホイール(ハンドル)の回転角を検出する舵角センサ3の出力及び車両5の速度を検出する車速度センサ4の出力は、CAN(Controller Area Network)バス等の通信バスB1を介して異常検出装置1に入力される。
<2.異常検出装置>
図1に示すように、異常検出装置1は、取得部11と、制御部12と、記憶部13と、を備える。
取得部11は、車載カメラ21~24からアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。すなわち、取得部11によって取得される撮影画像の集合体が車載カメラ21~24で撮影された動画像である。そして、取得した撮影画像がアナログの場合には、取得部11は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。取得部11は、取得した撮影画像、或いは、取得及び変換した撮影画像を制御部12に出力する。取得部11から出力される1つの撮影画像が1つのフレーム画像となる。
制御部12は、例えばマイクロコンピュータであり、異常検出装置1の全体を統括的に制御する。制御部12は、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む。記憶部13は、例えば、フラッシュメモリ等の不揮発性のメモリであり、各種の情報を記憶する。記憶部13は、ファームウェアとしてのプログラムや各種のデータを記憶する。
制御部12は、抽出部121、特定部122、推定部123、及び判定部124を備える。なお、制御部12の抽出部121、特定部122、推定部123、及び判定部124の少なくともいずれか一つは、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。また、抽出部121、特定部122、推定部123、及び判定部124は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてよい。また、取得部11は、制御部12のCPUがプログラムに従って演算処理を行うことによって実現される構成でもよい。
抽出部121は、各車載カメラ21~24からの撮影画像から第1特徴点及び第2特徴点を含む複数の特徴点を抽出する。特徴点は、撮影画像中のエッジの交点など、撮影画像において際立って検出できる点である。特徴点は、例えば路面に描かれた白線のエッジ、路面上のひび、路面上のしみ、路面上の砂利などである。特徴点は、通常、1つの撮影画像の中に多数存在する。抽出部121は、例えば、ハリスオペレータ等の公知の手法を用いて特徴点を抽出する。抽出部121は、路面上の特徴点の中から第1特徴点及び第2特徴点を選定する。第1特徴点と第2特徴点とは互いに異なる特徴点である。なお、本実施形態では、所定の平面として路面を想定する。
特定部122は、異なる時刻で撮影された2つの撮影画像から抽出された第1特徴点及び第2特徴点の各オプティカルフローを導出する。オプティカルフローは、異なる時刻で撮影された2つの撮影画像間における特徴点の動きを示す動きベクトルである。異なる時刻の間隔は、取得部11のフレーム周期と同一であってもよく、取得部11のフレーム周期の複数倍であってもよい。
特定部122は、第1特徴点及び第2特徴点の各オプティカルフローを用いて、異なる時刻で撮影された2つの撮影画像から抽出された第1特徴点及び第2特徴点の各位置変化を算出する。
特定部122は、第1特徴点の位置変化及び第2特徴点の位置変化に基づき、所定の平面との交線が互いに平行となる面の組を2組特定する。
なお、単一の撮影画像から第1特徴点及び第2特徴点のいずれか一方のみしか抽出できない場合がある。また、単一の撮影画像から抽出された第1特徴点及び第2特徴点が適切な位置関係でない場合がある。
単一の撮影画像から第1特徴点及び第2特徴点のいずれか一方のみしか抽出できない場合の例として、図3に示す撮影画像及び図4に示す撮影画像を挙げることができる。
図3は、フロントカメラ21で撮影される撮影画像を模式的に示している。図3に示す撮影画像は、車両5のボディが映り込む領域BOを含む。図3に示す撮影画像内の斜線部は影を示しており、図3に示す撮影画像内の点線四角内が特徴点の抽出可能領域となるROI(region of interest)である。図3に示す撮影画像では、影の影響により路面RS上に存在する特徴点FPを一つしか抽出できない。
図4は、左サイドカメラ23で撮影される撮影画像を模式的に示している。図4に示す撮影画像は、車両5のボディが映り込む領域BOを含む。図4に示す撮影画像内の点線四角内が特徴点の抽出可能領域となるROIである。図4に示す撮影画像では、ROI内に白線のコーナーが1つしか存在しないため路面RS上に存在する特徴点FPを一つしか抽出できない。
単一の撮影画像から抽出された第1特徴点及び第2特徴点が適切な位置関係でない場合の例として、図5に示す撮影画像を挙げることができる。
図5は、フロントカメラ21で撮影される撮影画像を模式的に示している。図5に示す撮影画像は、車両5のボディが映り込む領域BOを含む。図5に示す撮影画像内の斜線部は影を示しており、図5に示す撮影画像内の点線四角内が特徴点の抽出可能領域となるROIである。図5に示す撮影画像では、影の影響により路面RS上に存在する特徴点FPを局所的な場所でしか抽出できない。第1特徴点と第2特徴点が局所的な場所に偏在していると、PAN軸、TILT軸、及びROLL軸の一部でカメラの姿勢推定の精度が劣るおそれがある。
単一の撮影画像から第1特徴点及び第2特徴点のいずれか一方のみしか抽出できない場合、又は、単一の撮影画像から抽出された第1特徴点及び第2特徴点が適切な位置関係でない場合、抽出部121は、第1時刻と第1時刻より後の第2時刻で撮影された2つの撮影画像それぞれから特徴点を抽出し、第1時刻より後の第3時刻と第3時刻より後の第4時刻で撮影された2つの前記撮影画像それぞれから特徴点を抽出すればよい。そして、特定部122は、第1時刻と第2時刻で撮影された2つの撮影画像から抽出された特徴点から、互いに対応する第1特徴点を選定し、第1特徴点の位置変化を算出し、第3時刻と第4時刻で撮影された2つの撮影画像から抽出された特徴点から、第1特徴点とは異なり、互いに対応する第2特徴点を選定し、第2特徴点の位置変化を算出し、第1特徴点の位置変化及び第2特徴点の位置変化に基づき、所定の平面との交線が互いに平行となる面の組を2組特定すればよい。
推定部123は、特定部122で特定した面の組に基づきカメラの姿勢(カメラの取付け角度)を推定する。例えば抽出部121がフロントカメラ21から第1特徴点及び第2特徴点を抽出した場合、推定部123はフロントカメラ21の姿勢(カメラの取付け角度)を推定する。
判定部124は、推定部123によって推定されたカメラの姿勢に基づき、カメラの取付けのずれが生じた状態であるか否かを判定する。カメラの取付けのずれが生じた状態であると判定されると、異常検出装置1がカメラの異常を検出したことになる。例えば、この異常を異常検出装置1が車両5のユーザに報知することで、車両5のユーザはディーラによるカメラの取付調整を依頼する等の対策をとることが可能となる。
取得部11、抽出部121、特定部122、及び推定部123によって姿勢推定装置14が構成される。言い換えると、異常検出装置1は姿勢推定装置14を備える。図6は、姿勢推定装置14によるカメラの姿勢推定フローの一例を示すフローチャートである。以下、フロントカメラ21の姿勢を推定する場合を例に挙げて説明する。
図6に示すように、抽出部121は特徴点を抽出する(ステップS1)。より詳細には、ステップS1において、抽出部121は、最新の撮影画像である現フレームの特徴点と現フレームよりL(Lは自然数)フレーム前の撮影画像の特徴点を抽出する。
次に、特定部122は、オプティカルフローを導出する(ステップS2)。より詳細には、ステップS2において、抽出部121は、最新の撮影画像(現フレーム)と現フレームよりL(Lは自然数)フレーム前の撮影画像から抽出された特徴点のオプティカルフローを導出する。
なお、ステップS2においてオプティカルフローが1つも導出されない場合は、現フレームより1フレーム後のフレームを新たな現フレームとし、その新たな現フレームに関して、ステップS1及びS2の処理を実行する。
記憶部13は、ステップS2で導出されたオプティカルフローを最新のオプティカルフローとして記憶する。最新のオプティカルフローは、現フレームの更新により過去のオプティカルフローに変化する。記憶部13は、最新のオプティカルフローが過去のオプティカルフローに変化した時点から一定時間が経過する迄の間、過去のオプティカルフローを記憶する。
ステップS2におけるオプティカルフローの導出が終了すると、特定部122は、特徴点に対し、記憶部13に記憶されているフロントカメラ21に内部パラメータを用いて座標変換を行う。座標変換では、フロントカメラ21の収差補正と、歪補正とが行われる。収差補正は、フロントカメラ21の光学系の収差による歪みを補正するために行われる。具体的には樽型歪みや糸巻歪みなど歪曲収差の補正である。歪み補正は、フロントカメラ21の光学系そのものの歪みを補正するために行われる。具体的には魚眼補正などである。座標変換により、特徴点の座標は、被写体が透視投影によって撮影された場合に二次元画像上で得られる座標に変換される。
上述した特徴点の座標変換が終了すると、特定部122は、最新のオプティカルフローのみで四角形を仮想的に形成できるか否かを判定する(ステップS3)。
最新のオプティカルフローのみで四角形を仮想的に形成できると判定した場合(ステップS3のYES)、特定部122は、最新のオプティカルフローのみで四角形を仮想的に形成する(ステップS4)。以降、説明のために四角形や、該四角形の辺などの幾何的要素を仮想的に形成して用いる。しかし、実際の処理では、特徴点の座標や直線の方向などのベクトル演算に基づき、同等の作用を持つ幾何的要素に基づかない処理としてもよい。
ここで、ステップS1、S2、S3、及びS4の順で処理が実行される場合の具体例について図7A、図7B、及び図8を参照して説明する。図7Aは現フレームよりL(Lは自然数)フレーム前の撮影画像を模式的に示す図である。図7Bは現フレームを模式的に示す図である。図8は仮想的に形成される四角形を模式的に示す図である。
図7Aに示す撮影画像P1及び図7Bに示す撮影画像P2はフロントカメラ21で撮影される。撮影画像P1及びP2は、車両5のボディが映り込む領域BOを含む。第1特徴点FP1及び第2特徴点FP2は路面RS上に存在する。図7A及び図7Bにおいては、路面に描かれている白線のコーナーに第1特徴点FP1及び第2特徴点FP2が存在する。
撮影画像P1の撮影時点から撮影画像P2の撮影時点迄の間に、車両5は前方に直進している。図7Bに示す丸印FP1Pは、撮影画像P1の撮影時点における第1特徴点FP1の位置を示す。図7Bに示す丸印FP2Pは、撮影画像P1の撮影時点における第2特徴点FP2の位置を示す。
図7Bに示すように、車両5が前方に直進すると、車両5の前方に存在する第1特徴点FP1及び第2特徴点FP2は車両5に近づく。すなわち、第1特徴点FP1及び第2特徴点FP2は、撮影画像P2と撮影画像P1とで異なる位置に現れる。特定部122は、撮影画像P2の第1特徴点FP1と撮影画像P1の第1特徴点FP1とを、その近傍の画素値に基づいて対応付け、対応付けた第1特徴点FP1のそれぞれの位置に基づいて、第1特徴点FP1のオプティカルフローOF1を導出する。同様に、特定部122は、撮影画像P2の第2特徴点FP2と撮影画像P1の第2特徴点FP2とを、その近傍の画素値に基づいて対応付け、対応付けた第2特徴点FP2のそれぞれの位置に基づいて、第2特徴点FP2のオプティカルフローOF2を導出する。
第1特徴点FP1のオプティカルフローOF1と第2特徴点FP2のオプティカルフローOF2が導出されると、特定部122は、特徴点に対し、記憶部13に記憶されているフロントカメラ21に内部パラメータを用いて座標変換を行う。座標変換では、フロントカメラ21の収差補正と、歪補正とが行われる。収差補正は、フロントカメラ21の光学系の収差による歪みを補正するために行われる。具体的には樽型歪みや糸巻歪みなど歪曲収差の補正である。歪み補正は、フロントカメラ21の光学系そのものの歪みを補正するために行われる。具体的には魚眼補正などである。座標変換により、特徴点の座標は、被写体が透視投影によって撮影された場合に二次元画像上で得られる座標に変換される。
特徴点の座標変換が行われると、特定部122は、図8に示すように、第1特徴点FP1のオプティカルフローOF1の始点を頂点SP1、第1特徴点FP1のオプティカルフローOF1の終点を頂点EP1、第2特徴点FP1のオプティカルフローOF2の始点を頂点SP2、及び第2特徴点FP2のオプティカルフローOF2の終点を頂点EPとする四角形QLを仮想的に形成する。
図6に戻ってフローチャートのステップS5に関して説明する。最新のオプティカルフローのみで四角形を仮想的に形成できないと判定した場合(ステップS3のNO)、特定部122は、過去のオプティカルフローと最新のオプティカルフローを用いて四角形を仮想的に形成する(ステップS5)。
ここで、ステップS1、S2、S3、及びS5の順で処理が実行される場合の具体例について図7C~図7F及び図8を参照して説明する。図7Cは現フレームよりN(Nは自然数)フレーム前の撮影画像を模式的に示す図である。図7Dは現フレームよりM(Mは自然数)フレーム前の撮影画像を模式的に示す図である。図7Eは現フレームよりL(Lは自然数)フレーム前の撮影画像を模式的に示す図である。図7Fは現フレームを模式的に示す図である。本実施形態では、上記N、M、及びLについてN>M>Lであるが、MとLは同一であってもよく、LがMより大きく且つNより小さくてもよい。
図7Cに示す撮影画像P11は第1時刻で撮影された撮影画像の一例である。図7Dに示す撮影画像P12は第1時刻より後の第2時刻で撮影された撮影画像の一例である。図7Eに示す撮影画像P13は第2時刻以後の第3時刻で撮影された撮影画像の一例である。図7Fに示す撮影画像P14は第3時刻より後の第4時刻で撮影された撮影画像の一例である。
図7C~図7Fに示す撮影画像P11~P14はフロントカメラ21で撮影される。撮影画像P11~P14は、車両5のボディが映り込む領域BOを含む。第1特徴点FP1及び第2特徴点FP2は路面RS上に存在する。図7C及び図7Dにおいては、路面に描かれている白線のコーナーに第1特徴点FP1が存在する。図7E及び図7Fにおいては、路面に描かれている白線のコーナーに第2特徴点FP2が存在する。
撮影画像P11の撮影時点から撮影画像P12の撮影時点迄の間に、車両5は前方に直進している。図7Dに示す丸印FP1Pは、撮影画像P11の撮影時点における第1特徴点FP1の位置を示す。同様に、撮影画像P13の撮影時点から撮影画像P14の撮影時点迄の間に、車両5は前方に直進している。図7Fに示す丸印FP2Pは、撮影画像P13の撮影時点における第2特徴点FP2の位置を示す。
図7Dに示すように、車両5が前方に直進すると、車両5の前方に存在する第1特徴点FP1は車両5に近づく。すなわち、第1特徴点FP1は、撮影画像P12と撮影画像P11とで異なる位置に現れる。特定部122は、撮影画像P12の第1特徴点FP1と撮影画像P11の第1特徴点FP1とを、その近傍の画素値に基づいて対応付け、対応付けた第1特徴点FP1のそれぞれの位置に基づいて、第1特徴点FP1のオプティカルフローOF1を導出する。
図7Fに示すように、車両5が前方に直進すると、車両5の前方に存在する第2特徴点FP2は車両5に近づく。すなわち、第2特徴点FP2は、撮影画像P14と撮影画像P13とで異なる位置に現れる。特定部122は、撮影画像P14の第2特徴点FP2と撮影画像P13の第2特徴点FP2とを、その近傍の画素値に基づいて対応付け、対応付けた第2特徴点FP2のそれぞれの位置に基づいて、第2特徴点FP2のオプティカルフローOF2を導出する。
第1特徴点FP1のオプティカルフローOF1と第2特徴点FP2のオプティカルフローOF2が導出されると、特定部122は、特徴点に対し、記憶部13に記憶されているフロントカメラ21に内部パラメータを用いて座標変換を行う。座標変換では、フロントカメラ21の収差補正と、歪補正とが行われる。収差補正は、フロントカメラ21の光学系の収差による歪みを補正するために行われる。具体的には樽型歪みや糸巻歪みなど歪曲収差の補正である。歪み補正は、フロントカメラ21の光学系そのものの歪みを補正するために行われる。具体的には魚眼補正などである。座標変換により、特徴点の座標は、被写体が透視投影によって撮影された場合に二次元画像上で得られる座標に変換される。
特徴点の座標変換が行われると、特定部122は、図8に示すように、第1特徴点FP1のオプティカルフローOF1の始点を頂点SP1、第1特徴点FP1のオプティカルフローOF1の終点を頂点EP1、第2特徴点FP1のオプティカルフローOF2の始点を頂点SP2、及び第2特徴点FP2のオプティカルフローOF2の終点を頂点EPとする四角形QLを仮想的に形成する。
図6に戻ってフローチャートのステップS5より後の処理に関して説明する。
四角形QLが仮想的に形成されると、特定部122は、四角形QLと、記憶部13に記憶されているフロントカメラ21の内部パラメータとを用いて、三次元空間におけるフロントカメラ21の投影面IMG上に四角形QLを移動させ、投影面IMG上での四角形QL1を仮想的に生成する(ステップS6)。
なお説明のため、以下のように四角形QL1の辺を定義する(図9参照)。四角形QL1の第1辺SD1は、四角形QLにおいて、頂点SP1および頂点SP2を結んだ辺に対応する。つまり、第1特徴点FP1のオプティカルフローOF1の始点と第2特徴点FP2のオプティカルフローOF2の始点とを結んだ辺に相当する。同様に、四角形QL1の第2辺SD2は、四角形QLにおいて、頂点SP2および頂点EP2を結んだ辺に対応する。つまり、第2特徴点FP2のオプティカルフローOF2に相当する。同様に、四角形QL1の第3辺SD3は、四角形QLにおいて、頂点EP1および頂点EP2を結んだ辺に対応する。つまり、第1特徴点FP1のオプティカルフローOF1の終点と第2特徴点FP2のオプティカルフローOF2の終点とを結んだ辺に相当する。同様に、四角形QL1の第4辺SD4は、四角形QLにおいて、頂点SP1および頂点EP1を結んだ辺に対応する。つまり、第1特徴点FP1のオプティカルフローOF1に相当する。
また、以下のように面を定義する(図9参照)。四角形QL1の第1辺SD1とフロントカメラ21の光学中心OCとが含まれる面を第1面F1とする。同様に、四角形QL1の第2辺SD2とフロントカメラ21の光学中心OCとが含まれる面を第2面F2とする。同様に、四角形QL1の第3辺SD3とフロントカメラ21の光学中心OCとが含まれる面を第3面F3とする。同様に、四角形QL1の第4辺SD4とフロントカメラ21の光学中心OCとが含まれる面を第4面F4とする。
ステップS6に続くステップS7において、特定部122は、所定の平面との交線が互いに平行になる面の組を2組特定する。所定の平面とはあらかじめ平面の法線が分かっている面である。具体的には車両5が移動を行っている平面であり、つまり路面である。所定の平面は、厳密な平面でなくてもよく、特定部122が所定の平面との交線が互いに平行になる面の組を2組特定する際に平面とみなすことができるものであればよい。
本実施形態では、第1特徴点及び第2特徴点は路面などの所定の平面上に位置している静止物から抽出される。したがって、特定部122によって導出される第1特徴点及び第2特徴点の各オプティカルフローは実世界上では、車両5に対する静止物の相対的な位置変化を表す。つまり向きが逆となった車両5の移動ベクトルである。
四角形QL1の第2辺SD2と第4辺SD4とは、共に特徴点のオプティカルフローに対応するので、共に実世界上では車両5の移動ベクトルに相当する。したがって、路面上では互いに平行となると想定される。
また、四角形QL1の第1辺SD1と第3辺SD3とは、共に特徴点同士の位置関係なので、実世界上では車両5の移動に伴う静止物同士の位置関係に相当する。移動前の位置関係が第1辺SD1に相当し、移動後の位置関係が第3辺SD3に相当する。このとき静止物の位置は変わらないため、移動前後で位置関係は変わらない。したがって、路面上ではこれも互いに平行となると想定される。
したがって、特定部122は、路面との交線が平行な面として、第2面F2と第4面F4との組と、第1面F1と第3面F3との組と、の2つの組を特定する。つまり、特定部122は、オプティカルフローを含む面同士を1つの組とし、同時刻に撮影された特徴点を含む面同士を他の組として、計2つの組を特定する。
なお、図9において四角形QL2は、図7Aに示す撮影画像P1及び図7Bに示す撮影画像P2で得られるオプティカルフローを用いて仮想的に形成した場合、撮影画像P2の撮影時点での第1特徴点FP1の3次元空間(実世界)上の位置、撮影画像P2の撮影時点での第2特徴点FP2の3次元空間上の位置、撮影画像P1の撮影時点での第1特徴点FP1の3次元空間上の位置、及び撮影画像P1の撮影時点での第2特徴点FP2の3次元空間上の位置を頂点とする四角形である。
一方、図9において四角形QL2は、図7Cに示す撮影画像P11、図7Dに示す撮影画像P12、図7Eに示す撮影画像P13、及び図7Fに示す撮影画像P14で得られるオプティカルフローを用いて仮想的に形成した場合、撮影画像P12の撮影時点での第1特徴点FP1の3次元空間(実世界)上の位置、撮影画像P14の撮影時点での第2特徴点FP2の3次元空間上の位置、撮影画像P11の撮影時点での第1特徴点FP1の3次元空間上の位置、及び撮影画像P13の撮影時点での第2特徴点FP2の3次元空間上の位置を頂点とする四角形である。
第1面F1は、四角形QL2の第1辺SD11を含む。同様に、第2面F2は四角形QL2の第2辺SD12を含み、第3面F3は四角形QL2の第3辺SD13を含み、第4面F4は四角形QL2の第4辺SD14を含む。このとき、上記のように四角形QL2は路面上に形成される平行四辺形であると想定される。
次に、推定部123は、路面の法線を算出する(ステップS8)。まず、推定部123は、特定部122で特定した面の組の一方である第1面F1と第3面F3とに基づき、面同士の交線の方向を求める。詳細には、第1面F1と第3面F3との交線CL1の向きを求める(図10参照)。交線CL1の方向ベクトルV1は、第1面F1の法線ベクトル及び第3面F3の法線ベクトルそれぞれと垂直なベクトルである。したがって、推定部123は、第1面F1の法線ベクトルと第3面F3の法線ベクトルとの外積により、交線CL1の方向ベクトルV1を求める。第1面F1と第3面F3は、路面との交線が平行となるため、方向ベクトルV1は路面と平行になる。
同様に、推定部123は、特定部122で特定した面の組の他方である第2面F2と第4面F4との交線の方向を求める。詳細には第2面F2と第4面F4との交線CL2の向きを求める(図11参照)。交線CL2の方向ベクトルV2は、第2面F2の法線ベクトル及び第4面F4の法線ベクトルそれぞれと垂直なベクトルである。したがって、推定部123は、第2面F2の法線ベクトルと第4面F4の法線ベクトルとの外積により、交線CL2の方向ベクトルV2を求める。第2面F2と第4面F4も同様に、路面との交線が平行となるため、方向ベクトルV2は路面と平行になる。
推定部123は、方向ベクトルV1と方向ベクトルV2との外積により、四角形QL2の面の法線、すなわち路面の法線を算出する。推定部123が算出した路面の法線はフロントカメラ21のカメラ座標系で算出されるため、実際の路面の法線である垂直方向との違いから3次元空間の座標系を求め、路面に対するフロントカメラ21の姿勢を推定することができる。その推定結果から推定部123は車両5に対するフロントカメラ21の姿勢を推定する(ステップS9)。なお、ステップS7の算出処理は、例えば公知のARToolkitを利用して実行することができる。
ステップS9におけるフロントカメラ21の姿勢推定が終了すると、図6に示すフローが終了する。
姿勢推定装置14は、車両5の移動を利用して、自律的に所定の平面との交線が互いに平行になる面の組を2組特定することで、特徴点の抽出誤差のみが推定精度に影響するカメラの姿勢推定を行うことができる。すなわち、姿勢推定装置14は、誤差要因が少ないカメラの姿勢推定を行うことができる。したがって、姿勢推定装置14は、カメラの姿勢を精度良く推定することができる。
また、姿勢推定装置14は、上述した通り、最新のオプティカルフローのみで四角形を仮想的に形成できない場合に、過去のオプティカルフローと最新のオプティカルフローを用いて四角形を仮想的に形成する。したがって、姿勢推定装置14は、最新のオプティカルフローのみで四角形を仮想的に形成することができない構成、すなわち、図6に示すフローチャートからステップS3及びS5を取り除いた動作を行う構成に比べて、推定に要する時間の長期化を抑制できる。
しかしながら、過去のオプティカルフローと最新のオプティカルフローを用いて四角形を仮想的に形成する場合、適切なオプティカルフローを用いなければ、最新のオプティカルフローのみで四角形を仮想的に形成する場合に比べて、カメラの姿勢推定の精度が大幅に低下するおそれがある。
図6に示すステップS5の処理で用いるオプティカルフローが適切であるかは車両5の移動具合に依存する。そこで、図6に示すステップS5の処理を実行する場合、第1特徴点のオプティカルフローOP1と第2特徴点のオプティカルフローOP2との組合せは、車両5の移動情報に基づき決定されることが望ましい。
上述した通り、姿勢推定装置14は、四角形QL2が路面上に形成される平行四辺形であるとの想定の下、カメラの姿勢推定を行っている。
第1特徴点のオプティカルフローOP1が発生するときの車両5の舵角と第2特徴点のオプティカルフローOP2が発生するときの車両5の舵角との違いが少ないほど、上記の想定と現実との乖離が小さくなる。したがって、上述した車両5の移動情報に車両5の舵角情報を含め、図6に示すステップS5の処理を実行する場合、第1特徴点のオプティカルフローOP1と第2特徴点のオプティカルフローOP2との組合せは、車両5の舵角情報に基づき決定されることが望ましい。以下、この組合せ決定手法を第1決定手法という。例えば、舵角センサ3から通信バスB1を経由して姿勢推定装置14に供給される舵角センサ3の出力を車両5の舵角情報として用いると、車両5の舵角情報が舵角の推定情報ではなく舵角の実測情報になるので、車両5の舵角情報の精度を高めることができる。
例えば、図7Dに示す撮影画像P12の撮影時点における車両5の舵角と図7Fに示す撮影画像P14の撮影時点における車両5の舵角との差が所定角度以内になるように、第1特徴点のオプティカルフローOP1と第2特徴点のオプティカルフローOP2との組合せを決定すればよい。また、例えば、図7Cに示す撮影画像P11の撮影時点から図7Dに示す撮影画像P12の撮影時点までの車両5の舵角の平均値と図7Eに示す撮影画像P13の撮影時点から図7Fに示す撮影画像P14の撮影時点までの車両5の舵角の平均値との差が所定角度以内になるように、第1特徴点のオプティカルフローOP1と第2特徴点のオプティカルフローOP2との組合せを決定してもよい。
第1特徴点のオプティカルフローOP1が発生するときの車両5の速度と第2特徴点のオプティカルフローOP2が発生するときの車両5の速度との違いが少ないほど、上記の想定と現実との乖離が小さくなる。したがって、上述した車両5の移動情報に車両5の速度情報を含め、図6に示すステップS5の処理を実行する場合、第1特徴点のオプティカルフローOP1と第2特徴点のオプティカルフローOP2との組合せは、車両5の速度情報に基づき決定されることが望ましい。以下、この組合せ決定手法を第2決定手法という。例えば、車速度センサ4から通信バスB1を経由して姿勢推定装置14に供給される車速度センサ4の出力を車両5の速度情報として用いると、車両5の速度情報が速度の推定情報ではなく速度の実測情報になるので、車両5の速度情報の精度を高めることができる。
例えば、図7Dに示す撮影画像P12の撮影時点における車両5の速度と図7Fに示す撮影画像P14の撮影時点における車両5の速度との差が所定速度以内になるように、第1特徴点のオプティカルフローOP1と第2特徴点のオプティカルフローOP2との組合せを決定すればよい。また、例えば、図7Cに示す撮影画像P11の撮影時点から図7Dに示す撮影画像P12の撮影時点までの車両5の速度の平均値と図7Eに示す撮影画像P13の撮影時点から図7Fに示す撮影画像P14の撮影時点までの車両5の速度の平均値との差が所定速度以内になるように、第1特徴点のオプティカルフローOP1と第2特徴点のオプティカルフローOP2との組合せを決定してもよい。
なお、第1特徴点のオプティカルフローOP1が発生するときと第2特徴点のオプティカルフローOP1が発生するときとの時間差が短ければ、車両5の移動具合の変化も小さいことが期待できる。したがって、図6に示すステップS5の処理を実行する場合、第1特徴点のオプティカルフローOP1と第2特徴点のオプティカルフローOP2との組合せは、図7Cに示す撮影画像P11の撮影時点と図7Dに示す撮影画像P12の撮影時点の少なくとも一方に関連する時刻と図7Eに示す撮影画像P13の撮影時点と図7Fに示す撮影画像P14の撮影時点の少なくとも一方に関連する時刻との時間差に基づき決定されることが望ましい。以下、この組合せ決定手法を第3決定手法という。
図7Cに示す撮影画像P11の撮影時点と図7Dに示す撮影画像P12の撮影時点の少なくとも一方に関連する時刻としては、例えば、図7Cに示す撮影画像P11の撮影時点の時刻、図7Dに示す撮影画像P12の撮影時点の時刻、図7Cに示す撮影画像P11の撮影時点と図7Dに示す撮影画像P12の撮影時点との中点の時刻等を挙げることができる。同様に、図7Eに示す撮影画像P13の撮影時点と図7Fに示す撮影画像P14の撮影時点の少なくとも一方に関連する時刻としては、例えば、図7Eに示す撮影画像P13の撮影時点の時刻、図7Fに示す撮影画像P14の撮影時点の時刻、図7Eに示す撮影画像P13の撮影時点と図7Fに示す撮影画像P14の撮影時点との中点の時刻等を挙げることができる。
上述した第1決定手法、第2決定手法、第3決定手法はそれぞれ単独で実施してもよく、任意の2つ以上を組み合わせて実施してもよい。
また、第1特徴点及び第2特徴点の各オプティカルフローは、向きが逆となった車両5の移動ベクトルであるので、上述した移動情報を、第1特徴点及び第2特徴点の各オプティカルフローを路面上に座標変換した結果に基づき推定された情報としてもよい。第1特徴点及び第2特徴点の各オプティカルフローを路面上に座標変換し、路面上での長さを算出することで車両5の速度を推定でき、路面上での傾きを算出することで車両5の舵角を推定できる。つまり、上述した第1決定手法、第2決定手法の代わりとして実施することができる。上述した移動情報を、第1特徴点及び第2特徴点の各オプティカルフローを路面上に座標変換した結果に基づき推定された情報とする場合、姿勢推定装置14と通信バスB1との接続が不要になる。
また、特定部122は、第1特徴点のオプティカルフローOP1が発生するときの車両5の速度(車速度センサ4で検出される実測値であってもよく上述した推定速度であってもよい)と第2特徴点のオプティカルフローOP2が発生するときの車両5の速度(車速度センサ4で検出される実測値であってもよく上述した推定速度であってもよい)との違いに基づき、第1特徴点のオプティカルフローOP1及び第2特徴点のオプティカルフローOP2の少なくとも一方を補正し、少なくとも一方が補正された第1特徴点及び第2特徴点の各オプティカルフローに基づき、路面との交線が互いに平行となる面の組を2組特定することが望ましい。これにより、カメラの姿勢推定の精度を向上させることができる。
例えば、第1特徴点のオプティカルフローOP1が発生するときの車両5の速度が第2特徴点のオプティカルフローOP2が発生するときの車両5の速度より大きい場合、第1特徴点のオプティカルフローOP1が短くなるように補正してよく、第2特徴点のオプティカルフローOP2が長くなるように補正してよく、第1特徴点のオプティカルフローOP1が短くなり且つ第2特徴点のオプティカルフローOP2が長くなるように補正してよい。
なお、例えば路面RSがコンクリートで構成される場合、特徴点が抽出され難い。このため、特徴点の抽出誤差が大きくなり易い。しかしながら、例えば、コンクリートで構成される路面RSに汚れが存在する場合、その汚れ部分から第1特徴点FP1及び第2特徴点FP2を抽出すると、特徴度が高い特徴点を第1特徴点FP1及び第2特徴点FP2として選定することになり、第1特徴点FP1及び第2特徴点FP2の抽出誤差を抑制できると考えられる。
汚れに限らず、特徴点が他に比べて集中して存在する高密度領域が存在する場合、その高密度領域の中から、第1特徴点FP1及び第2特徴点FP2を抽出することにより、第1特徴点FP1及び第2特徴点FP2の抽出誤差を抑制できると考えられる。したがって、特徴点が他に比べて集中して存在する高密度領域が存在する場合、その高密度領域の中から、第1特徴点FP1及び第2特徴点FP2が抽出部121によって抽出されてもよい。
また、コーナー度が高い特徴点の抽出では、抽出誤差が小さくなる。したがって、記第1特徴点及び前記第2特徴点を、コーナーらしさを示すコーナー度が所定のコーナー度閾値以上となる特定の特徴点としてもよい。コーナーとは2つのエッジが交わる部分である。コーナーでは、コーナー度が高くなる。コーナー度は、例えばHarrisオペレータやKLT(Kanade-Lucas-Tomasi)トラッカーなどの公知の検出手法を用いて求めることができる。
なお、上記の説明ではフロントカメラ21の光学中心OCと、四角形QL1の1つの辺を含む平面を特定するとしたがこの限りではない。当該平面の法線方向の特定をもって平面を特定するとしてもよい。例えば光学中心OCから各頂点への方向ベクトルの外積により平面の法線方向を求め、該法線方向によって面を特定するとしてもよい。この場合、第1面F1の法線方向と第3面F3の法線方向とを1つの組とし、第2面F2の法線方向と第4面F4の法線方向とを他の組として2つの組を特定するとよい。
また、面は平行移動させてもよい。例えば第1面F1の代わりに、第1面F1を平行移動させた面を第3面F3と組としてもよい。平行移動しても所定の平面との交線の向きは変わらないからである。
<3.補正システム>
図12は、実施形態に係る補正システムSYS2の構成を示すブロック図である。図12において、図1と同一の部分には同一の符号を付し詳細な説明を省略する。図12に示すように、補正システムSYS2は、補正装置1’及び撮影部2を備える。
補正装置1’は、図1に示す異常検出装置1から判定部124を取り除き補正部125を追加した構成と同一である。すなわち、補正装置1’は、姿勢推定装置14及び補正部125を備える。
補正部125は、推定部123によって推定されたカメラの姿勢に基づき、カメラのパラメータを補正する。これにより、カメラの取付けのずれが生じても、そのずれに応じたカメラのキャリブレーションが実行されることになり、カメラの取付けのずれが撮影画像に及ぼす悪影響を抑制することができる。
<4.留意事項>
本明細書における実施形態や実施例の構成は、本発明の例示にすぎない。実施形態や変形例の構成は、本発明の技術的思想を超えない範囲で適宜変更されてもよい。また、複数の実施形態及び変形例は、可能な範囲で組み合わせて実施されてよい。
本発明は、上述した実施形態のように、自動駐車等の移動体の運転支援を行うカメラの姿勢推定を行うために利用することができる。また、本発明は、ドライブレコーダ等の運転情報を記録するカメラの姿勢推定を行うために利用することができる。また、本発明は、上述した実施形態のように、カメラの姿勢の推定情報を利用して撮影画像を補正する補正装置等に利用することができる。また、本発明は、複数の移動体とネットワークにより通信可能に設けられるセンターと連携して動作する装置等に利用することができる。当該装置は、例えば、センターに撮影画像を送信する場合に、カメラの異常情報や姿勢の推定情報を撮影画像とセットにして送信する構成であってよい。そしてセンターでは、カメラの姿勢の推定情報を用いて、各種画像処理(カメラの姿勢も考慮した画像の視点・視方向を変更する処理、例えば車両の車体前方方向の画像に視点・視方向変換した画像を生成する等)、画像を用いた計測処理におけるカメラの姿勢に対する補正処理、カメラ姿勢の経年変化を統計処理(多くの車両のデータ)、等を行いユーザへの有用な提供データを生成する等する。
1 異常検出装置
1’ 補正装置
14 姿勢推定装置
21~24 車載カメラ
11 取得部
121 抽出部
122 特定部
123 推定部
124 判定部
125 補正部

Claims (11)

  1. 移動体に搭載されたカメラで撮影された撮影画像を取得する取得部と、
    第1時刻と前記第1時刻より後の第2時刻で撮影された2つの前記撮影画像それぞれから特徴点を抽出し、前記第1時刻より後の第3時刻と前記第3時刻より後の第4時刻で撮影された2つの前記撮影画像それぞれから特徴点を抽出する抽出部と、
    前記第1時刻と前記第2時刻で撮影された2つの前記撮影画像から抽出された特徴点から、互いに対応する第1特徴点を選定し、該第1特徴点の位置変化を算出し、
    前記第3時刻と前記第4時刻で撮影された2つの前記撮影画像から抽出された特徴点から、前記第1特徴点とは異なり、互いに対応する第2特徴点を選定し、該第2特徴点の位置変化を算出し、
    前記第1特徴点の位置変化及び前記第2特徴点の位置変化に基づき、所定の平面との交線が互いに平行となる面の組を2組特定する特定部と、
    前記特定部で特定した面の組に基づき前記カメラの姿勢を推定する推定部と、
    を備える、姿勢推定装置。
  2. 前記第1特徴点の位置変化と前記第2特徴点の位置変化との組合せは、前記移動体の移動情報に基づき決定される、請求項1に記載の姿勢推定装置。
  3. 前記移動情報は、前記移動体の舵角情報を含む、請求項2に記載の姿勢推定装置。
  4. 前記移動情報は、前記移動体の速度情報を含む、請求項2又は請求項3に記載の姿勢推定装置。
  5. 前記移動情報は、通信バスを経由して、前記姿勢推定装置に供給される、請求項2~4のいずれか一項に記載の姿勢推定装置。
  6. 前記移動情報は、前記第1特徴点位置変化を前記所定の平面上に座標変換した結果、及び、前記第2特徴点位置変化を前記所定の平面上に座標変換した結果に基づき推定された情報である、請求項2~4に記載の姿勢推定装置。
  7. 前記第1特徴点の位置変化と前記第2特徴点の位置変化との組合せは、前記第1時刻及び前記第2時刻の少なくとも一方に関連する時刻と前記第3時刻及び前記第4時刻の少なくとも一方に関連する時刻との時間差に基づき決定される、請求項1~6のいずれか一項に記載の姿勢推定装置。
  8. 前記特定部は、前記第1時刻から前記第2時刻までの前記移動体の速度と前記第3時刻から前記第4時刻までの前記移動体の速度との違いに基づき、前記第1特徴点の位置変化及び前記第2特徴点の位置変化の少なくとも一方を補正し、少なくとも一方が補正された前記第1特徴点の位置変化及び前記第2特徴点の位置変化に基づき、前記所定の平面との交線が互いに平行となる面の組を2組特定する、請求項1~7のいずれか一項に記載の姿勢推定装置。
  9. 請求項1~8のいずれか一項に記載の姿勢推定装置と、
    前記推定部によって推定された前記カメラの姿勢に基づき、前記カメラの取付けのずれが生じた状態であるか否かを判定する判定部と、
    を備える、異常検出装置。
  10. 請求項1~8のいずれか一項に記載の姿勢推定装置と、
    前記推定部によって推定された前記カメラの姿勢に基づき、前記カメラのパラメータを
    補正する補正部と、
    を備える、補正装置。
  11. 移動体に搭載されたカメラで撮影された撮影画像を取得する取得工程と、
    第1時刻と前記第1時刻より後の第2時刻で撮影された2つの前記撮影画像それぞれから特徴点を抽出し、前記第1時刻より後の第3時刻と前記第3時刻より後の第4時刻で撮影された2つの前記撮影画像それぞれから特徴点を抽出する抽出工程と、
    前記第1時刻と前記第2時刻で撮影された2つの前記撮影画像から抽出された特徴点から、互いに対応する第1特徴点を選定し、該第1特徴点の位置変化を算出し、前記第3時刻と前記第4時刻で撮影された2つの前記撮影画像から抽出された特徴点から、前記第1特徴点とは異なり、互いに対応する第2特徴点を選定し、該第2特徴点の位置変化を算出し、前記第1特徴点の位置変化及び前記第2特徴点の位置変化に基づき、所定の平面との交線が互いに平行となる面の組を2組特定する特定工程と、
    前記特定工程で特定した面の組に基づき前記カメラの姿勢を推定する推定工程と、
    を備える、姿勢推定方法。
JP2019152636A 2019-08-23 2019-08-23 姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法 Active JP7297595B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019152636A JP7297595B2 (ja) 2019-08-23 2019-08-23 姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019152636A JP7297595B2 (ja) 2019-08-23 2019-08-23 姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法

Publications (2)

Publication Number Publication Date
JP2021034857A JP2021034857A (ja) 2021-03-01
JP7297595B2 true JP7297595B2 (ja) 2023-06-26

Family

ID=74676163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019152636A Active JP7297595B2 (ja) 2019-08-23 2019-08-23 姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法

Country Status (1)

Country Link
JP (1) JP7297595B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013074325A (ja) 2011-09-26 2013-04-22 Toshiba Alpine Automotive Technology Corp 車載カメラ用画像補正方法および車載カメラ用画像補正プログラム
JP2019121030A (ja) 2017-12-28 2019-07-22 株式会社デンソーテン カメラずれ検出装置、カメラずれ検出方法および異常検出装置
JP2019129403A (ja) 2018-01-24 2019-08-01 株式会社デンソーテン カメラずれ検出装置およびカメラずれ検出方法
JP2019139290A (ja) 2018-02-06 2019-08-22 株式会社デンソー 姿勢推定装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013074325A (ja) 2011-09-26 2013-04-22 Toshiba Alpine Automotive Technology Corp 車載カメラ用画像補正方法および車載カメラ用画像補正プログラム
JP2019121030A (ja) 2017-12-28 2019-07-22 株式会社デンソーテン カメラずれ検出装置、カメラずれ検出方法および異常検出装置
JP2019129403A (ja) 2018-01-24 2019-08-01 株式会社デンソーテン カメラずれ検出装置およびカメラずれ検出方法
JP2019139290A (ja) 2018-02-06 2019-08-22 株式会社デンソー 姿勢推定装置

Also Published As

Publication number Publication date
JP2021034857A (ja) 2021-03-01

Similar Documents

Publication Publication Date Title
CN107004277B (zh) 机动车辆摄像头系统的在线标定
JP7256734B2 (ja) 姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法
US10567704B2 (en) Method for motion estimation between two images of an environmental region of a motor vehicle, computing device, driver assistance system as well as motor vehicle
JP7445415B2 (ja) 姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法
JP7270499B2 (ja) 異常検出装置、異常検出方法、姿勢推定装置、および、移動体制御システム
JP7212486B2 (ja) 位置推定装置
US10839231B2 (en) Method for detecting a rolling shutter effect in images of an environmental region of a motor vehicle, computing device, driver assistance system as well as motor vehicle
KR20180112010A (ko) 자동차의 도로변의 물체를 검출하는 방법, 컴퓨팅 장치, 운전자 보조 시스템 및 자동차
WO2019156072A1 (ja) 姿勢推定装置
US10546391B2 (en) Apparatus and method for generating around view
JP7303064B2 (ja) 画像処理装置、および、画像処理方法
JP6161704B2 (ja) 撮影装置、車両および画像補正方法
JP7297595B2 (ja) 姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法
JP7237773B2 (ja) 姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法
JP7311407B2 (ja) 姿勢推定装置、および、姿勢推定方法
JP7232005B2 (ja) 車両の走行環境検出装置及び走行制御システム
JP2018136739A (ja) キャリブレーション装置
JP6747176B2 (ja) 画像処理装置、撮影装置、プログラム、機器制御システム及び機器
JP7009209B2 (ja) カメラずれ検出装置、カメラずれ検出方法および異常検出装置
KR20170114523A (ko) Avm용 주행 자동 공차 보정 장치 및 방법
KR101293263B1 (ko) 복수개의 영상을 합성한 합성 영상에서 거리 정보를 제공하는 기능을 구비하는 영상 처리 장치 및 방법
JP7236352B2 (ja) 姿勢推定装置、および、姿勢推定方法
JP7311406B2 (ja) 画像処理装置、および、画像処理方法
JP6981881B2 (ja) カメラずれ検出装置およびカメラずれ検出方法
KR102479253B1 (ko) 차량용 카메라 영상 기반 공차 보정 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230614

R150 Certificate of patent or registration of utility model

Ref document number: 7297595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150