JP7256734B2 - Posture estimation device, anomaly detection device, correction device, and posture estimation method - Google Patents
Posture estimation device, anomaly detection device, correction device, and posture estimation method Download PDFInfo
- Publication number
- JP7256734B2 JP7256734B2 JP2019224292A JP2019224292A JP7256734B2 JP 7256734 B2 JP7256734 B2 JP 7256734B2 JP 2019224292 A JP2019224292 A JP 2019224292A JP 2019224292 A JP2019224292 A JP 2019224292A JP 7256734 B2 JP7256734 B2 JP 7256734B2
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- camera
- unit
- optical flow
- optical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、カメラの姿勢を推定する姿勢推定装置、カメラの異常を検出する異常検出装置、カメラのパラメータを補正する補正装置、および、カメラの姿勢を推定する姿勢推定方法に関する。 The present invention relates to a posture estimation device for estimating the posture of a camera, an anomaly detection device for detecting anomalies in a camera, a correction device for correcting camera parameters, and a posture estimation method for estimating the posture of a camera.
従来、車載カメラを用いて、例えば車両の駐車支援等の運転支援が行われている。車載カメラは、車両を工場から出荷する前に、車両に固定状態で取り付けられる。しかしながら、車載カメラは、例えば不意の接触や経年変化等によって、工場出荷時の取付状態から位置ずれを起こすことがある。車載カメラの位置(車両のボディに対する車載カメラの相対位置)がずれると、カメラ画像を利用して判断されるハンドルの操舵量等に誤差が生じるために、車載カメラの位置ずれを検出することは重要である。 2. Description of the Related Art Conventionally, vehicle-mounted cameras are used to provide driving assistance such as parking assistance for vehicles. An on-board camera is fixedly attached to a vehicle before the vehicle leaves the factory. However, the on-vehicle camera may be displaced from the mounting state at the time of shipment from the factory due to, for example, accidental contact or aging. If the position of the in-vehicle camera (relative position of the in-vehicle camera to the vehicle body) shifts, an error will occur in the amount of steering wheel steering determined using the camera image. is important.
特許文献1には、車載カメラの光軸ずれを検出する技術が開示される。特許文献1における車載カメラの光軸ずれ検出装置は、画像処理手段と判断手段とを備える。画像処理手段は、運転支援する車体部上のマーキングを含む範囲を撮影する車載カメラの撮影画像から該マーキングの位置情報を検出する。判断手段は、初期設定されたマーキング位置情報と、新たに検出されたマーキングの位置情報とを比較することにより、撮影光軸ずれを判断する。
車載カメラの撮影画像には、車両周囲の風景等が映るために、例えばマーキングがボンネットの一部の特定形状である場合、当該特定形状を簡単に抽出できないことがある。当該特定形状が誤検出されると、車載カメラの光軸ずれが正確に判断されない可能性がある。なお、車載カメラの光軸ずれとは、車載カメラの姿勢が設計通りでないことを意味している。 Since the captured image of the on-vehicle camera shows the scenery around the vehicle, for example, when the marking is a specific shape of a part of the hood, the specific shape may not be easily extracted. If the specific shape is erroneously detected, there is a possibility that the misalignment of the optical axis of the in-vehicle camera may not be accurately determined. It should be noted that the deviation of the optical axis of the vehicle-mounted camera means that the posture of the vehicle-mounted camera is not as designed.
本発明は、上記課題に鑑みて、カメラの姿勢を精度良く推定できるとともに、姿勢推定に用いるオプティカルフローの位置に依存して姿勢推定の精度が低下することを抑制できる技術を提供することを目的とする。 SUMMARY OF THE INVENTION In view of the above problems, it is an object of the present invention to provide a technology capable of estimating the pose of a camera with high accuracy and suppressing a decrease in accuracy of pose estimation that depends on the position of the optical flow used for pose estimation. and
本発明に係る姿勢推定装置は、移動体に搭載されたカメラで撮影された撮影画像を取得する取得部と、前記撮影画像から第1特徴点及び第2特徴点を含む複数の特徴点を抽出する抽出部と、前記複数の特徴点ごとにオプティカルフローを導出するフロー導出部と、前記フロー導出部で導出されたオプティカルフローの位置に基づいて、前記フロー導出部で導出されたオプティカルフローの中から前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローを選択する選択部と、前記選択部で選択された前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローに基づき、所定の平面との交線が互いに平行となる面の組を2組特定する特定部と、前記特定部で特定した面の組に基づき前記カメラの姿勢を推定する推定部と、を備える構成(第1の構成)である。 A posture estimation apparatus according to the present invention includes an acquisition unit that acquires a captured image captured by a camera mounted on a mobile object, and extracts a plurality of feature points including a first feature point and a second feature point from the captured image. a flow derivation unit for deriving an optical flow for each of the plurality of feature points; and based on the position of the optical flow derived by the flow derivation unit, the optical flow derived by the flow derivation unit a selection unit that selects the optical flow of the first feature point and the optical flow of the second feature point from the optical flow of the first feature point and the optical flow of the second feature point selected by the selection unit; and an estimating unit for estimating the orientation of the camera based on the sets of planes specified by the specifying unit. It is a configuration (first configuration).
上記第1の構成の姿勢推定装置において、前記選択部は、前記第1特徴点の実世界上の位置と前記第2特徴点の実世界上の位置との所定の方向における距離が所定値以上になるように、前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローを選択する構成(第2の構成)であってもよい。 In the posture estimation device having the first configuration, the selection unit determines that the distance in a predetermined direction between the real-world position of the first feature point and the real-world position of the second feature point is equal to or greater than a predetermined value. The configuration (second configuration) may be such that the optical flow of the first feature point and the optical flow of the second feature point are selected so that
上記第2の構成の姿勢推定装置において、前記選択部は、前記第1特徴点の実世界上の位置と前記第2特徴点の実世界上の位置との前記所定の方向に垂直な方向における距離が大きいほど、前記所定値を大きくする構成(第3の構成)であってもよい。 In the posture estimation device having the second configuration, the selection unit selects the position of the first feature point in the real world and the position of the second feature point in the real world in a direction perpendicular to the predetermined direction. The predetermined value may be increased as the distance is increased (third configuration).
上記第2又は第3の構成の姿勢推定装置において、前記選択部は、前記カメラの光軸中心から所定距離以内の領域に位置する前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローを選択する構成(第4の構成)であってもよい。 In the posture estimation device having the second or third configuration, the selection unit selects an optical flow of the first feature point and an optical flow of the second feature point located within a predetermined distance from the center of the optical axis of the camera. A configuration (fourth configuration) for selecting a flow may be used.
上記第4の構成の姿勢推定装置において、前記カメラは、前記移動体の前方又は後方を臨む構成(第5の構成)であってもよい。 In the posture estimation device having the fourth configuration, the camera may be configured to view the front or rear of the moving object (fifth configuration).
上記第2又は第3の構成の姿勢推定装置において、前記選択部は、前記カメラの光軸中心から所定距離以内の領域に位置する前記第1特徴点のオプティカルフロー及び前記カメラの光軸中心から前記所定距離より離れた領域に位置する前記第2特徴点のオプティカルフローを選択する構成(第6の構成)であってもよい。 In the posture estimation apparatus having the second or third configuration, the selection unit selects the optical flow of the first feature points located within a predetermined distance from the center of the optical axis of the camera and the optical flow from the center of the optical axis of the camera. The configuration (sixth configuration) may be such that the optical flow of the second feature point located in the area away from the predetermined distance is selected.
上記第6の構成の姿勢推定装置において、前記カメラは、前記移動体の左方又は右方を臨む構成(第7の構成)であってもよい。 In the posture estimation device having the sixth configuration, the camera may be configured to view the left or right side of the moving object (seventh configuration).
本発明に係る異常検出装置は、上記第1~第7いずれかの構成の姿勢推定装置と、前記推定部によって推定された前記カメラの姿勢に基づき、前記カメラの取付けのずれが生じた状態であるか否かを判定する判定部と、を備える構成(第8の構成)である。 An anomaly detection apparatus according to the present invention provides a posture estimation device having any one of the first to seventh configurations described above, and a posture estimation device, based on the posture of the camera estimated by the estimation unit, in a state in which the mounting of the camera is deviated. and a determination unit for determining whether or not there is a configuration (eighth configuration).
本発明に係る補正装置は、上記第1~第7いずれかの構成の姿勢推定装置と、前記推定部によって推定された前記カメラの姿勢に基づき、前記カメラのパラメータを補正する補正部と、を備える構成(第9の構成)である。 A correction device according to the present invention includes: a posture estimation device having any one of the first to seventh configurations; and a correction unit that corrects parameters of the camera based on the camera posture estimated by the estimation unit. It is a configuration (ninth configuration) provided.
本発明に係る姿勢推定方法は、移動体に搭載されたカメラで撮影された撮影画像を取得する取得工程と、前記撮影画像から第1特徴点及び第2特徴点を含む複数の特徴点を抽出する抽出工程と、前記複数の特徴点ごとにオプティカルフローを導出するフロー導出工程と、前記フロー導出工程で導出されたオプティカルフローの位置に基づいて、前記フロー導出工程で導出されたオプティカルフローの中から前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローを選択する選択工程と、前記選択工程で選択された前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローに基づき、所定の平面との交線が互いに平行となる面の組を2組特定する特定工程と、前記特定工程で特定した面の組に基づき前記カメラの姿勢を推定する推定工程と、を備える構成(第10の構成)である。 A posture estimation method according to the present invention includes an acquisition step of acquiring a photographed image taken by a camera mounted on a mobile object, and extracting a plurality of feature points including a first feature point and a second feature point from the photographed image. a flow derivation step of deriving an optical flow for each of the plurality of feature points; and based on the position of the optical flow derived in the flow derivation step, the optical flow derived in the flow derivation step a selection step of selecting the optical flow of the first feature point and the optical flow of the second feature point from the optical flow of the first feature point and the optical flow of the second feature point selected in the selection step; and an estimating step of estimating the posture of the camera based on the pairs of planes identified in the identifying step. This is the configuration (tenth configuration).
本発明によると、カメラの姿勢を精度良く推定できるとともに、姿勢推定に用いるオプティカルフローの位置に依存して姿勢推定の精度が低下することを抑制できる。 According to the present invention, it is possible to accurately estimate the pose of a camera, and to prevent the accuracy of pose estimation from deteriorating depending on the position of the optical flow used for pose estimation.
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、移動体として車両を例にとり説明するが、移動体は車両に限定されない。車両には、例えば自動車、電車、無人搬送車等の車輪のついた乗り物が広く含まれる。車両以外の移動体として、例えば船舶や航空機等が挙げられる。 Exemplary embodiments of the invention are described in detail below with reference to the drawings. In the following description, a vehicle is taken as an example of a moving object, but the moving object is not limited to a vehicle. Vehicles broadly include vehicles with wheels, such as automobiles, trains, and automatic guided vehicles. Examples of mobile objects other than vehicles include ships and aircraft.
また以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向」とする。また、車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の右側から左側に向かう方向を「左方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の左側から右側に向かう方向を「右方向」とする。 Further, in the following description, the direction in which the vehicle travels straight ahead, which is the direction from the driver's seat to the steering wheel, is referred to as the "forward direction." In addition, the direction from the steering wheel to the driver's seat, which is the direction in which the vehicle travels straight, is defined as the "rearward direction." In addition, the direction perpendicular to the straight traveling direction and the vertical line of the vehicle and from the right side to the left side of the driver who is facing forward is referred to as the "left direction." Also, the direction perpendicular to the straight traveling direction and the vertical line of the vehicle and from the left side to the right side of the driver who is facing forward is referred to as the "right direction."
<1.異常検出システム>
図1は、実施形態に係る異常検出システムSYS1の構成を示すブロック図である。本実施形態において、異常は、カメラの取付けのずれが生じた状態である。すなわち、異常検出システムSYS1は、車両に搭載されたカメラ(車載カメラ)の取付けのずれを検出するシステムである。図1に示すように、異常検出システムSYS1は、異常検出装置1及び撮影部2を備える。
<1. Anomaly detection system>
FIG. 1 is a block diagram showing the configuration of an abnormality detection system SYS1 according to the embodiment. In this embodiment, the abnormality is a state in which the mounting of the camera is misaligned. That is, the abnormality detection system SYS1 is a system that detects misalignment of a camera mounted on a vehicle (in-vehicle camera). As shown in FIG. 1 , an abnormality detection system SYS1 includes an
異常検出装置1は、車載カメラで撮影された撮影画像に基づいて異常を検出する装置である。異常検出装置1は、車載カメラを搭載する車両ごとに備えられる。本実施形態では、異常検出装置1は、撮影部2から撮影画像を取得する。
The
撮影部2は、車両周辺の状況を監視する目的で設けられる。撮影部2は、4つのカメラ21~24を備える。4つのカメラ21~24は、車載カメラである。図2は、4つの車載カメラ21~24が車両4に配置される位置を例示する図である。
The photographing
車載カメラ21は車両4の前端に設けられる。このため、車載カメラ21をフロントカメラ21とも呼ぶ。フロントカメラ21の光軸21aは上からの平面視で車両4の前後方向に沿っている。フロントカメラ21は、車両4の前方を臨むカメラであり、車両4の前方向を撮影する。車載カメラ22は車両4の後端に設けられる。このため、車載カメラ22をバックカメラ22とも呼ぶ。バックカメラ22の光軸22aは上からの平面視で車両4の前後方向に沿っている。バックカメラ22は、車両4の後方を臨むカメラであり、車両4の後方向を撮影する。フロントカメラ21及びバックカメラ22の取付位置は、車両4の左右中央であることが好ましいが、左右中央から左右方向に多少ずれた位置であってもよい。
An in-
車載カメラ23は車両4の左側ドアミラー41に設けられる。このため、車載カメラ23を左サイドカメラ23とも呼ぶ。左サイドカメラ23の光軸23aは上からの平面視で車両4の左右方向に沿っている。左サイドカメラ23は、車両4の左方を臨むカメラであり、車両4の左方向を撮影する。車載カメラ24は車両4の右側ドアミラー42に設けられる。このため、車載カメラ24を右サイドカメラ24とも呼ぶ。右サイドカメラ24の光軸24aは上からの平面視で車両4の左右方向に沿っている。右サイドカメラ24は、車両4の右方を臨むカメラであり、車両4の右方向を撮影する。なお、車両4がいわゆるドアミラーレス車である場合には、左サイドカメラ23は左サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられ、右サイドカメラ24は右サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられる。
The vehicle-mounted
各車載カメラ21~24の水平方向の画角θは180度以上である。このため、車載カメラ21~24によって、車両4の水平方向における全周囲を撮影することができる。また、車載カメラ21~24によって撮影される画像には、車載カメラ21~24を搭載する車両4のボディが映り込む。
The horizontal angle of view θ of each vehicle-mounted
なお、本実施形態では、車載カメラの数を4つとしているが、この数は適宜変更されてよく、複数であっても単数であってもよい。例えば、車両4がバックで駐車することを支援する目的で車載カメラが搭載されている場合には、車載カメラは、バックカメラ22、左サイドカメラ23、右サイドカメラ24の3つで構成されてもよい。
In this embodiment, the number of vehicle-mounted cameras is four, but this number may be changed as appropriate, and may be plural or singular. For example, when an in-vehicle camera is installed for the purpose of assisting the
図1に戻って、本実施形態では、ステアリングホイール(ハンドル)の回転角を検出する舵角センサ3の出力は、CAN(Controller Area Network)バス等の通信バスB1を介して異常検出装置1に入力される。
Returning to FIG. 1, in this embodiment, the output of the
<2.異常検出装置>
図1に示すように、異常検出装置1は、取得部11と、制御部12と、記憶部13と、を備える。
<2. Abnormality detection device>
As shown in FIG. 1 , the
取得部11は、車載カメラ21~24からアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。すなわち、取得部11によって取得される撮影画像の集合体が車載カメラ21~24で撮影された動画像である。そして、取得した撮影画像がアナログの場合には、取得部11は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。取得部11は、取得した撮影画像、或いは、取得及び変換した撮影画像を制御部12に出力する。取得部11から出力される1つの撮影画像が1つのフレーム画像となる。
The obtaining
制御部12は、例えばマイクロコンピュータであり、異常検出装置1の全体を統括的に制御する。制御部12は、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む。記憶部13は、例えば、フラッシュメモリ等の不揮発性のメモリであり、各種の情報を記憶する。記憶部13は、ファームウェアとしてのプログラムや各種のデータを記憶する。
The
制御部12は、抽出部121、フロー導出部122、選択部123、特定部124、推定部125、及び判定部126を備える。なお、制御部12の抽出部121、フロー導出部122、選択部123、特定部124、推定部125、及び判定部126の少なくともいずれか一つは、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。また、抽出部121、フロー導出部122、選択部123、特定部124、推定部125、及び判定部126は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてよい。また、取得部11は、制御部12のCPUがプログラムに従って演算処理を行うことによって実現される構成でもよい。
The
抽出部121は、各車載カメラ21~24からの撮影画像から第1特徴点及び第2特徴点を含む複数の特徴点を抽出する。特徴点は、撮影画像中のエッジの交点など、撮影画像において際立って検出できる点である。特徴点は、例えば路面に描かれた白線のエッジ、路面上のひび、路面上のしみ、路面上の砂利などである。特徴点は、通常、1つの撮影画像の中に多数存在する。抽出部121は、例えば、ハリスオペレータ等の公知の手法を用いて特徴点を抽出する。抽出部121は、路面上の特徴点の中から第1特徴点及び第2特徴点を選定する。なお、本実施形態では、所定の平面として路面を想定する。
The
フロー導出部122は、異なる時刻で撮影された2つの撮影画像から抽出部121によって抽出された特徴点ごとにオプティカルフローを導出する。オプティカルフローは、異なる時刻で撮影された2つの撮影画像間における特徴点の動きを示す動きベクトルである。異なる時刻の間隔は、取得部11のフレーム周期と同一であってもよく、取得部11のフレーム周期の複数倍であってもよい。
The
選択部123は、フロー導出部122で導出されたオプティカルフローの位置に基づいて、フロー導出部122で導出されたオプティカルフローの中から第1特徴点のオプティカルフロー及び第2特徴点のオプティカルフローを選択する。選択手法の詳細については後述する。
The
特定部124は、第1特徴点及び第2特徴点の各オプティカルフローを用いて、異なる時刻で撮影された2つの撮影画像から抽出された第1特徴点及び第2特徴点の各位置変化を算出する。
The specifying
特定部124は、第1特徴点の位置変化及び第2特徴点の位置変化に基づき、所定の平面との交線が互いに平行となる面の組を2組特定する。
The specifying
推定部125は、特定部124で特定した面の組に基づきカメラの姿勢(カメラの取付け角度)を推定する。例えば抽出部121がフロントカメラ21から第1特徴点及び第2特徴点を抽出した場合、推定部125はフロントカメラ21の姿勢(カメラの取付け角度)を推定する。
The
判定部126は、推定部125によって推定されたカメラの姿勢に基づき、カメラの取付けのずれが生じた状態であるか否かを判定する。カメラの取付けのずれが生じた状態であると判定されると、異常検出装置1がカメラの異常を検出したことになる。例えば、この異常を異常検出装置1が車両4のユーザに報知することで、車両4のユーザはディーラによるカメラの取付調整を依頼する等の対策をとることが可能となる。
The
<3.姿勢推定装置>
上述した取得部11、抽出部121、フロー導出部122、選択部123、特定部124、及び推定部125によって姿勢推定装置14が構成される。言い換えると、異常検出装置1は姿勢推定装置14を備える。図3は、姿勢推定装置14によるカメラの姿勢推定フローの一例を示すフローチャートである。以下、フロントカメラ21の姿勢を推定する場合を例に挙げて、姿勢推定装置14によるカメラの姿勢推定フローの一例について説明する。
<3. Posture Estimation Device>
The
図3に示すように、まず、制御部12は、フロントカメラ21を搭載する車両4が直進しているか否かを監視する(ステップS1)。車両4が直進しているか否かは、例えば、舵角センサ3から得られるステアリングホイールの回転角情報に基づいて判断することができる。例えば、ステアリングホイールの回転角がゼロのときに車両4が完全にまっすぐに進むとした場合に、回転角がゼロの場合だけでなく、回転角がプラス方向とマイナス方向の一定範囲内の値である場合を含めて、車両4が直進していると判断してよい。なお、直進には、前方方向の直進と、後退方向の直進との両方が含まれる。
As shown in FIG. 3, first, the
制御部12は、車両4の直進を検出するまで、ステップS1の監視を繰り返す。言い換えると、制御部12は、車両4が直進しない限り、カメラの姿勢を推定しない。これによれば、移動体の直進移動中における第1特徴点の位置変化及び第2特徴点の位置変化を用いてカメラの姿勢を推定することになり、車両4の進行方向が曲がっている場合の情報を用いてカメラの姿勢推定が行われないので、カメラの姿勢を推定するための情報処理、より詳細には後述するステップS3の処理が複雑になることを避けることができる。
The
なお、後述するステップS3の処理において、互いに重なっておらず且つ同一直線上に位置していない第1特徴点のオプティカルフローと第2特徴点のオプティカルフローが導出できればカメラの姿勢を推定することができるので、本実施形態とは異なり車両4の進行方向が曲がっているときにカメラの姿勢を推定してもよい。
In the process of step S3, which will be described later, the orientation of the camera can be estimated if the optical flow of the first feature point and the optical flow of the second feature point, which do not overlap each other and are not located on the same straight line, can be derived. Therefore, unlike the present embodiment, the orientation of the camera may be estimated when the traveling direction of the
本実施形態では、車両4が直進していると判断される場合(ステップS1でYES)、抽出部121によって特徴点の抽出が行われる(ステップS2)。
In this embodiment, when it is determined that the
図4は、特徴点を抽出する手法を説明するための図である。図4は、フロントカメラで撮影される撮影画像P1を模式的に示している。撮影画像Pは、車両4のボディが映り込む領域BOを含む。複数の特徴点FPは路面RS上に存在する。図4においては、路面に描かれている白線のコーナーに複数の特徴点FPが存在する。
FIG. 4 is a diagram for explaining a technique for extracting feature points. FIG. 4 schematically shows a captured image P1 captured by the front camera. The captured image P includes an area BO in which the body of the
複数の特徴点FPが抽出されると、フロー導出部122は、特徴点ごとにオプティカルフローを導出する(ステップS3)。
After extracting the plurality of feature points FP, the
図5は、特徴点のオプティカルフローを導出する手法を説明するための図である。図5は、図4と同様に便宜的に示された模式図である。図5は、図4に示す撮影画像P1の撮影後、所定時間が経過した後にフロントカメラ21で撮影された撮影画像P2である。図4に示す撮影画像P1の撮影後、所定時間が経過するまでの間に、車両4は前方に直進している。図5に示す白丸印は、図4に示す撮影画像P1の撮影時点における各特徴点の位置を示す。図5に示す黒丸印は、図5に示す撮影画像P2の撮影時点における各特徴点の位置を示す。
FIG. 5 is a diagram for explaining a method of deriving the optical flow of feature points. FIG. 5 is a schematic diagram shown for convenience similar to FIG. FIG. 5 shows a photographed image P2 photographed by the
図5に示すように、車両4が前方に直進すると、車両4の前方に存在する各特徴点は車両4に近づく。すなわち、各特徴点は、図5に示す撮影画像P2と図4に示す撮影画像P1とで異なる位置に現れる。フロー導出部122は、図5に示す撮影画像P2の各特徴点と図5に示す撮影画像P2の各特徴点とを、その近傍の画素値に基づいて対応付け、対応付けた特徴点のそれぞれの位置に基づいて、対応付けができた特徴点(追跡できた特徴点)それぞれのオプティカルフローを導出する(ステップS3)。
As shown in FIG. 5 , when the
次に、選択部123がフロー導出部122で導出されたオプティカルフローの中から第1特徴点のオプティカルフロー及び第2特徴点のオプティカルフローを選択する(ステップS3)。
Next, the
第1特徴点のオプティカルフローと第2特徴点のオプティカルフローが導出されると、特定部124は、特徴点に対し、記憶部13に記憶されているフロントカメラ21に内部パラメータを用いて座標変換を行う。座標変換では、フロントカメラ21の収差補正と、歪補正とが行われる。収差補正は、フロントカメラ21の光学系の収差による歪みを補正するために行われる。具体的には樽型歪みや糸巻歪みなど歪曲収差の補正である。歪み補正は、フロントカメラ21の光学系そのものの歪みを補正するために行われる。具体的には魚眼補正などである。座標変換により、特徴点の座標は、被写体が透視投影によって撮影された場合に二次元画像上で得られる座標に変換される。
When the optical flow of the first feature point and the optical flow of the second feature point are derived, the specifying
特徴点の座標変換が行われると、特定部124は、図6に示すように、第1特徴点のオプティカルフローOF1の始点を頂点SP1、第1特徴点のオプティカルフローOF1の終点を頂点EP1、第2特徴点のオプティカルフローOF2の始点を頂点SP2、及び第2特徴点のオプティカルフローOF2の終点を頂点EPとする四角形QLを仮想的に形成する(ステップS4)。以降、説明のために四角形や、該四角形の辺などの幾何的要素を仮想的に形成して用いる。しかし、実際の処理では、特徴点の座標や直線の方向などのベクトル演算に基づき、同等の作用を持つ幾何的要素に基づかない処理としてもよい。
When the feature point coordinate transformation is performed, the specifying
四角形QLが仮想的に形成されると、特定部124は、四角形QLと、記憶部13に記憶されているフロントカメラ21の内部パラメータとを用いて、三次元空間におけるフロントカメラ21の投影面IMG上に四角形QLを移動させ、投影面IMG上での四角形QL1を仮想的に生成する(ステップS5)。
When the quadrangle QL is virtually formed, the specifying
なお説明のため、以下のように辺を定義する。四角形QL1の第1辺SD1は、四角形QLにおいて、頂点SP1および頂点SP2を結んだ辺に対応する。つまり、撮影画像P1における第1特徴点と第2特徴点を結んだ辺に相当する。同様に、四角形QL1の第2辺SD2は、四角形QLにおいて、頂点SP2および頂点EP2を結んだ辺に対応する。つまり、第2特徴点のオプティカルフローOF2に相当する。同様に、四角形QL1の第3辺SD3は、四角形QLにおいて、頂点EP1および頂点EP2を結んだ辺に対応する。つまり、撮影画像P2における第1特徴点と第2特徴点とを結んだ辺に相当する。同様に、四角形QL1の第4辺SD4は、四角形QLにおいて、頂点SP1および頂点EP1を結んだ辺に対応する。つまり、第1特徴点のオプティカルフローOF1に相当する。 For the sake of explanation, the edges are defined as follows. A first side SD1 of quadrangle QL1 corresponds to a side connecting vertex SP1 and vertex SP2 in quadrangle QL. That is, it corresponds to the side connecting the first feature point and the second feature point in the captured image P1. Similarly, the second side SD2 of quadrangle QL1 corresponds to the side connecting vertex SP2 and vertex EP2 in quadrangle QL. That is, it corresponds to the optical flow OF2 of the second feature point. Similarly, the third side SD3 of quadrangle QL1 corresponds to the side connecting vertex EP1 and vertex EP2 in quadrangle QL. That is, it corresponds to the side connecting the first feature point and the second feature point in the captured image P2. Similarly, the fourth side SD4 of quadrangle QL1 corresponds to the side connecting vertex SP1 and vertex EP1 in quadrangle QL. That is, it corresponds to the optical flow OF1 of the first feature point.
また、以下のように面を定義する(図7参照)。四角形QL1の第1辺SD1とフロントカメラ21の光学中心OCとが含まれる面を第1面F1とする。同様に、四角形QL1の第2辺SD2とフロントカメラ21の光学中心OCとが含まれる面を第2面F2とする。同様に、四角形QL1の第3辺SD3とフロントカメラ21の光学中心OCとが含まれる面を第3面F3とする。同様に、四角形QL1の第4辺SD4とフロントカメラ21の光学中心OCとが含まれる面を第4面F4とする。
Also, a surface is defined as follows (see FIG. 7). A plane including the first side SD1 of the quadrangle QL1 and the optical center OC of the
次に、特定部124は、所定の平面との交線が互いに平行になる面の組を2組特定する(ステップS6)。所定の平面とはあらかじめ平面の法線が分かっている面である。具体的には車両が移動を行っている平面であり、つまり路面である。所定の平面は、厳密な平面でなくてもよく、特定部124が所定の平面との交線が互いに平行になる面の組を2組特定する際に平面とみなすことができるものであればよい。
Next, the identifying
本実施形態では、異常検出装置1は、車両4が直進している場合に、異なる時刻に撮影された2つの画像から特徴点を抽出し、該特徴点のオプティカルフローを算出する。また、該特徴点は路面などの所定の平面上に位置している静止物から抽出される。したがって、算出されるオプティカルフローは実世界上では、車両4に対する静止物の相対的な位置変化を表す。つまり向きが逆となった車両4の移動ベクトルである。
In this embodiment, when the
四角形QL1の第2辺SD2と第4辺SD4とは、共に特徴点のオプティカルフローに対応するので、共に実世界上では車両4の移動ベクトルに相当する。したがって、路面上では互いに平行となると想定される。
The second side SD2 and the fourth side SD4 of the quadrangle QL1 both correspond to the optical flow of the feature points, and therefore both correspond to the movement vector of the
また、四角形QL1の第1辺SD1と第3辺SD3とは、共に特徴点同士の位置関係なので、実世界上では車両4の移動に伴う静止物同士の位置関係に相当する。移動前の位置関係が第1辺SD1に相当し、移動後の位置関係が第3辺SD3に相当する。このとき静止物の位置は変わらないため、移動前後で位置関係は変わらない。したがって、路面上ではこれも互いに平行となると想定される。
The first side SD1 and the third side SD3 of the quadrangle QL1 both correspond to the positional relationship between the feature points, and thus correspond to the positional relationship between the stationary objects accompanying the movement of the
したがって、特定部124は、路面との交線が平行な面として、第2面F2と第4面F4との組と、第1面F1と第3面F3との組と、の2つの組を特定する。つまり、特定部124は、オプティカルフローを含む面同士を1つの組とし、同時刻に撮影された特徴点を含む面同士を他の組として、計2つの組を特定する。
Therefore, the
なお、図7において四角形QL2は、撮影画像P2の撮影時点での第1特徴点の3次元空間(実世界)上の位置、撮影画像P2の撮影時点での第2特徴点の3次元空間上の位置、撮影画像P1の撮影時点での第1特徴点の3次元空間上の位置、及び撮影画像P1の撮影時点での第2特徴点の3次元空間上の位置を頂点とする四角形である。第1面F1は、四角形QL2の第1辺SD11を含む。同様に、第2面F2は四角形QL2の第2辺SD12を含み、第3面F3は四角形QL2の第3辺SD13を含み、第4面F4は四角形QL2の第4辺SD14を含む。このとき、上記のように四角形QL2は路面上に形成される平行四辺形であると想定される。 In FIG. 7, a quadrangle QL2 represents the position of the first feature point in the three-dimensional space (real world) at the time of capturing the captured image P2, and the position of the second feature point in the three-dimensional space at the time of capturing the captured image P2. , the position of the first feature point in the three-dimensional space at the time of capturing the captured image P1, and the position of the second feature point in the three-dimensional space at the time of capturing the captured image P1. . The first face F1 includes the first side SD11 of the quadrangle QL2. Similarly, the second surface F2 includes the second side SD12 of the quadrilateral QL2, the third surface F3 includes the third side SD13 of the quadrilateral QL2, and the fourth surface F4 includes the fourth side SD14 of the quadrilateral QL2. At this time, the quadrangle QL2 is assumed to be a parallelogram formed on the road surface as described above.
次に、推定部125は、路面の法線を算出する(ステップS7)。まず、推定部125は、特定部124で特定した面の組の一方である第1面F1と第3面F3とに基づき、面同士の交線の方向を求める。詳細には、第1面F1と第3面F3との交線CL1の向きを求める(図8参照)。交線CL1の方向ベクトルV1は、第1面F1の法線ベクトル及び第3面F3の法線ベクトルそれぞれと垂直なベクトルである。したがって、推定部125は、第1面F1の法線ベクトルと第3面F3の法線ベクトルとの外積により、交線CL1の方向ベクトルV1を求める。第1面F1と第3面F3は、路面との交線が平行となるため、方向ベクトルV1は路面と平行になる。
Next, the
同様に、推定部125は、特定部124で特定した面の組の他方である第2面F2と第4面F4との交線の方向を求める。詳細には第2面F2と第4面F4との交線CL2の向きを求める(図9参照)。交線CL2の方向ベクトルV2は、第2面F2の法線ベクトル及び第4面F4の法線ベクトルそれぞれと垂直なベクトルである。したがって、推定部125は、第2面F2の法線ベクトルと第4面F4の法線ベクトルとの外積により、交線CL2の方向ベクトルV2を求める。第2面F2と第4面F4も同様に、路面との交線が平行となるため、方向ベクトルV2は路面と平行になる。
Similarly, the
推定部125は、方向ベクトルV1と方向ベクトルV2との外積により、四角形QL2の面の法線、すなわち路面の法線を算出する。推定部125が算出した路面の法線はフロントカメラ21のカメラ座標系で算出されるため、実際の路面の法線である垂直方向との違いから3次元空間の座標系を求め、路面に対するフロントカメラ21の姿勢を推定することができる。その推定結果から推定部125は車両4に対するフロントカメラ21の姿勢を推定する(ステップS8)。なお、ステップS7の算出処理は、例えば公知のARToolkitを利用して実行することができる。
The estimating
ステップS8におけるフロントカメラ21の姿勢推定が終了すると、図5に示すフローが終了する。
When the posture estimation of the
姿勢推定装置14は、車両4の移動を利用して、自律的に所定の平面との交線が互いに平行になる面の組を2組特定することで、特徴点の抽出誤差のみが推定精度に影響するカメラの姿勢推定を行うことができる。すなわち、姿勢推定装置14は、誤差要因が少ないカメラの姿勢推定を行うことができる。したがって、姿勢推定装置14は、カメラの姿勢を精度良く推定することができる。
The
姿勢推定に対する特徴点の抽出誤差の影響度合いがオプティカルフローの位置によって異なるため、上述した通り、選択部123は、フロー導出部122で導出されたオプティカルフローの位置に基づいて、フロー導出部122で導出されたオプティカルフローの中から第1特徴点のオプティカルフロー及び第2特徴点のオプティカルフローを選択している。これにより、姿勢推定に対する特徴点の抽出誤差の影響度合いが小さくなる第1特徴点のオプティカルフロー及び第2特徴点のオプティカルフローを姿勢推定に用いることが可能となる。したがって、姿勢推定装置14は、姿勢推定に用いるオプティカルフローの位置に依存して姿勢推定の精度が低下することを抑制できる。
Since the degree of influence of feature point extraction errors on pose estimation varies depending on the position of the optical flow, as described above, the
なお、上記の説明ではフロントカメラ21の光学中心OCと、四角形QL1の1つの辺を含む平面を特定するとしたがこの限りではない。当該平面の法線方向の特定をもって平面を特定するとしてもよい。例えば光学中心OCから各頂点への方向ベクトルの外積により平面の法線方向を求め、該法線方向によって面を特定するとしてもよい。この場合、第1面F1の法線方向と第3面F3の法線方向とを1つの組とし、第2面F2の法線方向と第4面F4の法線方向とを他の組として2つの組を特定するとよい。
In the above description, the plane including the optical center OC of the
また、面は平行移動させてもよい。例えば第1面F1の代わりに、第1面F1を平行移動させた面を第3面F3と組としてもよい。平行移動しても所定の平面との交線の向きは変わらないからである。 Also, the plane may be translated. For example, instead of the first plane F1, a plane translated from the first plane F1 may be paired with the third plane F3. This is because the direction of the line of intersection with a predetermined plane does not change even if it is translated.
<4.オプティカルフローの選択>
次に、選択部123の詳細動作について説明する。
<4. Selecting Optical Flow>
Next, detailed operation of the
図10は、姿勢推定装置14がフロントカメラ21の撮影画像を用いてフロントカメラ21の姿勢を推定した結果の期待値に対する誤差(PAN、TILT、ROLLの各誤差)を縦軸にとり、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との左右方向における距離を横軸にとったグラフである。
FIG. 10 shows the error (PAN, TILT, and ROLL errors) with respect to the expected value of the result of estimating the posture of the
図10に示すグラフから明らかな通り、姿勢推定装置14がフロントカメラ21の撮影画像を用いてフロントカメラ21の姿勢を推定する場合には、選択部123は、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との所定の方向における距離が第1所定値V1(図10参照)以上になるように、第1特徴点のオプティカルフロー及び第2特徴点のオプティカルフローを選択することが好ましい。これにより、姿勢推定に対する特徴点の抽出誤差の影響度合いが小さくなり、姿勢推定の精度が高くなるからである。
As is clear from the graph shown in FIG. 10, when the
ここで所定の方向とは、具体的には路面に平行かつ、車両の進行方向に対して垂直な方向とするとよい。例えばフロントカメラ21およびバックカメラ22の場合、カメラの光軸と車両の進行方向が一致するため、所定の方向は画像上で水平方向(左右方向)である。また左サイドカメラ23および右サイドカメラ24の場合、カメラの光軸と車両の進行方向が直交するため、所定の方向は画像上で垂直方向(奥行き方向)である。
Here, the predetermined direction is preferably a direction parallel to the road surface and perpendicular to the traveling direction of the vehicle. For example, in the case of the
また、所定の方向における距離とは、ある2点が所定の方向に沿ってどれだけ離れているかの指標である。具体的には、2点間に位置ベクトル形成した場合に、前記位置ベクトルを所定の方向に対して投影したベクトルの長さとして算出する。 Also, the distance in a given direction is an index of how far apart two points are in a given direction. Specifically, when a position vector is formed between two points, the length of the vector obtained by projecting the position vector in a predetermined direction is calculated.
ただし、図10に示すグラフから明らかな通り、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との所定の方向における距離が第2所定値V2(V2>V1、図10参照)以上になると、歪みの影響で姿勢推定の精度が低下してしまう。 However, as is clear from the graph shown in FIG. 10, the distance in a predetermined direction between the real-world position of the first feature point and the real-world position of the second feature point is a second predetermined value V2 (V2>V1 , FIG. 10), the accuracy of attitude estimation is reduced due to the influence of distortion.
したがって、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との所定の方向における距離が第2所定値V2以上になることを回避するために、選択部123は、フロントカメラ21の光軸中心から所定距離以内の領域に位置する第1特徴点のオプティカルフロー及び第2特徴点のオプティカルフローを選択することが好ましい。言い換えると、選択部123は、撮影画像の周辺部から第1特徴点のオプティカルフロー及び第2特徴点のオプティカルフローを選択しないことが好ましい。
Therefore, in order to prevent the distance in a predetermined direction between the real-world position of the first feature point and the real-world position of the second feature point from becoming equal to or greater than the second predetermined value V2, the
ここでは、姿勢推定装置14がフロントカメラ21の撮影画像を用いてフロントカメラ21の姿勢を推定する場合について説明したが、姿勢推定装置14がバックカメラ22の撮影画像を用いてフロントカメラ22の姿勢を推定する場合も同様である。
Here, the case where
図11は、姿勢推定装置14が右サイドカメラ24の撮影画像を用いて右サイドカメラ24の姿勢を推定した結果の期待値に対する誤差(PAN、TILT、ROLLの各誤差)を横軸にとり、第1特徴点及び第2特徴点のうち車両4に近い側の特徴点を基準とし、すなわち、第1特徴点及び第2特徴点のうち車両4に近い側の特徴点の実世界上の位置を固定し、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との左右方向における距離を縦軸にとったグラフである。
In FIG. 11, the abscissa represents the error (PAN, TILT, and ROLL errors) with respect to the expected value of the result of estimating the pose of the right-
図12は、姿勢推定装置14が右サイドカメラ24の撮影画像を用いて右サイドカメラ24の姿勢を推定した結果の期待値に対する誤差(PAN、TILT、ROLLの各誤差)を横軸にとり、第1特徴点及び第2特徴点のうち車両4に近い側の特徴点を基準とし、すなわち、第1特徴点及び第2特徴点のうち車両4に遠い側の特徴点の実世界上の位置を固定し、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との左右方向における距離を縦軸にとったグラフである。
In FIG. 12, the abscissa represents the error (PAN, TILT, and ROLL errors) with respect to the expected value of the result of estimating the pose of the
図11に示すグラフ及び図12に示すグラフから明らかな通り、姿勢推定装置14が右サイドカメラ24の撮影画像を用いて右サイドカメラ24の姿勢を推定する場合には、選択部123は、右サイドカメラ24の光軸中心から所定距離以内の領域に位置する第1特徴点のオプティカルフロー及び右サイドカメラ24の光軸中心から上記所定距離より離れた領域に位置する第2特徴点のオプティカルフローを選択することが好ましい。これにより、姿勢推定に対する特徴点の抽出誤差の影響度合いが小さくなり、姿勢推定の精度が高くなるからである。
As is clear from the graphs shown in FIGS. 11 and 12, when
なお、図11に示すグラフ及び図12に示すグラフの比較から明らかな通り、選択部123は、第1特徴点及び第2特徴点のうち車両4に近い側の特徴点を基準とし、すなわち、第1特徴点及び第2特徴点のうち車両4に近い側の特徴点の実世界上の位置を固定して、選択処理を行うことが好ましい。第1特徴点及び第2特徴点のうち車両4に近い側の特徴点を基準とした方が、第1特徴点及び第2特徴点のうち車両4に遠い側の特徴点を基準とするよりも、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との左右方向における距離が小さいときに歪みの影響で姿勢推定の精度が低下してしまうことを抑制できるからである。
As is clear from the comparison of the graphs shown in FIG. 11 and the graphs shown in FIG. 12, the
ここでは、姿勢推定装置14が右サイドカメラ24の撮影画像を用いて右サイドカメラ24の姿勢を推定する場合について説明したが、姿勢推定装置14が左サイドカメラ23の撮影画像を用いて左サイドカメラ23の姿勢を推定する場合も同様である。
Here, the case where
図13~図15は、姿勢推定装置14が右サイドカメラ24の撮影画像を用いて右サイドカメラ24の姿勢を推定した結果の期待値に対する誤差(PAN、TILT、ROLLの各誤差)を第1縦軸(紙面左側の縦軸)にとり、第1特徴点のオプティカルフローと第2特徴点のオプティカルフローとの撮影画像の水平方向におけるずれ量を第2縦軸(紙面右側の縦軸)にとったグラフである。
FIGS. 13 to 15 show the errors (PAN, TILT, and ROLL errors) with respect to the expected values of the result of estimating the posture of the
図13は、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との左右方向における距離が図13~図15の中で最も小さい場合のグラフである。図14は、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との左右方向における距離が図13~図15の中で2番目に小さい場合のグラフである。図15は、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との左右方向における距離が図13~図15の中で最も小さい場合のグラフである。 FIG. 13 is a graph when the distance in the horizontal direction between the position of the first feature point in the real world and the position of the second feature point in the real world is the smallest among FIGS. FIG. 14 is a graph when the distance in the horizontal direction between the real-world position of the first feature point and the real-world position of the second feature point is the second smallest in FIGS. FIG. 15 is a graph when the distance in the horizontal direction between the position of the first feature point in the real world and the position of the second feature point in the real world is the smallest in FIGS.
図13~図15に示すグラフから明らかな通り、姿勢推定装置14が右サイドカメラ24の撮影画像を用いて右サイドカメラ24の姿勢を推定する場合には、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との左右方向における距離所定値以上になるように、第1特徴点のオプティカルフロー及び第2特徴点のオプティカルフローを選択し、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との前後方向に垂直な方向における距離が大きいほど、上記所定値を大きくすることが好ましい。これにより、第1特徴点のオプティカルフローと第2特徴点のオプティカルフローとの撮影画像の水平方向におけるずれ量が大きいときに姿勢推定の精度が低下してしまうことを抑制できるからである。
As is clear from the graphs shown in FIGS. 13 to 15, when
ここでは、姿勢推定装置14が右サイドカメラ24の撮影画像を用いて右サイドカメラ24の姿勢を推定する場合について説明したが、姿勢推定装置14が左サイドカメラ23の撮影画像を用いて左サイドカメラ23の姿勢を推定する場合も同様である。また、フロントカメラ21の撮影画像を用いてフロントカメラ21の姿勢を推定する場合、或いは、バックカメラ22の撮影画像を用いてバックカメラ22の姿勢を推定する場合も、左右方向と前後方向を入れ替えれば、同様である。
Here, the case where
<5.補正システム>
図16は、実施形態に係る補正システムSYS2の構成を示すブロック図である。図16において、図1と同一の部分には同一の符号を付し詳細な説明を省略する。図16に示すように、補正システムSYS2は、補正装置1’及び撮影部2を備える。
<5. Correction system>
FIG. 16 is a block diagram showing the configuration of the correction system SYS2 according to the embodiment. In FIG. 16, the same parts as those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof will be omitted. As shown in FIG. 16, the correction system SYS2 includes a correction device 1' and an
補正装置1’は、図1に示す異常検出装置1から判定部126を取り除き補正部127を追加した構成と同一である。すなわち、補正装置1’は、姿勢推定装置14及び補正部127を備える。
The correction device 1' has the same configuration as that of the
補正部127は、推定部125によって推定されたカメラの姿勢に基づき、カメラのパラメータを補正する。これにより、カメラの取付けのずれが生じても、そのずれに応じたカメラのキャリブレーションが実行されることになり、カメラの取付けのずれが撮影画像に及ぼす悪影響を抑制することができる。
The
<6.留意事項>
本明細書における実施形態や実施例の構成は、本発明の例示にすぎない。実施形態や変形例の構成は、本発明の技術的思想を超えない範囲で適宜変更されてもよい。また、複数の実施形態及び変形例は、可能な範囲で組み合わせて実施されてよい。
<6. Notes>
The configurations of the embodiments and examples herein are merely illustrative of the present invention. The configurations of the embodiments and modifications may be changed as appropriate without departing from the technical idea of the present invention. Also, multiple embodiments and modifications may be implemented in combination within a possible range.
1 異常検出装置
1’ 補正装置
14 姿勢推定装置
21~24 車載カメラ
11 取得部
121 抽出部
122 フロー導出部
123 選択部
124 特定部
125 推定部
126 判定部
127 補正部
1 anomaly detection device 1'
Claims (11)
前記撮影画像から第1特徴点及び第2特徴点を含む複数の特徴点を抽出する抽出部と、
前記複数の特徴点ごとにオプティカルフローを導出するフロー導出部と、
前記フロー導出部で導出されたオプティカルフローの位置に基づいて、前記フロー導出部で導出されたオプティカルフローの中から前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローを選択する選択部と、
前記選択部で選択された前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローに基づき、所定の平面との交線が互いに平行となる面の組を2組特定する特定部と、
前記特定部で特定した面の組に基づき前記カメラの姿勢を推定する推定部と、
を備える、姿勢推定装置。 an acquisition unit that acquires a captured image captured by a camera mounted on a moving body;
an extraction unit that extracts a plurality of feature points including a first feature point and a second feature point from the captured image;
a flow derivation unit that derives an optical flow for each of the plurality of feature points;
Selection of selecting the optical flow of the first feature point and the optical flow of the second feature point from the optical flows derived by the flow derivation unit based on the positions of the optical flows derived by the flow derivation unit. Department and
a specifying unit that specifies two sets of planes whose intersection lines with a predetermined plane are parallel to each other based on the optical flow of the first feature point and the optical flow of the second feature point selected by the selecting unit; ,
an estimation unit that estimates the orientation of the camera based on the set of planes identified by the identification unit;
A posture estimation device comprising:
前記推定部によって推定された前記カメラの姿勢に基づき、前記カメラの取付けのずれが生じた状態であるか否かを判定する判定部と、
を備える、異常検出装置。 a posture estimation device according to any one of claims 1 to 7;
a determination unit that determines whether or not there is a mounting deviation of the camera based on the orientation of the camera estimated by the estimation unit;
An anomaly detection device.
前記推定部によって推定された前記カメラの姿勢に基づき、前記カメラのパラメータを補正する補正部と、
を備える、補正装置。 a posture estimation device according to any one of claims 1 to 7;
a correction unit that corrects parameters of the camera based on the orientation of the camera estimated by the estimation unit;
a compensator.
前記撮影画像から第1特徴点及び第2特徴点を含む複数の特徴点を抽出する抽出工程と、
前記複数の特徴点ごとにオプティカルフローを導出するフロー導出工程と、
前記フロー導出工程で導出されたオプティカルフローの位置に基づいて、前記フロー導出工程で導出されたオプティカルフローの中から前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローを選択する選択工程と、
前記選択工程で選択された前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローに基づき、所定の平面との交線が互いに平行となる面の組を2組特定する特定工程と、
前記特定工程で特定した面の組に基づき前記カメラの姿勢を推定する推定工程と、
を備える、姿勢推定方法。 an acquisition step of acquiring a photographed image photographed by a camera mounted on a mobile body;
an extracting step of extracting a plurality of feature points including a first feature point and a second feature point from the captured image;
a flow derivation step of deriving an optical flow for each of the plurality of feature points;
A selection of selecting the optical flow of the first feature point and the optical flow of the second feature point from among the optical flows derived in the flow derivation step based on the positions of the optical flows derived in the flow derivation step. process and
a specifying step of specifying two sets of planes whose intersection lines with a predetermined plane are parallel to each other based on the optical flow of the first feature point and the optical flow of the second feature point selected in the selecting step; ,
an estimating step of estimating the orientation of the camera based on the set of planes identified in the identifying step;
A pose estimation method comprising:
前記制御部は、The control unit
前記カメラで撮影された撮影画像を取得し、Acquiring a captured image captured by the camera,
前記撮影画像から第1特徴点及び第2特徴点を含む複数の特徴点を抽出し、extracting a plurality of feature points including a first feature point and a second feature point from the captured image;
前記複数の特徴点ごとにオプティカルフローを導出し、deriving an optical flow for each of the plurality of feature points;
導出された前記オプティカルフローの位置に基づいて、前記オプティカルフローの中から前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローを選択し、selecting the optical flow of the first feature point and the optical flow of the second feature point from the optical flows based on the derived positions of the optical flows;
選択された前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローに基づき、所定の平面との交線が互いに平行となる面の組を2組特定し、Based on the optical flow of the selected first feature point and the optical flow of the second feature point, two pairs of planes whose intersection lines with a predetermined plane are parallel to each other are specified,
特定した面の組に基づき前記カメラの姿勢を推定する、estimating a pose of the camera based on the identified set of planes;
姿勢推定装置。Posture estimation device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019224292A JP7256734B2 (en) | 2019-12-12 | 2019-12-12 | Posture estimation device, anomaly detection device, correction device, and posture estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019224292A JP7256734B2 (en) | 2019-12-12 | 2019-12-12 | Posture estimation device, anomaly detection device, correction device, and posture estimation method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021093670A JP2021093670A (en) | 2021-06-17 |
JP2021093670A5 JP2021093670A5 (en) | 2022-06-29 |
JP7256734B2 true JP7256734B2 (en) | 2023-04-12 |
Family
ID=76310846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019224292A Active JP7256734B2 (en) | 2019-12-12 | 2019-12-12 | Posture estimation device, anomaly detection device, correction device, and posture estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7256734B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022185814A (en) | 2021-06-03 | 2022-12-15 | 大王製紙株式会社 | Tissue paper, and manufacturing method of tissue paper |
JP2023076903A (en) * | 2021-11-24 | 2023-06-05 | 三菱電機株式会社 | Road surface deterioration detection system and road surface deterioration detection method |
JP7359901B1 (en) | 2022-04-28 | 2023-10-11 | 株式会社デンソーテン | Information processing device, information processing method and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013074325A (en) | 2011-09-26 | 2013-04-22 | Toshiba Alpine Automotive Technology Corp | Image correction method for on-vehicle camera and image correction program for on-vehicle camera |
JP2019139290A (en) | 2018-02-06 | 2019-08-22 | 株式会社デンソー | Attitude estimating device |
JP2019191808A (en) | 2018-04-23 | 2019-10-31 | 株式会社デンソーテン | Abnormality detection device and abnormality detection method |
-
2019
- 2019-12-12 JP JP2019224292A patent/JP7256734B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013074325A (en) | 2011-09-26 | 2013-04-22 | Toshiba Alpine Automotive Technology Corp | Image correction method for on-vehicle camera and image correction program for on-vehicle camera |
JP2019139290A (en) | 2018-02-06 | 2019-08-22 | 株式会社デンソー | Attitude estimating device |
JP2019191808A (en) | 2018-04-23 | 2019-10-31 | 株式会社デンソーテン | Abnormality detection device and abnormality detection method |
Also Published As
Publication number | Publication date |
---|---|
JP2021093670A (en) | 2021-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7256734B2 (en) | Posture estimation device, anomaly detection device, correction device, and posture estimation method | |
KR101188588B1 (en) | Monocular Motion Stereo-Based Free Parking Space Detection Apparatus and Method | |
JP7445415B2 (en) | Posture estimation device, abnormality detection device, correction device, and posture estimation method | |
US10007998B2 (en) | Image processor, apparatus, and control system for correction of stereo images | |
WO2014199929A1 (en) | Monocular-motion-stereo distance estimation method, and monocular-motion-stereo distance estimation apparatus | |
US20070299596A1 (en) | Method for Detecting an Optical Structure | |
JP7270499B2 (en) | Abnormality detection device, abnormality detection method, posture estimation device, and mobile body control system | |
JP6602982B2 (en) | In-vehicle camera, in-vehicle camera adjustment method, in-vehicle camera system | |
JP3765862B2 (en) | Vehicle environment recognition device | |
KR20180112010A (en) | A method of detecting an object on the road side of a car, a computing device, a driver assistance system and an automobile | |
US20200090347A1 (en) | Apparatus for estimating movement information | |
JP2019191807A (en) | Abnormality detection device and abnormality detection method | |
US10546391B2 (en) | Apparatus and method for generating around view | |
JP7303064B2 (en) | Image processing device and image processing method | |
GB2513703B (en) | Method and apparatus for three-dimensional imaging of at least a partial region of a vehicle environment | |
JP6161704B2 (en) | Imaging apparatus, vehicle, and image correction method | |
JP2015179499A (en) | Parallax value derivation device, apparatus control system, moving body, robot, parallax value derivation method and program | |
JP7311407B2 (en) | Posture estimation device and posture estimation method | |
JP7232005B2 (en) | VEHICLE DRIVING ENVIRONMENT DETECTION DEVICE AND DRIVING CONTROL SYSTEM | |
JP7009209B2 (en) | Camera misalignment detection device, camera misalignment detection method and abnormality detection device | |
JP7297595B2 (en) | Posture estimation device, anomaly detection device, correction device, and posture estimation method | |
JP7237773B2 (en) | Posture estimation device, anomaly detection device, correction device, and posture estimation method | |
JP6747176B2 (en) | Image processing device, photographing device, program, device control system and device | |
JP6981881B2 (en) | Camera misalignment detection device and camera misalignment detection method | |
JP6974192B2 (en) | Camera misalignment detection device and camera misalignment detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220617 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220617 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230331 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7256734 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |