JP7256734B2 - Posture estimation device, anomaly detection device, correction device, and posture estimation method - Google Patents

Posture estimation device, anomaly detection device, correction device, and posture estimation method Download PDF

Info

Publication number
JP7256734B2
JP7256734B2 JP2019224292A JP2019224292A JP7256734B2 JP 7256734 B2 JP7256734 B2 JP 7256734B2 JP 2019224292 A JP2019224292 A JP 2019224292A JP 2019224292 A JP2019224292 A JP 2019224292A JP 7256734 B2 JP7256734 B2 JP 7256734B2
Authority
JP
Japan
Prior art keywords
feature point
camera
unit
optical flow
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019224292A
Other languages
Japanese (ja)
Other versions
JP2021093670A5 (en
JP2021093670A (en
Inventor
直士 垣田
康司 大西
隆幸 小笹
輝彦 上林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019224292A priority Critical patent/JP7256734B2/en
Publication of JP2021093670A publication Critical patent/JP2021093670A/en
Publication of JP2021093670A5 publication Critical patent/JP2021093670A5/ja
Application granted granted Critical
Publication of JP7256734B2 publication Critical patent/JP7256734B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、カメラの姿勢を推定する姿勢推定装置、カメラの異常を検出する異常検出装置、カメラのパラメータを補正する補正装置、および、カメラの姿勢を推定する姿勢推定方法に関する。 The present invention relates to a posture estimation device for estimating the posture of a camera, an anomaly detection device for detecting anomalies in a camera, a correction device for correcting camera parameters, and a posture estimation method for estimating the posture of a camera.

従来、車載カメラを用いて、例えば車両の駐車支援等の運転支援が行われている。車載カメラは、車両を工場から出荷する前に、車両に固定状態で取り付けられる。しかしながら、車載カメラは、例えば不意の接触や経年変化等によって、工場出荷時の取付状態から位置ずれを起こすことがある。車載カメラの位置(車両のボディに対する車載カメラの相対位置)がずれると、カメラ画像を利用して判断されるハンドルの操舵量等に誤差が生じるために、車載カメラの位置ずれを検出することは重要である。 2. Description of the Related Art Conventionally, vehicle-mounted cameras are used to provide driving assistance such as parking assistance for vehicles. An on-board camera is fixedly attached to a vehicle before the vehicle leaves the factory. However, the on-vehicle camera may be displaced from the mounting state at the time of shipment from the factory due to, for example, accidental contact or aging. If the position of the in-vehicle camera (relative position of the in-vehicle camera to the vehicle body) shifts, an error will occur in the amount of steering wheel steering determined using the camera image. is important.

特許文献1には、車載カメラの光軸ずれを検出する技術が開示される。特許文献1における車載カメラの光軸ずれ検出装置は、画像処理手段と判断手段とを備える。画像処理手段は、運転支援する車体部上のマーキングを含む範囲を撮影する車載カメラの撮影画像から該マーキングの位置情報を検出する。判断手段は、初期設定されたマーキング位置情報と、新たに検出されたマーキングの位置情報とを比較することにより、撮影光軸ずれを判断する。 Patent Literature 1 discloses a technique for detecting optical axis deviation of a vehicle-mounted camera. The optical axis deviation detection device for an on-vehicle camera in Patent Document 1 includes image processing means and determination means. The image processing means detects the position information of the marking from the captured image of the vehicle-mounted camera that captures the range including the marking on the vehicle body for driving assistance. The judging means judges the misalignment of the photographing optical axis by comparing the initially set marking position information and the newly detected marking position information.

特開2004-173037号公報JP 2004-173037 A

車載カメラの撮影画像には、車両周囲の風景等が映るために、例えばマーキングがボンネットの一部の特定形状である場合、当該特定形状を簡単に抽出できないことがある。当該特定形状が誤検出されると、車載カメラの光軸ずれが正確に判断されない可能性がある。なお、車載カメラの光軸ずれとは、車載カメラの姿勢が設計通りでないことを意味している。 Since the captured image of the on-vehicle camera shows the scenery around the vehicle, for example, when the marking is a specific shape of a part of the hood, the specific shape may not be easily extracted. If the specific shape is erroneously detected, there is a possibility that the misalignment of the optical axis of the in-vehicle camera may not be accurately determined. It should be noted that the deviation of the optical axis of the vehicle-mounted camera means that the posture of the vehicle-mounted camera is not as designed.

本発明は、上記課題に鑑みて、カメラの姿勢を精度良く推定できるとともに、姿勢推定に用いるオプティカルフローの位置に依存して姿勢推定の精度が低下することを抑制できる技術を提供することを目的とする。 SUMMARY OF THE INVENTION In view of the above problems, it is an object of the present invention to provide a technology capable of estimating the pose of a camera with high accuracy and suppressing a decrease in accuracy of pose estimation that depends on the position of the optical flow used for pose estimation. and

本発明に係る姿勢推定装置は、移動体に搭載されたカメラで撮影された撮影画像を取得する取得部と、前記撮影画像から第1特徴点及び第2特徴点を含む複数の特徴点を抽出する抽出部と、前記複数の特徴点ごとにオプティカルフローを導出するフロー導出部と、前記フロー導出部で導出されたオプティカルフローの位置に基づいて、前記フロー導出部で導出されたオプティカルフローの中から前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローを選択する選択部と、前記選択部で選択された前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローに基づき、所定の平面との交線が互いに平行となる面の組を2組特定する特定部と、前記特定部で特定した面の組に基づき前記カメラの姿勢を推定する推定部と、を備える構成(第1の構成)である。 A posture estimation apparatus according to the present invention includes an acquisition unit that acquires a captured image captured by a camera mounted on a mobile object, and extracts a plurality of feature points including a first feature point and a second feature point from the captured image. a flow derivation unit for deriving an optical flow for each of the plurality of feature points; and based on the position of the optical flow derived by the flow derivation unit, the optical flow derived by the flow derivation unit a selection unit that selects the optical flow of the first feature point and the optical flow of the second feature point from the optical flow of the first feature point and the optical flow of the second feature point selected by the selection unit; and an estimating unit for estimating the orientation of the camera based on the sets of planes specified by the specifying unit. It is a configuration (first configuration).

上記第1の構成の姿勢推定装置において、前記選択部は、前記第1特徴点の実世界上の位置と前記第2特徴点の実世界上の位置との所定の方向における距離が所定値以上になるように、前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローを選択する構成(第2の構成)であってもよい。 In the posture estimation device having the first configuration, the selection unit determines that the distance in a predetermined direction between the real-world position of the first feature point and the real-world position of the second feature point is equal to or greater than a predetermined value. The configuration (second configuration) may be such that the optical flow of the first feature point and the optical flow of the second feature point are selected so that

上記第2の構成の姿勢推定装置において、前記選択部は、前記第1特徴点の実世界上の位置と前記第2特徴点の実世界上の位置との前記所定の方向に垂直な方向における距離が大きいほど、前記所定値を大きくする構成(第3の構成)であってもよい。 In the posture estimation device having the second configuration, the selection unit selects the position of the first feature point in the real world and the position of the second feature point in the real world in a direction perpendicular to the predetermined direction. The predetermined value may be increased as the distance is increased (third configuration).

上記第2又は第3の構成の姿勢推定装置において、前記選択部は、前記カメラの光軸中心から所定距離以内の領域に位置する前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローを選択する構成(第4の構成)であってもよい。 In the posture estimation device having the second or third configuration, the selection unit selects an optical flow of the first feature point and an optical flow of the second feature point located within a predetermined distance from the center of the optical axis of the camera. A configuration (fourth configuration) for selecting a flow may be used.

上記第4の構成の姿勢推定装置において、前記カメラは、前記移動体の前方又は後方を臨む構成(第5の構成)であってもよい。 In the posture estimation device having the fourth configuration, the camera may be configured to view the front or rear of the moving object (fifth configuration).

上記第2又は第3の構成の姿勢推定装置において、前記選択部は、前記カメラの光軸中心から所定距離以内の領域に位置する前記第1特徴点のオプティカルフロー及び前記カメラの光軸中心から前記所定距離より離れた領域に位置する前記第2特徴点のオプティカルフローを選択する構成(第6の構成)であってもよい。 In the posture estimation apparatus having the second or third configuration, the selection unit selects the optical flow of the first feature points located within a predetermined distance from the center of the optical axis of the camera and the optical flow from the center of the optical axis of the camera. The configuration (sixth configuration) may be such that the optical flow of the second feature point located in the area away from the predetermined distance is selected.

上記第6の構成の姿勢推定装置において、前記カメラは、前記移動体の左方又は右方を臨む構成(第7の構成)であってもよい。 In the posture estimation device having the sixth configuration, the camera may be configured to view the left or right side of the moving object (seventh configuration).

本発明に係る異常検出装置は、上記第1~第7いずれかの構成の姿勢推定装置と、前記推定部によって推定された前記カメラの姿勢に基づき、前記カメラの取付けのずれが生じた状態であるか否かを判定する判定部と、を備える構成(第8の構成)である。 An anomaly detection apparatus according to the present invention provides a posture estimation device having any one of the first to seventh configurations described above, and a posture estimation device, based on the posture of the camera estimated by the estimation unit, in a state in which the mounting of the camera is deviated. and a determination unit for determining whether or not there is a configuration (eighth configuration).

本発明に係る補正装置は、上記第1~第7いずれかの構成の姿勢推定装置と、前記推定部によって推定された前記カメラの姿勢に基づき、前記カメラのパラメータを補正する補正部と、を備える構成(第9の構成)である。 A correction device according to the present invention includes: a posture estimation device having any one of the first to seventh configurations; and a correction unit that corrects parameters of the camera based on the camera posture estimated by the estimation unit. It is a configuration (ninth configuration) provided.

本発明に係る姿勢推定方法は、移動体に搭載されたカメラで撮影された撮影画像を取得する取得工程と、前記撮影画像から第1特徴点及び第2特徴点を含む複数の特徴点を抽出する抽出工程と、前記複数の特徴点ごとにオプティカルフローを導出するフロー導出工程と、前記フロー導出工程で導出されたオプティカルフローの位置に基づいて、前記フロー導出工程で導出されたオプティカルフローの中から前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローを選択する選択工程と、前記選択工程で選択された前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローに基づき、所定の平面との交線が互いに平行となる面の組を2組特定する特定工程と、前記特定工程で特定した面の組に基づき前記カメラの姿勢を推定する推定工程と、を備える構成(第10の構成)である。 A posture estimation method according to the present invention includes an acquisition step of acquiring a photographed image taken by a camera mounted on a mobile object, and extracting a plurality of feature points including a first feature point and a second feature point from the photographed image. a flow derivation step of deriving an optical flow for each of the plurality of feature points; and based on the position of the optical flow derived in the flow derivation step, the optical flow derived in the flow derivation step a selection step of selecting the optical flow of the first feature point and the optical flow of the second feature point from the optical flow of the first feature point and the optical flow of the second feature point selected in the selection step; and an estimating step of estimating the posture of the camera based on the pairs of planes identified in the identifying step. This is the configuration (tenth configuration).

本発明によると、カメラの姿勢を精度良く推定できるとともに、姿勢推定に用いるオプティカルフローの位置に依存して姿勢推定の精度が低下することを抑制できる。 According to the present invention, it is possible to accurately estimate the pose of a camera, and to prevent the accuracy of pose estimation from deteriorating depending on the position of the optical flow used for pose estimation.

異常検出システムの構成を示すブロック図Block diagram showing the configuration of the anomaly detection system 車載カメラが車両に配置される位置を例示する図Diagram exemplifying the position where the on-board camera is arranged in the vehicle 姿勢推定装置によるカメラの姿勢推定フローの一例を示すフローチャートFlowchart showing an example of a camera posture estimation flow by a posture estimation device 特徴点を抽出する手法を説明するための図Diagram for explaining the method of extracting feature points 特徴点のオプティカルフローを導出する手法を説明するための図A diagram for explaining a technique for deriving an optical flow of feature points. オプティカルフローから仮想的に形成される四角形を示す図A diagram showing a rectangle formed virtually from optical flow 所定の平面との交線が互いに平行になる面の組を2組特定する手法を説明するための図FIG. 4 is a diagram for explaining a technique for identifying two sets of planes whose intersection lines with a predetermined plane are parallel to each other; 特定した面の組の一方に基づき、面同士の交線の方向を求める手法を説明するための図Diagram for explaining the method of determining the direction of the line of intersection between the faces based on one of the identified pairs of faces. 特定した面の組の他方に基づき、面同士の交線の方向を求める手法を説明するための図Diagram for explaining the method of determining the direction of the line of intersection between the faces based on the other of the identified faces 姿勢推定装置がフロントカメラの撮影画像を用いてフロントカメラの姿勢を推定する場合の誤差特性を示すグラフGraph showing the error characteristics when the posture estimation device estimates the posture of the front camera using the captured image of the front camera 姿勢推定装置が右サイドカメラの撮影画像を用いて右サイドカメラの姿勢を推定する場合の誤差特性を示すグラフGraph showing error characteristics when the posture estimation device estimates the posture of the right-side camera using the captured image of the right-side camera 姿勢推定装置が右サイドカメラの撮影画像を用いて右サイドカメラの姿勢を推定する場合の誤差特性を示すグラフGraph showing error characteristics when the posture estimation device estimates the posture of the right-side camera using the captured image of the right-side camera 姿勢推定装置が右サイドカメラの撮影画像を用いて右サイドカメラの姿勢を推定する場合の誤差特性を示すグラフGraph showing error characteristics when the posture estimation device estimates the posture of the right-side camera using the captured image of the right-side camera 姿勢推定装置が右サイドカメラの撮影画像を用いて右サイドカメラの姿勢を推定する場合の誤差特性を示すグラフGraph showing error characteristics when the posture estimation device estimates the posture of the right-side camera using the captured image of the right-side camera 姿勢推定装置が右サイドカメラの撮影画像を用いて右サイドカメラの姿勢を推定する場合の誤差特性を示すグラフGraph showing error characteristics when the posture estimation device estimates the posture of the right-side camera using the captured image of the right-side camera 補正システムの構成を示すブロック図Block diagram showing the configuration of the correction system

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、移動体として車両を例にとり説明するが、移動体は車両に限定されない。車両には、例えば自動車、電車、無人搬送車等の車輪のついた乗り物が広く含まれる。車両以外の移動体として、例えば船舶や航空機等が挙げられる。 Exemplary embodiments of the invention are described in detail below with reference to the drawings. In the following description, a vehicle is taken as an example of a moving object, but the moving object is not limited to a vehicle. Vehicles broadly include vehicles with wheels, such as automobiles, trains, and automatic guided vehicles. Examples of mobile objects other than vehicles include ships and aircraft.

また以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向」とする。また、車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の右側から左側に向かう方向を「左方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の左側から右側に向かう方向を「右方向」とする。 Further, in the following description, the direction in which the vehicle travels straight ahead, which is the direction from the driver's seat to the steering wheel, is referred to as the "forward direction." In addition, the direction from the steering wheel to the driver's seat, which is the direction in which the vehicle travels straight, is defined as the "rearward direction." In addition, the direction perpendicular to the straight traveling direction and the vertical line of the vehicle and from the right side to the left side of the driver who is facing forward is referred to as the "left direction." Also, the direction perpendicular to the straight traveling direction and the vertical line of the vehicle and from the left side to the right side of the driver who is facing forward is referred to as the "right direction."

<1.異常検出システム>
図1は、実施形態に係る異常検出システムSYS1の構成を示すブロック図である。本実施形態において、異常は、カメラの取付けのずれが生じた状態である。すなわち、異常検出システムSYS1は、車両に搭載されたカメラ(車載カメラ)の取付けのずれを検出するシステムである。図1に示すように、異常検出システムSYS1は、異常検出装置1及び撮影部2を備える。
<1. Anomaly detection system>
FIG. 1 is a block diagram showing the configuration of an abnormality detection system SYS1 according to the embodiment. In this embodiment, the abnormality is a state in which the mounting of the camera is misaligned. That is, the abnormality detection system SYS1 is a system that detects misalignment of a camera mounted on a vehicle (in-vehicle camera). As shown in FIG. 1 , an abnormality detection system SYS1 includes an abnormality detection device 1 and an imaging unit 2 .

異常検出装置1は、車載カメラで撮影された撮影画像に基づいて異常を検出する装置である。異常検出装置1は、車載カメラを搭載する車両ごとに備えられる。本実施形態では、異常検出装置1は、撮影部2から撮影画像を取得する。 The abnormality detection device 1 is a device that detects an abnormality based on an image captured by an in-vehicle camera. The abnormality detection device 1 is provided for each vehicle equipped with an in-vehicle camera. In this embodiment, the abnormality detection device 1 acquires a captured image from the imaging unit 2 .

撮影部2は、車両周辺の状況を監視する目的で設けられる。撮影部2は、4つのカメラ21~24を備える。4つのカメラ21~24は、車載カメラである。図2は、4つの車載カメラ21~24が車両4に配置される位置を例示する図である。 The photographing unit 2 is provided for the purpose of monitoring the situation around the vehicle. The imaging unit 2 includes four cameras 21-24. The four cameras 21-24 are in-vehicle cameras. FIG. 2 is a diagram illustrating positions where the four vehicle-mounted cameras 21 to 24 are arranged on the vehicle 4. As shown in FIG.

車載カメラ21は車両4の前端に設けられる。このため、車載カメラ21をフロントカメラ21とも呼ぶ。フロントカメラ21の光軸21aは上からの平面視で車両4の前後方向に沿っている。フロントカメラ21は、車両4の前方を臨むカメラであり、車両4の前方向を撮影する。車載カメラ22は車両4の後端に設けられる。このため、車載カメラ22をバックカメラ22とも呼ぶ。バックカメラ22の光軸22aは上からの平面視で車両4の前後方向に沿っている。バックカメラ22は、車両4の後方を臨むカメラであり、車両4の後方向を撮影する。フロントカメラ21及びバックカメラ22の取付位置は、車両4の左右中央であることが好ましいが、左右中央から左右方向に多少ずれた位置であってもよい。 An in-vehicle camera 21 is provided at the front end of the vehicle 4 . For this reason, the vehicle-mounted camera 21 is also called a front camera 21 . An optical axis 21a of the front camera 21 extends along the longitudinal direction of the vehicle 4 in plan view from above. The front camera 21 is a camera that faces the front of the vehicle 4 and photographs the front of the vehicle 4 . An in-vehicle camera 22 is provided at the rear end of the vehicle 4 . Therefore, the vehicle-mounted camera 22 is also called a back camera 22 . An optical axis 22a of the back camera 22 extends along the longitudinal direction of the vehicle 4 when viewed from above. The back camera 22 is a camera that looks behind the vehicle 4 and photographs the rear direction of the vehicle 4 . The mounting position of the front camera 21 and the back camera 22 is preferably the center in the left and right direction of the vehicle 4, but may be slightly shifted in the left and right direction from the center in the left and right direction.

車載カメラ23は車両4の左側ドアミラー41に設けられる。このため、車載カメラ23を左サイドカメラ23とも呼ぶ。左サイドカメラ23の光軸23aは上からの平面視で車両4の左右方向に沿っている。左サイドカメラ23は、車両4の左方を臨むカメラであり、車両4の左方向を撮影する。車載カメラ24は車両4の右側ドアミラー42に設けられる。このため、車載カメラ24を右サイドカメラ24とも呼ぶ。右サイドカメラ24の光軸24aは上からの平面視で車両4の左右方向に沿っている。右サイドカメラ24は、車両4の右方を臨むカメラであり、車両4の右方向を撮影する。なお、車両4がいわゆるドアミラーレス車である場合には、左サイドカメラ23は左サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられ、右サイドカメラ24は右サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられる。 The vehicle-mounted camera 23 is provided on the left side door mirror 41 of the vehicle 4 . Therefore, the in-vehicle camera 23 is also called a left side camera 23 . The optical axis 23a of the left side camera 23 extends along the left-right direction of the vehicle 4 in plan view from above. The left side camera 23 is a camera that looks to the left of the vehicle 4 and captures the left direction of the vehicle 4 . The vehicle-mounted camera 24 is provided on the right side door mirror 42 of the vehicle 4 . Therefore, the in-vehicle camera 24 is also called a right side camera 24 . An optical axis 24a of the right side camera 24 extends along the left-right direction of the vehicle 4 in plan view from above. The right side camera 24 is a camera that faces the right side of the vehicle 4 and photographs the right side of the vehicle 4 . When the vehicle 4 is a so-called door mirrorless vehicle, the left side camera 23 is attached around the rotation axis (hinge portion) of the left side door without interposing the door mirror, and the right side camera 24 is attached to the right side door. It can be attached around the rotating shaft (hinge part) without interposing the door mirror.

各車載カメラ21~24の水平方向の画角θは180度以上である。このため、車載カメラ21~24によって、車両4の水平方向における全周囲を撮影することができる。また、車載カメラ21~24によって撮影される画像には、車載カメラ21~24を搭載する車両4のボディが映り込む。 The horizontal angle of view θ of each vehicle-mounted camera 21 to 24 is 180 degrees or more. Therefore, the vehicle-mounted cameras 21 to 24 can photograph the entire periphery of the vehicle 4 in the horizontal direction. Also, the body of the vehicle 4 on which the on-board cameras 21-24 are mounted is reflected in the images captured by the on-board cameras 21-24.

なお、本実施形態では、車載カメラの数を4つとしているが、この数は適宜変更されてよく、複数であっても単数であってもよい。例えば、車両4がバックで駐車することを支援する目的で車載カメラが搭載されている場合には、車載カメラは、バックカメラ22、左サイドカメラ23、右サイドカメラ24の3つで構成されてもよい。 In this embodiment, the number of vehicle-mounted cameras is four, but this number may be changed as appropriate, and may be plural or singular. For example, when an in-vehicle camera is installed for the purpose of assisting the vehicle 4 to park in reverse, the in-vehicle camera is composed of a rear camera 22, a left side camera 23, and a right side camera 24. good too.

図1に戻って、本実施形態では、ステアリングホイール(ハンドル)の回転角を検出する舵角センサ3の出力は、CAN(Controller Area Network)バス等の通信バスB1を介して異常検出装置1に入力される。 Returning to FIG. 1, in this embodiment, the output of the steering angle sensor 3 that detects the rotation angle of the steering wheel (steering wheel) is sent to the abnormality detection device 1 via a communication bus B1 such as a CAN (Controller Area Network) bus. is entered.

<2.異常検出装置>
図1に示すように、異常検出装置1は、取得部11と、制御部12と、記憶部13と、を備える。
<2. Abnormality detection device>
As shown in FIG. 1 , the abnormality detection device 1 includes an acquisition section 11 , a control section 12 and a storage section 13 .

取得部11は、車載カメラ21~24からアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。すなわち、取得部11によって取得される撮影画像の集合体が車載カメラ21~24で撮影された動画像である。そして、取得した撮影画像がアナログの場合には、取得部11は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。取得部11は、取得した撮影画像、或いは、取得及び変換した撮影画像を制御部12に出力する。取得部11から出力される1つの撮影画像が1つのフレーム画像となる。 The obtaining unit 11 temporally continuously obtains analog or digital captured images from the vehicle-mounted cameras 21 to 24 at a predetermined cycle (for example, 1/30 second cycle). In other words, an aggregate of captured images acquired by the acquisition unit 11 is a moving image captured by the vehicle-mounted cameras 21-24. Then, when the acquired captured image is analog, the acquisition unit 11 converts (A/D converts) the analog captured image into a digital captured image. The acquisition unit 11 outputs the acquired photographed image or the acquired and converted photographed image to the control unit 12 . One captured image output from the acquisition unit 11 becomes one frame image.

制御部12は、例えばマイクロコンピュータであり、異常検出装置1の全体を統括的に制御する。制御部12は、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む。記憶部13は、例えば、フラッシュメモリ等の不揮発性のメモリであり、各種の情報を記憶する。記憶部13は、ファームウェアとしてのプログラムや各種のデータを記憶する。 The control unit 12 is, for example, a microcomputer, and controls the entire abnormality detection device 1 in an integrated manner. The control unit 12 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory) (not shown). The storage unit 13 is, for example, a non-volatile memory such as a flash memory, and stores various kinds of information. The storage unit 13 stores a program as firmware and various data.

制御部12は、抽出部121、フロー導出部122、選択部123、特定部124、推定部125、及び判定部126を備える。なお、制御部12の抽出部121、フロー導出部122、選択部123、特定部124、推定部125、及び判定部126の少なくともいずれか一つは、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。また、抽出部121、フロー導出部122、選択部123、特定部124、推定部125、及び判定部126は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてよい。また、取得部11は、制御部12のCPUがプログラムに従って演算処理を行うことによって実現される構成でもよい。 The control unit 12 includes an extraction unit 121 , a flow derivation unit 122 , a selection unit 123 , an identification unit 124 , an estimation unit 125 and a determination unit 126 . At least one of the extraction unit 121, the flow derivation unit 122, the selection unit 123, the identification unit 124, the estimation unit 125, and the determination unit 126 of the control unit 12 is an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array) or other hardware may be used. Also, the extraction unit 121, the flow derivation unit 122, the selection unit 123, the identification unit 124, the estimation unit 125, and the determination unit 126 are conceptual components. A function performed by one component may be distributed to a plurality of components, or a function possessed by a plurality of components may be integrated into one component. Further, the acquisition unit 11 may be implemented by the CPU of the control unit 12 performing arithmetic processing according to a program.

抽出部121は、各車載カメラ21~24からの撮影画像から第1特徴点及び第2特徴点を含む複数の特徴点を抽出する。特徴点は、撮影画像中のエッジの交点など、撮影画像において際立って検出できる点である。特徴点は、例えば路面に描かれた白線のエッジ、路面上のひび、路面上のしみ、路面上の砂利などである。特徴点は、通常、1つの撮影画像の中に多数存在する。抽出部121は、例えば、ハリスオペレータ等の公知の手法を用いて特徴点を抽出する。抽出部121は、路面上の特徴点の中から第1特徴点及び第2特徴点を選定する。なお、本実施形態では、所定の平面として路面を想定する。 The extraction unit 121 extracts a plurality of feature points including a first feature point and a second feature point from images captured by the vehicle-mounted cameras 21-24. A feature point is a point that can be conspicuously detected in a captured image, such as an intersection of edges in the captured image. The feature points are, for example, edges of white lines drawn on the road surface, cracks on the road surface, stains on the road surface, gravel on the road surface, and the like. A large number of feature points usually exist in one captured image. The extraction unit 121 extracts feature points using, for example, a known method such as a Harris operator. The extraction unit 121 selects a first feature point and a second feature point from the feature points on the road surface. In addition, in this embodiment, a road surface is assumed as a predetermined plane.

フロー導出部122は、異なる時刻で撮影された2つの撮影画像から抽出部121によって抽出された特徴点ごとにオプティカルフローを導出する。オプティカルフローは、異なる時刻で撮影された2つの撮影画像間における特徴点の動きを示す動きベクトルである。異なる時刻の間隔は、取得部11のフレーム周期と同一であってもよく、取得部11のフレーム周期の複数倍であってもよい。 The flow derivation unit 122 derives an optical flow for each feature point extracted by the extraction unit 121 from two captured images captured at different times. Optical flow is a motion vector that indicates the motion of feature points between two captured images captured at different times. The interval between the different times may be the same as the frame period of the acquisition unit 11 or multiple times the frame period of the acquisition unit 11 .

選択部123は、フロー導出部122で導出されたオプティカルフローの位置に基づいて、フロー導出部122で導出されたオプティカルフローの中から第1特徴点のオプティカルフロー及び第2特徴点のオプティカルフローを選択する。選択手法の詳細については後述する。 The selection unit 123 selects the optical flow of the first feature point and the optical flow of the second feature point from the optical flows derived by the flow derivation unit 122 based on the positions of the optical flows derived by the flow derivation unit 122. select. Details of the selection method will be described later.

特定部124は、第1特徴点及び第2特徴点の各オプティカルフローを用いて、異なる時刻で撮影された2つの撮影画像から抽出された第1特徴点及び第2特徴点の各位置変化を算出する。 The specifying unit 124 uses the respective optical flows of the first feature point and the second feature point to determine the positional changes of the first feature point and the second feature point extracted from the two captured images captured at different times. calculate.

特定部124は、第1特徴点の位置変化及び第2特徴点の位置変化に基づき、所定の平面との交線が互いに平行となる面の組を2組特定する。 The specifying unit 124 specifies two sets of planes whose intersection lines with a predetermined plane are parallel to each other, based on the positional change of the first feature point and the positional change of the second feature point.

推定部125は、特定部124で特定した面の組に基づきカメラの姿勢(カメラの取付け角度)を推定する。例えば抽出部121がフロントカメラ21から第1特徴点及び第2特徴点を抽出した場合、推定部125はフロントカメラ21の姿勢(カメラの取付け角度)を推定する。 The estimation unit 125 estimates the orientation of the camera (mounting angle of the camera) based on the set of surfaces identified by the identification unit 124 . For example, when the extraction unit 121 extracts the first feature point and the second feature point from the front camera 21, the estimation unit 125 estimates the orientation of the front camera 21 (camera mounting angle).

判定部126は、推定部125によって推定されたカメラの姿勢に基づき、カメラの取付けのずれが生じた状態であるか否かを判定する。カメラの取付けのずれが生じた状態であると判定されると、異常検出装置1がカメラの異常を検出したことになる。例えば、この異常を異常検出装置1が車両4のユーザに報知することで、車両4のユーザはディーラによるカメラの取付調整を依頼する等の対策をとることが可能となる。 The determination unit 126 determines whether or not the camera is in a state of misalignment based on the orientation of the camera estimated by the estimation unit 125 . If it is determined that the camera is in a state of mounting misalignment, the abnormality detection device 1 has detected an abnormality in the camera. For example, if the abnormality detection device 1 notifies the user of the vehicle 4 of this abnormality, the user of the vehicle 4 can take countermeasures such as requesting the dealer to adjust the mounting of the camera.

<3.姿勢推定装置>
上述した取得部11、抽出部121、フロー導出部122、選択部123、特定部124、及び推定部125によって姿勢推定装置14が構成される。言い換えると、異常検出装置1は姿勢推定装置14を備える。図3は、姿勢推定装置14によるカメラの姿勢推定フローの一例を示すフローチャートである。以下、フロントカメラ21の姿勢を推定する場合を例に挙げて、姿勢推定装置14によるカメラの姿勢推定フローの一例について説明する。
<3. Posture Estimation Device>
The posture estimation device 14 is configured by the acquisition unit 11, the extraction unit 121, the flow derivation unit 122, the selection unit 123, the identification unit 124, and the estimation unit 125 described above. In other words, the anomaly detection device 1 includes the attitude estimation device 14 . FIG. 3 is a flow chart showing an example of a camera pose estimation flow by the pose estimation device 14 . An example of a camera posture estimation flow by the posture estimation device 14 will be described below, taking the case of estimating the posture of the front camera 21 as an example.

図3に示すように、まず、制御部12は、フロントカメラ21を搭載する車両4が直進しているか否かを監視する(ステップS1)。車両4が直進しているか否かは、例えば、舵角センサ3から得られるステアリングホイールの回転角情報に基づいて判断することができる。例えば、ステアリングホイールの回転角がゼロのときに車両4が完全にまっすぐに進むとした場合に、回転角がゼロの場合だけでなく、回転角がプラス方向とマイナス方向の一定範囲内の値である場合を含めて、車両4が直進していると判断してよい。なお、直進には、前方方向の直進と、後退方向の直進との両方が含まれる。 As shown in FIG. 3, first, the control unit 12 monitors whether the vehicle 4 equipped with the front camera 21 is traveling straight (step S1). Whether or not the vehicle 4 is traveling straight can be determined, for example, based on the rotation angle information of the steering wheel obtained from the steering angle sensor 3 . For example, when the vehicle 4 moves completely straight when the rotation angle of the steering wheel is zero, not only when the rotation angle is zero, but also when the rotation angle is within a certain range between positive and negative directions. It may be determined that the vehicle 4 is traveling straight, including the case where there is. It should be noted that straight running includes both forward straight running and backward straight running.

制御部12は、車両4の直進を検出するまで、ステップS1の監視を繰り返す。言い換えると、制御部12は、車両4が直進しない限り、カメラの姿勢を推定しない。これによれば、移動体の直進移動中における第1特徴点の位置変化及び第2特徴点の位置変化を用いてカメラの姿勢を推定することになり、車両4の進行方向が曲がっている場合の情報を用いてカメラの姿勢推定が行われないので、カメラの姿勢を推定するための情報処理、より詳細には後述するステップS3の処理が複雑になることを避けることができる。 The control unit 12 repeats the monitoring of step S1 until it detects that the vehicle 4 is traveling straight. In other words, the controller 12 does not estimate the orientation of the camera unless the vehicle 4 is traveling straight. According to this, the orientation of the camera is estimated using the positional change of the first feature point and the positional change of the second feature point during the straight movement of the moving object, and when the traveling direction of the vehicle 4 is curved, Since the orientation of the camera is not estimated using the information of , it is possible to avoid complication of the information processing for estimating the orientation of the camera, more specifically, the processing of step S3, which will be described later.

なお、後述するステップS3の処理において、互いに重なっておらず且つ同一直線上に位置していない第1特徴点のオプティカルフローと第2特徴点のオプティカルフローが導出できればカメラの姿勢を推定することができるので、本実施形態とは異なり車両4の進行方向が曲がっているときにカメラの姿勢を推定してもよい。 In the process of step S3, which will be described later, the orientation of the camera can be estimated if the optical flow of the first feature point and the optical flow of the second feature point, which do not overlap each other and are not located on the same straight line, can be derived. Therefore, unlike the present embodiment, the orientation of the camera may be estimated when the traveling direction of the vehicle 4 is curved.

本実施形態では、車両4が直進していると判断される場合(ステップS1でYES)、抽出部121によって特徴点の抽出が行われる(ステップS2)。 In this embodiment, when it is determined that the vehicle 4 is traveling straight (YES in step S1), the extraction unit 121 extracts feature points (step S2).

図4は、特徴点を抽出する手法を説明するための図である。図4は、フロントカメラで撮影される撮影画像P1を模式的に示している。撮影画像Pは、車両4のボディが映り込む領域BOを含む。複数の特徴点FPは路面RS上に存在する。図4においては、路面に描かれている白線のコーナーに複数の特徴点FPが存在する。 FIG. 4 is a diagram for explaining a technique for extracting feature points. FIG. 4 schematically shows a captured image P1 captured by the front camera. The captured image P includes an area BO in which the body of the vehicle 4 is reflected. A plurality of feature points FP exist on the road surface RS. In FIG. 4, there are a plurality of feature points FP at the corners of the white lines drawn on the road surface.

複数の特徴点FPが抽出されると、フロー導出部122は、特徴点ごとにオプティカルフローを導出する(ステップS3)。 After extracting the plurality of feature points FP, the flow derivation unit 122 derives an optical flow for each feature point (step S3).

図5は、特徴点のオプティカルフローを導出する手法を説明するための図である。図5は、図4と同様に便宜的に示された模式図である。図5は、図4に示す撮影画像P1の撮影後、所定時間が経過した後にフロントカメラ21で撮影された撮影画像P2である。図4に示す撮影画像P1の撮影後、所定時間が経過するまでの間に、車両4は前方に直進している。図5に示す白丸印は、図4に示す撮影画像P1の撮影時点における各特徴点の位置を示す。図5に示す黒丸印は、図5に示す撮影画像P2の撮影時点における各特徴点の位置を示す。 FIG. 5 is a diagram for explaining a method of deriving the optical flow of feature points. FIG. 5 is a schematic diagram shown for convenience similar to FIG. FIG. 5 shows a photographed image P2 photographed by the front camera 21 after a predetermined period of time has elapsed after the photographed image P1 shown in FIG. 4 was photographed. After the photographed image P1 shown in FIG. 4 is photographed, the vehicle 4 is traveling forward in a straight line until a predetermined time elapses. The white circle marks shown in FIG. 5 indicate the position of each feature point at the time of photographing the photographed image P1 shown in FIG. The black circle marks shown in FIG. 5 indicate the positions of the feature points at the time when the photographed image P2 shown in FIG. 5 was photographed.

図5に示すように、車両4が前方に直進すると、車両4の前方に存在する各特徴点は車両4に近づく。すなわち、各特徴点は、図5に示す撮影画像P2と図4に示す撮影画像P1とで異なる位置に現れる。フロー導出部122は、図5に示す撮影画像P2の各特徴点と図5に示す撮影画像P2の各特徴点とを、その近傍の画素値に基づいて対応付け、対応付けた特徴点のそれぞれの位置に基づいて、対応付けができた特徴点(追跡できた特徴点)それぞれのオプティカルフローを導出する(ステップS3)。 As shown in FIG. 5 , when the vehicle 4 moves straight forward, each characteristic point present in front of the vehicle 4 approaches the vehicle 4 . That is, each feature point appears at a different position between the captured image P2 shown in FIG. 5 and the captured image P1 shown in FIG. The flow derivation unit 122 associates each feature point of the captured image P2 shown in FIG. 5 with each feature point of the captured image P2 shown in FIG. Based on the position of , an optical flow is derived for each associated feature point (tracked feature point) (step S3).

次に、選択部123がフロー導出部122で導出されたオプティカルフローの中から第1特徴点のオプティカルフロー及び第2特徴点のオプティカルフローを選択する(ステップS3)。 Next, the selection unit 123 selects the optical flow of the first feature point and the optical flow of the second feature point from the optical flows derived by the flow derivation unit 122 (step S3).

第1特徴点のオプティカルフローと第2特徴点のオプティカルフローが導出されると、特定部124は、特徴点に対し、記憶部13に記憶されているフロントカメラ21に内部パラメータを用いて座標変換を行う。座標変換では、フロントカメラ21の収差補正と、歪補正とが行われる。収差補正は、フロントカメラ21の光学系の収差による歪みを補正するために行われる。具体的には樽型歪みや糸巻歪みなど歪曲収差の補正である。歪み補正は、フロントカメラ21の光学系そのものの歪みを補正するために行われる。具体的には魚眼補正などである。座標変換により、特徴点の座標は、被写体が透視投影によって撮影された場合に二次元画像上で得られる座標に変換される。 When the optical flow of the first feature point and the optical flow of the second feature point are derived, the specifying unit 124 performs coordinate transformation on the feature points using the internal parameters of the front camera 21 stored in the storage unit 13. I do. In the coordinate conversion, aberration correction and distortion correction of the front camera 21 are performed. Aberration correction is performed to correct distortion due to aberration of the optical system of the front camera 21 . Specifically, it is correction of distortion such as barrel distortion and pincushion distortion. Distortion correction is performed to correct distortion of the optical system itself of the front camera 21 . Specifically, it is fisheye correction. Coordinate transformation converts the coordinates of the feature points into coordinates obtained on a two-dimensional image when the subject is photographed by perspective projection.

特徴点の座標変換が行われると、特定部124は、図6に示すように、第1特徴点のオプティカルフローOF1の始点を頂点SP1、第1特徴点のオプティカルフローOF1の終点を頂点EP1、第2特徴点のオプティカルフローOF2の始点を頂点SP2、及び第2特徴点のオプティカルフローOF2の終点を頂点EPとする四角形QLを仮想的に形成する(ステップS4)。以降、説明のために四角形や、該四角形の辺などの幾何的要素を仮想的に形成して用いる。しかし、実際の処理では、特徴点の座標や直線の方向などのベクトル演算に基づき、同等の作用を持つ幾何的要素に基づかない処理としてもよい。 When the feature point coordinate transformation is performed, the specifying unit 124 sets the starting point of the optical flow OF1 of the first feature point to the vertex SP1, the end point of the optical flow OF1 of the first feature point to the vertex EP1, and A quadrangle QL is virtually formed having the vertex SP2 as the starting point of the optical flow OF2 of the second feature points and the vertex EP as the ending point of the optical flow OF2 of the second feature points (step S4). Hereinafter, for the sake of explanation, geometric elements such as quadrilaterals and sides of the quadrilaterals are virtually formed and used. However, in actual processing, processing may be based on vector operations such as the coordinates of feature points and the direction of straight lines, and may not be based on geometric elements having equivalent effects.

四角形QLが仮想的に形成されると、特定部124は、四角形QLと、記憶部13に記憶されているフロントカメラ21の内部パラメータとを用いて、三次元空間におけるフロントカメラ21の投影面IMG上に四角形QLを移動させ、投影面IMG上での四角形QL1を仮想的に生成する(ステップS5)。 When the quadrangle QL is virtually formed, the specifying unit 124 uses the quadrangle QL and the internal parameters of the front camera 21 stored in the storage unit 13 to determine the projection plane IMG of the front camera 21 in the three-dimensional space. The quadrangle QL is moved upward to virtually generate a quadrangle QL1 on the projection plane IMG (step S5).

なお説明のため、以下のように辺を定義する。四角形QL1の第1辺SD1は、四角形QLにおいて、頂点SP1および頂点SP2を結んだ辺に対応する。つまり、撮影画像P1における第1特徴点と第2特徴点を結んだ辺に相当する。同様に、四角形QL1の第2辺SD2は、四角形QLにおいて、頂点SP2および頂点EP2を結んだ辺に対応する。つまり、第2特徴点のオプティカルフローOF2に相当する。同様に、四角形QL1の第3辺SD3は、四角形QLにおいて、頂点EP1および頂点EP2を結んだ辺に対応する。つまり、撮影画像P2における第1特徴点と第2特徴点とを結んだ辺に相当する。同様に、四角形QL1の第4辺SD4は、四角形QLにおいて、頂点SP1および頂点EP1を結んだ辺に対応する。つまり、第1特徴点のオプティカルフローOF1に相当する。 For the sake of explanation, the edges are defined as follows. A first side SD1 of quadrangle QL1 corresponds to a side connecting vertex SP1 and vertex SP2 in quadrangle QL. That is, it corresponds to the side connecting the first feature point and the second feature point in the captured image P1. Similarly, the second side SD2 of quadrangle QL1 corresponds to the side connecting vertex SP2 and vertex EP2 in quadrangle QL. That is, it corresponds to the optical flow OF2 of the second feature point. Similarly, the third side SD3 of quadrangle QL1 corresponds to the side connecting vertex EP1 and vertex EP2 in quadrangle QL. That is, it corresponds to the side connecting the first feature point and the second feature point in the captured image P2. Similarly, the fourth side SD4 of quadrangle QL1 corresponds to the side connecting vertex SP1 and vertex EP1 in quadrangle QL. That is, it corresponds to the optical flow OF1 of the first feature point.

また、以下のように面を定義する(図7参照)。四角形QL1の第1辺SD1とフロントカメラ21の光学中心OCとが含まれる面を第1面F1とする。同様に、四角形QL1の第2辺SD2とフロントカメラ21の光学中心OCとが含まれる面を第2面F2とする。同様に、四角形QL1の第3辺SD3とフロントカメラ21の光学中心OCとが含まれる面を第3面F3とする。同様に、四角形QL1の第4辺SD4とフロントカメラ21の光学中心OCとが含まれる面を第4面F4とする。 Also, a surface is defined as follows (see FIG. 7). A plane including the first side SD1 of the quadrangle QL1 and the optical center OC of the front camera 21 is defined as a first plane F1. Similarly, a plane including the second side SD2 of the quadrangle QL1 and the optical center OC of the front camera 21 is defined as a second plane F2. Similarly, a surface including the third side SD3 of the quadrangle QL1 and the optical center OC of the front camera 21 is defined as a third surface F3. Similarly, a plane including the fourth side SD4 of the quadrangle QL1 and the optical center OC of the front camera 21 is defined as a fourth plane F4.

次に、特定部124は、所定の平面との交線が互いに平行になる面の組を2組特定する(ステップS6)。所定の平面とはあらかじめ平面の法線が分かっている面である。具体的には車両が移動を行っている平面であり、つまり路面である。所定の平面は、厳密な平面でなくてもよく、特定部124が所定の平面との交線が互いに平行になる面の組を2組特定する際に平面とみなすことができるものであればよい。 Next, the identifying unit 124 identifies two sets of planes whose intersection lines with a predetermined plane are parallel to each other (Step S6). A predetermined plane is a plane whose normal is known in advance. Specifically, it is the plane on which the vehicle is moving, that is, the road surface. The predetermined plane does not have to be a strict plane, as long as it can be regarded as a plane when the specifying unit 124 specifies two sets of planes whose intersection lines with the predetermined plane are parallel to each other. good.

本実施形態では、異常検出装置1は、車両4が直進している場合に、異なる時刻に撮影された2つの画像から特徴点を抽出し、該特徴点のオプティカルフローを算出する。また、該特徴点は路面などの所定の平面上に位置している静止物から抽出される。したがって、算出されるオプティカルフローは実世界上では、車両4に対する静止物の相対的な位置変化を表す。つまり向きが逆となった車両4の移動ベクトルである。 In this embodiment, when the vehicle 4 is traveling straight ahead, the abnormality detection device 1 extracts feature points from two images taken at different times and calculates the optical flow of the feature points. Also, the feature points are extracted from a stationary object positioned on a predetermined plane such as a road surface. Therefore, the calculated optical flow represents relative position change of the stationary object with respect to the vehicle 4 in the real world. That is, it is the movement vector of the vehicle 4 whose direction is reversed.

四角形QL1の第2辺SD2と第4辺SD4とは、共に特徴点のオプティカルフローに対応するので、共に実世界上では車両4の移動ベクトルに相当する。したがって、路面上では互いに平行となると想定される。 The second side SD2 and the fourth side SD4 of the quadrangle QL1 both correspond to the optical flow of the feature points, and therefore both correspond to the movement vector of the vehicle 4 in the real world. Therefore, it is assumed that they are parallel to each other on the road surface.

また、四角形QL1の第1辺SD1と第3辺SD3とは、共に特徴点同士の位置関係なので、実世界上では車両4の移動に伴う静止物同士の位置関係に相当する。移動前の位置関係が第1辺SD1に相当し、移動後の位置関係が第3辺SD3に相当する。このとき静止物の位置は変わらないため、移動前後で位置関係は変わらない。したがって、路面上ではこれも互いに平行となると想定される。 The first side SD1 and the third side SD3 of the quadrangle QL1 both correspond to the positional relationship between the feature points, and thus correspond to the positional relationship between the stationary objects accompanying the movement of the vehicle 4 in the real world. The positional relationship before movement corresponds to the first side SD1, and the positional relationship after movement corresponds to the third side SD3. Since the position of the stationary object does not change at this time, the positional relationship does not change before and after the movement. Therefore, it is assumed that they are also parallel to each other on the road surface.

したがって、特定部124は、路面との交線が平行な面として、第2面F2と第4面F4との組と、第1面F1と第3面F3との組と、の2つの組を特定する。つまり、特定部124は、オプティカルフローを含む面同士を1つの組とし、同時刻に撮影された特徴点を含む面同士を他の組として、計2つの組を特定する。 Therefore, the identification unit 124 has two sets of surfaces having parallel lines of intersection with the road surface: the set of the second surface F2 and the fourth surface F4, and the set of the first surface F1 and the third surface F3. identify. In other words, the specifying unit 124 specifies a total of two pairs of surfaces including optical flows as one pair and surfaces including feature points captured at the same time as another pair.

なお、図7において四角形QL2は、撮影画像P2の撮影時点での第1特徴点の3次元空間(実世界)上の位置、撮影画像P2の撮影時点での第2特徴点の3次元空間上の位置、撮影画像P1の撮影時点での第1特徴点の3次元空間上の位置、及び撮影画像P1の撮影時点での第2特徴点の3次元空間上の位置を頂点とする四角形である。第1面F1は、四角形QL2の第1辺SD11を含む。同様に、第2面F2は四角形QL2の第2辺SD12を含み、第3面F3は四角形QL2の第3辺SD13を含み、第4面F4は四角形QL2の第4辺SD14を含む。このとき、上記のように四角形QL2は路面上に形成される平行四辺形であると想定される。 In FIG. 7, a quadrangle QL2 represents the position of the first feature point in the three-dimensional space (real world) at the time of capturing the captured image P2, and the position of the second feature point in the three-dimensional space at the time of capturing the captured image P2. , the position of the first feature point in the three-dimensional space at the time of capturing the captured image P1, and the position of the second feature point in the three-dimensional space at the time of capturing the captured image P1. . The first face F1 includes the first side SD11 of the quadrangle QL2. Similarly, the second surface F2 includes the second side SD12 of the quadrilateral QL2, the third surface F3 includes the third side SD13 of the quadrilateral QL2, and the fourth surface F4 includes the fourth side SD14 of the quadrilateral QL2. At this time, the quadrangle QL2 is assumed to be a parallelogram formed on the road surface as described above.

次に、推定部125は、路面の法線を算出する(ステップS7)。まず、推定部125は、特定部124で特定した面の組の一方である第1面F1と第3面F3とに基づき、面同士の交線の方向を求める。詳細には、第1面F1と第3面F3との交線CL1の向きを求める(図8参照)。交線CL1の方向ベクトルV1は、第1面F1の法線ベクトル及び第3面F3の法線ベクトルそれぞれと垂直なベクトルである。したがって、推定部125は、第1面F1の法線ベクトルと第3面F3の法線ベクトルとの外積により、交線CL1の方向ベクトルV1を求める。第1面F1と第3面F3は、路面との交線が平行となるため、方向ベクトルV1は路面と平行になる。 Next, the estimation unit 125 calculates the normal line of the road surface (step S7). First, the estimation unit 125 obtains the direction of the line of intersection between the surfaces based on the first surface F1 and the third surface F3, which are one of the pairs of surfaces identified by the identification unit 124 . Specifically, the direction of the line of intersection CL1 between the first surface F1 and the third surface F3 is determined (see FIG. 8). A direction vector V1 of the line of intersection CL1 is a vector perpendicular to each of the normal vector of the first surface F1 and the normal vector of the third surface F3. Therefore, the estimating unit 125 obtains the direction vector V1 of the line of intersection CL1 by the outer product of the normal vector of the first surface F1 and the normal vector of the third surface F3. Since the first plane F1 and the third plane F3 are parallel to the road surface, the direction vector V1 is parallel to the road surface.

同様に、推定部125は、特定部124で特定した面の組の他方である第2面F2と第4面F4との交線の方向を求める。詳細には第2面F2と第4面F4との交線CL2の向きを求める(図9参照)。交線CL2の方向ベクトルV2は、第2面F2の法線ベクトル及び第4面F4の法線ベクトルそれぞれと垂直なベクトルである。したがって、推定部125は、第2面F2の法線ベクトルと第4面F4の法線ベクトルとの外積により、交線CL2の方向ベクトルV2を求める。第2面F2と第4面F4も同様に、路面との交線が平行となるため、方向ベクトルV2は路面と平行になる。 Similarly, the estimation unit 125 obtains the direction of the line of intersection between the second surface F2 and the fourth surface F4 that are the other of the set of surfaces identified by the identification unit 124 . Specifically, the direction of the intersection line CL2 between the second surface F2 and the fourth surface F4 is obtained (see FIG. 9). A direction vector V2 of the line of intersection CL2 is a vector perpendicular to each of the normal vector of the second surface F2 and the normal vector of the fourth surface F4. Therefore, the estimation unit 125 obtains the direction vector V2 of the line of intersection CL2 from the cross product of the normal vector of the second surface F2 and the normal vector of the fourth surface F4. Similarly, the second surface F2 and the fourth surface F4 also have parallel lines of intersection with the road surface, so the direction vector V2 is parallel with the road surface.

推定部125は、方向ベクトルV1と方向ベクトルV2との外積により、四角形QL2の面の法線、すなわち路面の法線を算出する。推定部125が算出した路面の法線はフロントカメラ21のカメラ座標系で算出されるため、実際の路面の法線である垂直方向との違いから3次元空間の座標系を求め、路面に対するフロントカメラ21の姿勢を推定することができる。その推定結果から推定部125は車両4に対するフロントカメラ21の姿勢を推定する(ステップS8)。なお、ステップS7の算出処理は、例えば公知のARToolkitを利用して実行することができる。 The estimating unit 125 calculates the normal to the surface of the quadrangle QL2, that is, the normal to the road surface, from the outer product of the direction vector V1 and the direction vector V2. Since the normal line of the road surface calculated by the estimating unit 125 is calculated in the camera coordinate system of the front camera 21, the coordinate system of the three-dimensional space is obtained from the difference from the vertical direction, which is the normal line of the actual road surface, and the front surface of the road surface is calculated. The pose of the camera 21 can be estimated. Based on the estimation result, the estimation unit 125 estimates the posture of the front camera 21 with respect to the vehicle 4 (step S8). Note that the calculation process in step S7 can be executed using, for example, the known ARToolkit.

ステップS8におけるフロントカメラ21の姿勢推定が終了すると、図5に示すフローが終了する。 When the posture estimation of the front camera 21 in step S8 ends, the flow shown in FIG. 5 ends.

姿勢推定装置14は、車両4の移動を利用して、自律的に所定の平面との交線が互いに平行になる面の組を2組特定することで、特徴点の抽出誤差のみが推定精度に影響するカメラの姿勢推定を行うことができる。すなわち、姿勢推定装置14は、誤差要因が少ないカメラの姿勢推定を行うことができる。したがって、姿勢推定装置14は、カメラの姿勢を精度良く推定することができる。 The posture estimation device 14 uses the movement of the vehicle 4 to autonomously specify two sets of planes whose intersection lines with a predetermined plane are parallel to each other, so that only the feature point extraction error is the estimation accuracy. can be used to estimate the pose of the camera, which affects the In other words, the posture estimation device 14 can estimate the posture of the camera with few error factors. Therefore, the orientation estimation device 14 can accurately estimate the orientation of the camera.

姿勢推定に対する特徴点の抽出誤差の影響度合いがオプティカルフローの位置によって異なるため、上述した通り、選択部123は、フロー導出部122で導出されたオプティカルフローの位置に基づいて、フロー導出部122で導出されたオプティカルフローの中から第1特徴点のオプティカルフロー及び第2特徴点のオプティカルフローを選択している。これにより、姿勢推定に対する特徴点の抽出誤差の影響度合いが小さくなる第1特徴点のオプティカルフロー及び第2特徴点のオプティカルフローを姿勢推定に用いることが可能となる。したがって、姿勢推定装置14は、姿勢推定に用いるオプティカルフローの位置に依存して姿勢推定の精度が低下することを抑制できる。 Since the degree of influence of feature point extraction errors on pose estimation varies depending on the position of the optical flow, as described above, the selection unit 123 causes the flow derivation unit 122 to perform The optical flow of the first feature point and the optical flow of the second feature point are selected from the derived optical flows. This makes it possible to use the optical flow of the first feature point and the optical flow of the second feature point, which reduce the degree of influence of feature point extraction errors on pose estimation, for pose estimation. Therefore, pose estimation apparatus 14 can suppress a decrease in the accuracy of pose estimation that depends on the position of the optical flow used for pose estimation.

なお、上記の説明ではフロントカメラ21の光学中心OCと、四角形QL1の1つの辺を含む平面を特定するとしたがこの限りではない。当該平面の法線方向の特定をもって平面を特定するとしてもよい。例えば光学中心OCから各頂点への方向ベクトルの外積により平面の法線方向を求め、該法線方向によって面を特定するとしてもよい。この場合、第1面F1の法線方向と第3面F3の法線方向とを1つの組とし、第2面F2の法線方向と第4面F4の法線方向とを他の組として2つの組を特定するとよい。 In the above description, the plane including the optical center OC of the front camera 21 and one side of the quadrangle QL1 is specified, but this is not the only option. A plane may be specified by specifying the normal direction of the plane. For example, the normal direction of the plane may be obtained from the outer product of the direction vectors from the optical center OC to each vertex, and the plane may be identified by the normal direction. In this case, the normal direction of the first surface F1 and the normal direction of the third surface F3 are set as one set, and the normal direction of the second surface F2 and the normal direction of the fourth surface F4 are set as another set. Two sets may be identified.

また、面は平行移動させてもよい。例えば第1面F1の代わりに、第1面F1を平行移動させた面を第3面F3と組としてもよい。平行移動しても所定の平面との交線の向きは変わらないからである。 Also, the plane may be translated. For example, instead of the first plane F1, a plane translated from the first plane F1 may be paired with the third plane F3. This is because the direction of the line of intersection with a predetermined plane does not change even if it is translated.

<4.オプティカルフローの選択>
次に、選択部123の詳細動作について説明する。
<4. Selecting Optical Flow>
Next, detailed operation of the selection unit 123 will be described.

図10は、姿勢推定装置14がフロントカメラ21の撮影画像を用いてフロントカメラ21の姿勢を推定した結果の期待値に対する誤差(PAN、TILT、ROLLの各誤差)を縦軸にとり、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との左右方向における距離を横軸にとったグラフである。 FIG. 10 shows the error (PAN, TILT, and ROLL errors) with respect to the expected value of the result of estimating the posture of the front camera 21 by the posture estimation device 14 using the captured image of the front camera 21 on the vertical axis. It is a graph in which the horizontal axis represents the distance in the horizontal direction between the real-world position of the point and the real-world position of the second feature point.

図10に示すグラフから明らかな通り、姿勢推定装置14がフロントカメラ21の撮影画像を用いてフロントカメラ21の姿勢を推定する場合には、選択部123は、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との所定の方向における距離が第1所定値V1(図10参照)以上になるように、第1特徴点のオプティカルフロー及び第2特徴点のオプティカルフローを選択することが好ましい。これにより、姿勢推定に対する特徴点の抽出誤差の影響度合いが小さくなり、姿勢推定の精度が高くなるからである。 As is clear from the graph shown in FIG. 10, when the posture estimation device 14 estimates the posture of the front camera 21 using the captured image of the front camera 21, the selection unit 123 selects The optical flow of the first feature point and the optical flow of the second feature point are adjusted so that the distance in a predetermined direction between the position and the real-world position of the second feature point is greater than or equal to a first predetermined value V1 (see FIG. 10). It is preferred to select flow. This is because the degree of influence of feature point extraction errors on posture estimation is reduced, and the accuracy of posture estimation is increased.

ここで所定の方向とは、具体的には路面に平行かつ、車両の進行方向に対して垂直な方向とするとよい。例えばフロントカメラ21およびバックカメラ22の場合、カメラの光軸と車両の進行方向が一致するため、所定の方向は画像上で水平方向(左右方向)である。また左サイドカメラ23および右サイドカメラ24の場合、カメラの光軸と車両の進行方向が直交するため、所定の方向は画像上で垂直方向(奥行き方向)である。 Here, the predetermined direction is preferably a direction parallel to the road surface and perpendicular to the traveling direction of the vehicle. For example, in the case of the front camera 21 and the back camera 22, the predetermined direction is the horizontal direction (horizontal direction) on the image because the optical axis of the camera coincides with the traveling direction of the vehicle. In the case of the left side camera 23 and the right side camera 24, the predetermined direction is the vertical direction (depth direction) on the image because the optical axis of the camera and the traveling direction of the vehicle are orthogonal.

また、所定の方向における距離とは、ある2点が所定の方向に沿ってどれだけ離れているかの指標である。具体的には、2点間に位置ベクトル形成した場合に、前記位置ベクトルを所定の方向に対して投影したベクトルの長さとして算出する。 Also, the distance in a given direction is an index of how far apart two points are in a given direction. Specifically, when a position vector is formed between two points, the length of the vector obtained by projecting the position vector in a predetermined direction is calculated.

ただし、図10に示すグラフから明らかな通り、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との所定の方向における距離が第2所定値V2(V2>V1、図10参照)以上になると、歪みの影響で姿勢推定の精度が低下してしまう。 However, as is clear from the graph shown in FIG. 10, the distance in a predetermined direction between the real-world position of the first feature point and the real-world position of the second feature point is a second predetermined value V2 (V2>V1 , FIG. 10), the accuracy of attitude estimation is reduced due to the influence of distortion.

したがって、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との所定の方向における距離が第2所定値V2以上になることを回避するために、選択部123は、フロントカメラ21の光軸中心から所定距離以内の領域に位置する第1特徴点のオプティカルフロー及び第2特徴点のオプティカルフローを選択することが好ましい。言い換えると、選択部123は、撮影画像の周辺部から第1特徴点のオプティカルフロー及び第2特徴点のオプティカルフローを選択しないことが好ましい。 Therefore, in order to prevent the distance in a predetermined direction between the real-world position of the first feature point and the real-world position of the second feature point from becoming equal to or greater than the second predetermined value V2, the selection unit 123 , the optical flow of the first feature point and the optical flow of the second feature point located within a predetermined distance from the center of the optical axis of the front camera 21 are preferably selected. In other words, the selection unit 123 preferably does not select the optical flow of the first feature point and the optical flow of the second feature point from the periphery of the captured image.

ここでは、姿勢推定装置14がフロントカメラ21の撮影画像を用いてフロントカメラ21の姿勢を推定する場合について説明したが、姿勢推定装置14がバックカメラ22の撮影画像を用いてフロントカメラ22の姿勢を推定する場合も同様である。 Here, the case where posture estimation device 14 estimates the posture of front camera 21 using an image captured by front camera 21 has been described. The same is true when estimating .

図11は、姿勢推定装置14が右サイドカメラ24の撮影画像を用いて右サイドカメラ24の姿勢を推定した結果の期待値に対する誤差(PAN、TILT、ROLLの各誤差)を横軸にとり、第1特徴点及び第2特徴点のうち車両4に近い側の特徴点を基準とし、すなわち、第1特徴点及び第2特徴点のうち車両4に近い側の特徴点の実世界上の位置を固定し、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との左右方向における距離を縦軸にとったグラフである。 In FIG. 11, the abscissa represents the error (PAN, TILT, and ROLL errors) with respect to the expected value of the result of estimating the pose of the right-side camera 24 by the pose estimation device 14 using the captured image of the right-side camera 24. Based on the feature point closer to the vehicle 4 out of the first feature point and the second feature point, that is, the position in the real world of the feature point closer to the vehicle 4 out of the first feature point and the second feature point It is a graph in which the vertical axis represents the distance in the horizontal direction between the position of the first feature point in the real world and the position of the second feature point in the real world.

図12は、姿勢推定装置14が右サイドカメラ24の撮影画像を用いて右サイドカメラ24の姿勢を推定した結果の期待値に対する誤差(PAN、TILT、ROLLの各誤差)を横軸にとり、第1特徴点及び第2特徴点のうち車両4に近い側の特徴点を基準とし、すなわち、第1特徴点及び第2特徴点のうち車両4に遠い側の特徴点の実世界上の位置を固定し、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との左右方向における距離を縦軸にとったグラフである。 In FIG. 12, the abscissa represents the error (PAN, TILT, and ROLL errors) with respect to the expected value of the result of estimating the pose of the right side camera 24 by the pose estimation device 14 using the captured image of the right side camera 24. Based on the feature point closer to the vehicle 4 out of the first feature point and the second feature point, that is, the position in the real world of the feature point farther from the vehicle 4 out of the first feature point and the second feature point It is a graph in which the vertical axis represents the distance in the horizontal direction between the position of the first feature point in the real world and the position of the second feature point in the real world.

図11に示すグラフ及び図12に示すグラフから明らかな通り、姿勢推定装置14が右サイドカメラ24の撮影画像を用いて右サイドカメラ24の姿勢を推定する場合には、選択部123は、右サイドカメラ24の光軸中心から所定距離以内の領域に位置する第1特徴点のオプティカルフロー及び右サイドカメラ24の光軸中心から上記所定距離より離れた領域に位置する第2特徴点のオプティカルフローを選択することが好ましい。これにより、姿勢推定に対する特徴点の抽出誤差の影響度合いが小さくなり、姿勢推定の精度が高くなるからである。 As is clear from the graphs shown in FIGS. 11 and 12, when posture estimation device 14 estimates the posture of right side camera 24 using the captured image of right side camera 24, selection unit 123 selects the right The optical flow of the first feature point located within the predetermined distance from the center of the optical axis of the side camera 24 and the optical flow of the second feature point located in the area away from the center of the optical axis of the right side camera 24 by the predetermined distance. is preferred. This is because the degree of influence of feature point extraction errors on posture estimation is reduced, and the accuracy of posture estimation is increased.

なお、図11に示すグラフ及び図12に示すグラフの比較から明らかな通り、選択部123は、第1特徴点及び第2特徴点のうち車両4に近い側の特徴点を基準とし、すなわち、第1特徴点及び第2特徴点のうち車両4に近い側の特徴点の実世界上の位置を固定して、選択処理を行うことが好ましい。第1特徴点及び第2特徴点のうち車両4に近い側の特徴点を基準とした方が、第1特徴点及び第2特徴点のうち車両4に遠い側の特徴点を基準とするよりも、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との左右方向における距離が小さいときに歪みの影響で姿勢推定の精度が低下してしまうことを抑制できるからである。 As is clear from the comparison of the graphs shown in FIG. 11 and the graphs shown in FIG. 12, the selection unit 123 uses the feature point closer to the vehicle 4 out of the first feature point and the second feature point as a reference, that is, It is preferable to fix the position in the real world of the feature point closer to the vehicle 4 than the first feature point and the second feature point and perform the selection process. Using the feature point closer to the vehicle 4 out of the first feature point and the second feature point as the reference is better than using the feature point farther from the vehicle 4 out of the first feature point and the second feature point as the reference. Also, when the distance in the left-right direction between the real-world position of the first feature point and the real-world position of the second feature point is small, it is possible to suppress a decrease in the accuracy of posture estimation due to the effects of distortion. It is from.

ここでは、姿勢推定装置14が右サイドカメラ24の撮影画像を用いて右サイドカメラ24の姿勢を推定する場合について説明したが、姿勢推定装置14が左サイドカメラ23の撮影画像を用いて左サイドカメラ23の姿勢を推定する場合も同様である。 Here, the case where posture estimation device 14 estimates the posture of right side camera 24 using the image captured by right side camera 24 has been described. The same is true when estimating the orientation of the camera 23 .

図13~図15は、姿勢推定装置14が右サイドカメラ24の撮影画像を用いて右サイドカメラ24の姿勢を推定した結果の期待値に対する誤差(PAN、TILT、ROLLの各誤差)を第1縦軸(紙面左側の縦軸)にとり、第1特徴点のオプティカルフローと第2特徴点のオプティカルフローとの撮影画像の水平方向におけるずれ量を第2縦軸(紙面右側の縦軸)にとったグラフである。 FIGS. 13 to 15 show the errors (PAN, TILT, and ROLL errors) with respect to the expected values of the result of estimating the posture of the right side camera 24 by the posture estimation device 14 using the captured image of the right side camera 24. The vertical axis (the vertical axis on the left side of the page) is taken, and the amount of deviation in the horizontal direction of the captured image between the optical flow of the first feature point and the optical flow of the second feature point is taken on the second vertical axis (the vertical axis on the right side of the page). is a graph.

図13は、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との左右方向における距離が図13~図15の中で最も小さい場合のグラフである。図14は、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との左右方向における距離が図13~図15の中で2番目に小さい場合のグラフである。図15は、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との左右方向における距離が図13~図15の中で最も小さい場合のグラフである。 FIG. 13 is a graph when the distance in the horizontal direction between the position of the first feature point in the real world and the position of the second feature point in the real world is the smallest among FIGS. FIG. 14 is a graph when the distance in the horizontal direction between the real-world position of the first feature point and the real-world position of the second feature point is the second smallest in FIGS. FIG. 15 is a graph when the distance in the horizontal direction between the position of the first feature point in the real world and the position of the second feature point in the real world is the smallest in FIGS.

図13~図15に示すグラフから明らかな通り、姿勢推定装置14が右サイドカメラ24の撮影画像を用いて右サイドカメラ24の姿勢を推定する場合には、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との左右方向における距離所定値以上になるように、第1特徴点のオプティカルフロー及び第2特徴点のオプティカルフローを選択し、第1特徴点の実世界上の位置と第2特徴点の実世界上の位置との前後方向に垂直な方向における距離が大きいほど、上記所定値を大きくすることが好ましい。これにより、第1特徴点のオプティカルフローと第2特徴点のオプティカルフローとの撮影画像の水平方向におけるずれ量が大きいときに姿勢推定の精度が低下してしまうことを抑制できるからである。 As is clear from the graphs shown in FIGS. 13 to 15, when posture estimation device 14 estimates the posture of right side camera 24 using the captured image of right side camera 24, the first feature points in the real world The optical flow of the first feature point and the optical flow of the second feature point are selected so that the distance in the horizontal direction between the position and the real-world position of the second feature point is equal to or greater than a predetermined value, and the optical flow of the first feature point is selected. It is preferable to increase the predetermined value as the distance in the direction perpendicular to the front-rear direction between the real-world position and the real-world position of the second feature point increases. This is because it is possible to prevent the accuracy of posture estimation from deteriorating when the amount of deviation in the horizontal direction of the captured image between the optical flow of the first feature point and the optical flow of the second feature point is large.

ここでは、姿勢推定装置14が右サイドカメラ24の撮影画像を用いて右サイドカメラ24の姿勢を推定する場合について説明したが、姿勢推定装置14が左サイドカメラ23の撮影画像を用いて左サイドカメラ23の姿勢を推定する場合も同様である。また、フロントカメラ21の撮影画像を用いてフロントカメラ21の姿勢を推定する場合、或いは、バックカメラ22の撮影画像を用いてバックカメラ22の姿勢を推定する場合も、左右方向と前後方向を入れ替えれば、同様である。 Here, the case where posture estimation device 14 estimates the posture of right side camera 24 using the image captured by right side camera 24 has been described. The same is true when estimating the orientation of the camera 23 . When estimating the posture of the front camera 21 using the image captured by the front camera 21, or when estimating the posture of the back camera 22 using the image captured by the back camera 22, the left-right direction and the front-back direction are interchanged. is the same.

<5.補正システム>
図16は、実施形態に係る補正システムSYS2の構成を示すブロック図である。図16において、図1と同一の部分には同一の符号を付し詳細な説明を省略する。図16に示すように、補正システムSYS2は、補正装置1’及び撮影部2を備える。
<5. Correction system>
FIG. 16 is a block diagram showing the configuration of the correction system SYS2 according to the embodiment. In FIG. 16, the same parts as those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof will be omitted. As shown in FIG. 16, the correction system SYS2 includes a correction device 1' and an imaging unit 2. FIG.

補正装置1’は、図1に示す異常検出装置1から判定部126を取り除き補正部127を追加した構成と同一である。すなわち、補正装置1’は、姿勢推定装置14及び補正部127を備える。 The correction device 1' has the same configuration as that of the abnormality detection device 1 shown in FIG. That is, the correction device 1 ′ includes the posture estimation device 14 and the correction section 127 .

補正部127は、推定部125によって推定されたカメラの姿勢に基づき、カメラのパラメータを補正する。これにより、カメラの取付けのずれが生じても、そのずれに応じたカメラのキャリブレーションが実行されることになり、カメラの取付けのずれが撮影画像に及ぼす悪影響を抑制することができる。 The correction unit 127 corrects the parameters of the camera based on the camera orientation estimated by the estimation unit 125 . As a result, even if there is a camera mounting misalignment, the camera is calibrated according to the misalignment, and the adverse effects of the camera mounting misalignment on the captured image can be suppressed.

<6.留意事項>
本明細書における実施形態や実施例の構成は、本発明の例示にすぎない。実施形態や変形例の構成は、本発明の技術的思想を超えない範囲で適宜変更されてもよい。また、複数の実施形態及び変形例は、可能な範囲で組み合わせて実施されてよい。
<6. Notes>
The configurations of the embodiments and examples herein are merely illustrative of the present invention. The configurations of the embodiments and modifications may be changed as appropriate without departing from the technical idea of the present invention. Also, multiple embodiments and modifications may be implemented in combination within a possible range.

1 異常検出装置
1’ 補正装置
14 姿勢推定装置
21~24 車載カメラ
11 取得部
121 抽出部
122 フロー導出部
123 選択部
124 特定部
125 推定部
126 判定部
127 補正部
1 anomaly detection device 1' correction device 14 attitude estimation device 21 to 24 vehicle-mounted camera 11 acquisition unit 121 extraction unit 122 flow derivation unit 123 selection unit 124 identification unit 125 estimation unit 126 determination unit 127 correction unit

Claims (11)

移動体に搭載されたカメラで撮影された撮影画像を取得する取得部と、
前記撮影画像から第1特徴点及び第2特徴点を含む複数の特徴点を抽出する抽出部と、
前記複数の特徴点ごとにオプティカルフローを導出するフロー導出部と、
前記フロー導出部で導出されたオプティカルフローの位置に基づいて、前記フロー導出部で導出されたオプティカルフローの中から前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローを選択する選択部と、
前記選択部で選択された前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローに基づき、所定の平面との交線が互いに平行となる面の組を2組特定する特定部と、
前記特定部で特定した面の組に基づき前記カメラの姿勢を推定する推定部と、
を備える、姿勢推定装置。
an acquisition unit that acquires a captured image captured by a camera mounted on a moving body;
an extraction unit that extracts a plurality of feature points including a first feature point and a second feature point from the captured image;
a flow derivation unit that derives an optical flow for each of the plurality of feature points;
Selection of selecting the optical flow of the first feature point and the optical flow of the second feature point from the optical flows derived by the flow derivation unit based on the positions of the optical flows derived by the flow derivation unit. Department and
a specifying unit that specifies two sets of planes whose intersection lines with a predetermined plane are parallel to each other based on the optical flow of the first feature point and the optical flow of the second feature point selected by the selecting unit; ,
an estimation unit that estimates the orientation of the camera based on the set of planes identified by the identification unit;
A posture estimation device comprising:
前記選択部は、前記第1特徴点の実世界上の位置と前記第2特徴点の実世界上の位置との所定の方向における距離が所定値以上になるように、前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローを選択する、請求項1に記載の姿勢推定装置。 The selection unit selects the first feature point so that a distance in a predetermined direction between a real-world position of the first feature point and a real-world position of the second feature point is equal to or greater than a predetermined value. 2. The pose estimation device according to claim 1, wherein the optical flow and the optical flow of the second feature point are selected. 前記選択部は、前記第1特徴点の実世界上の位置と前記第2特徴点の実世界上の位置との前記所定の方向に垂直な方向における距離が大きいほど、前記所定値を大きくする、請求項2に記載の姿勢推定装置。 The selection unit increases the predetermined value as the distance between the real-world position of the first feature point and the real-world position of the second feature point in a direction perpendicular to the predetermined direction increases. 3. The attitude estimation device according to claim 2. 前記選択部は、前記カメラの光軸中心から所定距離以内の領域に位置する前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローを選択する、請求項2又は請求項3に記載の姿勢推定装置。 4. The selection unit according to claim 2, wherein the selection unit selects the optical flow of the first feature point and the optical flow of the second feature point located within a predetermined distance from the center of the optical axis of the camera. pose estimator. 前記カメラは、前記移動体の前方又は後方を臨む、請求項4に記載の姿勢推定装置。 5. The posture estimation device according to claim 4, wherein said camera faces the front or rear of said moving object. 前記選択部は、前記カメラの光軸中心から所定距離以内の領域に位置する前記第1特徴点のオプティカルフロー及び前記カメラの光軸中心から前記所定距離より離れた領域に位置する前記第2特徴点のオプティカルフローを選択する、請求項2又は請求項3に記載の姿勢推定装置。 The selecting unit selects optical flows of the first feature points located within a predetermined distance from the center of the optical axis of the camera, and the second feature located in a region away from the center of the optical axis of the camera by more than the predetermined distance. 4. A pose estimator according to claim 2 or claim 3, which selects an optical flow of points. 前記カメラは、前記移動体の左方又は右方を臨む、請求項6に記載の姿勢推定装置。 7. The posture estimation device according to claim 6, wherein said camera faces left or right of said moving body. 請求項1~7のいずれか一項に記載の姿勢推定装置と、
前記推定部によって推定された前記カメラの姿勢に基づき、前記カメラの取付けのずれが生じた状態であるか否かを判定する判定部と、
を備える、異常検出装置。
a posture estimation device according to any one of claims 1 to 7;
a determination unit that determines whether or not there is a mounting deviation of the camera based on the orientation of the camera estimated by the estimation unit;
An anomaly detection device.
請求項1~7のいずれか一項に記載の姿勢推定装置と、
前記推定部によって推定された前記カメラの姿勢に基づき、前記カメラのパラメータを補正する補正部と、
を備える、補正装置。
a posture estimation device according to any one of claims 1 to 7;
a correction unit that corrects parameters of the camera based on the orientation of the camera estimated by the estimation unit;
a compensator.
移動体に搭載されたカメラで撮影された撮影画像を取得する取得工程と、
前記撮影画像から第1特徴点及び第2特徴点を含む複数の特徴点を抽出する抽出工程と、
前記複数の特徴点ごとにオプティカルフローを導出するフロー導出工程と、
前記フロー導出工程で導出されたオプティカルフローの位置に基づいて、前記フロー導出工程で導出されたオプティカルフローの中から前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローを選択する選択工程と、
前記選択工程で選択された前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローに基づき、所定の平面との交線が互いに平行となる面の組を2組特定する特定工程と、
前記特定工程で特定した面の組に基づき前記カメラの姿勢を推定する推定工程と、
を備える、姿勢推定方法。
an acquisition step of acquiring a photographed image photographed by a camera mounted on a mobile body;
an extracting step of extracting a plurality of feature points including a first feature point and a second feature point from the captured image;
a flow derivation step of deriving an optical flow for each of the plurality of feature points;
A selection of selecting the optical flow of the first feature point and the optical flow of the second feature point from among the optical flows derived in the flow derivation step based on the positions of the optical flows derived in the flow derivation step. process and
a specifying step of specifying two sets of planes whose intersection lines with a predetermined plane are parallel to each other based on the optical flow of the first feature point and the optical flow of the second feature point selected in the selecting step; ,
an estimating step of estimating the orientation of the camera based on the set of planes identified in the identifying step;
A pose estimation method comprising:
移動体に搭載されたカメラの姿勢を推定する制御部を備えた姿勢推定装置であって、A posture estimation device comprising a control unit for estimating the posture of a camera mounted on a moving object,
前記制御部は、The control unit
前記カメラで撮影された撮影画像を取得し、Acquiring a captured image captured by the camera,
前記撮影画像から第1特徴点及び第2特徴点を含む複数の特徴点を抽出し、extracting a plurality of feature points including a first feature point and a second feature point from the captured image;
前記複数の特徴点ごとにオプティカルフローを導出し、deriving an optical flow for each of the plurality of feature points;
導出された前記オプティカルフローの位置に基づいて、前記オプティカルフローの中から前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローを選択し、selecting the optical flow of the first feature point and the optical flow of the second feature point from the optical flows based on the derived positions of the optical flows;
選択された前記第1特徴点のオプティカルフロー及び前記第2特徴点のオプティカルフローに基づき、所定の平面との交線が互いに平行となる面の組を2組特定し、Based on the optical flow of the selected first feature point and the optical flow of the second feature point, two pairs of planes whose intersection lines with a predetermined plane are parallel to each other are specified,
特定した面の組に基づき前記カメラの姿勢を推定する、estimating a pose of the camera based on the identified set of planes;
姿勢推定装置。Posture estimation device.
JP2019224292A 2019-12-12 2019-12-12 Posture estimation device, anomaly detection device, correction device, and posture estimation method Active JP7256734B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019224292A JP7256734B2 (en) 2019-12-12 2019-12-12 Posture estimation device, anomaly detection device, correction device, and posture estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019224292A JP7256734B2 (en) 2019-12-12 2019-12-12 Posture estimation device, anomaly detection device, correction device, and posture estimation method

Publications (3)

Publication Number Publication Date
JP2021093670A JP2021093670A (en) 2021-06-17
JP2021093670A5 JP2021093670A5 (en) 2022-06-29
JP7256734B2 true JP7256734B2 (en) 2023-04-12

Family

ID=76310846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019224292A Active JP7256734B2 (en) 2019-12-12 2019-12-12 Posture estimation device, anomaly detection device, correction device, and posture estimation method

Country Status (1)

Country Link
JP (1) JP7256734B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022185814A (en) 2021-06-03 2022-12-15 大王製紙株式会社 Tissue paper, and manufacturing method of tissue paper
JP2023076903A (en) * 2021-11-24 2023-06-05 三菱電機株式会社 Road surface deterioration detection system and road surface deterioration detection method
JP7359901B1 (en) 2022-04-28 2023-10-11 株式会社デンソーテン Information processing device, information processing method and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013074325A (en) 2011-09-26 2013-04-22 Toshiba Alpine Automotive Technology Corp Image correction method for on-vehicle camera and image correction program for on-vehicle camera
JP2019139290A (en) 2018-02-06 2019-08-22 株式会社デンソー Attitude estimating device
JP2019191808A (en) 2018-04-23 2019-10-31 株式会社デンソーテン Abnormality detection device and abnormality detection method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013074325A (en) 2011-09-26 2013-04-22 Toshiba Alpine Automotive Technology Corp Image correction method for on-vehicle camera and image correction program for on-vehicle camera
JP2019139290A (en) 2018-02-06 2019-08-22 株式会社デンソー Attitude estimating device
JP2019191808A (en) 2018-04-23 2019-10-31 株式会社デンソーテン Abnormality detection device and abnormality detection method

Also Published As

Publication number Publication date
JP2021093670A (en) 2021-06-17

Similar Documents

Publication Publication Date Title
JP7256734B2 (en) Posture estimation device, anomaly detection device, correction device, and posture estimation method
KR101188588B1 (en) Monocular Motion Stereo-Based Free Parking Space Detection Apparatus and Method
JP7445415B2 (en) Posture estimation device, abnormality detection device, correction device, and posture estimation method
US10007998B2 (en) Image processor, apparatus, and control system for correction of stereo images
WO2014199929A1 (en) Monocular-motion-stereo distance estimation method, and monocular-motion-stereo distance estimation apparatus
US20070299596A1 (en) Method for Detecting an Optical Structure
JP7270499B2 (en) Abnormality detection device, abnormality detection method, posture estimation device, and mobile body control system
JP6602982B2 (en) In-vehicle camera, in-vehicle camera adjustment method, in-vehicle camera system
JP3765862B2 (en) Vehicle environment recognition device
KR20180112010A (en) A method of detecting an object on the road side of a car, a computing device, a driver assistance system and an automobile
US20200090347A1 (en) Apparatus for estimating movement information
JP2019191807A (en) Abnormality detection device and abnormality detection method
US10546391B2 (en) Apparatus and method for generating around view
JP7303064B2 (en) Image processing device and image processing method
GB2513703B (en) Method and apparatus for three-dimensional imaging of at least a partial region of a vehicle environment
JP6161704B2 (en) Imaging apparatus, vehicle, and image correction method
JP2015179499A (en) Parallax value derivation device, apparatus control system, moving body, robot, parallax value derivation method and program
JP7311407B2 (en) Posture estimation device and posture estimation method
JP7232005B2 (en) VEHICLE DRIVING ENVIRONMENT DETECTION DEVICE AND DRIVING CONTROL SYSTEM
JP7009209B2 (en) Camera misalignment detection device, camera misalignment detection method and abnormality detection device
JP7297595B2 (en) Posture estimation device, anomaly detection device, correction device, and posture estimation method
JP7237773B2 (en) Posture estimation device, anomaly detection device, correction device, and posture estimation method
JP6747176B2 (en) Image processing device, photographing device, program, device control system and device
JP6981881B2 (en) Camera misalignment detection device and camera misalignment detection method
JP6974192B2 (en) Camera misalignment detection device and camera misalignment detection method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230331

R150 Certificate of patent or registration of utility model

Ref document number: 7256734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150