JP2021034857A - Posture estimation device, anomaly detection device, correction device, and posture estimation method - Google Patents

Posture estimation device, anomaly detection device, correction device, and posture estimation method Download PDF

Info

Publication number
JP2021034857A
JP2021034857A JP2019152636A JP2019152636A JP2021034857A JP 2021034857 A JP2021034857 A JP 2021034857A JP 2019152636 A JP2019152636 A JP 2019152636A JP 2019152636 A JP2019152636 A JP 2019152636A JP 2021034857 A JP2021034857 A JP 2021034857A
Authority
JP
Japan
Prior art keywords
time
feature point
camera
unit
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019152636A
Other languages
Japanese (ja)
Other versions
JP7297595B2 (en
Inventor
隆幸 小笹
Takayuki Ozasa
隆幸 小笹
康司 大西
Yasushi Onishi
康司 大西
直士 垣田
Naoshi Kakita
直士 垣田
輝彦 上林
Teruhiko Kamibayashi
輝彦 上林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019152636A priority Critical patent/JP7297595B2/en
Publication of JP2021034857A publication Critical patent/JP2021034857A/en
Application granted granted Critical
Publication of JP7297595B2 publication Critical patent/JP7297595B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Accessories Of Cameras (AREA)
  • Studio Devices (AREA)

Abstract

To accurately estimate the posture of a camera and restrict lengthening of a time required for the estimation.SOLUTION: A posture estimation device comprises an acquisition unit, an extraction unit, a specifying unit, and an estimation unit. The acquisition unit acquires a photographic image photographed by a camera mounted in a moving body. The extraction unit extracts feature points from respective photographic images photographed at first to fourth times. The second and third times are later than the first time, and the fourth time is later than the third time. The specifying unit selects a first feature point from the feature points extracted from the photographic images photographed at the first and second times, selects a second feature point from the feature points extracted from the photographic images photographed at the third and fourth times, calculates respective positional changes of the first feature point and the second feature point and, based on the respective positional changes of the first feature point and the second feature point, specifies two pairs of surfaces in which respective lines intersecting a predetermined flat surface are parallel. Based on the pairs of surfaces specified by the specifying unit, the estimation unit estimates a posture of the camera.SELECTED DRAWING: Figure 1

Description

本発明は、カメラの姿勢を推定する姿勢推定装置、カメラの異常を検出する異常検出装置、カメラのパラメータを補正する補正装置、および、カメラの姿勢を推定する姿勢推定方法に関する。 The present invention relates to a posture estimation device that estimates the posture of the camera, an abnormality detection device that detects an abnormality in the camera, a correction device that corrects parameters of the camera, and a posture estimation method that estimates the posture of the camera.

従来、車載カメラを用いて、例えば車両の駐車支援等の運転支援が行われている。車載カメラは、車両を工場から出荷する前に、車両に固定状態で取り付けられる。しかしながら、車載カメラは、例えば不意の接触や経年変化等によって、工場出荷時の取付状態から位置ずれを起こすことがある。車載カメラの位置(車両のボディに対する車載カメラの相対位置)がずれると、カメラ画像を利用して判断されるハンドルの操舵量等に誤差が生じるために、車載カメラの位置ずれを検出することは重要である。 Conventionally, driving support such as vehicle parking support has been provided by using an in-vehicle camera. The on-board camera is fixedly attached to the vehicle before it is shipped from the factory. However, the on-board camera may be displaced from the factory-installed state due to, for example, unexpected contact or aging. If the position of the in-vehicle camera (the position of the in-vehicle camera relative to the body of the vehicle) deviates, an error occurs in the steering amount of the steering wheel determined by using the camera image. is important.

特許文献1には、車載カメラの光軸ずれを検出する技術が開示される。特許文献1における車載カメラの光軸ずれ検出装置は、画像処理手段と判断手段とを備える。画像処理手段は、運転支援する車体部上のマーキングを含む範囲を撮影する車載カメラの撮影画像から該マーキングの位置情報を検出する。判断手段は、初期設定されたマーキング位置情報と、新たに検出されたマーキングの位置情報とを比較することにより、撮影光軸ずれを判断する。 Patent Document 1 discloses a technique for detecting an optical axis deviation of an in-vehicle camera. The optical axis deviation detecting device of the vehicle-mounted camera in Patent Document 1 includes an image processing means and a determining means. The image processing means detects the position information of the marking from the captured image of the vehicle-mounted camera that captures the range including the marking on the vehicle body portion that supports driving. The determination means determines the shooting optical axis deviation by comparing the initially set marking position information with the newly detected marking position information.

特開2004−173037号公報Japanese Unexamined Patent Publication No. 2004-173037

車載カメラの撮影画像には、車両周囲の風景等が映るために、例えばマーキングがボンネットの一部の特定形状である場合、当該特定形状を簡単に抽出できないことがある。当該特定形状が誤検出されると、車載カメラの光軸ずれが正確に判断されない可能性がある。なお、車載カメラの光軸ずれとは、車載カメラの姿勢が設計通りでないことを意味している。 Since the image taken by the in-vehicle camera reflects the scenery around the vehicle, for example, when the marking is a specific shape of a part of the bonnet, the specific shape may not be easily extracted. If the specific shape is erroneously detected, the optical axis deviation of the in-vehicle camera may not be accurately determined. The optical axis deviation of the in-vehicle camera means that the attitude of the in-vehicle camera is not as designed.

また、車載カメラの姿勢が設計通りであるか否かを判断するのに要する時間が長ければ、車載カメラの姿勢が設計通りでない状態が発生した場合に当該状態に対する対策の実施が遅れることになる。したがって、車載カメラの姿勢が設計通りであるか否かを判断するのに要する時間は短い方が望ましい。 In addition, if it takes a long time to determine whether or not the posture of the in-vehicle camera is as designed, if a state in which the posture of the in-vehicle camera is not as designed occurs, the implementation of countermeasures against the state will be delayed. .. Therefore, it is desirable that the time required to determine whether or not the posture of the in-vehicle camera is as designed is short.

本発明は、上記課題に鑑みて、カメラの姿勢を精度良く推定でき、推定に要する時間の長期化を抑制できる技術を提供することを目的とする。 In view of the above problems, it is an object of the present invention to provide a technique capable of accurately estimating the posture of a camera and suppressing a prolongation of the time required for estimation.

本発明に係る姿勢推定装置は、移動体に搭載されたカメラで撮影された撮影画像を取得する取得部と、第1時刻と前記第1時刻より後の第2時刻で撮影された2つの前記撮影画像それぞれから特徴点を抽出し、前記第1時刻より後の第3時刻と前記第3時刻より後の第4時刻で撮影された2つの前記撮影画像それぞれから特徴点を抽出する抽出部と、前記第1時刻と前記第2時刻で撮影された2つの前記撮影画像から抽出された特徴点から、互いに対応する第1特徴点を選定し、該第1特徴点の位置変化を算出し、前記第3時刻と前記第4時刻で撮影された2つの前記撮影画像から抽出された特徴点から、前記第1特徴点とは異なり、互いに対応する第2特徴点を選定し、該第2特徴点の位置変化を算出し、前記第1特徴点の位置変化及び前記第2特徴点の位置変化に基づき、所定の平面との交線が互いに平行となる面の組を2組特定する特定部と、前記特定部で特定した面の組に基づき前記カメラの姿勢を推定する推定部と、を備える構成(第1の構成)である。 The posture estimation device according to the present invention includes an acquisition unit that acquires a photographed image taken by a camera mounted on a moving body, and two above-mentioned images taken at a first time and a second time after the first time. An extraction unit that extracts feature points from each of the captured images and extracts feature points from each of the two captured images captured at the third time after the first time and the fourth time after the third time. , The first feature points corresponding to each other are selected from the feature points extracted from the two captured images taken at the first time and the second time, and the position change of the first feature points is calculated. From the feature points extracted from the two captured images taken at the third time and the fourth time, different from the first feature point, the second feature points corresponding to each other are selected, and the second feature is selected. A specific unit that calculates the position change of a point and specifies two sets of surfaces whose lines of intersection with a predetermined plane are parallel to each other based on the position change of the first feature point and the position change of the second feature point. It is a configuration (first configuration) including an estimation unit that estimates the posture of the camera based on a set of surfaces specified by the specific unit.

上記第1の構成の姿勢推定装置において、前記第1特徴点の位置変化と前記第2特徴点の位置変化との組合せは、前記移動体の移動情報に基づき決定される構成(第2の構成)であってもよい。 In the posture estimation device having the first configuration, the combination of the position change of the first feature point and the position change of the second feature point is determined based on the movement information of the moving body (second configuration). ) May be.

上記第2の構成の姿勢推定装置において、前記移動情報は、前記移動体の舵角情報を含む構成(第3の構成)であってもよい。 In the posture estimation device having the second configuration, the movement information may have a configuration (third configuration) including steering angle information of the moving body.

上記第2又は第3の構成の姿勢推定装置において、前記移動情報は、前記移動体の速度情報を含む構成(第4の構成)であってもよい。 In the posture estimation device having the second or third configuration, the movement information may be configured to include the speed information of the moving body (fourth configuration).

上記第2〜第4いずれかの構成の姿勢推定装置において、前記移動情報は、通信バスを経由して、前記姿勢推定装置に供給される構成(第5の構成)であってもよい。 In the posture estimation device having any of the second to fourth configurations, the movement information may be supplied to the posture estimation device via the communication bus (fifth configuration).

上記第2〜第4いずれかの構成の姿勢推定装置において、前記移動情報は、前記第1特徴点の候補の位置変化を前記所定の平面上に座標変換した結果、及び、前記第2特徴点の候補の位置変化を前記所定の平面上に座標変換した結果に基づき推定された情報である構成(第6の構成)であってもよい。 In the posture estimation device having any of the second to fourth configurations, the movement information is the result of coordinate-converting the position change of the candidate of the first feature point on the predetermined plane, and the second feature point. It may be a configuration (sixth configuration) that is information estimated based on the result of coordinate conversion of the position change of the candidate of the above on the predetermined plane.

上記第1〜第6いずれかの構成の姿勢推定装置において、前記第1特徴点の位置変化と前記第2特徴点の位置変化との組合せは、前記第1時刻及び前記第2時刻の少なくとも一方に関連する時刻と前記第3時刻及び前記第4時刻の少なくとも一方に関連する時刻との時間差に基づき決定される構成(第7の構成)であってもよい。 In the posture estimation device having any of the first to sixth configurations, the combination of the position change of the first feature point and the position change of the second feature point is at least one of the first time and the second time. The configuration may be determined based on the time difference between the time related to the above and the time related to at least one of the third time and the fourth time (seventh configuration).

上記第1〜第7いずれかの構成の姿勢推定装置において、前記特定部は、前記第1時刻から前記第2時刻までの前記移動体の速度と前記第3時刻から前記第4時刻までの前記移動体の速度との違いに基づき、前記第1特徴点の位置変化及び前記第2特徴点の位置変化の少なくとも一方を補正し、少なくとも一方が補正された前記第1特徴点の位置変化及び前記第2特徴点の位置変化に基づき、前記所定の平面との交線が互いに平行となる面の組を2組特定する構成(第8の構成)であってもよい。 In the posture estimation device having any of the first to seventh configurations, the specific unit is the speed of the moving body from the first time to the second time and the speed of the moving body from the third time to the fourth time. Based on the difference from the speed of the moving body, at least one of the position change of the first feature point and the position change of the second feature point is corrected, and at least one of the corrected position changes of the first feature point and the said Based on the change in the position of the second feature point, two sets of surfaces whose intersection lines with the predetermined plane are parallel to each other may be specified (eighth configuration).

本発明に係る異常検出装置は、上記第1〜第8いずれかの構成の姿勢推定装置と、前記推定部によって推定された前記カメラの姿勢に基づき、前記カメラの取付けのずれが生じた状態であるか否かを判定する判定部と、を備える構成(第9の構成)である。 The abnormality detection device according to the present invention is in a state in which the mounting of the camera is misaligned based on the posture estimation device having any of the first to eighth configurations and the posture of the camera estimated by the estimation unit. It is a configuration (nineth configuration) including a determination unit for determining whether or not there is a presence.

本発明に係る補正装置は、上記第1〜第8のいずれかの構成の姿勢推定装置と、前記推定部によって推定された前記カメラの姿勢に基づき、前記カメラのパラメータを補正する補正部と、を備える構成(第10の構成)である。 The correction device according to the present invention includes a posture estimation device having any of the first to eighth configurations, a correction unit that corrects the parameters of the camera based on the posture of the camera estimated by the estimation unit, and a correction unit. (10th configuration).

本発明に係る姿勢推定方法は、移動体に搭載されたカメラで撮影された撮影画像を取得する取得工程と、第1時刻と前記第1時刻より後の第2時刻で撮影された2つの前記撮影画像それぞれから特徴点を抽出し、前記第1時刻より後の第3時刻と前記第3時刻より後の第4時刻で撮影された2つの前記撮影画像それぞれから特徴点を抽出する抽出工程と、前記第1時刻と前記第2時刻で撮影された2つの前記撮影画像から抽出された特徴点から、互いに対応する第1特徴点を選定し、該第1特徴点の位置変化を算出し、前記第3時刻と前記第4時刻で撮影された2つの前記撮影画像から抽出された特徴点から、前記第1特徴点とは異なり、互いに対応する第2特徴点を選定し、該第2特徴点の位置変化を算出し、前記第1特徴点の位置変化及び前記第2特徴点の位置変化に基づき、所定の平面との交線が互いに平行となる面の組を2組特定する特定工程と、前記特定工程で特定した面の組に基づき前記カメラの姿勢を推定する推定工程と、を備える構成(第11の構成)である。 The posture estimation method according to the present invention includes an acquisition step of acquiring a captured image taken by a camera mounted on a moving body, and two above-mentioned two images taken at a first time and a second time after the first time. An extraction step of extracting feature points from each of the captured images and extracting feature points from each of the two captured images captured at the third time after the first time and the fourth time after the third time. , The first feature points corresponding to each other are selected from the feature points extracted from the two captured images taken at the first time and the second time, and the position change of the first feature points is calculated. From the feature points extracted from the two captured images taken at the third time and the fourth time, different from the first feature point, the second feature points corresponding to each other are selected, and the second feature is selected. A specific step of calculating the position change of a point and specifying two sets of surfaces whose intersection lines with a predetermined plane are parallel to each other based on the position change of the first feature point and the position change of the second feature point. It is a configuration (11th configuration) including an estimation step of estimating the posture of the camera based on the set of surfaces specified in the specific step.

本発明によると、カメラの姿勢を精度良く推定でき、推定に要する時間の長期化を抑制できる。 According to the present invention, the posture of the camera can be estimated with high accuracy, and the time required for the estimation can be suppressed from being prolonged.

異常検出システムの構成を示すブロック図Block diagram showing the configuration of the anomaly detection system 車載カメラが車両に配置される位置を例示する図The figure which illustrates the position where the in-vehicle camera is arranged in a vehicle 撮影画像の一例を模式的に示す図The figure which shows an example of the photographed image schematically 撮影画像の他の例を模式的に示す図The figure which shows the other example of the photographed image schematically. 撮影画像の更に他の例を模式的に示す図The figure which shows the other example of the photographed image schematically. 姿勢推定装置によるカメラの姿勢推定フローの一例を示すフローチャートA flowchart showing an example of the posture estimation flow of the camera by the posture estimation device. 現フレームよりLフレーム前の撮影画像を模式的に示す図The figure which shows typically the photographed image before the L frame from the current frame. 現フレームを模式的に示す図Diagram showing the current frame schematically 現フレームよりNフレーム前の撮影画像を模式的に示す図A diagram schematically showing a captured image N frames before the current frame. 現フレームよりMフレーム前の撮影画像を模式的に示す図The figure which shows typically the photographed image M frame before the current frame. 現フレームよりLフレーム前の撮影画像を模式的に示す図The figure which shows typically the photographed image before the L frame from the current frame. 現フレームを模式的に示す図Diagram showing the current frame schematically 仮想的に形成される四角形を模式的に示す図Diagram schematically showing a virtually formed quadrangle 所定の平面との交線が互いに平行になる面の組を2組特定する手法を説明するための図The figure for demonstrating the method of specifying two sets of planes whose intersection lines with a predetermined plane are parallel to each other. 特定した面の組の一方に基づき、面同士の交線の方向を求める手法を説明するための図A diagram for explaining a method of finding the direction of intersection between faces based on one of the specified sets of faces. 特定した面の組の他方に基づき、面同士の交線の方向を求める手法を説明するための図A diagram for explaining a method of finding the direction of intersection between faces based on the other side of the specified set of faces. 補正システムの構成を示すブロック図Block diagram showing the configuration of the correction system

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、移動体として車両を例にとり説明するが、移動体は車両に限定されない。車両には、例えば自動車、電車、無人搬送車等の車輪のついた乗り物が広く含まれる。車両以外の移動体として、例えば船舶や航空機等が挙げられる。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following description, a vehicle will be described as an example of a moving body, but the moving body is not limited to the vehicle. Vehicles include a wide range of vehicles with wheels, such as automobiles, trains, and automatic guided vehicles. Examples of moving objects other than vehicles include ships and aircraft.

また以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向」とする。また、車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の右側から左側に向かう方向を「左方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の左側から右側に向かう方向を「右方向」とする。 Further, in the following description, the direction in which the vehicle travels straight from the driver's seat to the steering wheel is referred to as the "forward direction". Further, the direction in which the vehicle travels straight from the steering wheel to the driver's seat is defined as the "rear direction". Further, the direction from the right side to the left side of the driver who is facing the front direction, which is the direction perpendicular to the straight traveling direction and the vertical straight line of the vehicle, is defined as the "left direction". Further, the direction from the left side to the right side of the driver who is facing the front direction, which is the direction perpendicular to the straight line and the vertical direction of the vehicle, is defined as the "right direction".

<1.異常検出システム>
図1は、実施形態に係る異常検出システムSYS1の構成を示すブロック図である。本実施形態において、異常は、カメラの取付けのずれが生じた状態である。すなわち、異常検出システムSYS1は、車両に搭載されたカメラ(車載カメラ)の取付けのずれを検出するシステムである。図1に示すように、異常検出システムSYS1は、異常検出装置1及び撮影部2を備える。
<1. Anomaly detection system>
FIG. 1 is a block diagram showing a configuration of an abnormality detection system SYS1 according to an embodiment. In the present embodiment, the abnormality is a state in which the mounting of the camera is misaligned. That is, the abnormality detection system SYS1 is a system that detects the misalignment of the camera (vehicle-mounted camera) mounted on the vehicle. As shown in FIG. 1, the abnormality detection system SYS1 includes an abnormality detection device 1 and a photographing unit 2.

異常検出装置1は、車載カメラで撮影された撮影画像に基づいて異常を検出する装置である。異常検出装置1は、車載カメラを搭載する車両ごとに備えられる。本実施形態では、異常検出装置1は、撮影部2から撮影画像を取得する。 The abnormality detection device 1 is a device that detects an abnormality based on a captured image taken by an in-vehicle camera. The abnormality detection device 1 is provided for each vehicle equipped with an in-vehicle camera. In the present embodiment, the abnormality detection device 1 acquires a photographed image from the photographing unit 2.

撮影部2は、車両周辺の状況を監視する目的で設けられる。撮影部2は、4つのカメラ21〜24を備える。4つのカメラ21〜24は、車載カメラである。図2は、4つの車載カメラ21〜24が車両5に配置される位置を例示する図である。 The photographing unit 2 is provided for the purpose of monitoring the situation around the vehicle. The photographing unit 2 includes four cameras 21 to 24. The four cameras 21 to 24 are in-vehicle cameras. FIG. 2 is a diagram illustrating positions where four in-vehicle cameras 21 to 24 are arranged in the vehicle 5.

車載カメラ21は車両5の前端に設けられる。このため、車載カメラ21をフロントカメラ21とも呼ぶ。フロントカメラ21の光軸21aは上からの平面視で車両5の前後方向に沿っている。フロントカメラ21は車両5の前方向を撮影する。車載カメラ22は車両5の後端に設けられる。このため、車載カメラ22をバックカメラ22とも呼ぶ。バックカメラ22の光軸22aは上からの平面視で車両5の前後方向に沿っている。バックカメラ22は車両5の後方向を撮影する。フロントカメラ21及びバックカメラ22の取付位置は、車両5の左右中央であることが好ましいが、左右中央から左右方向に多少ずれた位置であってもよい。 The in-vehicle camera 21 is provided at the front end of the vehicle 5. Therefore, the in-vehicle camera 21 is also referred to as a front camera 21. The optical axis 21a of the front camera 21 is along the front-rear direction of the vehicle 5 in a plan view from above. The front camera 21 photographs the front direction of the vehicle 5. The in-vehicle camera 22 is provided at the rear end of the vehicle 5. Therefore, the in-vehicle camera 22 is also referred to as a back camera 22. The optical axis 22a of the back camera 22 is along the front-rear direction of the vehicle 5 in a plan view from above. The back camera 22 captures the rear direction of the vehicle 5. The front camera 21 and the back camera 22 are preferably mounted at the center of the left and right sides of the vehicle 5, but may be slightly deviated from the center of the left and right sides in the left-right direction.

車載カメラ23は車両5の左側ドアミラー51に設けられる。このため、車載カメラ23を左サイドカメラ23とも呼ぶ。左サイドカメラ23の光軸23aは上からの平面視で車両5の左右方向に沿っている。左サイドカメラ23は車両5の左方向を撮影する。車載カメラ24は車両5の右側ドアミラー52に設けられる。このため、車載カメラ24を右サイドカメラ24とも呼ぶ。右サイドカメラ24の光軸24aは上からの平面視で車両5の左右方向に沿っている。右サイドカメラ24は車両5の右方向を撮影する。なお、車両5がいわゆるドアミラーレス車である場合には、左サイドカメラ23は左サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられ、右サイドカメラ24は右サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられる。 The in-vehicle camera 23 is provided on the left side door mirror 51 of the vehicle 5. Therefore, the in-vehicle camera 23 is also referred to as a left side camera 23. The optical axis 23a of the left side camera 23 is along the left-right direction of the vehicle 5 in a plan view from above. The left side camera 23 photographs the left direction of the vehicle 5. The in-vehicle camera 24 is provided on the right door mirror 52 of the vehicle 5. Therefore, the in-vehicle camera 24 is also referred to as a right side camera 24. The optical axis 24a of the right side camera 24 is along the left-right direction of the vehicle 5 in a plan view from above. The right side camera 24 photographs the vehicle 5 in the right direction. When the vehicle 5 is a so-called door mirrorless vehicle, the left side camera 23 is attached around the rotation axis (hinge portion) of the left side door without passing through the door mirror, and the right side camera 24 is attached to the right side door. It can be attached around the rotating shaft (hinge part) without going through a door mirror.

各車載カメラ21〜24の水平方向の画角θは180度以上である。このため、車載カメラ21〜24によって、車両5の水平方向における全周囲を撮影することができる。また、車載カメラ21〜24によって撮影される画像には、車載カメラ21〜24を搭載する車両5のボディが映り込む。 The horizontal angle of view θ of each of the vehicle-mounted cameras 21 to 24 is 180 degrees or more. Therefore, the vehicle-mounted cameras 21 to 24 can photograph the entire circumference of the vehicle 5 in the horizontal direction. Further, the body of the vehicle 5 equipped with the in-vehicle cameras 21 to 24 is reflected in the images taken by the in-vehicle cameras 21 to 24.

なお、本実施形態では、車載カメラの数を4つとしているが、この数は適宜変更されてよく、複数であっても単数であってもよい。例えば、車両5がバックで駐車することを支援する目的で車載カメラが搭載されている場合には、車載カメラは、バックカメラ22、左サイドカメラ23、右サイドカメラ24の3つで構成されてもよい。 In the present embodiment, the number of in-vehicle cameras is four, but this number may be changed as appropriate, and may be plural or singular. For example, when an in-vehicle camera is mounted for the purpose of assisting the vehicle 5 to park in the back, the in-vehicle camera is composed of three, a back camera 22, a left side camera 23, and a right side camera 24. May be good.

図1に戻って、本実施形態では、ステアリングホイール(ハンドル)の回転角を検出する舵角センサ3の出力及び車両5の速度を検出する車速度センサ4の出力は、CAN(Controller Area Network)バス等の通信バスB1を介して異常検出装置1に入力される。 Returning to FIG. 1, in the present embodiment, the output of the steering angle sensor 3 for detecting the rotation angle of the steering wheel (steering wheel) and the output of the vehicle speed sensor 4 for detecting the speed of the vehicle 5 are CAN (Controller Area Network). It is input to the abnormality detection device 1 via the communication bus B1 such as a bus.

<2.異常検出装置>
図1に示すように、異常検出装置1は、取得部11と、制御部12と、記憶部13と、を備える。
<2. Anomaly detection device>
As shown in FIG. 1, the abnormality detection device 1 includes an acquisition unit 11, a control unit 12, and a storage unit 13.

取得部11は、車載カメラ21〜24からアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。すなわち、取得部11によって取得される撮影画像の集合体が車載カメラ21〜24で撮影された動画像である。そして、取得した撮影画像がアナログの場合には、取得部11は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。取得部11は、取得した撮影画像、或いは、取得及び変換した撮影画像を制御部12に出力する。取得部11から出力される1つの撮影画像が1つのフレーム画像となる。 The acquisition unit 11 continuously acquires analog or digital captured images from the vehicle-mounted cameras 21 to 24 at a predetermined cycle (for example, a 1/30 second cycle). That is, the aggregate of the captured images acquired by the acquisition unit 11 is a moving image captured by the in-vehicle cameras 21 to 24. Then, when the acquired captured image is analog, the acquisition unit 11 converts the analog captured image into a digital captured image (A / D conversion). The acquisition unit 11 outputs the acquired photographed image or the acquired and converted photographed image to the control unit 12. One captured image output from the acquisition unit 11 becomes one frame image.

制御部12は、例えばマイクロコンピュータであり、異常検出装置1の全体を統括的に制御する。制御部12は、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む。記憶部13は、例えば、フラッシュメモリ等の不揮発性のメモリであり、各種の情報を記憶する。記憶部13は、ファームウェアとしてのプログラムや各種のデータを記憶する。 The control unit 12 is, for example, a microcomputer, and controls the entire abnormality detection device 1 in an integrated manner. The control unit 12 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory) (not shown). The storage unit 13 is, for example, a non-volatile memory such as a flash memory, and stores various types of information. The storage unit 13 stores a program as firmware and various data.

制御部12は、抽出部121、特定部122、推定部123、及び判定部124を備える。なお、制御部12の抽出部121、特定部122、推定部123、及び判定部124の少なくともいずれか一つは、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。また、抽出部121、特定部122、推定部123、及び判定部124は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてよい。また、取得部11は、制御部12のCPUがプログラムに従って演算処理を行うことによって実現される構成でもよい。 The control unit 12 includes an extraction unit 121, a specific unit 122, an estimation unit 123, and a determination unit 124. At least one of the extraction unit 121, the identification unit 122, the estimation unit 123, and the determination unit 124 of the control unit 12 is hardware such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). It may be configured. Further, the extraction unit 121, the specific unit 122, the estimation unit 123, and the determination unit 124 are conceptual components. The functions executed by one component may be distributed to a plurality of components, or the functions of the plurality of components may be integrated into one component. Further, the acquisition unit 11 may be configured to be realized by the CPU of the control unit 12 performing arithmetic processing according to a program.

抽出部121は、各車載カメラ21〜24からの撮影画像から第1特徴点及び第2特徴点を含む複数の特徴点を抽出する。特徴点は、撮影画像中のエッジの交点など、撮影画像において際立って検出できる点である。特徴点は、例えば路面に描かれた白線のエッジ、路面上のひび、路面上のしみ、路面上の砂利などである。特徴点は、通常、1つの撮影画像の中に多数存在する。抽出部121は、例えば、ハリスオペレータ等の公知の手法を用いて特徴点を抽出する。抽出部121は、路面上の特徴点の中から第1特徴点及び第2特徴点を選定する。第1特徴点と第2特徴点とは互いに異なる特徴点である。なお、本実施形態では、所定の平面として路面を想定する。 The extraction unit 121 extracts a plurality of feature points including the first feature point and the second feature point from the images taken from the in-vehicle cameras 21 to 24. The feature point is a point that can be conspicuously detected in the captured image, such as an intersection of edges in the captured image. The feature points are, for example, the edge of a white line drawn on the road surface, cracks on the road surface, stains on the road surface, gravel on the road surface, and the like. A large number of feature points are usually present in one captured image. The extraction unit 121 extracts feature points using, for example, a known method such as a Harris operator. The extraction unit 121 selects the first feature point and the second feature point from the feature points on the road surface. The first feature point and the second feature point are different feature points from each other. In this embodiment, a road surface is assumed as a predetermined plane.

特定部122は、異なる時刻で撮影された2つの撮影画像から抽出された第1特徴点及び第2特徴点の各オプティカルフローを導出する。オプティカルフローは、異なる時刻で撮影された2つの撮影画像間における特徴点の動きを示す動きベクトルである。異なる時刻の間隔は、取得部11のフレーム周期と同一であってもよく、取得部11のフレーム周期の複数倍であってもよい。 The specific unit 122 derives each optical flow of the first feature point and the second feature point extracted from the two captured images taken at different times. The optical flow is a motion vector showing the movement of feature points between two captured images taken at different times. The interval between different times may be the same as the frame period of the acquisition unit 11, or may be a plurality of times the frame period of the acquisition unit 11.

特定部122は、第1特徴点及び第2特徴点の各オプティカルフローを用いて、異なる時刻で撮影された2つの撮影画像から抽出された第1特徴点及び第2特徴点の各位置変化を算出する。 The specific unit 122 uses the optical flows of the first feature point and the second feature point to change the positions of the first feature point and the second feature point extracted from the two captured images taken at different times. calculate.

特定部122は、第1特徴点の位置変化及び第2特徴点の位置変化に基づき、所定の平面との交線が互いに平行となる面の組を2組特定する。 Based on the change in the position of the first feature point and the change in the position of the second feature point, the identification unit 122 identifies two sets of faces whose lines of intersection with a predetermined plane are parallel to each other.

なお、単一の撮影画像から第1特徴点及び第2特徴点のいずれか一方のみしか抽出できない場合がある。また、単一の撮影画像から抽出された第1特徴点及び第2特徴点が適切な位置関係でない場合がある。 In some cases, only one of the first feature point and the second feature point can be extracted from a single captured image. In addition, the first feature point and the second feature point extracted from a single captured image may not have an appropriate positional relationship.

単一の撮影画像から第1特徴点及び第2特徴点のいずれか一方のみしか抽出できない場合の例として、図3に示す撮影画像及び図4に示す撮影画像を挙げることができる。 As an example in which only one of the first feature point and the second feature point can be extracted from a single captured image, the captured image shown in FIG. 3 and the captured image shown in FIG. 4 can be mentioned.

図3は、フロントカメラ21で撮影される撮影画像を模式的に示している。図3に示す撮影画像は、車両5のボディが映り込む領域BOを含む。図3に示す撮影画像内の斜線部は影を示しており、図3に示す撮影画像内の点線四角内が特徴点の抽出可能領域となるROI(region of interest)である。図3に示す撮影画像では、影の影響により路面RS上に存在する特徴点FPを一つしか抽出できない。 FIG. 3 schematically shows a photographed image taken by the front camera 21. The captured image shown in FIG. 3 includes a region BO in which the body of the vehicle 5 is reflected. The shaded area in the captured image shown in FIG. 3 shows a shadow, and the inside of the dotted square in the captured image shown in FIG. 3 is the ROI (region of interest) in which the feature points can be extracted. In the captured image shown in FIG. 3, only one feature point FP existing on the road surface RS can be extracted due to the influence of shadows.

図4は、左サイドカメラ23で撮影される撮影画像を模式的に示している。図4に示す撮影画像は、車両5のボディが映り込む領域BOを含む。図4に示す撮影画像内の点線四角内が特徴点の抽出可能領域となるROIである。図4に示す撮影画像では、ROI内に白線のコーナーが1つしか存在しないため路面RS上に存在する特徴点FPを一つしか抽出できない。 FIG. 4 schematically shows a photographed image taken by the left side camera 23. The captured image shown in FIG. 4 includes a region BO in which the body of the vehicle 5 is reflected. The inside of the dotted square in the captured image shown in FIG. 4 is the ROI in which the feature points can be extracted. In the captured image shown in FIG. 4, since there is only one white line corner in the ROI, only one feature point FP existing on the road surface RS can be extracted.

単一の撮影画像から抽出された第1特徴点及び第2特徴点が適切な位置関係でない場合の例として、図5に示す撮影画像を挙げることができる。 As an example of the case where the first feature point and the second feature point extracted from a single captured image do not have an appropriate positional relationship, the captured image shown in FIG. 5 can be mentioned.

図5は、フロントカメラ21で撮影される撮影画像を模式的に示している。図5に示す撮影画像は、車両5のボディが映り込む領域BOを含む。図5に示す撮影画像内の斜線部は影を示しており、図5に示す撮影画像内の点線四角内が特徴点の抽出可能領域となるROIである。図5に示す撮影画像では、影の影響により路面RS上に存在する特徴点FPを局所的な場所でしか抽出できない。第1特徴点と第2特徴点が局所的な場所に偏在していると、PAN軸、TILT軸、及びROLL軸の一部でカメラの姿勢推定の精度が劣るおそれがある。 FIG. 5 schematically shows a photographed image taken by the front camera 21. The captured image shown in FIG. 5 includes a region BO in which the body of the vehicle 5 is reflected. The shaded areas in the captured image shown in FIG. 5 show shadows, and the inside of the dotted square in the captured image shown in FIG. 5 is the ROI in which the feature points can be extracted. In the captured image shown in FIG. 5, the feature point FP existing on the road surface RS can be extracted only at a local location due to the influence of the shadow. If the first feature point and the second feature point are unevenly distributed in local locations, the accuracy of camera posture estimation may be inferior in a part of the PAN axis, TILT axis, and ROLL axis.

単一の撮影画像から第1特徴点及び第2特徴点のいずれか一方のみしか抽出できない場合、又は、単一の撮影画像から抽出された第1特徴点及び第2特徴点が適切な位置関係でない場合、抽出部121は、第1時刻と第1時刻より後の第2時刻で撮影された2つの撮影画像それぞれから特徴点を抽出し、第1時刻より後の第3時刻と第3時刻より後の第4時刻で撮影された2つの前記撮影画像それぞれから特徴点を抽出すればよい。そして、特定部122は、第1時刻と第2時刻で撮影された2つの撮影画像から抽出された特徴点から、互いに対応する第1特徴点を選定し、第1特徴点の位置変化を算出し、第3時刻と第4時刻で撮影された2つの撮影画像から抽出された特徴点から、第1特徴点とは異なり、互いに対応する第2特徴点を選定し、第2特徴点の位置変化を算出し、第1特徴点の位置変化及び第2特徴点の位置変化に基づき、所定の平面との交線が互いに平行となる面の組を2組特定すればよい。 When only one of the first feature point and the second feature point can be extracted from a single captured image, or the first feature point and the second feature point extracted from a single captured image have an appropriate positional relationship. If not, the extraction unit 121 extracts feature points from each of the two captured images taken at the first time and the second time after the first time, and extracts the feature points from the first time and the third time and the third time after the first time. Feature points may be extracted from each of the two captured images captured at the later fourth time. Then, the specific unit 122 selects the first feature points corresponding to each other from the feature points extracted from the two captured images taken at the first time and the second time, and calculates the position change of the first feature point. Then, from the feature points extracted from the two captured images taken at the 3rd time and the 4th time, unlike the 1st feature point, the 2nd feature points corresponding to each other are selected, and the positions of the 2nd feature points are selected. The change may be calculated, and based on the position change of the first feature point and the position change of the second feature point, two sets of faces whose intersection lines with a predetermined plane are parallel to each other may be specified.

推定部123は、特定部122で特定した面の組に基づきカメラの姿勢(カメラの取付け角度)を推定する。例えば抽出部121がフロントカメラ21から第1特徴点及び第2特徴点を抽出した場合、推定部123はフロントカメラ21の姿勢(カメラの取付け角度)を推定する。 The estimation unit 123 estimates the posture of the camera (camera mounting angle) based on the set of surfaces specified by the specific unit 122. For example, when the extraction unit 121 extracts the first feature point and the second feature point from the front camera 21, the estimation unit 123 estimates the posture (camera mounting angle) of the front camera 21.

判定部124は、推定部123によって推定されたカメラの姿勢に基づき、カメラの取付けのずれが生じた状態であるか否かを判定する。カメラの取付けのずれが生じた状態であると判定されると、異常検出装置1がカメラの異常を検出したことになる。例えば、この異常を異常検出装置1が車両5のユーザに報知することで、車両5のユーザはディーラによるカメラの取付調整を依頼する等の対策をとることが可能となる。 The determination unit 124 determines whether or not the camera is in a misaligned state based on the posture of the camera estimated by the estimation unit 123. If it is determined that the camera is misaligned, the abnormality detection device 1 has detected an abnormality in the camera. For example, when the abnormality detection device 1 notifies the user of the vehicle 5 of this abnormality, the user of the vehicle 5 can take measures such as requesting the camera mounting adjustment by the dealer.

取得部11、抽出部121、特定部122、及び推定部123によって姿勢推定装置14が構成される。言い換えると、異常検出装置1は姿勢推定装置14を備える。図6は、姿勢推定装置14によるカメラの姿勢推定フローの一例を示すフローチャートである。以下、フロントカメラ21の姿勢を推定する場合を例に挙げて説明する。 The posture estimation device 14 is composed of the acquisition unit 11, the extraction unit 121, the specific unit 122, and the estimation unit 123. In other words, the abnormality detection device 1 includes a posture estimation device 14. FIG. 6 is a flowchart showing an example of the posture estimation flow of the camera by the posture estimation device 14. Hereinafter, a case where the posture of the front camera 21 is estimated will be described as an example.

図6に示すように、抽出部121は特徴点を抽出する(ステップS1)。より詳細には、ステップS1において、抽出部121は、最新の撮影画像である現フレームの特徴点と現フレームよりL(Lは自然数)フレーム前の撮影画像の特徴点を抽出する。 As shown in FIG. 6, the extraction unit 121 extracts feature points (step S1). More specifically, in step S1, the extraction unit 121 extracts the feature points of the current frame, which is the latest captured image, and the feature points of the captured image L (L is a natural number) before the current frame.

次に、特定部122は、オプティカルフローを導出する(ステップS2)。より詳細には、ステップS2において、抽出部121は、最新の撮影画像(現フレーム)と現フレームよりL(Lは自然数)フレーム前の撮影画像から抽出された特徴点のオプティカルフローを導出する。 Next, the specific unit 122 derives the optical flow (step S2). More specifically, in step S2, the extraction unit 121 derives the optical flow of the feature points extracted from the latest captured image (current frame) and the captured image L (L is a natural number) frame before the current frame.

なお、ステップS2においてオプティカルフローが1つも導出されない場合は、現フレームより1フレーム後のフレームを新たな現フレームとし、その新たな現フレームに関して、ステップS1及びS2の処理を実行する。 If no optical flow is derived in step S2, a frame one frame after the current frame is set as a new current frame, and the processes of steps S1 and S2 are executed for the new current frame.

記憶部13は、ステップS2で導出されたオプティカルフローを最新のオプティカルフローとして記憶する。最新のオプティカルフローは、現フレームの更新により過去のオプティカルフローに変化する。記憶部13は、最新のオプティカルフローが過去のオプティカルフローに変化した時点から一定時間が経過する迄の間、過去のオプティカルフローを記憶する。 The storage unit 13 stores the optical flow derived in step S2 as the latest optical flow. The latest optical flow changes to the past optical flow by updating the current frame. The storage unit 13 stores the past optical flow from the time when the latest optical flow changes to the past optical flow until a certain time elapses.

ステップS2におけるオプティカルフローの導出が終了すると、特定部122は、特徴点に対し、記憶部13に記憶されているフロントカメラ21に内部パラメータを用いて座標変換を行う。座標変換では、フロントカメラ21の収差補正と、歪補正とが行われる。収差補正は、フロントカメラ21の光学系の収差による歪みを補正するために行われる。具体的には樽型歪みや糸巻歪みなど歪曲収差の補正である。歪み補正は、フロントカメラ21の光学系そのものの歪みを補正するために行われる。具体的には魚眼補正などである。座標変換により、特徴点の座標は、被写体が透視投影によって撮影された場合に二次元画像上で得られる座標に変換される。 When the derivation of the optical flow in step S2 is completed, the specific unit 122 performs coordinate conversion on the feature points using the internal parameters of the front camera 21 stored in the storage unit 13. In the coordinate transformation, aberration correction and distortion correction of the front camera 21 are performed. Aberration correction is performed to correct distortion due to aberration in the optical system of the front camera 21. Specifically, it is the correction of distortion aberrations such as barrel distortion and pincushion distortion. The distortion correction is performed to correct the distortion of the optical system itself of the front camera 21. Specifically, it is fisheye correction. By the coordinate conversion, the coordinates of the feature points are converted into the coordinates obtained on the two-dimensional image when the subject is photographed by perspective projection.

上述した特徴点の座標変換が終了すると、特定部122は、最新のオプティカルフローのみで四角形を仮想的に形成できるか否かを判定する(ステップS3)。 When the coordinate transformation of the feature points described above is completed, the specific unit 122 determines whether or not the quadrangle can be virtually formed only by the latest optical flow (step S3).

最新のオプティカルフローのみで四角形を仮想的に形成できると判定した場合(ステップS3のYES)、特定部122は、最新のオプティカルフローのみで四角形を仮想的に形成する(ステップS4)。以降、説明のために四角形や、該四角形の辺などの幾何的要素を仮想的に形成して用いる。しかし、実際の処理では、特徴点の座標や直線の方向などのベクトル演算に基づき、同等の作用を持つ幾何的要素に基づかない処理としてもよい。 When it is determined that the quadrangle can be virtually formed only by the latest optical flow (YES in step S3), the specific unit 122 virtually forms the quadrangle only by the latest optical flow (step S4). Hereinafter, for the sake of explanation, geometric elements such as a quadrangle and the sides of the quadrangle are virtually formed and used. However, in the actual processing, the processing may be based on vector operations such as the coordinates of feature points and the direction of a straight line, and may not be based on geometric elements having the same effect.

ここで、ステップS1、S2、S3、及びS4の順で処理が実行される場合の具体例について図7A、図7B、及び図8を参照して説明する。図7Aは現フレームよりL(Lは自然数)フレーム前の撮影画像を模式的に示す図である。図7Bは現フレームを模式的に示す図である。図8は仮想的に形成される四角形を模式的に示す図である。 Here, a specific example in the case where the processing is executed in the order of steps S1, S2, S3, and S4 will be described with reference to FIGS. 7A, 7B, and 8. FIG. 7A is a diagram schematically showing a captured image before the L (L is a natural number) frame from the current frame. FIG. 7B is a diagram schematically showing the current frame. FIG. 8 is a diagram schematically showing a quadrangle formed virtually.

図7Aに示す撮影画像P1及び図7Bに示す撮影画像P2はフロントカメラ21で撮影される。撮影画像P1及びP2は、車両5のボディが映り込む領域BOを含む。第1特徴点FP1及び第2特徴点FP2は路面RS上に存在する。図7A及び図7Bにおいては、路面に描かれている白線のコーナーに第1特徴点FP1及び第2特徴点FP2が存在する。 The photographed image P1 shown in FIG. 7A and the photographed image P2 shown in FIG. 7B are photographed by the front camera 21. The captured images P1 and P2 include a region BO in which the body of the vehicle 5 is reflected. The first feature point FP1 and the second feature point FP2 exist on the road surface RS. In FIGS. 7A and 7B, the first feature point FP1 and the second feature point FP2 are present at the corners of the white lines drawn on the road surface.

撮影画像P1の撮影時点から撮影画像P2の撮影時点迄の間に、車両5は前方に直進している。図7Bに示す丸印FP1Pは、撮影画像P1の撮影時点における第1特徴点FP1の位置を示す。図7Bに示す丸印FP2Pは、撮影画像P1の撮影時点における第2特徴点FP2の位置を示す。 From the time when the photographed image P1 is photographed to the time when the photographed image P2 is photographed, the vehicle 5 is traveling straight ahead. The circled FP1P shown in FIG. 7B indicates the position of the first feature point FP1 at the time of shooting the captured image P1. The circled FP2P shown in FIG. 7B indicates the position of the second feature point FP2 at the time of shooting the captured image P1.

図7Bに示すように、車両5が前方に直進すると、車両5の前方に存在する第1特徴点FP1及び第2特徴点FP2は車両5に近づく。すなわち、第1特徴点FP1及び第2特徴点FP2は、撮影画像P2と撮影画像P1とで異なる位置に現れる。特定部122は、撮影画像P2の第1特徴点FP1と撮影画像P1の第1特徴点FP1とを、その近傍の画素値に基づいて対応付け、対応付けた第1特徴点FP1のそれぞれの位置に基づいて、第1特徴点FP1のオプティカルフローOF1を導出する。同様に、特定部122は、撮影画像P2の第2特徴点FP2と撮影画像P1の第2特徴点FP2とを、その近傍の画素値に基づいて対応付け、対応付けた第2特徴点FP2のそれぞれの位置に基づいて、第2特徴点FP2のオプティカルフローOF2を導出する。 As shown in FIG. 7B, when the vehicle 5 goes straight forward, the first feature point FP1 and the second feature point FP2 existing in front of the vehicle 5 approach the vehicle 5. That is, the first feature point FP1 and the second feature point FP2 appear at different positions in the captured image P2 and the captured image P1. The identification unit 122 associates the first feature point FP1 of the captured image P2 with the first feature point FP1 of the captured image P1 based on the pixel values in the vicinity thereof, and associates the positions of the first feature points FP1 with each other. Based on, the optical flow OF1 of the first feature point FP1 is derived. Similarly, the specific unit 122 associates the second feature point FP2 of the captured image P2 with the second feature point FP2 of the captured image P1 based on the pixel values in the vicinity thereof, and associates the second feature point FP2 with the associated second feature point FP2. Based on each position, the optical flow OF2 of the second feature point FP2 is derived.

第1特徴点FP1のオプティカルフローOF1と第2特徴点FP2のオプティカルフローOF2が導出されると、特定部122は、特徴点に対し、記憶部13に記憶されているフロントカメラ21に内部パラメータを用いて座標変換を行う。座標変換では、フロントカメラ21の収差補正と、歪補正とが行われる。収差補正は、フロントカメラ21の光学系の収差による歪みを補正するために行われる。具体的には樽型歪みや糸巻歪みなど歪曲収差の補正である。歪み補正は、フロントカメラ21の光学系そのものの歪みを補正するために行われる。具体的には魚眼補正などである。座標変換により、特徴点の座標は、被写体が透視投影によって撮影された場合に二次元画像上で得られる座標に変換される。 When the optical flow OF1 of the first feature point FP1 and the optical flow OF2 of the second feature point FP2 are derived, the specific unit 122 sends an internal parameter to the front camera 21 stored in the storage unit 13 with respect to the feature point. Use to perform coordinate transformation. In the coordinate transformation, aberration correction and distortion correction of the front camera 21 are performed. Aberration correction is performed to correct distortion due to aberration in the optical system of the front camera 21. Specifically, it is the correction of distortion aberrations such as barrel distortion and pincushion distortion. The distortion correction is performed to correct the distortion of the optical system itself of the front camera 21. Specifically, it is fisheye correction. By the coordinate conversion, the coordinates of the feature points are converted into the coordinates obtained on the two-dimensional image when the subject is photographed by perspective projection.

特徴点の座標変換が行われると、特定部122は、図8に示すように、第1特徴点FP1のオプティカルフローOF1の始点を頂点SP1、第1特徴点FP1のオプティカルフローOF1の終点を頂点EP1、第2特徴点FP1のオプティカルフローOF2の始点を頂点SP2、及び第2特徴点FP2のオプティカルフローOF2の終点を頂点EPとする四角形QLを仮想的に形成する。 When the coordinate conversion of the feature points is performed, as shown in FIG. 8, the specific unit 122 uses the start point of the optical flow OF1 of the first feature point FP1 as the apex SP1 and the end point of the optical flow OF1 of the first feature point FP1 as the apex. A square QL is virtually formed in which the start point of the optical flow OF2 of the EP1 and the second feature point FP1 is the apex SP2, and the end point of the optical flow OF2 of the second feature point FP2 is the apex EP.

図6に戻ってフローチャートのステップS5に関して説明する。最新のオプティカルフローのみで四角形を仮想的に形成できないと判定した場合(ステップS3のNO)、特定部122は、過去のオプティカルフローと最新のオプティカルフローを用いて四角形を仮想的に形成する(ステップS5)。 Returning to FIG. 6, step S5 of the flowchart will be described. When it is determined that the quadrangle cannot be virtually formed only by the latest optical flow (NO in step S3), the specific unit 122 virtually forms the quadrangle using the past optical flow and the latest optical flow (step). S5).

ここで、ステップS1、S2、S3、及びS5の順で処理が実行される場合の具体例について図7C〜図7F及び図8を参照して説明する。図7Cは現フレームよりN(Nは自然数)フレーム前の撮影画像を模式的に示す図である。図7Dは現フレームよりM(Mは自然数)フレーム前の撮影画像を模式的に示す図である。図7Eは現フレームよりL(Lは自然数)フレーム前の撮影画像を模式的に示す図である。図7Fは現フレームを模式的に示す図である。本実施形態では、上記N、M、及びLについてN>M>Lであるが、MとLは同一であってもよく、LがMより大きく且つNより小さくてもよい。 Here, a specific example in the case where the processing is executed in the order of steps S1, S2, S3, and S5 will be described with reference to FIGS. 7C to 7F and FIG. FIG. 7C is a diagram schematically showing a captured image N (N is a natural number) frame before the current frame. FIG. 7D is a diagram schematically showing a captured image M (M is a natural number) frame before the current frame. FIG. 7E is a diagram schematically showing a captured image before the L (L is a natural number) frame from the current frame. FIG. 7F is a diagram schematically showing the current frame. In the present embodiment, N> M> L for the above N, M, and L, but M and L may be the same, and L may be larger than M and smaller than N.

図7Cに示す撮影画像P11は第1時刻で撮影された撮影画像の一例である。図7Dに示す撮影画像P12は第1時刻より後の第2時刻で撮影された撮影画像の一例である。図7Eに示す撮影画像P13は第2時刻以後の第3時刻で撮影された撮影画像の一例である。図7Fに示す撮影画像P14は第3時刻より後の第4時刻で撮影された撮影画像の一例である。 The photographed image P11 shown in FIG. 7C is an example of the photographed image photographed at the first time. The captured image P12 shown in FIG. 7D is an example of a captured image captured at a second time after the first time. The photographed image P13 shown in FIG. 7E is an example of the photographed image photographed at the third time after the second time. The photographed image P14 shown in FIG. 7F is an example of the photographed image photographed at the fourth time after the third time.

図7C〜図7Fに示す撮影画像P11〜P14はフロントカメラ21で撮影される。撮影画像P11〜P14は、車両5のボディが映り込む領域BOを含む。第1特徴点FP1及び第2特徴点FP2は路面RS上に存在する。図7C及び図7Dにおいては、路面に描かれている白線のコーナーに第1特徴点FP1が存在する。図7E及び図7Fにおいては、路面に描かれている白線のコーナーに第2特徴点FP2が存在する。 The captured images P11 to P14 shown in FIGS. 7C to 7F are captured by the front camera 21. The captured images P11 to P14 include a region BO in which the body of the vehicle 5 is reflected. The first feature point FP1 and the second feature point FP2 exist on the road surface RS. In FIGS. 7C and 7D, the first feature point FP1 exists at the corner of the white line drawn on the road surface. In FIGS. 7E and 7F, the second feature point FP2 exists at the corner of the white line drawn on the road surface.

撮影画像P11の撮影時点から撮影画像P12の撮影時点迄の間に、車両5は前方に直進している。図7Dに示す丸印FP1Pは、撮影画像P11の撮影時点における第1特徴点FP1の位置を示す。同様に、撮影画像P13の撮影時点から撮影画像P14の撮影時点迄の間に、車両5は前方に直進している。図7Fに示す丸印FP2Pは、撮影画像P13の撮影時点における第2特徴点FP2の位置を示す。 From the time when the photographed image P11 is photographed to the time when the photographed image P12 is photographed, the vehicle 5 is traveling straight ahead. The circled FP1P shown in FIG. 7D indicates the position of the first feature point FP1 at the time of shooting the captured image P11. Similarly, between the time when the photographed image P13 is photographed and the time when the photographed image P14 is photographed, the vehicle 5 is traveling straight ahead. The circled FP2P shown in FIG. 7F indicates the position of the second feature point FP2 at the time of shooting the captured image P13.

図7Dに示すように、車両5が前方に直進すると、車両5の前方に存在する第1特徴点FP1は車両5に近づく。すなわち、第1特徴点FP1は、撮影画像P12と撮影画像P11とで異なる位置に現れる。特定部122は、撮影画像P12の第1特徴点FP1と撮影画像P11の第1特徴点FP1とを、その近傍の画素値に基づいて対応付け、対応付けた第1特徴点FP1のそれぞれの位置に基づいて、第1特徴点FP1のオプティカルフローOF1を導出する。 As shown in FIG. 7D, when the vehicle 5 goes straight forward, the first feature point FP1 existing in front of the vehicle 5 approaches the vehicle 5. That is, the first feature point FP1 appears at different positions in the captured image P12 and the captured image P11. The identification unit 122 associates the first feature point FP1 of the captured image P12 with the first feature point FP1 of the captured image P11 based on the pixel values in the vicinity thereof, and associates the positions of the first feature points FP1 with each other. Based on, the optical flow OF1 of the first feature point FP1 is derived.

図7Fに示すように、車両5が前方に直進すると、車両5の前方に存在する第2特徴点FP2は車両5に近づく。すなわち、第2特徴点FP2は、撮影画像P14と撮影画像P13とで異なる位置に現れる。特定部122は、撮影画像P14の第2特徴点FP2と撮影画像P13の第2特徴点FP2とを、その近傍の画素値に基づいて対応付け、対応付けた第2特徴点FP2のそれぞれの位置に基づいて、第2特徴点FP2のオプティカルフローOF2を導出する。 As shown in FIG. 7F, when the vehicle 5 goes straight forward, the second feature point FP2 existing in front of the vehicle 5 approaches the vehicle 5. That is, the second feature point FP2 appears at different positions in the captured image P14 and the captured image P13. The identification unit 122 associates the second feature point FP2 of the captured image P14 with the second feature point FP2 of the captured image P13 based on the pixel values in the vicinity thereof, and associates the positions of the second feature points FP2 with each other. Based on, the optical flow OF2 of the second feature point FP2 is derived.

第1特徴点FP1のオプティカルフローOF1と第2特徴点FP2のオプティカルフローOF2が導出されると、特定部122は、特徴点に対し、記憶部13に記憶されているフロントカメラ21に内部パラメータを用いて座標変換を行う。座標変換では、フロントカメラ21の収差補正と、歪補正とが行われる。収差補正は、フロントカメラ21の光学系の収差による歪みを補正するために行われる。具体的には樽型歪みや糸巻歪みなど歪曲収差の補正である。歪み補正は、フロントカメラ21の光学系そのものの歪みを補正するために行われる。具体的には魚眼補正などである。座標変換により、特徴点の座標は、被写体が透視投影によって撮影された場合に二次元画像上で得られる座標に変換される。 When the optical flow OF1 of the first feature point FP1 and the optical flow OF2 of the second feature point FP2 are derived, the specific unit 122 sends an internal parameter to the front camera 21 stored in the storage unit 13 with respect to the feature point. Use to perform coordinate transformation. In the coordinate transformation, aberration correction and distortion correction of the front camera 21 are performed. Aberration correction is performed to correct distortion due to aberration in the optical system of the front camera 21. Specifically, it is the correction of distortion aberrations such as barrel distortion and pincushion distortion. The distortion correction is performed to correct the distortion of the optical system itself of the front camera 21. Specifically, it is fisheye correction. By the coordinate conversion, the coordinates of the feature points are converted into the coordinates obtained on the two-dimensional image when the subject is photographed by perspective projection.

特徴点の座標変換が行われると、特定部122は、図8に示すように、第1特徴点FP1のオプティカルフローOF1の始点を頂点SP1、第1特徴点FP1のオプティカルフローOF1の終点を頂点EP1、第2特徴点FP1のオプティカルフローOF2の始点を頂点SP2、及び第2特徴点FP2のオプティカルフローOF2の終点を頂点EPとする四角形QLを仮想的に形成する。 When the coordinate conversion of the feature points is performed, as shown in FIG. 8, the specific unit 122 uses the start point of the optical flow OF1 of the first feature point FP1 as the apex SP1 and the end point of the optical flow OF1 of the first feature point FP1 as the apex. A square QL is virtually formed in which the start point of the optical flow OF2 of the EP1 and the second feature point FP1 is the apex SP2, and the end point of the optical flow OF2 of the second feature point FP2 is the apex EP.

図6に戻ってフローチャートのステップS5より後の処理に関して説明する。 Returning to FIG. 6, the processing after step S5 of the flowchart will be described.

四角形QLが仮想的に形成されると、特定部122は、四角形QLと、記憶部13に記憶されているフロントカメラ21の内部パラメータとを用いて、三次元空間におけるフロントカメラ21の投影面IMG上に四角形QLを移動させ、投影面IMG上での四角形QL1を仮想的に生成する(ステップS6)。 When the quadrangle QL is virtually formed, the specific unit 122 uses the quadrangle QL and the internal parameters of the front camera 21 stored in the storage unit 13 to display the projection surface IMG of the front camera 21 in the three-dimensional space. The quadrangle QL is moved upward to virtually generate the quadrangle QL1 on the projection plane IMG (step S6).

なお説明のため、以下のように四角形QL1の辺を定義する(図9参照)。四角形QL1の第1辺SD1は、四角形QLにおいて、頂点SP1および頂点SP2を結んだ辺に対応する。つまり、第1特徴点FP1のオプティカルフローOF1の始点と第2特徴点FP2のオプティカルフローOF2の始点とを結んだ辺に相当する。同様に、四角形QL1の第2辺SD2は、四角形QLにおいて、頂点SP2および頂点EP2を結んだ辺に対応する。つまり、第2特徴点FP2のオプティカルフローOF2に相当する。同様に、四角形QL1の第3辺SD3は、四角形QLにおいて、頂点EP1および頂点EP2を結んだ辺に対応する。つまり、第1特徴点FP1のオプティカルフローOF1の終点と第2特徴点FP2のオプティカルフローOF2の終点とを結んだ辺に相当する。同様に、四角形QL1の第4辺SD4は、四角形QLにおいて、頂点SP1および頂点EP1を結んだ辺に対応する。つまり、第1特徴点FP1のオプティカルフローOF1に相当する。 For the sake of explanation, the sides of the quadrangle QL1 are defined as follows (see FIG. 9). The first side SD1 of the quadrangle QL1 corresponds to the side connecting the vertices SP1 and the vertices SP2 in the quadrangle QL. That is, it corresponds to the side connecting the start point of the optical flow OF1 of the first feature point FP1 and the start point of the optical flow OF2 of the second feature point FP2. Similarly, the second side SD2 of the quadrangle QL1 corresponds to the side connecting the vertices SP2 and the vertices EP2 in the quadrangle QL. That is, it corresponds to the optical flow OF2 of the second feature point FP2. Similarly, the third side SD3 of the quadrangle QL1 corresponds to the side connecting the vertices EP1 and EP2 in the quadrangle QL. That is, it corresponds to the side connecting the end point of the optical flow OF1 of the first feature point FP1 and the end point of the optical flow OF2 of the second feature point FP2. Similarly, the fourth side SD4 of the quadrangle QL1 corresponds to the side connecting the vertices SP1 and the vertices EP1 in the quadrangle QL. That is, it corresponds to the optical flow OF1 of the first feature point FP1.

また、以下のように面を定義する(図9参照)。四角形QL1の第1辺SD1とフロントカメラ21の光学中心OCとが含まれる面を第1面F1とする。同様に、四角形QL1の第2辺SD2とフロントカメラ21の光学中心OCとが含まれる面を第2面F2とする。同様に、四角形QL1の第3辺SD3とフロントカメラ21の光学中心OCとが含まれる面を第3面F3とする。同様に、四角形QL1の第4辺SD4とフロントカメラ21の光学中心OCとが含まれる面を第4面F4とする。 In addition, the surface is defined as follows (see FIG. 9). The surface including the first side SD1 of the quadrangle QL1 and the optical center OC of the front camera 21 is defined as the first surface F1. Similarly, the surface including the second side SD2 of the quadrangle QL1 and the optical center OC of the front camera 21 is referred to as the second surface F2. Similarly, the surface including the third side SD3 of the quadrangle QL1 and the optical center OC of the front camera 21 is referred to as the third surface F3. Similarly, the surface including the fourth side SD4 of the quadrangle QL1 and the optical center OC of the front camera 21 is referred to as the fourth surface F4.

ステップS6に続くステップS7において、特定部122は、所定の平面との交線が互いに平行になる面の組を2組特定する。所定の平面とはあらかじめ平面の法線が分かっている面である。具体的には車両5が移動を行っている平面であり、つまり路面である。所定の平面は、厳密な平面でなくてもよく、特定部122が所定の平面との交線が互いに平行になる面の組を2組特定する際に平面とみなすことができるものであればよい。 In step S7 following step S6, the identification unit 122 identifies two sets of faces whose lines of intersection with a predetermined plane are parallel to each other. A predetermined plane is a plane whose normal is known in advance. Specifically, it is a plane on which the vehicle 5 is moving, that is, a road surface. The predetermined plane does not have to be a strict plane, as long as the specific portion 122 can be regarded as a plane when specifying two sets of planes whose intersection lines with the predetermined plane are parallel to each other. Good.

本実施形態では、第1特徴点及び第2特徴点は路面などの所定の平面上に位置している静止物から抽出される。したがって、特定部122によって導出される第1特徴点及び第2特徴点の各オプティカルフローは実世界上では、車両5に対する静止物の相対的な位置変化を表す。つまり向きが逆となった車両5の移動ベクトルである。 In the present embodiment, the first feature point and the second feature point are extracted from a stationary object located on a predetermined plane such as a road surface. Therefore, each optical flow of the first feature point and the second feature point derived by the specific unit 122 represents a relative position change of the stationary object with respect to the vehicle 5 in the real world. That is, it is a movement vector of the vehicle 5 having the opposite direction.

四角形QL1の第2辺SD2と第4辺SD4とは、共に特徴点のオプティカルフローに対応するので、共に実世界上では車両5の移動ベクトルに相当する。したがって、路面上では互いに平行となると想定される。 Since the second side SD2 and the fourth side SD4 of the quadrangle QL1 both correspond to the optical flow of the feature points, they both correspond to the movement vector of the vehicle 5 in the real world. Therefore, it is assumed that they are parallel to each other on the road surface.

また、四角形QL1の第1辺SD1と第3辺SD3とは、共に特徴点同士の位置関係なので、実世界上では車両5の移動に伴う静止物同士の位置関係に相当する。移動前の位置関係が第1辺SD1に相当し、移動後の位置関係が第3辺SD3に相当する。このとき静止物の位置は変わらないため、移動前後で位置関係は変わらない。したがって、路面上ではこれも互いに平行となると想定される。 Further, since the first side SD1 and the third side SD3 of the quadrangle QL1 are both in the positional relationship between the feature points, they correspond to the positional relationship between the stationary objects accompanying the movement of the vehicle 5 in the real world. The positional relationship before the movement corresponds to the first side SD1, and the positional relationship after the movement corresponds to the third side SD3. At this time, since the position of the stationary object does not change, the positional relationship does not change before and after the movement. Therefore, it is assumed that they are also parallel to each other on the road surface.

したがって、特定部122は、路面との交線が平行な面として、第2面F2と第4面F4との組と、第1面F1と第3面F3との組と、の2つの組を特定する。つまり、特定部122は、オプティカルフローを含む面同士を1つの組とし、同時刻に撮影された特徴点を含む面同士を他の組として、計2つの組を特定する。 Therefore, the specific portion 122 has two sets of a pair of the second surface F2 and the fourth surface F4 and a pair of the first surface F1 and the third surface F3 as planes whose intersection lines with the road surface are parallel. To identify. That is, the specific unit 122 specifies a total of two sets, with the faces including the optical flow as one set and the faces including the feature points photographed at the same time as other sets.

なお、図9において四角形QL2は、図7Aに示す撮影画像P1及び図7Bに示す撮影画像P2で得られるオプティカルフローを用いて仮想的に形成した場合、撮影画像P2の撮影時点での第1特徴点FP1の3次元空間(実世界)上の位置、撮影画像P2の撮影時点での第2特徴点FP2の3次元空間上の位置、撮影画像P1の撮影時点での第1特徴点FP1の3次元空間上の位置、及び撮影画像P1の撮影時点での第2特徴点FP2の3次元空間上の位置を頂点とする四角形である。 In addition, in FIG. 9, when the square QL2 is virtually formed by using the optical flow obtained by the photographed image P1 shown in FIG. 7A and the photographed image P2 shown in FIG. 7B, the first feature at the time of photographing the photographed image P2 is The position of the point FP1 in the three-dimensional space (real world), the position of the second feature point FP2 at the time of shooting the captured image P2 in the three-dimensional space, and the position of the first feature point FP1 at the time of shooting the captured image P1. It is a quadrangle whose apex is the position in the three-dimensional space and the position in the three-dimensional space of the second feature point FP2 at the time of shooting the captured image P1.

一方、図9において四角形QL2は、図7Cに示す撮影画像P11、図7Dに示す撮影画像P12、図7Eに示す撮影画像P13、及び図7Fに示す撮影画像P14で得られるオプティカルフローを用いて仮想的に形成した場合、撮影画像P12の撮影時点での第1特徴点FP1の3次元空間(実世界)上の位置、撮影画像P14の撮影時点での第2特徴点FP2の3次元空間上の位置、撮影画像P11の撮影時点での第1特徴点FP1の3次元空間上の位置、及び撮影画像P13の撮影時点での第2特徴点FP2の3次元空間上の位置を頂点とする四角形である。 On the other hand, in FIG. 9, the square QL2 is virtual using the optical flow obtained from the captured image P11 shown in FIG. 7C, the captured image P12 shown in FIG. 7D, the captured image P13 shown in FIG. 7E, and the captured image P14 shown in FIG. 7F. On the three-dimensional space (real world) of the first feature point FP1 at the time of shooting the captured image P12, and on the three-dimensional space of the second feature point FP2 at the time of capturing the captured image P14. A square whose apex is the position, the position of the first feature point FP1 at the time of shooting the captured image P11 in the three-dimensional space, and the position of the second feature point FP2 at the time of shooting the captured image P13 in the three-dimensional space. is there.

第1面F1は、四角形QL2の第1辺SD11を含む。同様に、第2面F2は四角形QL2の第2辺SD12を含み、第3面F3は四角形QL2の第3辺SD13を含み、第4面F4は四角形QL2の第4辺SD14を含む。このとき、上記のように四角形QL2は路面上に形成される平行四辺形であると想定される。 The first surface F1 includes the first side SD11 of the quadrangle QL2. Similarly, the second surface F2 includes the second side SD12 of the quadrangle QL2, the third surface F3 includes the third side SD13 of the quadrangle QL2, and the fourth surface F4 includes the fourth side SD14 of the quadrangle QL2. At this time, as described above, the quadrangle QL2 is assumed to be a parallelogram formed on the road surface.

次に、推定部123は、路面の法線を算出する(ステップS8)。まず、推定部123は、特定部122で特定した面の組の一方である第1面F1と第3面F3とに基づき、面同士の交線の方向を求める。詳細には、第1面F1と第3面F3との交線CL1の向きを求める(図10参照)。交線CL1の方向ベクトルV1は、第1面F1の法線ベクトル及び第3面F3の法線ベクトルそれぞれと垂直なベクトルである。したがって、推定部123は、第1面F1の法線ベクトルと第3面F3の法線ベクトルとの外積により、交線CL1の方向ベクトルV1を求める。第1面F1と第3面F3は、路面との交線が平行となるため、方向ベクトルV1は路面と平行になる。 Next, the estimation unit 123 calculates the normal of the road surface (step S8). First, the estimation unit 123 obtains the direction of the line of intersection between the surfaces based on the first surface F1 and the third surface F3, which are one of the set of surfaces specified by the specific unit 122. Specifically, the direction of the line of intersection CL1 between the first surface F1 and the third surface F3 is obtained (see FIG. 10). The direction vector V1 of the line of intersection CL1 is a vector perpendicular to each of the normal vector of the first surface F1 and the normal vector of the third surface F3. Therefore, the estimation unit 123 obtains the direction vector V1 of the line of intersection CL1 by the outer product of the normal vector of the first surface F1 and the normal vector of the third surface F3. Since the line of intersection of the first surface F1 and the third surface F3 is parallel to the road surface, the direction vector V1 is parallel to the road surface.

同様に、推定部123は、特定部122で特定した面の組の他方である第2面F2と第4面F4との交線の方向を求める。詳細には第2面F2と第4面F4との交線CL2の向きを求める(図11参照)。交線CL2の方向ベクトルV2は、第2面F2の法線ベクトル及び第4面F4の法線ベクトルそれぞれと垂直なベクトルである。したがって、推定部123は、第2面F2の法線ベクトルと第4面F4の法線ベクトルとの外積により、交線CL2の方向ベクトルV2を求める。第2面F2と第4面F4も同様に、路面との交線が平行となるため、方向ベクトルV2は路面と平行になる。 Similarly, the estimation unit 123 obtains the direction of the line of intersection between the second surface F2 and the fourth surface F4, which is the other side of the set of surfaces specified by the specific unit 122. Specifically, the direction of the line of intersection CL2 between the second surface F2 and the fourth surface F4 is obtained (see FIG. 11). The direction vector V2 of the line of intersection CL2 is a vector perpendicular to each of the normal vector of the second surface F2 and the normal vector of the fourth surface F4. Therefore, the estimation unit 123 obtains the direction vector V2 of the line of intersection CL2 by the outer product of the normal vector of the second surface F2 and the normal vector of the fourth surface F4. Similarly, the second surface F2 and the fourth surface F4 have parallel lines of intersection with the road surface, so that the direction vector V2 is parallel to the road surface.

推定部123は、方向ベクトルV1と方向ベクトルV2との外積により、四角形QL2の面の法線、すなわち路面の法線を算出する。推定部123が算出した路面の法線はフロントカメラ21のカメラ座標系で算出されるため、実際の路面の法線である垂直方向との違いから3次元空間の座標系を求め、路面に対するフロントカメラ21の姿勢を推定することができる。その推定結果から推定部123は車両5に対するフロントカメラ21の姿勢を推定する(ステップS9)。なお、ステップS7の算出処理は、例えば公知のARToolkitを利用して実行することができる。 The estimation unit 123 calculates the normal of the surface of the quadrangle QL2, that is, the normal of the road surface by the outer product of the direction vector V1 and the direction vector V2. Since the normal of the road surface calculated by the estimation unit 123 is calculated by the camera coordinate system of the front camera 21, the coordinate system of the three-dimensional space is obtained from the difference from the vertical direction which is the normal of the actual road surface, and the front with respect to the road surface. The posture of the camera 21 can be estimated. From the estimation result, the estimation unit 123 estimates the posture of the front camera 21 with respect to the vehicle 5 (step S9). The calculation process in step S7 can be executed using, for example, a known ARToolkit.

ステップS9におけるフロントカメラ21の姿勢推定が終了すると、図6に示すフローが終了する。 When the posture estimation of the front camera 21 in step S9 is completed, the flow shown in FIG. 6 is completed.

姿勢推定装置14は、車両5の移動を利用して、自律的に所定の平面との交線が互いに平行になる面の組を2組特定することで、特徴点の抽出誤差のみが推定精度に影響するカメラの姿勢推定を行うことができる。すなわち、姿勢推定装置14は、誤差要因が少ないカメラの姿勢推定を行うことができる。したがって、姿勢推定装置14は、カメラの姿勢を精度良く推定することができる。 The attitude estimation device 14 autonomously identifies two sets of faces whose intersection lines with a predetermined plane are parallel to each other by using the movement of the vehicle 5, and only the extraction error of the feature points is estimated accuracy. It is possible to estimate the attitude of the camera that affects the image. That is, the posture estimation device 14 can estimate the posture of the camera with few error factors. Therefore, the posture estimation device 14 can accurately estimate the posture of the camera.

また、姿勢推定装置14は、上述した通り、最新のオプティカルフローのみで四角形を仮想的に形成できない場合に、過去のオプティカルフローと最新のオプティカルフローを用いて四角形を仮想的に形成する。したがって、姿勢推定装置14は、最新のオプティカルフローのみで四角形を仮想的に形成することができない構成、すなわち、図6に示すフローチャートからステップS3及びS5を取り除いた動作を行う構成に比べて、推定に要する時間の長期化を抑制できる。 Further, as described above, the posture estimation device 14 virtually forms a quadrangle by using the past optical flow and the latest optical flow when the quadrangle cannot be virtually formed only by the latest optical flow. Therefore, the posture estimation device 14 is estimated as compared with a configuration in which a quadrangle cannot be virtually formed only by the latest optical flow, that is, a configuration in which steps S3 and S5 are removed from the flowchart shown in FIG. It is possible to suppress the prolongation of the time required for.

しかしながら、過去のオプティカルフローと最新のオプティカルフローを用いて四角形を仮想的に形成する場合、適切なオプティカルフローを用いなければ、最新のオプティカルフローのみで四角形を仮想的に形成する場合に比べて、カメラの姿勢推定の精度が大幅に低下するおそれがある。 However, when a quadrangle is virtually formed using the past optical flow and the latest optical flow, compared to the case where the quadrangle is virtually formed only by the latest optical flow without using an appropriate optical flow. The accuracy of camera posture estimation may be significantly reduced.

図6に示すステップS5の処理で用いるオプティカルフローが適切であるかは車両5の移動具合に依存する。そこで、図6に示すステップS5の処理を実行する場合、第1特徴点のオプティカルフローOP1と第2特徴点のオプティカルフローOP2との組合せは、車両5の移動情報に基づき決定されることが望ましい。 Whether the optical flow used in the process of step S5 shown in FIG. 6 is appropriate depends on the movement condition of the vehicle 5. Therefore, when executing the process of step S5 shown in FIG. 6, it is desirable that the combination of the optical flow OP1 of the first feature point and the optical flow OP2 of the second feature point is determined based on the movement information of the vehicle 5. ..

上述した通り、姿勢推定装置14は、四角形QL2が路面上に形成される平行四辺形であるとの想定の下、カメラの姿勢推定を行っている。 As described above, the posture estimation device 14 estimates the posture of the camera on the assumption that the quadrangle QL2 is a parallelogram formed on the road surface.

第1特徴点のオプティカルフローOP1が発生するときの車両5の舵角と第2特徴点のオプティカルフローOP2が発生するときの車両5の舵角との違いが少ないほど、上記の想定と現実との乖離が小さくなる。したがって、上述した車両5の移動情報に車両5の舵角情報を含め、図6に示すステップS5の処理を実行する場合、第1特徴点のオプティカルフローOP1と第2特徴点のオプティカルフローOP2との組合せは、車両5の舵角情報に基づき決定されることが望ましい。以下、この組合せ決定手法を第1決定手法という。例えば、舵角センサ3から通信バスB1を経由して姿勢推定装置14に供給される舵角センサ3の出力を車両5の舵角情報として用いると、車両5の舵角情報が舵角の推定情報ではなく舵角の実測情報になるので、車両5の舵角情報の精度を高めることができる。 The smaller the difference between the steering angle of the vehicle 5 when the optical flow OP1 of the first feature point occurs and the steering angle of the vehicle 5 when the optical flow OP2 of the second feature point occurs, the more the above assumption and reality The divergence becomes smaller. Therefore, when the rudder angle information of the vehicle 5 is included in the movement information of the vehicle 5 and the process of step S5 shown in FIG. 6 is executed, the optical flow OP1 of the first feature point and the optical flow OP2 of the second feature point It is desirable that the combination of the above is determined based on the steering angle information of the vehicle 5. Hereinafter, this combination determination method is referred to as a first determination method. For example, if the output of the steering angle sensor 3 supplied from the steering angle sensor 3 to the attitude estimation device 14 via the communication bus B1 is used as the steering angle information of the vehicle 5, the steering angle information of the vehicle 5 is the estimation of the steering angle. Since the actual measurement information of the steering angle is used instead of the information, the accuracy of the steering angle information of the vehicle 5 can be improved.

例えば、図7Dに示す撮影画像P12の撮影時点における車両5の舵角と図7Fに示す撮影画像P14の撮影時点における車両5の舵角との差が所定角度以内になるように、第1特徴点のオプティカルフローOP1と第2特徴点のオプティカルフローOP2との組合せを決定すればよい。また、例えば、図7Cに示す撮影画像P11の撮影時点から図7Dに示す撮影画像P12の撮影時点までの車両5の舵角の平均値と図7Eに示す撮影画像P13の撮影時点から図7Fに示す撮影画像P14の撮影時点までの車両5の舵角の平均値との差が所定角度以内になるように、第1特徴点のオプティカルフローOP1と第2特徴点のオプティカルフローOP2との組合せを決定してもよい。 For example, the first feature is such that the difference between the steering angle of the vehicle 5 at the time of photographing the photographed image P12 shown in FIG. 7D and the steering angle of the vehicle 5 at the time of photographing the photographed image P14 shown in FIG. 7F is within a predetermined angle. The combination of the point optical flow OP1 and the second feature point optical flow OP2 may be determined. Further, for example, the average value of the steering angles of the vehicle 5 from the time of shooting the photographed image P11 shown in FIG. 7C to the time of photographing the photographed image P12 shown in FIG. 7D and the time of photographing the photographed image P13 shown in FIG. 7E are shown in FIG. 7F. The combination of the optical flow OP1 of the first feature point and the optical flow OP2 of the second feature point is set so that the difference from the average value of the steering angles of the vehicle 5 up to the time of shooting the photographed image P14 is within a predetermined angle. You may decide.

第1特徴点のオプティカルフローOP1が発生するときの車両5の速度と第2特徴点のオプティカルフローOP2が発生するときの車両5の速度との違いが少ないほど、上記の想定と現実との乖離が小さくなる。したがって、上述した車両5の移動情報に車両5の速度情報を含め、図6に示すステップS5の処理を実行する場合、第1特徴点のオプティカルフローOP1と第2特徴点のオプティカルフローOP2との組合せは、車両5の速度情報に基づき決定されることが望ましい。以下、この組合せ決定手法を第2決定手法という。例えば、車速度センサ4から通信バスB1を経由して姿勢推定装置14に供給される車速度センサ4の出力を車両5の速度情報として用いると、車両5の速度情報が速度の推定情報ではなく速度の実測情報になるので、車両5の速度情報の精度を高めることができる。 The smaller the difference between the speed of the vehicle 5 when the optical flow OP1 of the first feature point occurs and the speed of the vehicle 5 when the optical flow OP2 of the second feature point occurs, the more the difference between the above assumption and the reality is. Becomes smaller. Therefore, when the speed information of the vehicle 5 is included in the movement information of the vehicle 5 and the process of step S5 shown in FIG. 6 is executed, the optical flow OP1 of the first feature point and the optical flow OP2 of the second feature point The combination is preferably determined based on the speed information of the vehicle 5. Hereinafter, this combination determination method is referred to as a second determination method. For example, when the output of the vehicle speed sensor 4 supplied from the vehicle speed sensor 4 to the attitude estimation device 14 via the communication bus B1 is used as the speed information of the vehicle 5, the speed information of the vehicle 5 is not the speed estimation information. Since the actual speed information is used, the accuracy of the speed information of the vehicle 5 can be improved.

例えば、図7Dに示す撮影画像P12の撮影時点における車両5の速度と図7Fに示す撮影画像P14の撮影時点における車両5の速度との差が所定速度以内になるように、第1特徴点のオプティカルフローOP1と第2特徴点のオプティカルフローOP2との組合せを決定すればよい。また、例えば、図7Cに示す撮影画像P11の撮影時点から図7Dに示す撮影画像P12の撮影時点までの車両5の速度の平均値と図7Eに示す撮影画像P13の撮影時点から図7Fに示す撮影画像P14の撮影時点までの車両5の速度の平均値との差が所定速度以内になるように、第1特徴点のオプティカルフローOP1と第2特徴点のオプティカルフローOP2との組合せを決定してもよい。 For example, the first feature point is set so that the difference between the speed of the vehicle 5 at the time of shooting the captured image P12 shown in FIG. 7D and the speed of the vehicle 5 at the time of capturing the captured image P14 shown in FIG. 7F is within a predetermined speed. The combination of the optical flow OP1 and the optical flow OP2 of the second feature point may be determined. Further, for example, the average value of the speeds of the vehicle 5 from the time when the photographed image P11 shown in FIG. 7C is photographed to the time when the photographed image P12 shown in FIG. 7D is photographed and the time when the photographed image P13 shown in FIG. 7E is photographed are shown in FIG. 7F. The combination of the optical flow OP1 of the first feature point and the optical flow OP2 of the second feature point is determined so that the difference from the average value of the speeds of the vehicle 5 up to the time of shooting the captured image P14 is within a predetermined speed. You may.

なお、第1特徴点のオプティカルフローOP1が発生するときと第2特徴点のオプティカルフローOP1が発生するときとの時間差が短ければ、車両5の移動具合の変化も小さいことが期待できる。したがって、図6に示すステップS5の処理を実行する場合、第1特徴点のオプティカルフローOP1と第2特徴点のオプティカルフローOP2との組合せは、図7Cに示す撮影画像P11の撮影時点と図7Dに示す撮影画像P12の撮影時点の少なくとも一方に関連する時刻と図7Eに示す撮影画像P13の撮影時点と図7Fに示す撮影画像P14の撮影時点の少なくとも一方に関連する時刻との時間差に基づき決定されることが望ましい。以下、この組合せ決定手法を第3決定手法という。 If the time difference between the time when the optical flow OP1 of the first feature point is generated and the time when the optical flow OP1 of the second feature point is generated is short, it can be expected that the change in the movement condition of the vehicle 5 is small. Therefore, when the process of step S5 shown in FIG. 6 is executed, the combination of the optical flow OP1 of the first feature point and the optical flow OP2 of the second feature point is the time of shooting of the captured image P11 shown in FIG. 7C and FIG. 7D. Determined based on the time difference between the time related to at least one of the shooting time of the captured image P12 shown in FIG. 7E and the time related to at least one of the shooting time of the captured image P13 shown in FIG. 7E and the shooting time of the captured image P14 shown in FIG. 7F. It is desirable to be done. Hereinafter, this combination determination method will be referred to as a third determination method.

図7Cに示す撮影画像P11の撮影時点と図7Dに示す撮影画像P12の撮影時点の少なくとも一方に関連する時刻としては、例えば、図7Cに示す撮影画像P11の撮影時点の時刻、図7Dに示す撮影画像P12の撮影時点の時刻、図7Cに示す撮影画像P11の撮影時点と図7Dに示す撮影画像P12の撮影時点との中点の時刻等を挙げることができる。同様に、図7Eに示す撮影画像P13の撮影時点と図7Fに示す撮影画像P14の撮影時点の少なくとも一方に関連する時刻としては、例えば、図7Eに示す撮影画像P13の撮影時点の時刻、図7Fに示す撮影画像P14の撮影時点の時刻、図7Eに示す撮影画像P13の撮影時点と図7Fに示す撮影画像P14の撮影時点との中点の時刻等を挙げることができる。 As the time related to at least one of the shooting time of the captured image P11 shown in FIG. 7C and the shooting time of the captured image P12 shown in FIG. 7D, for example, the time at the time of capturing the captured image P11 shown in FIG. 7C is shown in FIG. 7D. Examples include the time at the time of shooting the captured image P12, the time at the midpoint between the time of shooting the captured image P11 shown in FIG. 7C and the time at which the captured image P12 is photographed shown in FIG. 7D. Similarly, as the time related to at least one of the shooting time of the captured image P13 shown in FIG. 7E and the capturing time of the captured image P14 shown in FIG. 7F, for example, the time at the time of capturing the captured image P13 shown in FIG. 7E, FIG. Examples include the time at which the photographed image P14 shown on the 7th floor is photographed, the time at the midpoint between the time when the photographed image P13 shown in FIG. 7E is photographed and the time when the photographed image P14 shown on the 7th floor is photographed.

上述した第1決定手法、第2決定手法、第3決定手法はそれぞれ単独で実施してもよく、任意の2つ以上を組み合わせて実施してもよい。 The first determination method, the second determination method, and the third determination method described above may be performed individually or in combination of any two or more.

また、第1特徴点及び第2特徴点の各オプティカルフローは、向きが逆となった車両5の移動ベクトルであるので、上述した移動情報を、第1特徴点及び第2特徴点の各オプティカルフローを路面上に座標変換した結果に基づき推定された情報としてもよい。第1特徴点及び第2特徴点の各オプティカルフローを路面上に座標変換し、路面上での長さを算出することで車両5の速度を推定でき、路面上での傾きを算出することで車両5の舵角を推定できる。つまり、上述した第1決定手法、第2決定手法の代わりとして実施することができる。上述した移動情報を、第1特徴点及び第2特徴点の各オプティカルフローを路面上に座標変換した結果に基づき推定された情報とする場合、姿勢推定装置14と通信バスB1との接続が不要になる。 Further, since each optical flow of the first feature point and the second feature point is a movement vector of the vehicle 5 having the opposite directions, the above-mentioned movement information is used for each of the first feature point and the second feature point optical. The information may be estimated based on the result of coordinate conversion of the flow on the road surface. The speed of the vehicle 5 can be estimated by converting the coordinates of each optical flow of the first feature point and the second feature point onto the road surface and calculating the length on the road surface, and by calculating the inclination on the road surface. The steering angle of the vehicle 5 can be estimated. That is, it can be implemented as a substitute for the above-mentioned first determination method and second determination method. When the above-mentioned movement information is used as information estimated based on the result of coordinate conversion of each optical flow of the first feature point and the second feature point on the road surface, it is not necessary to connect the attitude estimation device 14 and the communication bus B1. become.

また、特定部122は、第1特徴点のオプティカルフローOP1が発生するときの車両5の速度(車速度センサ4で検出される実測値であってもよく上述した推定速度であってもよい)と第2特徴点のオプティカルフローOP2が発生するときの車両5の速度(車速度センサ4で検出される実測値であってもよく上述した推定速度であってもよい)との違いに基づき、第1特徴点のオプティカルフローOP1及び第2特徴点のオプティカルフローOP2の少なくとも一方を補正し、少なくとも一方が補正された第1特徴点及び第2特徴点の各オプティカルフローに基づき、路面との交線が互いに平行となる面の組を2組特定することが望ましい。これにより、カメラの姿勢推定の精度を向上させることができる。 Further, the specific unit 122 is the speed of the vehicle 5 when the optical flow OP1 of the first feature point is generated (the measured value detected by the vehicle speed sensor 4 or the estimated speed described above may be used). Based on the difference between the speed of the vehicle 5 when the optical flow OP2 of the second feature point is generated (the measured value detected by the vehicle speed sensor 4 or the estimated speed described above). At least one of the optical flow OP1 of the first feature point and the optical flow OP2 of the second feature point is corrected, and at least one of them intersects with the road surface based on the corrected optical flows of the first feature point and the second feature point. It is desirable to identify two sets of faces whose lines are parallel to each other. As a result, the accuracy of camera posture estimation can be improved.

例えば、第1特徴点のオプティカルフローOP1が発生するときの車両5の速度が第2特徴点のオプティカルフローOP2が発生するときの車両5の速度より大きい場合、第1特徴点のオプティカルフローOP1が短くなるように補正してよく、第2特徴点のオプティカルフローOP2が長くなるように補正してよく、第1特徴点のオプティカルフローOP1が短くなり且つ第2特徴点のオプティカルフローOP2が長くなるように補正してよい。 For example, when the speed of the vehicle 5 when the optical flow OP1 of the first feature point is generated is larger than the speed of the vehicle 5 when the optical flow OP2 of the second feature point is generated, the optical flow OP1 of the first feature point is It may be corrected so that it becomes shorter, and it may be corrected so that the optical flow OP2 of the second feature point becomes longer, the optical flow OP1 of the first feature point becomes shorter, and the optical flow OP2 of the second feature point becomes longer. It may be corrected as follows.

なお、例えば路面RSがコンクリートで構成される場合、特徴点が抽出され難い。このため、特徴点の抽出誤差が大きくなり易い。しかしながら、例えば、コンクリートで構成される路面RSに汚れが存在する場合、その汚れ部分から第1特徴点FP1及び第2特徴点FP2を抽出すると、特徴度が高い特徴点を第1特徴点FP1及び第2特徴点FP2として選定することになり、第1特徴点FP1及び第2特徴点FP2の抽出誤差を抑制できると考えられる。 For example, when the road surface RS is made of concrete, it is difficult to extract feature points. Therefore, the extraction error of the feature points tends to be large. However, for example, when dirt is present on the road surface RS made of concrete, when the first feature point FP1 and the second feature point FP2 are extracted from the dirty portion, the feature points having a high degree of feature are the first feature point FP1 and the first feature point FP1. It will be selected as the second feature point FP2, and it is considered that the extraction error of the first feature point FP1 and the second feature point FP2 can be suppressed.

汚れに限らず、特徴点が他に比べて集中して存在する高密度領域が存在する場合、その高密度領域の中から、第1特徴点FP1及び第2特徴点FP2を抽出することにより、第1特徴点FP1及び第2特徴点FP2の抽出誤差を抑制できると考えられる。したがって、特徴点が他に比べて集中して存在する高密度領域が存在する場合、その高密度領域の中から、第1特徴点FP1及び第2特徴点FP2が抽出部121によって抽出されてもよい。 Not limited to dirt, when there is a high-density region where feature points are more concentrated than others, by extracting the first feature point FP1 and the second feature point FP2 from the high-density region, It is considered that the extraction error of the first feature point FP1 and the second feature point FP2 can be suppressed. Therefore, when there is a high-density region in which the feature points are more concentrated than others, even if the first feature point FP1 and the second feature point FP2 are extracted from the high-density region by the extraction unit 121. Good.

また、コーナー度が高い特徴点の抽出では、抽出誤差が小さくなる。したがって、記第1特徴点及び前記第2特徴点を、コーナーらしさを示すコーナー度が所定のコーナー度閾値以上となる特定の特徴点としてもよい。コーナーとは2つのエッジが交わる部分である。コーナーでは、コーナー度が高くなる。コーナー度は、例えばHarrisオペレータやKLT(Kanade-Lucas-Tomasi)トラッカーなどの公知の検出手法を用いて求めることができる。 Further, in the extraction of feature points having a high degree of cornering, the extraction error becomes small. Therefore, the first feature point and the second feature point may be designated as specific feature points whose corner degree indicating corneriness is equal to or higher than a predetermined corner degree threshold value. A corner is the intersection of two edges. At the corners, the degree of corners is high. The degree of cornering can be determined by using a known detection method such as a Harris operator or a KLT (Kanade-Lucas-Tomasi) tracker.

なお、上記の説明ではフロントカメラ21の光学中心OCと、四角形QL1の1つの辺を含む平面を特定するとしたがこの限りではない。当該平面の法線方向の特定をもって平面を特定するとしてもよい。例えば光学中心OCから各頂点への方向ベクトルの外積により平面の法線方向を求め、該法線方向によって面を特定するとしてもよい。この場合、第1面F1の法線方向と第3面F3の法線方向とを1つの組とし、第2面F2の法線方向と第4面F4の法線方向とを他の組として2つの組を特定するとよい。 In the above description, the optical center OC of the front camera 21 and the plane including one side of the quadrangle QL1 are specified, but this is not the case. The plane may be specified by specifying the normal direction of the plane. For example, the normal direction of the plane may be obtained from the outer product of the direction vectors from the optical center OC to each vertex, and the surface may be specified by the normal direction. In this case, the normal direction of the first surface F1 and the normal direction of the third surface F3 are regarded as one set, and the normal direction of the second surface F2 and the normal direction of the fourth surface F4 are regarded as another set. It is good to identify two pairs.

また、面は平行移動させてもよい。例えば第1面F1の代わりに、第1面F1を平行移動させた面を第3面F3と組としてもよい。平行移動しても所定の平面との交線の向きは変わらないからである。 Moreover, the surface may be translated. For example, instead of the first surface F1, the surface obtained by translating the first surface F1 may be paired with the third surface F3. This is because the direction of the line of intersection with a predetermined plane does not change even if the translation is performed.

<3.補正システム>
図12は、実施形態に係る補正システムSYS2の構成を示すブロック図である。図12において、図1と同一の部分には同一の符号を付し詳細な説明を省略する。図12に示すように、補正システムSYS2は、補正装置1’及び撮影部2を備える。
<3. Correction system>
FIG. 12 is a block diagram showing a configuration of the correction system SYS2 according to the embodiment. In FIG. 12, the same parts as those in FIG. 1 are designated by the same reference numerals, and detailed description thereof will be omitted. As shown in FIG. 12, the correction system SYS2 includes a correction device 1'and a photographing unit 2.

補正装置1’は、図1に示す異常検出装置1から判定部124を取り除き補正部125を追加した構成と同一である。すなわち、補正装置1’は、姿勢推定装置14及び補正部125を備える。 The correction device 1'is the same as the configuration in which the determination unit 124 is removed from the abnormality detection device 1 shown in FIG. 1 and the correction unit 125 is added. That is, the correction device 1'includes a posture estimation device 14 and a correction unit 125.

補正部125は、推定部123によって推定されたカメラの姿勢に基づき、カメラのパラメータを補正する。これにより、カメラの取付けのずれが生じても、そのずれに応じたカメラのキャリブレーションが実行されることになり、カメラの取付けのずれが撮影画像に及ぼす悪影響を抑制することができる。 The correction unit 125 corrects the camera parameters based on the camera posture estimated by the estimation unit 123. As a result, even if the camera mounting is misaligned, the camera is calibrated according to the misalignment, and the adverse effect of the camera mounting misalignment on the captured image can be suppressed.

<4.留意事項>
本明細書における実施形態や実施例の構成は、本発明の例示にすぎない。実施形態や変形例の構成は、本発明の技術的思想を超えない範囲で適宜変更されてもよい。また、複数の実施形態及び変形例は、可能な範囲で組み合わせて実施されてよい。
<4. Notes>
The configurations of the embodiments and examples in the present specification are merely examples of the present invention. The configurations of the embodiments and modifications may be appropriately changed without exceeding the technical idea of the present invention. Moreover, a plurality of embodiments and modifications may be carried out in combination to the extent possible.

本発明は、上述した実施形態のように、自動駐車等の移動体の運転支援を行うカメラの姿勢推定を行うために利用することができる。また、本発明は、ドライブレコーダ等の運転情報を記録するカメラの姿勢推定を行うために利用することができる。また、本発明は、上述した実施形態のように、カメラの姿勢の推定情報を利用して撮影画像を補正する補正装置等に利用することができる。また、本発明は、複数の移動体とネットワークにより通信可能に設けられるセンターと連携して動作する装置等に利用することができる。当該装置は、例えば、センターに撮影画像を送信する場合に、カメラの異常情報や姿勢の推定情報を撮影画像とセットにして送信する構成であってよい。そしてセンターでは、カメラの姿勢の推定情報を用いて、各種画像処理(カメラの姿勢も考慮した画像の視点・視方向を変更する処理、例えば車両の車体前方方向の画像に視点・視方向変換した画像を生成する等)、画像を用いた計測処理におけるカメラの姿勢に対する補正処理、カメラ姿勢の経年変化を統計処理(多くの車両のデータ)、等を行いユーザへの有用な提供データを生成する等する。 The present invention can be used to estimate the posture of a camera that assists driving a moving object such as automatic parking, as in the above-described embodiment. Further, the present invention can be used to estimate the posture of a camera that records driving information of a drive recorder or the like. Further, the present invention can be used as a correction device or the like for correcting a captured image by using the estimation information of the posture of the camera as in the above-described embodiment. Further, the present invention can be used for a device or the like that operates in cooperation with a center provided so as to be able to communicate with a plurality of mobile bodies via a network. For example, when transmitting a photographed image to the center, the device may be configured to transmit the abnormality information of the camera and the estimation information of the posture as a set with the photographed image. Then, at the center, various image processing (processing for changing the viewpoint / viewing direction of the image in consideration of the camera posture, for example, the viewpoint / viewing direction is changed to an image in the front direction of the vehicle body) using the estimation information of the camera posture. (Generate an image, etc.), correct the camera posture in the measurement process using the image, statistically process the secular change of the camera posture (data of many vehicles), etc. to generate useful data to be provided to the user. And so on.

1 異常検出装置
1’ 補正装置
14 姿勢推定装置
21〜24 車載カメラ
11 取得部
121 抽出部
122 特定部
123 推定部
124 判定部
125 補正部
1 Anomaly detection device 1'Correction device 14 Posture estimation device 21 to 24 On-board camera 11 Acquisition unit 121 Extraction unit 122 Specific unit 123 Estimate unit 124 Judgment unit 125 Correction unit

Claims (11)

移動体に搭載されたカメラで撮影された撮影画像を取得する取得部と、
第1時刻と前記第1時刻より後の第2時刻で撮影された2つの前記撮影画像それぞれから特徴点を抽出し、前記第1時刻より後の第3時刻と前記第3時刻より後の第4時刻で撮影された2つの前記撮影画像それぞれから特徴点を抽出する抽出部と、
前記第1時刻と前記第2時刻で撮影された2つの前記撮影画像から抽出された特徴点から、互いに対応する第1特徴点を選定し、該第1特徴点の位置変化を算出し、
前記第3時刻と前記第4時刻で撮影された2つの前記撮影画像から抽出された特徴点から、前記第1特徴点とは異なり、互いに対応する第2特徴点を選定し、該第2特徴点の位置変化を算出し、
前記第1特徴点の位置変化及び前記第2特徴点の位置変化に基づき、所定の平面との交線が互いに平行となる面の組を2組特定する特定部と、
前記特定部で特定した面の組に基づき前記カメラの姿勢を推定する推定部と、
を備える、姿勢推定装置。
An acquisition unit that acquires captured images taken by a camera mounted on a moving body,
Feature points are extracted from each of the two captured images taken at the first time and the second time after the first time, and the third time after the first time and the third time after the third time. An extraction unit that extracts feature points from each of the two captured images taken at 4 hours,
From the feature points extracted from the two captured images taken at the first time and the second time, the first feature points corresponding to each other are selected, and the position change of the first feature points is calculated.
From the feature points extracted from the two captured images taken at the third time and the fourth time, different from the first feature point, the second feature points corresponding to each other are selected, and the second feature is selected. Calculate the position change of the point,
Based on the change in the position of the first feature point and the change in the position of the second feature point, a specific portion that specifies two sets of faces whose intersection lines with a predetermined plane are parallel to each other,
An estimation unit that estimates the posture of the camera based on the set of surfaces specified by the specific unit, and an estimation unit.
A posture estimation device.
前記第1特徴点の位置変化と前記第2特徴点の位置変化との組合せは、前記移動体の移動情報に基づき決定される、請求項1に記載の姿勢推定装置。 The posture estimation device according to claim 1, wherein the combination of the position change of the first feature point and the position change of the second feature point is determined based on the movement information of the moving body. 前記移動情報は、前記移動体の舵角情報を含む、請求項2に記載の姿勢推定装置。 The posture estimation device according to claim 2, wherein the movement information includes steering angle information of the moving body. 前記移動情報は、前記移動体の速度情報を含む、請求項2又は請求項3に記載の姿勢推定装置。 The posture estimation device according to claim 2 or 3, wherein the movement information includes speed information of the moving body. 前記移動情報は、通信バスを経由して、前記姿勢推定装置に供給される、請求項2〜4のいずれか一項に記載の姿勢推定装置。 The posture estimation device according to any one of claims 2 to 4, wherein the movement information is supplied to the posture estimation device via a communication bus. 前記移動情報は、前記第1特徴点の候補の位置変化を前記所定の平面上に座標変換した結果、及び、前記第2特徴点の候補の位置変化を前記所定の平面上に座標変換した結果に基づき推定された情報である、請求項2〜4に記載の姿勢推定装置。 The movement information is the result of coordinate-converting the position change of the candidate of the first feature point on the predetermined plane and the result of coordinate-converting the position change of the candidate of the second feature point on the predetermined plane. The posture estimation device according to claim 2 to 4, which is information estimated based on the above. 前記第1特徴点の位置変化と前記第2特徴点の位置変化との組合せは、前記第1時刻及び前記第2時刻の少なくとも一方に関連する時刻と前記第3時刻及び前記第4時刻の少なくとも一方に関連する時刻との時間差に基づき決定される、請求項1〜6のいずれか一項に記載の姿勢推定装置。 The combination of the position change of the first feature point and the position change of the second feature point is a time related to at least one of the first time and the second time, and at least the third time and the fourth time. The posture estimation device according to any one of claims 1 to 6, which is determined based on a time difference from a time related to one of them. 前記特定部は、前記第1時刻から前記第2時刻までの前記移動体の速度と前記第3時刻から前記第4時刻までの前記移動体の速度との違いに基づき、前記第1特徴点の位置変化及び前記第2特徴点の位置変化の少なくとも一方を補正し、少なくとも一方が補正された前記第1特徴点の位置変化及び前記第2特徴点の位置変化に基づき、前記所定の平面との交線が互いに平行となる面の組を2組特定する、請求項1〜7のいずれか一項に記載の姿勢推定装置。 The specific unit of the first feature point is based on the difference between the speed of the moving body from the first time to the second time and the speed of the moving body from the third time to the fourth time. At least one of the position change and the position change of the second feature point is corrected, and based on the position change of the first feature point and the position change of the second feature point in which at least one is corrected, the position change with the predetermined plane The posture estimation device according to any one of claims 1 to 7, wherein two sets of planes whose intersection lines are parallel to each other are specified. 請求項1〜8のいずれか一項に記載の姿勢推定装置と、
前記推定部によって推定された前記カメラの姿勢に基づき、前記カメラの取付けのずれが生じた状態であるか否かを判定する判定部と、
を備える、異常検出装置。
The posture estimation device according to any one of claims 1 to 8, and the posture estimation device.
Based on the posture of the camera estimated by the estimation unit, a determination unit for determining whether or not the mounting of the camera is misaligned, and a determination unit.
Anomaly detection device.
請求項1〜8のいずれか一項に記載の姿勢推定装置と、
前記推定部によって推定された前記カメラの姿勢に基づき、前記カメラのパラメータを補正する補正部と、
を備える、補正装置。
The posture estimation device according to any one of claims 1 to 8, and the posture estimation device.
A correction unit that corrects the parameters of the camera based on the posture of the camera estimated by the estimation unit, and a correction unit.
A correction device.
移動体に搭載されたカメラで撮影された撮影画像を取得する取得工程と、
第1時刻と前記第1時刻より後の第2時刻で撮影された2つの前記撮影画像それぞれから特徴点を抽出し、前記第1時刻より後の第3時刻と前記第3時刻より後の第4時刻で撮影された2つの前記撮影画像それぞれから特徴点を抽出する抽出工程と、
前記第1時刻と前記第2時刻で撮影された2つの前記撮影画像から抽出された特徴点から、互いに対応する第1特徴点を選定し、該第1特徴点の位置変化を算出し、前記第3時刻と前記第4時刻で撮影された2つの前記撮影画像から抽出された特徴点から、前記第1特徴点とは異なり、互いに対応する第2特徴点を選定し、該第2特徴点の位置変化を算出し、前記第1特徴点の位置変化及び前記第2特徴点の位置変化に基づき、所定の平面との交線が互いに平行となる面の組を2組特定する特定工程と、
前記特定工程で特定した面の組に基づき前記カメラの姿勢を推定する推定工程と、
を備える、姿勢推定方法。
The acquisition process to acquire the captured image taken by the camera mounted on the moving body, and
Feature points are extracted from each of the two captured images taken at the first time and the second time after the first time, and the third time after the first time and the third time after the third time. An extraction step of extracting feature points from each of the two captured images taken at 4 hours, and
From the feature points extracted from the two captured images taken at the first time and the second time, the first feature points corresponding to each other are selected, the position change of the first feature points is calculated, and the above. From the feature points extracted from the two captured images taken at the third time and the fourth time, different from the first feature point, the second feature points corresponding to each other are selected, and the second feature point is selected. Based on the position change of the first feature point and the position change of the second feature point, a specific step of specifying two sets of planes whose intersection lines with a predetermined plane are parallel to each other. ,
An estimation process that estimates the posture of the camera based on the set of surfaces specified in the specific process, and an estimation process.
A posture estimation method.
JP2019152636A 2019-08-23 2019-08-23 Posture estimation device, anomaly detection device, correction device, and posture estimation method Active JP7297595B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019152636A JP7297595B2 (en) 2019-08-23 2019-08-23 Posture estimation device, anomaly detection device, correction device, and posture estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019152636A JP7297595B2 (en) 2019-08-23 2019-08-23 Posture estimation device, anomaly detection device, correction device, and posture estimation method

Publications (2)

Publication Number Publication Date
JP2021034857A true JP2021034857A (en) 2021-03-01
JP7297595B2 JP7297595B2 (en) 2023-06-26

Family

ID=74676163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019152636A Active JP7297595B2 (en) 2019-08-23 2019-08-23 Posture estimation device, anomaly detection device, correction device, and posture estimation method

Country Status (1)

Country Link
JP (1) JP7297595B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013074325A (en) * 2011-09-26 2013-04-22 Toshiba Alpine Automotive Technology Corp Image correction method for on-vehicle camera and image correction program for on-vehicle camera
JP2019121030A (en) * 2017-12-28 2019-07-22 株式会社デンソーテン Camera deviation detection device, camera deviation detection method, and irregularity detection device
JP2019129403A (en) * 2018-01-24 2019-08-01 株式会社デンソーテン Camera shift detection device and camera shift detection method
JP2019139290A (en) * 2018-02-06 2019-08-22 株式会社デンソー Attitude estimating device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013074325A (en) * 2011-09-26 2013-04-22 Toshiba Alpine Automotive Technology Corp Image correction method for on-vehicle camera and image correction program for on-vehicle camera
JP2019121030A (en) * 2017-12-28 2019-07-22 株式会社デンソーテン Camera deviation detection device, camera deviation detection method, and irregularity detection device
JP2019129403A (en) * 2018-01-24 2019-08-01 株式会社デンソーテン Camera shift detection device and camera shift detection method
JP2019139290A (en) * 2018-02-06 2019-08-22 株式会社デンソー Attitude estimating device

Also Published As

Publication number Publication date
JP7297595B2 (en) 2023-06-26

Similar Documents

Publication Publication Date Title
KR101949263B1 (en) Online calibration of a motor vehicle camera system
JP6767998B2 (en) Estimating external parameters of the camera from the lines of the image
CN109155066B (en) Method for motion estimation between two images of an environmental region of a motor vehicle, computing device, driver assistance system and motor vehicle
KR101188588B1 (en) Monocular Motion Stereo-Based Free Parking Space Detection Apparatus and Method
JP4803450B2 (en) On-vehicle camera calibration device and vehicle production method using the device
JP7256734B2 (en) Posture estimation device, anomaly detection device, correction device, and posture estimation method
JP7445415B2 (en) Posture estimation device, abnormality detection device, correction device, and posture estimation method
EP3032818B1 (en) Image processing device
KR102538592B1 (en) Apparatus for generating top-view image and method thereof
JP7270499B2 (en) Abnormality detection device, abnormality detection method, posture estimation device, and mobile body control system
JP7212486B2 (en) position estimator
KR20180112010A (en) A method of detecting an object on the road side of a car, a computing device, a driver assistance system and an automobile
US10839231B2 (en) Method for detecting a rolling shutter effect in images of an environmental region of a motor vehicle, computing device, driver assistance system as well as motor vehicle
JP3765862B2 (en) Vehicle environment recognition device
US11880993B2 (en) Image processing device, driving assistance system, image processing method, and program
JP7311407B2 (en) Posture estimation device and posture estimation method
KR102528004B1 (en) Apparatus and method for generating around view
JP7303064B2 (en) Image processing device and image processing method
JP2018136739A (en) Calibration device
JP6161704B2 (en) Imaging apparatus, vehicle, and image correction method
JP6816454B2 (en) Imaging device and mobile system
JP7297595B2 (en) Posture estimation device, anomaly detection device, correction device, and posture estimation method
JP7237773B2 (en) Posture estimation device, anomaly detection device, correction device, and posture estimation method
JP7232005B2 (en) VEHICLE DRIVING ENVIRONMENT DETECTION DEVICE AND DRIVING CONTROL SYSTEM
KR101293263B1 (en) Image processing apparatus providing distacnce information in a composite image obtained from a plurality of image and method using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230614

R150 Certificate of patent or registration of utility model

Ref document number: 7297595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150