JP2020060550A - Abnormality detector, method for detecting abnormality, posture estimating device, and mobile control system - Google Patents

Abnormality detector, method for detecting abnormality, posture estimating device, and mobile control system Download PDF

Info

Publication number
JP2020060550A
JP2020060550A JP2019144530A JP2019144530A JP2020060550A JP 2020060550 A JP2020060550 A JP 2020060550A JP 2019144530 A JP2019144530 A JP 2019144530A JP 2019144530 A JP2019144530 A JP 2019144530A JP 2020060550 A JP2020060550 A JP 2020060550A
Authority
JP
Japan
Prior art keywords
camera
processing mode
processing
abnormality
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019144530A
Other languages
Japanese (ja)
Other versions
JP7270499B2 (en
Inventor
康司 大西
Yasushi Onishi
康司 大西
隆幸 小笹
Takayuki Ozasa
隆幸 小笹
直士 垣田
Naoshi Kakita
直士 垣田
輝彦 上林
Teruhiko Kamibayashi
輝彦 上林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to US16/557,004 priority Critical patent/US20200090347A1/en
Publication of JP2020060550A publication Critical patent/JP2020060550A/en
Application granted granted Critical
Publication of JP7270499B2 publication Critical patent/JP7270499B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

To provide a technique which can detect abnormalities of a camera appropriately while prioritizing processing according to a purpose of equipping the camera into a mobile body.SOLUTION: The abnormality detector for detecting abnormalities of a camera equipped in a mobile body includes a controller which executes determination processing of determining the presence or absence of an abnormality in the camera on the basis of changes with time in the position of a feature point extracted from an image taken by the camera. The determination processing can select a first processing mode, in which the threshold value for extracting the feature point is a first threshold value, and a second processing mode, in which the threshold value is a second threshold value smaller than the first threshold value, the speed of the mobile body being higher in the first processing mode than in the second processing mode.SELECTED DRAWING: Figure 1

Description

本発明は、異常検出装置、異常検出方法、姿勢推定装置、および、移動体制御システムに関する。   The present invention relates to an abnormality detection device, an abnormality detection method, a posture estimation device, and a moving body control system.

従来、自動車等の車両には、駐車支援等に利用されるカメラが搭載されている。例えば車両に搭載される車載カメラは、車両を工場から出荷する前に、車両に固定した状態で取り付けられる。しかしながら、車載カメラは、例えば不意の接触や経年変化等によって、工場出荷時の取付け状態からずれを起こすことがある。車載カメラの取付け位置や角度がずれると、例えば、カメラ画像を利用して判断されるハンドルの操舵量等に誤差が生じるために、車載カメラの取付けのずれを検出することは重要である。   Conventionally, a vehicle such as an automobile is equipped with a camera used for parking assistance and the like. For example, an in-vehicle camera mounted on a vehicle is fixed to the vehicle before being shipped from the factory. However, the vehicle-mounted camera may deviate from the mounting state at the time of factory shipment due to, for example, an unexpected contact or aged deterioration. If the mounting position or the angle of the vehicle-mounted camera is deviated, for example, an error occurs in the steering amount of the steering wheel or the like determined by using the camera image. Therefore, it is important to detect the displacement of the vehicle-mounted camera.

特許文献1には、車両の外界を撮像して得た撮像画像を出力する車載撮像手段と、車載撮像手段から出力された撮像画像において所定の特徴点を抽出し、特徴点の移動の時間変化からオプティカルフローを演算する演算手段と、演算手段により演算されたオプティカルフローに基づき車載撮像手段の光軸を補正する補正手段とを備える車両用撮像装置が開示される。   In Patent Document 1, a vehicle-mounted imaging unit that outputs a captured image obtained by capturing an image of the outside of the vehicle, and a predetermined feature point is extracted from the captured image output from the vehicle-mounted image capturing unit, and a change in time of movement of the feature point There is disclosed an imaging device for a vehicle, comprising: a calculating unit that calculates an optical flow from the above, and a correcting unit that corrects an optical axis of an in-vehicle image pickup unit based on the optical flow calculated by the calculating unit.

特開2011−55342号公報JP, 2011-55342, A

ところで、車載カメラを用いて自動駐車等の低速走行時の運転支援を行う場合、車載カメラによって車両周辺に存在する移動物や静止物を認識する必要がある。このために、車両の低速走行時には、車両周辺環境の認識処理を他の処理に優先して行うことが考えられる。この場合、車載カメラのカメラずれの検出処理は、車両周辺環境の認識処理を優先して行う必要がない高速走行時に行うことが考えられる。しかし、車両の移動速度が大きくなると、特徴点の追跡が難しくなり、カメラずれの検出精度が低下することが懸念される。   By the way, when using a vehicle-mounted camera to perform driving assistance during low-speed traveling such as automatic parking, it is necessary to recognize a moving object or a stationary object existing around the vehicle by the vehicle-mounted camera. For this reason, when the vehicle is traveling at a low speed, it may be possible to prioritize the processing for recognizing the environment surrounding the vehicle over other processing. In this case, it is conceivable that the processing for detecting the camera shift of the vehicle-mounted camera is performed during high-speed traveling, in which it is not necessary to prioritize the processing for recognizing the vehicle surrounding environment. However, when the moving speed of the vehicle becomes high, it becomes difficult to track the feature points, and there is a concern that the detection accuracy of the camera shift is lowered.

また、異なる視点において、特徴点の追跡を精度良く行うためにコーナー度が高い特徴点が利用される構成とした場合、例えば車両の出庫時や、車両が狭い道路を走行する場合等においてコーナー度が高い特徴点が存在せず、特徴点の抽出を行えない可能性がある。この結果、カメラずれの有無の判定機会が減少することが懸念される。   In addition, when the feature points with a high corner degree are used to accurately track the feature points from different viewpoints, for example, when the vehicle is leaving or when the vehicle is traveling on a narrow road, the corner degree is There is a possibility that the feature points cannot be extracted because there is no feature point with high. As a result, there is a concern that the chances of determining whether or not there is a camera shift decrease.

本発明は、カメラの移動体への搭載目的に応じた処理をできる限り優先しつつ、カメラの異常を適切に検出することができる技術を提供することを目的とする。また、本発明は、判定精度をなるべく良くしつつ、カメラの異常の有無を判定する機会を増やすことができる技術を提供することを他の目的とする。なお、本発明は、前述の2つの目的のうちの少なくともいずれか一方を達成することができる技術を提供することを目的とする。   It is an object of the present invention to provide a technique capable of appropriately detecting an abnormality in a camera while giving priority to processing according to the purpose of mounting the camera on a moving body as much as possible. Another object of the present invention is to provide a technique capable of increasing the chances of determining the presence / absence of a camera abnormality while improving the determination accuracy as much as possible. It is an object of the present invention to provide a technique capable of achieving at least one of the above two objects.

上記目的を達成するために本発明の異常検出装置は、移動体に搭載されるカメラの異常を検出する異常検出装置であって、前記カメラの異常の有無を、前記カメラで撮影された撮影画像から抽出される特徴点の位置の時間変化に基づき判定する判定処理を実行する制御部を備え、前記判定処理は、前記特徴点を抽出する閾値を第1閾値とする第1処理モードと、前記閾値を前記第1閾値より小さい第2閾値とする第2処理モードと、を選択可能に設けられ、前記第1処理モードは、前記第2処理モードに比べて、前記移動体の速度が高速である場合に使用される構成(第1の構成)になっている。   In order to achieve the above object, an abnormality detecting device of the present invention is an abnormality detecting device for detecting an abnormality of a camera mounted on a moving body, and detects whether or not there is an abnormality in the camera, a captured image taken by the camera. A control unit that executes a determination process based on a temporal change in the position of the feature point extracted from the determination process, wherein the determination process includes a first processing mode in which a threshold value for extracting the feature point is a first threshold value; A second processing mode in which a threshold is a second threshold smaller than the first threshold is provided in a selectable manner. In the first processing mode, the speed of the moving body is higher than that in the second processing mode. The configuration (first configuration) is used in some cases.

上記第1の構成の異常検出装置において、前記第1処理モードは、通常時に使用される処理モードであり、前記第2処理モードは、前記第1処理モードにより所定の処理結果が得られた場合に使用される処理モードである構成(第2の構成)であることが好ましい。   In the anomaly detection device having the first configuration, the first processing mode is a processing mode that is normally used, and the second processing mode is a case where a predetermined processing result is obtained by the first processing mode. It is preferable that the configuration is a processing mode used in (2nd configuration).

上記第2の構成の異常検出装置において、前記所定の処理結果には、前記カメラに異常が有るとの処理結果が含まれる構成(第3の構成)であることが好ましい。   In the abnormality detecting device having the second configuration, it is preferable that the predetermined processing result includes a processing result that the camera has an abnormality (third configuration).

上記第2又は第3の構成の異常検出装置において、前記所定の処理結果には、前記カメラの異常の有無を所定期間判定することができていないとの処理結果が含まれる構成(第4の構成)であることが好ましい。   In the abnormality detecting device having the second or third configuration, the predetermined processing result includes a processing result indicating that the presence / absence of abnormality of the camera cannot be determined for a predetermined period (fourth configuration). It is preferable that it is a structure).

上記第2から第4のいずれかの構成の異常検出装置において、前記制御部は、前記移動体の周辺環境を前記カメラで撮影された撮影画像に基づき認識する認識処理を実行可能に設けられ、前記制御部は、通常時において、前記移動体の速度が前記第2処理モードに対応する速度である場合には、前記認識処理を前記判定処理よりも優先し、前記制御部は、前記第2処理モードの実行が決まった場合に、前記認識処理よりも前記判定処理を優先する構成(第5の構成)であることが好ましい。   In the abnormality detection device having any one of the second to fourth configurations, the control unit is provided to be capable of performing a recognition process of recognizing a surrounding environment of the moving body based on a captured image captured by the camera, In a normal state, the control unit prioritizes the recognition process over the determination process when the speed of the moving body is a speed corresponding to the second processing mode, and the control unit sets the second processing mode. It is preferable that when the execution of the processing mode is decided, the determination processing is prioritized over the recognition processing (fifth configuration).

上記第1から第5のいずれかの構成の異常検出装置において、前記制御部は、前記第1処理モードから前記第2処理モードに切り替える場合に、前記移動体に搭載される表示装置に、前記第2処理モードに適した運転を行うことを促すメッセージを表示させる処理を行う構成(第6の構成)であってよい。   In the abnormality detection device having any one of the first to fifth configurations, the control unit, when switching from the first processing mode to the second processing mode, displays on the display device mounted on the moving body, The configuration (sixth configuration) may be configured to perform a process of displaying a message that prompts the driver to perform an operation suitable for the second processing mode.

上記第1から第6のいずれかの構成の異常検出装置において、前記制御部は、前記第1処理モードから前記第2処理モードに切り替える場合に、前記移動体の自動運転を制御する自動運転制御装置に対して、自動運転を要求する構成(第7の構成)であってよい。   In the abnormality detection device having any one of the first to sixth configurations, the control unit controls automatic operation of the moving body when switching from the first processing mode to the second processing mode. The device may have a configuration (seventh configuration) that requests automatic operation.

上記第1から第7のいずれかの構成の異常検出装置において、前記第1処理モードによる前記判定処理と、前記第2処理モードによる前記判定処理とのいずれにおいても、前記特徴点の位置の時間変化から前記移動体の移動情報の推定値が求められ、前記移動情報の推定値に基づき前記カメラの異常の有無が判定される構成(第8の構成)であってよい。   In the abnormality detection device having any one of the first to seventh configurations, the time of the position of the characteristic point is set in both the determination processing in the first processing mode and the determination processing in the second processing mode. An estimated value of the movement information of the moving body may be obtained from the change, and the presence or absence of abnormality of the camera may be determined based on the estimated value of the movement information (eighth configuration).

上記第1の構成の異常検出装置において、前記第1処理モードによる前記判定処理と、前記第2処理モードによる前記判定処理とのいずれにおいても、前記特徴点の位置の時間変化から前記カメラの姿勢が推定され、推定された前記カメラの姿勢に基づき前記カメラの異常の有無が判定される構成(第9の構成)であってよい。   In the abnormality detecting device having the first configuration, in both of the determination processing in the first processing mode and the determination processing in the second processing mode, the posture of the camera is determined from the time change of the position of the characteristic point. May be estimated, and the presence or absence of abnormality of the camera may be determined based on the estimated posture of the camera (ninth configuration).

上記第1の構成の異常検出装置において、前記第1処理モードによる前記判定処理においては、前記特徴点の位置の時間変化から前記カメラの姿勢が推定され、推定された前記カメラの姿勢に基づき前記カメラの異常の有無が判定され、前記第2処理モードによる前記判定処理においては、前記特徴点の位置の時間変化から前記移動体の移動情報の推定値が求められ、前記移動情報の推定値に基づき前記カメラの異常の有無が判定される構成(第10の構成)であってよい。   In the abnormality detection device having the first configuration, in the determination process in the first processing mode, the posture of the camera is estimated from the temporal change of the position of the feature point, and the posture of the camera is estimated based on the estimated posture of the camera. It is determined whether or not there is an abnormality in the camera, and in the determination processing in the second processing mode, the estimated value of the movement information of the moving body is obtained from the time change of the position of the feature point, and the estimated value of the movement information is obtained. The configuration (tenth configuration) may be configured to determine whether or not there is an abnormality in the camera based on the determination.

上記第1又は第10の構成の異常検出装置において、前記制御部は、前記移動体が停車中である場合に、前記判定処理とは異なる処理で前記カメラの異常の有無を判定する停車時用判定処理を実行する構成(第11の構成)であってよい。   In the abnormality detection device having the first or tenth configuration, the control unit is for a vehicle stop that determines whether there is an abnormality in the camera by a process different from the determination process when the moving body is stopped. It may be a configuration (11th configuration) that executes the determination process.

上記第11の構成の異常検出装置において、前記停車時用判定処理においては、前記カメラで撮影された撮影画像から得られる前記移動体のボディのエッジ画像に基づき前記カメラの異常の有無が判定される構成(第12の構成)であることが好ましい。   In the abnormality detection device having the eleventh configuration, in the vehicle stop determination process, presence / absence of abnormality of the camera is determined based on an edge image of the body of the moving body obtained from a captured image captured by the camera. It is preferable that it has a configuration (twelfth configuration).

上記目的を達成するために本発明の姿勢推定装置は、移動体に搭載されるカメラで撮影された撮影画像から抽出される特徴点の位置の時間変化に基づき前記カメラの姿勢を推定する推定処理を実行する制御部を備え、前記推定処理は、前記特徴点を抽出する閾値を第1閾値とする第1処理モードと、前記閾値を前記第1閾値より小さい第2閾値とする第2処理モードと、を選択可能に設けられ、前記第1処理モードは、前記第2処理モードに比べて、前記移動体の速度が高速である場合に使用される構成(第13の構成)になっている。   In order to achieve the above object, the posture estimation device of the present invention is an estimation process for estimating the posture of a camera based on the temporal change in the position of a feature point extracted from a captured image captured by a camera mounted on a moving body. And a second processing mode in which the threshold value is a second threshold value smaller than the first threshold value, and the estimation process is a first processing mode in which the threshold value for extracting the feature points is a first threshold value. Are provided so as to be selectable, and the first processing mode has a configuration (thirteenth configuration) used when the speed of the moving body is higher than that of the second processing mode. .

上記目的を達成するために本発明の移動体制御システムは、上記第1から第7のいずれかの構成の異常検出装置と、前記移動体の自動運転を制御する自動運転制御装置と、を備え、少なくとも前記第2処理モードで前記判定処理を行う場合に、前記移動体を自動運転させる構成(第14の構成)になっている。   In order to achieve the above object, a mobile body control system of the present invention comprises an abnormality detection device having any one of the first to seventh configurations, and an automatic operation control device for controlling the automatic operation of the mobile body. At least when the determination process is performed in the second processing mode, the moving body is automatically driven (14th configuration).

上記目的を達成するために本発明の異常検出方法は、装置によって、移動体に搭載されるカメラの異常を検出する異常検出方法であって、前記カメラの異常の有無を、前記カメラで撮影された撮影画像から抽出される特徴点の位置の時間変化に基づき判定する処理工程を備え、前記処理工程は、前記特徴点を抽出する閾値を第1閾値とする第1処理モードと、前記閾値を前記第1閾値より小さい第2閾値とする第2処理モードと、を選択可能に設けられ、前記第1処理モードは、前記第2処理モードに比べて、前記移動体の速度が高速である場合に使用される構成(第15の構成)になっている。   In order to achieve the above object, an abnormality detection method of the present invention is an abnormality detection method for detecting an abnormality of a camera mounted on a moving body by an apparatus, wherein whether or not there is an abnormality in the camera is captured by the camera. A processing step of making a determination based on a temporal change in the position of a feature point extracted from the captured image, the processing step comprising a first processing mode in which a threshold for extracting the feature point is a first threshold, and the threshold A second processing mode in which a second threshold value smaller than the first threshold value is provided, and the first processing mode is faster than the second processing mode in speed of the moving body. It has a configuration (15th configuration) used for.

本発明によると、カメラの移動体への搭載目的に応じた処理をできる限り優先しつつ、カメラの異常を適切に検出することができる。また、本発明によると、判定精度をなるべく良くしつつ、カメラの異常の有無を判定する機会を増やすことができる。   According to the present invention, it is possible to appropriately detect an abnormality of a camera while giving priority to processing according to the purpose of mounting the camera on a moving body as much as possible. Further, according to the present invention, it is possible to increase the chances of determining whether or not there is an abnormality in the camera while improving the determination accuracy as much as possible.

第1実施形態に係る移動体制御システムの構成を示すブロック図Block diagram showing the configuration of the mobile control system according to the first embodiment 第1実施形態におけるカメラずれの検出フローの一例を示すフローチャートThe flowchart which shows an example of the detection flow of the camera shift in 1st Embodiment. 第1実施形態の異常検出装置における第1処理モードによるカメラずれの有無の判定処理の一例を示すフローチャートThe flowchart which shows an example of the determination process of the presence or absence of a camera shift by the 1st process mode in the abnormality detection apparatus of 1st Embodiment. 特徴点を抽出する手法を説明するための図Diagram for explaining the method of extracting feature points オプティカルフローを求める手法を説明するための図Diagram for explaining the method for obtaining the optical flow 座標変換処理を説明するための図Figure for explaining the coordinate conversion process 第1実施形態におけるずれ判定の一例を示すフローチャートThe flowchart which shows an example of the shift | offset determination in 1st Embodiment. 第1処理モードによる処理結果が所定の処理結果であるか否かを判断する処理の詳細例を示すフローチャートThe flowchart which shows the detailed example of the process which judges whether the process result by 1st process mode is a predetermined process result. 第1実施形態の異常検出装置における第2処理モードによるカメラずれの有無の判定処理の一例を示すフローチャートThe flowchart which shows an example of the determination process of the presence or absence of a camera shift by the 2nd process mode in the abnormality detection apparatus of 1st Embodiment. 第1ヒストグラムの一例を示す図The figure which shows an example of a 1st histogram 第2ヒストグラムの一例を示す図The figure which shows an example of a 2nd histogram 大きなカメラずれを生じたカメラによって撮影された撮影画像を例示する模式図Schematic diagram illustrating a captured image captured by a camera with a large camera displacement 大きなカメラずれを生じたカメラによって撮影された撮影画像に基づいて生成された第1ヒストグラムを例示する図The figure which illustrates the 1st histogram produced | generated based on the picked-up image image | photographed by the camera which produced the big camera shift. 第2実施形態に係る異常検出システムの構成を示すブロック図Block diagram showing the configuration of the abnormality detection system according to the second embodiment 第2実施形態におけるカメラずれの検出フローの一例を示すフローチャートThe flowchart which shows an example of the camera shift detection flow in 2nd Embodiment. 処理モードの選択処理の一例を示すフローチャートFlowchart showing an example of processing mode selection processing 抽出部によって抽出された第1特徴点と第2特徴点とを例示する図The figure which illustrates the 1st feature point and the 2nd feature point extracted by the extraction part. 第1特徴点のオプティカルフロー及び第2特徴点のオプティカルフローを導出する手法を説明するための図FIG. 3 is a diagram for explaining a method of deriving an optical flow of a first feature point and an optical flow of a second feature point. オプティカルフローから仮想的に形成される四角形を示す図Diagram showing a quadrangle formed virtually from the optical flow 所定の平面との交線が互いに平行になる面の組を2組特定する手法を説明するための図FIG. 6 is a diagram for explaining a method of identifying two sets of planes whose intersecting lines with a predetermined plane are parallel to each other. 特定した面の組の一方に基づき、面同士の交線の方向を求める手法を説明するための図Diagram for explaining the method of finding the direction of the line of intersection between faces based on one of the identified face pairs 特定した面の組の他方に基づき、面同士の交線の方向を求める手法を説明するための図Diagram for explaining the method of finding the direction of the line of intersection between the faces based on the other of the identified face pairs 第3実施形態に係る異常検出システムの構成を示すブロック図Block diagram showing the configuration of the abnormality detection system according to the third embodiment 第3実施形態におけるカメラずれの検出フローの一例を示すフローチャートFlowchart showing an example of a camera shift detection flow in the third embodiment. 停車時用判定処理を用いたカメラずれの検出フローの一例を示すフローチャートThe flowchart which shows an example of the detection flow of the camera shift which used the determination process for vehicle stop.

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、本発明が適用される移動体が車両である場合を例にとり説明するが、本発明が適用される移動体は車両に限定される趣旨ではない。本発明は、例えば船舶、航空機、ロボット等に適用されてもよい。車両には、例えば自動車、電車、無人搬送車等の車輪を有する乗り物が広く含まれる。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following description, the case where the moving body to which the present invention is applied is a vehicle will be described as an example, but the moving body to which the present invention is applied is not limited to the vehicle. The present invention may be applied to, for example, ships, aircrafts, robots, and the like. Vehicles include a wide range of vehicles having wheels, such as automobiles, trains, and automated guided vehicles.

また、以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向」とする。また、車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の右側から左側に向かう方向を「左方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の左側から右側に向かう方向を「右方向」とする。なお、前後左右の方向は、単に説明のために用いられる名称であって、実際の位置関係及び方向を限定する趣旨ではない。   Further, in the following description, the direction in which the vehicle travels straight ahead and the direction from the driver's seat toward the steering wheel is referred to as “forward direction”. Further, the direction in which the vehicle travels straight ahead and the direction from the steering wheel to the driver's seat is referred to as “rearward direction”. In addition, a direction that is a direction perpendicular to the straight traveling direction of the vehicle and the vertical line and that goes from the right side to the left side of the driver facing the front direction is referred to as “left direction”. Further, a direction that is a direction perpendicular to the straight traveling direction of the vehicle and the vertical line and that is from the left side of the driver facing the front direction to the right side is referred to as “right direction”. The front, rear, left, and right directions are merely names used for description, and are not intended to limit the actual positional relationship and direction.

<<A.第1実施形態>>
<1.移動体制御システム>
図1は、本発明の第1実施形態に係る移動体制御システムSYS1の構成を示すブロック図である。本実施形態において移動体は車両であり、移動体制御システムSYS1は車両制御システムである。図1に示すように、移動体制御システムSYS1は、異常検出システムSYS2と、自動運転制御装置5と、表示装置6とを備える。後述のように、異常検出システムSYS2は異常検出装置1を備える。換言すると、移動体制御システムSYS1は、異常検出装置1と自動運転制御装置5とを備える。
<< A. First Embodiment >>
<1. Mobile control system>
FIG. 1 is a block diagram showing the configuration of a mobile body control system SYS1 according to the first embodiment of the present invention. In this embodiment, the moving body is a vehicle, and the moving body control system SYS1 is a vehicle control system. As shown in FIG. 1, the mobile control system SYS1 includes an abnormality detection system SYS2, an automatic driving control device 5, and a display device 6. As described later, the abnormality detection system SYS2 includes the abnormality detection device 1. In other words, the mobile body control system SYS1 includes the abnormality detection device 1 and the automatic driving control device 5.

自動運転制御装置5は、移動体の自動運転を制御する。自動運転制御装置5は、各移動体に搭載される。詳細には、自動運転制御装置5は、車両の駆動部と、制動部と、操舵部とを制御するECU(Electronic Control Unit)である。駆動部には、例えばエンジンやモータが含まれる。制動部にはブレーキが含まれる。操舵部には、ステアリングホイール(ハンドル)が含まれる。自動運転制御装置5による制御動作のオンオフは、異常検出装置1からの指示によって切替可能に設けられている。自動運転制御装置5による制御が開始されると、アクセル、ブレーキ、および、ハンドルが運転者の操作によらず自動で行われる。なお、自動運転制御装置5による制御動作のオンオフは、運転者によって切替可能であることが好ましい。   The automatic driving control device 5 controls the automatic driving of the moving body. The automatic driving control device 5 is mounted on each moving body. Specifically, the automatic driving control device 5 is an ECU (Electronic Control Unit) that controls the drive unit, the braking unit, and the steering unit of the vehicle. The drive unit includes, for example, an engine and a motor. The braking unit includes a brake. The steering unit includes a steering wheel (handle). ON / OFF of the control operation by the automatic driving control device 5 is provided so as to be switchable according to an instruction from the abnormality detection device 1. When the control by the automatic driving control device 5 is started, the accelerator, the brake, and the steering wheel are automatically operated without the driver's operation. Note that it is preferable that the driver can switch ON / OFF of the control operation by the automatic driving control device 5.

表示装置6は、各移動体に搭載される。詳細には、表示装置6は、車両の室内に、表示面が運転者から見える位置に配置される。表示装置6は、例えば液晶表示装置、有機EL表示装置、プラズマ表示装置等であってよい。表示装置6は、車両に固定される装置であってもよいが、車両外に持ち出すことが可能な装置であってもよい。   The display device 6 is mounted on each moving body. Specifically, the display device 6 is arranged inside the vehicle at a position where the display surface can be seen by the driver. The display device 6 may be, for example, a liquid crystal display device, an organic EL display device, a plasma display device, or the like. The display device 6 may be a device that is fixed to the vehicle, or may be a device that can be taken out of the vehicle.

<2.異常検出システム>
図1に示すように、異常検出システムSYS2は、異常検出装置1と、撮影部2と、センサ部3とを備える。なお、本実施形態において、異常は、車両に搭載されるカメラの取付けのずれ(以下、「カメラずれ」と表現する)が生じた状態を指す。すなわち、異常検出システムSYS2は、車両に搭載されるカメラのカメラずれを検出するシステムである。詳細には、異常検出システムSYS2は、例えば、工場出荷時における車両へのカメラの取付け状態等の基準となる取付け状態からのカメラずれを検出するシステムである。カメラずれには、軸ずれや、軸周りの回転によるずれ等が広く含まれる。軸ずれには、取付け位置のずれや取付け角度のずれ等が含まれる。
<2. Anomaly detection system>
As shown in FIG. 1, the abnormality detection system SYS2 includes an abnormality detection device 1, an imaging unit 2, and a sensor unit 3. In the present embodiment, the abnormality means a state in which the mounting of the camera mounted on the vehicle is displaced (hereinafter referred to as “camera displacement”). That is, the abnormality detection system SYS2 is a system that detects a camera shift of a camera mounted on a vehicle. More specifically, the abnormality detection system SYS2 is a system that detects a camera shift from a mounting state that is a reference such as a mounting state of the camera on the vehicle at the time of factory shipment. The camera misalignment includes a wide range of misalignment and misalignment due to rotation around the axis. The misalignment includes misalignment of the mounting position and misalignment of the mounting angle.

撮影部2は、車両周辺の状況を認識する目的で車両に設けられる。撮影部2はカメラ21を備える。カメラ21は車載カメラである。カメラ21は例えば魚眼レンズを用いて構成される。カメラ21は、異常検出装置1に有線又は無線により接続され、撮影画像を異常検出装置1に出力する。   The imaging unit 2 is provided in the vehicle for the purpose of recognizing the situation around the vehicle. The photographing unit 2 includes a camera 21. The camera 21 is a vehicle-mounted camera. The camera 21 is configured using, for example, a fisheye lens. The camera 21 is connected to the abnormality detection device 1 by wire or wirelessly and outputs a captured image to the abnormality detection device 1.

なお、本実施形態では、撮影部2は複数のカメラ21を備える。複数のカメラ21は、フロントカメラ、バックカメラ、左サイドカメラ、右サイドカメラの4つのカメラである。フロントカメラは車両の前方を撮影するカメラである。バックカメラは車両の後方を撮影するカメラである。左サイドカメラは車両の左方を撮影するカメラである。右サイドカメラは車両の右方を撮影するカメラである。4つのカメラ21により、車両の水平方向における全周囲を撮影することができる。これにより、車両の駐車支援を安全に行うことができる。ただし、撮影部2が備えるカメラ21の数は単数でもよいし、4つ以外の複数であってもよい。   In addition, in the present embodiment, the imaging unit 2 includes a plurality of cameras 21. The plurality of cameras 21 are four cameras of a front camera, a back camera, a left side camera, and a right side camera. The front camera is a camera that photographs the front of the vehicle. The back camera is a camera that captures the rear of the vehicle. The left side camera is a camera that shoots the left side of the vehicle. The right side camera is a camera that shoots the right side of the vehicle. The four cameras 21 can photograph the entire circumference of the vehicle in the horizontal direction. As a result, it is possible to safely support the parking of the vehicle. However, the number of cameras 21 included in the image capturing unit 2 may be singular or plural other than four.

異常検出装置1は、移動体に搭載されるカメラ21の異常を検出する装置である。詳細には、異常検出装置1は、車両に搭載されたカメラ21からの情報に基づき当該カメラ21自身のカメラずれを検出する。すなわち、異常検出装置1はカメラずれ検出装置である。異常検出装置1を用いることによって、車両を走行させながらカメラずれを迅速に検出することができる。異常検出装置1により、例えば、カメラずれが生じた状態で駐車支援等の運転支援が行われることを防止できる。   The abnormality detection device 1 is a device that detects an abnormality of the camera 21 mounted on the moving body. Specifically, the abnormality detection device 1 detects the camera shift of the camera 21 itself based on the information from the camera 21 mounted on the vehicle. That is, the abnormality detection device 1 is a camera shift detection device. By using the abnormality detection device 1, it is possible to quickly detect the camera shift while the vehicle is traveling. The abnormality detection device 1 can prevent driving assistance such as parking assistance from being performed, for example, in a state where a camera shift has occurred.

本実施形態では、異常検出装置1は、カメラずれの検出対象となるカメラを搭載する車両に搭載される。以下、異常検出装置1を搭載する車両のことを自車両と呼ぶことがある。ただし、異常検出装置1は、カメラずれの検出対象となるカメラを搭載する車両以外の場所に配置されてもよい。例えば、異常検出装置1は、カメラ21を有する車両と通信可能なデータセンタ等に配置されてもよい。   In the present embodiment, the abnormality detection device 1 is mounted on a vehicle equipped with a camera that is a detection target of a camera shift. Hereinafter, a vehicle equipped with the abnormality detection device 1 may be referred to as a host vehicle. However, the abnormality detection device 1 may be arranged in a place other than the vehicle in which the camera that is the detection target of the camera shift is mounted. For example, the abnormality detection device 1 may be arranged in a data center or the like that can communicate with a vehicle having the camera 21.

本実施形態では、撮影部2が複数のカメラ21を有するために、異常検出装置1は、カメラ21毎にカメラずれの検出を行う。異常検出装置1は、自動運転制御装置5および表示装置6と有線又は無線により接続され、これらの装置5、6と情報のやりとりを行う。異常検出装置1の詳細については後述する。   In the present embodiment, since the imaging unit 2 has the plurality of cameras 21, the abnormality detection device 1 detects the camera shift for each camera 21. The abnormality detection device 1 is connected to the automatic operation control device 5 and the display device 6 by wire or wirelessly, and exchanges information with these devices 5, 6. Details of the abnormality detection device 1 will be described later.

センサ部3は、カメラ21が搭載される車両に関する情報を検出する複数のセンサを有する。本実施形態では、センサ部3は、速度センサ31と舵角センサ32とを含む。速度センサ31は、車両の速度を検出し、その検出値に応じた電気信号を出力する。舵角センサ32は、車両のステアリングホイール(ハンドル)の回転角を検出し、その検出値に応じた電気信号を出力する。速度センサ31および舵角センサ32は、通信バス4を介して異常検出装置1に接続される。すなわち、速度センサ31で取得された車両の速度情報は、通信バス4を介して異常検出装置1に入力される。舵角センサ32で取得された車両のステアリングホイールの回転角情報は、通信バス4を介して異常検出装置1に入力される。なお、通信バス4は、例えばCAN(Controller Area Network)バスであってよい。   The sensor unit 3 has a plurality of sensors that detect information regarding the vehicle in which the camera 21 is mounted. In this embodiment, the sensor unit 3 includes a speed sensor 31 and a steering angle sensor 32. The speed sensor 31 detects the speed of the vehicle and outputs an electric signal according to the detected value. The steering angle sensor 32 detects the rotation angle of the steering wheel (handle) of the vehicle and outputs an electric signal according to the detected value. The speed sensor 31 and the steering angle sensor 32 are connected to the abnormality detection device 1 via the communication bus 4. That is, the vehicle speed information acquired by the speed sensor 31 is input to the abnormality detection device 1 via the communication bus 4. The rotation angle information of the steering wheel of the vehicle acquired by the steering angle sensor 32 is input to the abnormality detection device 1 via the communication bus 4. The communication bus 4 may be, for example, a CAN (Controller Area Network) bus.

<3.異常検出装置>
図1に示すように、異常検出装置1は、画像取得部11と、制御部12と、記憶部13とを備える。
<3. Abnormality detection device>
As shown in FIG. 1, the abnormality detection device 1 includes an image acquisition unit 11, a control unit 12, and a storage unit 13.

画像取得部11は、自車両のカメラ21からアナログ又はデジタルの撮影画像(フレーム画像)を所定周期(例えば1/30秒周期)で周期的に取得する。本実施形態では、撮影部2が複数のカメラ21を有するために、画像取得部11は各カメラ21からフレーム画像を取得する。取得したフレーム画像がアナログの場合には、そのアナログのフレーム画像をデジタルのフレーム画像に変換(A/D変換)する。画像取得部11は、取得したフレーム画像に対して所定の画像処理を行い、処理後のフレーム画像を制御部12に出力する。   The image acquisition unit 11 periodically acquires an analog or digital captured image (frame image) from the camera 21 of the vehicle at a predetermined cycle (for example, 1/30 second cycle). In the present embodiment, since the image capturing unit 2 has the plurality of cameras 21, the image acquisition unit 11 acquires the frame image from each camera 21. When the acquired frame image is analog, the analog frame image is converted into a digital frame image (A / D conversion). The image acquisition unit 11 performs a predetermined image process on the acquired frame image and outputs the processed frame image to the control unit 12.

制御部12は、例えばマイクロコンピュータであり、異常検出装置1の全体を統括的に制御する。制御部12は、CPU、RAMおよびROM等を備える。記憶部13は、例えば、フラッシュメモリ等の不揮発性のメモリであり、各種の情報を記憶する。記憶部13は、各種のコンピュータプログラム131やデータ(不図示)を記憶する。制御部12の各種の機能は、CPUが記憶部13に記憶されるコンピュータプログラム131に従って演算処理を行うことによって実現される。なお、画像取得部11は、制御部12のCPUがコンピュータプログラム131に従って演算処理を行うことによって実現される構成でもよい。   The control unit 12 is, for example, a microcomputer, and integrally controls the entire abnormality detection device 1. The control unit 12 includes a CPU, a RAM, a ROM and the like. The storage unit 13 is, for example, a non-volatile memory such as a flash memory, and stores various kinds of information. The storage unit 13 stores various computer programs 131 and data (not shown). Various functions of the control unit 12 are realized by the CPU performing arithmetic processing according to the computer program 131 stored in the storage unit 13. The image acquisition unit 11 may have a configuration realized by the CPU of the control unit 12 performing arithmetic processing according to the computer program 131.

本実施形態では、制御部12は、カメラ21の異常の有無を、カメラ21で撮影された撮影画像から抽出される特徴点の位置の時間変化に基づき判定する判定処理を実行する。判定処理は、第1処理モードと第2処理モードとを選択可能に設けられる。すなわち、制御部12は、第1処理モードに従ってカメラずれの有無を判定する場合と、第2処理モードにしたがってカメラずれの有無を判定する場合とがある。なお、本実施形態では、撮影部2が複数のカメラ21を備えるために、各カメラ21に対してカメラ21の異常の有無を判定する判定処理が行われる。   In the present embodiment, the control unit 12 executes a determination process of determining whether or not there is an abnormality in the camera 21 based on the temporal change in the position of the feature point extracted from the captured image captured by the camera 21. The determination process is provided so that the first processing mode and the second processing mode can be selected. That is, the control unit 12 may determine whether there is a camera shift according to the first processing mode or may determine whether there is a camera shift according to the second processing mode. In addition, in the present embodiment, since the imaging unit 2 includes the plurality of cameras 21, a determination process for determining whether or not there is an abnormality in the camera 21 is performed for each camera 21.

第1処理モードでは、特徴点を抽出する閾値が第1閾値とされる。一方、第2処理モードでは、特徴点を抽出する閾値が第1閾値より小さい第2閾値とされる。第1処理モードと第2処理モードとでは、特徴点の抽出結果に差が生じる。   In the first processing mode, the threshold for extracting the feature points is the first threshold. On the other hand, in the second processing mode, the threshold value for extracting the feature points is the second threshold value that is smaller than the first threshold value. A difference occurs in the extraction result of the feature points between the first processing mode and the second processing mode.

特徴点は、フレーム画像中のエッジの交点など、フレーム画像において際立って検出できる点である。特徴点は、例えば白線等で描かれる路面標示のコーナー、路面上のひび、路面上のしみ、路面上の砂利等から抽出される。特徴点は、例えば、ハリスオペレータ等の公知の手法を用いて抽出することができる。   A feature point is a point that can be prominently detected in a frame image, such as an intersection of edges in the frame image. The characteristic points are extracted from, for example, a corner of the road marking drawn with a white line or the like, a crack on the road surface, a stain on the road surface, gravel on the road surface, or the like. The feature points can be extracted using a known method such as Harris operator.

本実施形態では、制御部12は、フレーム画像を構成する画素それぞれについて特徴量を算出し、特徴量が所定の閾値を超える画素を特徴点として抽出する。特徴量は、画素がどれだけ特徴的であるかの指標であり、例えばいわゆるコーナーらしさを示すコーナー度である。所定の閾値は、第1処理モードと第2処理モードとで異なる。   In the present embodiment, the control unit 12 calculates the feature amount for each of the pixels forming the frame image, and extracts the pixels having the feature amount exceeding a predetermined threshold value as the feature points. The feature amount is an index of how characteristic a pixel is, and is, for example, a corner degree indicating what is called a corner. The predetermined threshold differs between the first processing mode and the second processing mode.

本実施形態では、特徴量の算出には、KLT法(Kanade-Lucus-Tomasi tracker)が用いられる。特徴量の算出にあたって、フレーム画像上にxy座標系が規定され、各画素について、ソベルフィルタを用いて、以下の3つのパラメータG11、G12、G22が求められる。

Figure 2020060550
なお、G11は、x方向の微分結果の2乗値である。G12は、x方向の微分結果とy方向の微分結果の積である。G22は、y方向の微分結果の2乗値である。 In the present embodiment, the KLT method (Kanade-Lucus-Tomasi tracker) is used to calculate the feature amount. In calculating the feature amount, an xy coordinate system is defined on the frame image, and the following three parameters G11, G12, and G22 are obtained for each pixel using a Sobel filter.
Figure 2020060550
Note that G11 is the squared value of the differential result in the x direction. G12 is the product of the differential result in the x direction and the differential result in the y direction. G22 is a square value of the differentiation result in the y direction.

ソベルフィルタを用いた処理により、各画素について以下の行列Mが得られる。

Figure 2020060550
By the processing using the Sobel filter, the following matrix M is obtained for each pixel.
Figure 2020060550

行列M(式(4))の固有値λは、Iを単位行列として、下記の式(5)から求められる。

Figure 2020060550
The eigenvalue λ of the matrix M (equation (4)) is obtained from the following equation (5) with I as a unit matrix.
Figure 2020060550

式(5)の解は、2次方程式の解として下記の式(6)、(7)に示すλ1と、λ2として求められる。

Figure 2020060550
The solution of the equation (5) is obtained as a solution of the quadratic equation as λ1 and λ2 shown in the following equations (6) and (7).
Figure 2020060550

本実施形態では、以下の式(8)を満たす画素を特徴点として抽出する。極小値となる固有値λ1を特徴量とする。式(8)において、Tは特徴点を検出するための所定の閾値である。詳細には、所定の閾値Tは、第1処理モードでは第1閾値T1、第2処理モードでは第2閾値T2とされる。第2閾値T2は第1閾値T1より小さい。第1閾値T1は、例えば白線のコーナーのような非常に大きな特徴量を有する特徴点のみが抽出されるように設定される。第2閾値T2は、路面の細かい凹凸に由来する特徴点が多数抽出されるように設定される。

Figure 2020060550
In this embodiment, pixels that satisfy the following expression (8) are extracted as feature points. The eigenvalue λ1 having the minimum value is used as the feature amount. In Expression (8), T is a predetermined threshold value for detecting the feature point. Specifically, the predetermined threshold value T is the first threshold value T1 in the first processing mode and the second threshold value T2 in the second processing mode. The second threshold T2 is smaller than the first threshold T1. The first threshold T1 is set so that only feature points having a very large feature amount, such as white corners, are extracted. The second threshold T2 is set so that a large number of feature points derived from the fine unevenness of the road surface are extracted.
Figure 2020060550

第1処理モードは、第2処理モードに比べて、移動体(車両)の速度が高速である場合に使用される。第1処理モードでは、白線のコーナーのような非常に大きな特徴量を有する特徴点を利用して特徴点の追跡を行うことができる。このために、車両の速度がある程度速い場合でも、特徴点の位置の時間変化を精度良く求めることができ、カメラずれの有無の判定精度の低下を抑制できる。一方、第2処理モードは、特徴点の数が多数となるが、特徴量の小さな特徴点を多く含む。車両の速度が速くなると、特徴量の小さな特徴点は追跡が難しくなる。このために、第2処理モードは、車両が低速の場合に適したモードである。すなわち、第1処理モードは高速走行用の処理モードであり、第2処理モードは低速走行用の処理モードである。   The first processing mode is used when the speed of the moving body (vehicle) is higher than that in the second processing mode. In the first processing mode, feature points can be tracked by using feature points having a very large feature amount such as white line corners. For this reason, even when the speed of the vehicle is high to some extent, it is possible to accurately obtain the temporal change in the position of the characteristic point, and it is possible to suppress a decrease in the determination accuracy of the presence or absence of the camera shift. On the other hand, the second processing mode has a large number of feature points, but includes many feature points with a small feature amount. As the vehicle speed increases, it becomes difficult to track feature points with small feature amounts. For this reason, the second processing mode is a mode suitable when the vehicle is at a low speed. That is, the first processing mode is a processing mode for high speed traveling, and the second processing mode is a processing mode for low speed traveling.

本実施形態の構成によれば、車両が高速走行する場合には第1処理モードによってカメラずれの判定処理を行い、車両が低速走行する場合には第2処理モードによってカメラずれの判定処理を行うことができる。すなわち、走行速度に適した手法でカメラずれの判定を行うことができ、カメラずれの誤検出を低減することができる。   According to the configuration of the present embodiment, when the vehicle runs at high speed, the camera shift determination process is performed in the first processing mode, and when the vehicle runs at low speed, the camera shift determination process is performed in the second processing mode. be able to. That is, the camera shift can be determined by a method suitable for the traveling speed, and erroneous detection of the camera shift can be reduced.

本実施形態では、詳細には、第1処理モードは、通常時に使用される処理モードである。第2処理モードは、第1処理モードによって所定の処理結果が得られた場合に使用される処理モードである。すなわち、異常検出装置1は、原則として、高速で走行する車両から得られる情報を用いて、第1処理モードによりカメラずれの有無を判定する。そして、異常検出装置1は、特定の条件の場合に限って、例外的に第1処理モードから第2処理モードに切り替え、低速で走行する車両から得られる情報を用いてカメラずれの有無を判定する。本実施形態によれば、低速走行時にカメラずれの検出に関わる処理が行われることを抑制することができ、低速走行時にカメラずれの検出とは関係のない処理を実行することができる。   In the present embodiment, in detail, the first processing mode is a processing mode that is normally used. The second processing mode is a processing mode used when a predetermined processing result is obtained by the first processing mode. That is, in principle, the abnormality detection device 1 uses information obtained from a vehicle traveling at high speed to determine whether or not there is a camera shift in the first processing mode. Then, the abnormality detection device 1 exceptionally switches from the first processing mode to the second processing mode only under specific conditions, and determines whether or not there is a camera shift using information obtained from a vehicle traveling at a low speed. To do. According to the present embodiment, it is possible to suppress the processing relating to the detection of the camera shift during low speed traveling, and it is possible to execute the processing unrelated to the detection of the camera shift during the low speed traveling.

本実施形態では、制御部12は、移動体(車両)の周辺環境をカメラ21で撮影された撮影画像に基づき認識する認識処理を実行可能に設けられる。当該認識処理は、例えばフレーム画像からエッジを抽出し、車両周辺の移動物や静止物を認識する処理である。例えば、公知のパターンマッチング処理やニューラルネットワークを用いた演算処理等により、移動物や静止物の認識が行われる。換言すると、制御部12は、カメラ21の異常を検出する装置としての機能以外の機能を備える。本実施形態では、制御部12は、駐車支援を行う装置としての機能も備える。   In the present embodiment, the control unit 12 is provided so as to be able to perform a recognition process of recognizing the surrounding environment of the moving body (vehicle) based on a captured image captured by the camera 21. The recognition process is, for example, a process of extracting an edge from a frame image and recognizing a moving object or a stationary object around the vehicle. For example, a moving object or a stationary object is recognized by a known pattern matching process or a calculation process using a neural network. In other words, the control unit 12 has a function other than the function as a device for detecting an abnormality of the camera 21. In the present embodiment, the control unit 12 also has a function as a device that performs parking assistance.

制御部12は、通常時において、移動体(車両)の速度が第2処理モードに対応する速度である場合には、車両の周辺環境を認識する認識処理を、カメラ21の異常の有無を判定する判定処理よりも優先する。本実施形態では、通常時においては、制御部12は、低速走行時に周辺環境の認識処理を優先して行い、高速走行時にカメラずれの有無を判定する判定処理を優先して行う。これによれば、制御部12の処理が一時期に過度に集中することを抑制することができ、制御部12の処理負荷を低減することができる。車両の駐車支援のための周辺環境の認識処理は低速走行時に行われるために、本実施形態の構成は、制御部12が駐車支援を行う装置としての機能も備える場合に好適である。   When the speed of the moving body (vehicle) is normally the speed corresponding to the second processing mode, the control unit 12 performs recognition processing for recognizing the surrounding environment of the vehicle and determines whether or not there is an abnormality in the camera 21. Priority is given to the determination process. In the present embodiment, during normal times, the control unit 12 gives priority to the peripheral environment recognition processing at low speed traveling, and gives priority to the determination processing for judging the presence or absence of camera displacement at high speed traveling. According to this, it is possible to prevent the processing of the control unit 12 from being excessively concentrated at one time, and it is possible to reduce the processing load of the control unit 12. Since the recognition processing of the surrounding environment for parking assistance of the vehicle is performed at low speed traveling, the configuration of the present embodiment is suitable when the control unit 12 also has a function as a device for performing parking assistance.

図2は、第1実施形態の異常検出装置1によるカメラずれの検出フローの一例を示すフローチャートである。カメラずれの検出処理は、例えば、所定期間毎(1週間毎等)、所定走行距離毎(100km毎等)、エンジン起動毎(イグニッション(IG)オン毎)、エンジン起動が所定回数に達した時点毎等に実行されてよい。なお、本実施形態では、撮影部2が4つのカメラ21を備えるために、各カメラ21について、図2に示すカメラずれの検出フローが実施される。重複説明を避けるために、ここでは、カメラ21がフロントカメラである場合を代表例として、カメラずれの検出フローを説明する。   FIG. 2 is a flowchart showing an example of a camera shift detection flow by the abnormality detection device 1 of the first embodiment. The process of detecting the camera shift is performed, for example, at a predetermined time period (every week, etc.), at a predetermined traveling distance (every 100 km, etc.), every time the engine is started (every time the ignition (IG) is turned on), and when a predetermined number of engine starts are reached. It may be executed every time. In the present embodiment, since the image capturing unit 2 includes the four cameras 21, the camera shift detection flow shown in FIG. 2 is performed for each camera 21. In order to avoid duplicated description, here, the detection flow of the camera shift will be described using the case where the camera 21 is a front camera as a typical example.

図2に示すように、まず、制御部12は、カメラ21を搭載する車両が直進しているか否かを監視する(ステップS1)。車両が直進しているか否かは、例えば、舵角センサ32から得られるステアリングホイールの回転角情報に基づいて判断することができる。なお、直進には、前進方向の直進と、後退方向の直進との両方が含まれる。   As shown in FIG. 2, first, the control unit 12 monitors whether or not the vehicle equipped with the camera 21 is traveling straight (step S1). Whether the vehicle is traveling straight can be determined based on, for example, the rotation angle information of the steering wheel obtained from the steering angle sensor 32. It should be noted that straight traveling includes both forward traveling and backward traveling.

制御部12は、車両の直進を検出するまで、ステップS1の監視を繰り返す。すなわち、制御部12は、車両が直進走行を行っていることを条件としてカメラずれに関する処理を進める。これによれば、車両の進行方向が曲がっている場合の情報を用いることなくカメラずれの検出に関する処理を行うことができるために、情報処理が複雑になることを避けられる。   The control unit 12 repeats the monitoring of step S1 until it detects that the vehicle is going straight. That is, the control unit 12 advances the process regarding the camera shift on condition that the vehicle is traveling straight ahead. According to this, since the process relating to the detection of the camera shift can be performed without using the information when the traveling direction of the vehicle is bent, it is possible to prevent the information processing from becoming complicated.

車両が直進していると判断される場合(ステップS1でYes)、制御部12は、車両の速度が第1速度範囲内であるか否かを確認する(ステップS2)。第1速度範囲は、例えば時速15km以上30km以下としてよい。第1速度範囲は、車両の駐車支援が行われる速度より速い速度に設定されることが好ましい。なお、車両の速度が速くなりすぎると、特徴点の追跡が困難になるために、車両の速度は速すぎないことが好ましい。   When it is determined that the vehicle is traveling straight (Yes in step S1), the control unit 12 confirms whether the speed of the vehicle is within the first speed range (step S2). The first speed range may be, for example, 15 km or more per hour and 30 km or less. It is preferable that the first speed range is set to a speed higher than a speed at which parking assistance of the vehicle is performed. If the speed of the vehicle becomes too fast, it will be difficult to track the characteristic points. Therefore, it is preferable that the speed of the vehicle is not too fast.

制御部12は、車両の速度が第1速度範囲外である場合(ステップS2でNo)、ステップS1に戻る。すなわち、制御部12は、車両が直進走行を行っていること、および、車両の速度が第1速度範囲内であることを条件としてカメラずれに関する処理を進める。本実施形態では、原則として低速走行の場合にはカメラずれに関する処理が開始されないために、車両の周辺環境の認識処理とカメラずれに関する処理とが同時に進められることを避けることができ、制御部12の処理負荷が一時に集中することを抑制することができる。   When the speed of the vehicle is outside the first speed range (No in step S2), the control unit 12 returns to step S1. That is, the control unit 12 advances the process relating to the camera shift on the condition that the vehicle is traveling straight ahead and that the vehicle speed is within the first speed range. In the present embodiment, as a general rule, the processing relating to the camera shift is not started when the vehicle is traveling at a low speed, so that it is possible to prevent the processing for recognizing the surrounding environment of the vehicle and the processing relating to the camera shift from proceeding at the same time. It is possible to prevent the processing load of the above from being concentrated at one time.

車両が第1速度範囲内で走行していると判断される場合(ステップS2でYes)、制御部12は、第1処理モードによるカメラずれの有無の判定処理を行う(ステップS3)。なお、ステップS1とステップS2とは、順番が入れ替わってもよい。   When it is determined that the vehicle is traveling within the first speed range (Yes in step S2), the control unit 12 performs a process of determining whether or not there is a camera shift in the first processing mode (step S3). The order of step S1 and step S2 may be exchanged.

図3は、第1実施形態の異常検出装置1における第1処理モードによるカメラずれの有無の判定処理の一例を示すフローチャートである。図3に示すように、制御部12は、フレーム画像から特徴点を抽出する処理を行う(ステップS31)。第1処理モードでは、特徴点を抽出するための第1閾値T1が高い値に設定されている。このために、抽出される特徴点は、コーナーらしさを示す特徴量が大きな特徴点である。   FIG. 3 is a flowchart showing an example of a process of determining the presence / absence of a camera shift in the first processing mode in the abnormality detection device 1 of the first embodiment. As shown in FIG. 3, the control unit 12 performs a process of extracting feature points from the frame image (step S31). In the first processing mode, the first threshold T1 for extracting the feature points is set to a high value. For this reason, the extracted feature points are feature points having a large feature amount indicating the likelihood of a corner.

図4は、特徴点FPを抽出する手法を説明するための図である。図4は、カメラ21(フロントカメラ)で撮影されたフレーム画像Pを模式的に示す。図4に示すように、制御部12は、フレーム画像Pに所定の抽出領域ERを設定する。制御部12は、所定の抽出領域ERから特徴点FPを抽出する。所定の抽出領域ERは、路面RS部分が映る位置に設定される。所定の抽出領域ERは、フレーム画像Pの中心部Cを含む広範囲に設定されることが好ましい。これにより、特徴点FPの発生箇所が均一でなく偏った範囲に偏在する場合でも、特徴点FPを抽出することができる。   FIG. 4 is a diagram for explaining a method of extracting the feature point FP. FIG. 4 schematically shows a frame image P captured by the camera 21 (front camera). As shown in FIG. 4, the control unit 12 sets a predetermined extraction region ER in the frame image P. The control unit 12 extracts the feature point FP from the predetermined extraction area ER. The predetermined extraction region ER is set at a position where the road surface RS portion appears. It is preferable that the predetermined extraction region ER is set in a wide range including the central portion C of the frame image P. As a result, even if the locations where the feature points FP are generated are not uniform but are unevenly distributed in the uneven range, the feature points FP can be extracted.

なお、図4においては、特徴点FPの数は2つとされているが、この数は便宜的なものであり、実際の数を示すものではない。複数の特徴点FPが抽出される場合もあれば、1つの特徴点FPのみしか抽出されない場合もある。また、特徴点FPが抽出されない場合もある。   Although the number of feature points FP is two in FIG. 4, this number is for convenience and does not indicate the actual number. In some cases, a plurality of feature points FP may be extracted, and in some cases only one feature point FP may be extracted. Moreover, the feature point FP may not be extracted.

図3に戻って、特徴点FPの抽出処理が行われると、特徴点数が所定数以上であるか否かが確認される(ステップS32)。特徴点数が所定数に満たない場合には(ステップS32でNo)、制御部12はカメラずれの有無が判定できないと判断し(ステップS37)、第1処理モードによる判定処理を終了する。一方、特徴点数が所定数以上である場合には(ステップS32でYes)、所定の時間間隔をあけて入力された2つのフレーム画像間における特徴点FPの動きを示すオプティカルフローの算出が行われる(ステップS33)。なお、所定数は、1つ以上であればよく、その数は、例えば実験やシミュレーション等によって決定してよい。   Returning to FIG. 3, when the feature point FP extraction processing is performed, it is confirmed whether the number of feature points is equal to or more than a predetermined number (step S32). When the number of characteristic points is less than the predetermined number (No in step S32), the control unit 12 determines that the presence / absence of a camera shift cannot be determined (step S37), and ends the determination process in the first processing mode. On the other hand, when the number of feature points is equal to or greater than the predetermined number (Yes in step S32), the optical flow indicating the movement of the feature point FP between the two frame images input at the predetermined time interval is calculated. (Step S33). The predetermined number may be one or more, and the number may be determined by, for example, an experiment or a simulation.

図5は、オプティカルフローOFを求める手法を説明するための図である。図5は、図4と同様に便宜的に示された模式図である。図5は、図4に示すフレーム画像(前回フレーム画像)Pの撮影後、所定の撮影時間間隔(1周期に相当)が経過した後にカメラ21で撮影されたフレーム画像(今回フレーム画像)P´である。図4に示すフレーム画像Pの撮影後、所定時間間隔が経過するまでの間に、自車両は後退している。図5に示す破線の丸印は、図4に示す前回フレーム画像Pにおいて抽出された特徴点FPの位置を示す。   FIG. 5 is a diagram for explaining a method for obtaining the optical flow OF. FIG. 5 is a schematic view shown for convenience as in FIG. FIG. 5 shows a frame image (current frame image) P ′ captured by the camera 21 after a predetermined capturing time interval (corresponding to one cycle) has elapsed after capturing the frame image (previous frame image) P shown in FIG. Is. After the frame image P shown in FIG. 4 is captured, the host vehicle is moving backward until a predetermined time interval elapses. The dotted circles shown in FIG. 5 indicate the positions of the feature points FP extracted in the previous frame image P shown in FIG.

図5に示すように、自車両が後退すると、自車両の前方に存在する特徴点FPは自車両から離れる。すなわち、特徴点FPは、今回フレーム画像P´と前回フレーム画像Pとで異なる位置に現れる。制御部12は、今回フレーム画像P´の特徴点FPと前回フレーム画像Pの特徴点FPとを、その近傍の画素値も考慮に入れて対応付け、対応付けた特徴点FPのそれぞれの位置に基づいてオプティカルフローOFを求める。なお、制御部12は、前回フレーム画像(1周期前のフレーム画像)がない場合にはオプティカルフローOFの算出処理を行わない。この場合もカメラずれの有無は判定されない。また、フレーム画像Pから複数の特徴点FPが抽出された場合には、各特徴点FPに対してオプティカルフローOFの算出処理が行われる。   As shown in FIG. 5, when the host vehicle moves backward, the feature point FP existing in front of the host vehicle separates from the host vehicle. That is, the feature point FP appears at a different position between the current frame image P ′ and the previous frame image P. The control unit 12 associates the feature point FP of the current frame image P ′ with the feature point FP of the previous frame image P in consideration of the pixel values in the vicinity thereof, and associates them with each of the associated feature points FP. Based on this, the optical flow OF is obtained. The control unit 12 does not perform the calculation process of the optical flow OF when there is no previous frame image (frame image of one cycle before). Also in this case, the presence or absence of camera shift is not determined. Further, when a plurality of feature points FP are extracted from the frame image P, the calculation process of the optical flow OF is performed on each feature point FP.

図3に戻って、特徴点FPのオプティカルフローOFが算出されると、制御部12は、カメラ座標系で与えられるオプティカルフローOFの座標変換を行って移動ベクトルVを算出する(ステップS34)。座標変換は、カメラ座標系を路面上の座標系に変換する処理である。なお、制御部12は、フレーム画像Pから抽出された特徴点FPの座標について先に路面上の座標に変換し、オプティカルフローOFを求めることなく移動ベクトルを求めてもよい。   Returning to FIG. 3, when the optical flow OF of the feature point FP is calculated, the control unit 12 performs coordinate conversion of the optical flow OF given in the camera coordinate system to calculate the movement vector V (step S34). The coordinate conversion is a process of converting the camera coordinate system into a coordinate system on the road surface. Note that the control unit 12 may convert the coordinates of the feature point FP extracted from the frame image P into coordinates on the road surface first, and may calculate the movement vector without calculating the optical flow OF.

図6は、座標変換処理を説明するための図である。図6に示すように、制御部12は、カメラ21の位置(視点VP1)から見たオプティカルフローOFを、自車両が存在する路面RSの上方の視点VP2から見た移動ベクトルVに変換する。制御部12は、フレーム画像上のオプティカルフローOFを、路面に相当する仮想平面RS_Vに投影することで移動ベクトルVに変換する。移動ベクトルVの大きさは、自車両の路面RS上の移動量(移動距離)を示す。なお、本実施形態では、カメラ21が魚眼レンズであるために座標変換処理には歪補正が含まれることが好ましい。また、複数のオプティカルフローOFが求められた場合には、各オプティカルフローOFに対して移動ベクトルVの算出処理が行われる。   FIG. 6 is a diagram for explaining the coordinate conversion process. As shown in FIG. 6, the control unit 12 converts the optical flow OF viewed from the position of the camera 21 (viewpoint VP1) into a movement vector V viewed from a viewpoint VP2 above the road surface RS where the vehicle is present. The control unit 12 converts the optical flow OF on the frame image into the movement vector V by projecting the optical flow OF on the virtual plane RS_V corresponding to the road surface. The magnitude of the movement vector V indicates the movement amount (movement distance) of the vehicle on the road surface RS. In this embodiment, since the camera 21 is a fisheye lens, it is preferable that the coordinate conversion process includes distortion correction. When a plurality of optical flows OF are obtained, the movement vector V is calculated for each optical flow OF.

図3に戻って、路面RS上の動きを示す移動ベクトルVが算出されると、制御部12は、移動ベクトルVに基づき移動量(移動距離)の推定値を求める(ステップS35)。本実施形態では、制御部12は、移動ベクトルVの前後方向成分の長さを前後方向の移動量の推定値とする。また、制御部12は、移動ベクトルVの左右方向成分の長さを左右方向の移動量の推定値とする。   Returning to FIG. 3, when the movement vector V indicating the movement on the road surface RS is calculated, the control unit 12 obtains an estimated value of the movement amount (movement distance) based on the movement vector V (step S35). In the present embodiment, the control unit 12 sets the length of the front-rear direction component of the movement vector V as the estimated value of the front-rear movement amount. Further, the control unit 12 sets the length of the horizontal component of the movement vector V as the estimated value of the horizontal movement amount.

なお、移動ベクトルVの数が複数である場合には、前後方向および左右方向のそれぞれについて、各移動ベクトルVから求められる長さの平均値を推定値としてよい。また、移動ベクトルVの数が複数である場合には、特徴量が最も大きい特徴点FPから得られた移動ベクトルVのみを用いて前後方向および左右方向の移動量の推定値を求めてもよい。また、移動ベクトルVの数が多数である場合には、後述のヒストグラムを用いた統計処理によって前後方向および左右方向の移動量の推定値を求めてもよい。   When the number of movement vectors V is plural, the estimated value may be the average value of the lengths obtained from the movement vectors V in the front-rear direction and the left-right direction. When there are a plurality of movement vectors V, the estimated values of the movement amounts in the front-rear direction and the left-right direction may be obtained using only the movement vector V obtained from the feature point FP having the largest feature amount. . When the number of movement vectors V is large, the estimated values of the movement amounts in the front-rear direction and the left-right direction may be obtained by statistical processing using a histogram described later.

移動量の推定値が得られると、制御部12は、当該推定値と、センサ部3からの情報によって得られる比較値とを比較してカメラずれの有無を判定する(ステップS36)。本実施形態では、前後方向の移動量について推定値と比較値との比較が行われる。また、左右方向の移動量について推定値と比較値との比較が行われる。比較値を正解値として、当該正解値に対する推定値のずれの大きさを判断する。当該ずれの大きさが所定の閾値を超える場合に、カメラずれが発生していると判断される。   When the estimated value of the movement amount is obtained, the control unit 12 compares the estimated value with the comparison value obtained from the information from the sensor unit 3 to determine whether there is a camera shift (step S36). In this embodiment, the estimated value and the comparison value are compared with respect to the amount of movement in the front-rear direction. Further, the estimated value and the comparison value are compared with respect to the movement amount in the left-right direction. Using the comparison value as the correct answer value, the magnitude of the deviation of the estimated value from the correct answer value is determined. When the magnitude of the shift exceeds a predetermined threshold value, it is determined that the camera shift has occurred.

前後方向の比較値(移動量)は、オプティカルフローOFを導出するための2つのフレーム画像の撮影時間間隔と、当該時間間隔における速度センサ31から得られる自車両の速度とによって算出することができる。また、本実施形態では、自車両が前後方向に直進している場合に得られるフレーム画像に基づいてカメラずれの有無が判定される。このために、左右方向の比較値(移動量)はゼロになる。   The comparison value (movement amount) in the front-rear direction can be calculated from the shooting time intervals of the two frame images for deriving the optical flow OF and the speed of the host vehicle obtained from the speed sensor 31 in the time intervals. . Further, in the present embodiment, the presence / absence of a camera shift is determined based on the frame image obtained when the vehicle is traveling straight in the front-rear direction. Therefore, the comparison value (movement amount) in the left-right direction becomes zero.

なお、比較値は、センサ部3以外からの情報に基づいて求められてもよい。例えば、GPSセンサや、カメラずれの判定対象以外のカメラから得られる情報に基づいて比較値が求められてもよい。また、推定値および比較値は、移動量でなくてもよく、例えば速度であってもよい。   The comparison value may be obtained based on information from other than the sensor unit 3. For example, the comparison value may be obtained based on information obtained from a GPS sensor or a camera other than the camera shift determination target. Further, the estimated value and the comparison value may not be the movement amount, and may be the speed, for example.

図7は、第1実施形態における制御部12によって行われるずれ判定の一例を示すフローチャートである。なお、図7に示す処理は、図3のステップS36の詳細処理例である。   FIG. 7 is a flowchart showing an example of the deviation determination performed by the control unit 12 in the first embodiment. The process shown in FIG. 7 is a detailed process example of step S36 of FIG.

まず、制御部12は、自車両の前後方向の移動量について、推定値と比較値との差の大きさ(前後方向のずれ量)が、第1ずれ閾値より小さいか否かを確認する(ステップS361)。前後方向のずれ量が第1ずれ閾値以上である場合(ステップS361でNo)、制御部12は、カメラずれ有りと判定する(ステップS364)。   First, the control unit 12 confirms whether or not the magnitude of the difference between the estimated value and the comparison value (the amount of deviation in the front-rear direction) of the movement amount of the vehicle in the front-rear direction is smaller than the first deviation threshold ( Step S361). When the shift amount in the front-rear direction is equal to or larger than the first shift threshold (No in step S361), the control unit 12 determines that there is a camera shift (step S364).

一方、前後方向のずれ量が第1ずれ閾値より小さい場合(ステップS361でYes)、制御部12は、自車両の左右方向の移動量について、推定値と比較値との差の大きさ(左右方向のずれ量)が、第2ずれ閾値より小さいか否かを確認する(ステップS362)。左右方向のずれ量が第2ずれ閾値以上である場合(ステップS362でNo)、制御部12は、カメラずれ有りと判定する(ステップS364)。   On the other hand, when the shift amount in the front-rear direction is smaller than the first shift threshold (Yes in step S361), the control unit 12 determines the magnitude of the difference between the estimated value and the comparison value (left and right) with respect to the movement amount of the vehicle in the left-right direction. It is confirmed whether or not the (direction deviation amount) is smaller than the second deviation threshold value (step S362). When the shift amount in the left-right direction is equal to or larger than the second shift threshold (No in step S362), the control unit 12 determines that there is a camera shift (step S364).

一方、左右方向のずれ量が第2ずれ閾値より小さい場合(ステップS362でYes)、制御部12はカメラずれ無しと判定する(ステップS363)。   On the other hand, when the shift amount in the left-right direction is smaller than the second shift threshold (Yes in step S362), the control unit 12 determines that there is no camera shift (step S363).

本実施形態では、前後方向の移動量および左右方向の移動量のうち、いずれか1つでも、ずれ量が大きくなると、カメラずれが発生していると判定する。これによれば、カメラずれが発生しているにもかかわらず、カメラずれが発生していないと判定する可能性を低減できる。ただし、これは例示である。例えば、前後方向の移動量および左右方向の移動量の両方においてずれ量が大きくなった場合に限って、カメラずれが発生していると判定する構成としてもよい。また、カメラずれの判定は、前後方向および左右方向の移動量だけでなく、例えばこれらを組み合わせた指標(例えば、前後方向の移動量の二乗値と、左右方向の移動量の二乗値との和)に基づいて判定されてもよい。カメラずれの判定は、前後方向の移動量と、左右方向の移動量とのいずれか一方のみを用いて判定されてもよい。   In the present embodiment, if any one of the front-rear direction movement amount and the left-right direction movement amount has a large displacement amount, it is determined that a camera displacement has occurred. According to this, it is possible to reduce the possibility that it is determined that the camera shift has not occurred even though the camera shift has occurred. However, this is an example. For example, the configuration may be such that it is determined that the camera shift occurs only when the shift amount becomes large in both the front-back direction movement amount and the left-right direction movement amount. Further, the determination of the camera shift is made not only by the amount of movement in the front-rear direction and the left-right direction, but also by, for example, an index combining these (for example, the sum of the square value of the amount of movement in the front-back direction and the square value of the amount of movement in the left-right direction). ). The camera misalignment may be determined using only one of the front-rear movement amount and the left-right movement amount.

また、本実施形態では、前後方向の移動量および左右方向の移動量について、順番に比較を行う構成としたが、これらの比較は同じタイミングで行われてもよい。また、前後方向の移動量および左右方向の移動量について順番に比較を行う構成の場合、その順番は特に限定されず、図7に示す順番とは異なる順番で比較が行われてもよい。また、以上では、1つのフレーム画像の処理結果に基づきカメラずれの有無を判定する構成としているが、これは例示にすぎない。複数のフレーム画像の処理結果に基づきカメラずれの有無を判定する構成としてもよい。これにより、カメラずれの有無を誤判定する可能性を低減することができる。   Further, in the present embodiment, the amount of movement in the front-rear direction and the amount of movement in the left-right direction are compared in order, but these comparisons may be performed at the same timing. Further, in the case of the configuration in which the amount of movement in the front-rear direction and the amount of movement in the left-right direction are compared in order, the order is not particularly limited, and the comparison may be performed in an order different from the order shown in FIG. 7. Further, in the above, the presence or absence of the camera shift is determined based on the processing result of one frame image, but this is merely an example. It may be configured to determine whether or not there is a camera shift based on the processing results of a plurality of frame images. As a result, it is possible to reduce the possibility of erroneously determining whether or not there is a camera shift.

図2に戻って、第1処理モードによるカメラずれの有無の判定処理が終了すると、制御部12は、処理結果が所定の処理結果であるか否かを判定する(ステップS4)。処理結果が所定の処理結果である場合(ステップS4でYes)、第1処理モードから第2処理モードに切り替えてカメラずれの有無の判定処理を行う必要があると判断する(ステップS5)。一方、処理結果が所定の処理結果でない場合(ステップS4でNo)、ステップS1に戻り、ステップS1以降の処理が繰り返される。   Returning to FIG. 2, when the process of determining the presence / absence of a camera shift in the first processing mode ends, the control unit 12 determines whether or not the processing result is a predetermined processing result (step S4). When the processing result is the predetermined processing result (Yes in step S4), it is determined that it is necessary to switch from the first processing mode to the second processing mode and perform the processing for determining whether or not there is a camera shift (step S5). On the other hand, when the processing result is not the predetermined processing result (No in step S4), the process returns to step S1 and the processes after step S1 are repeated.

図8は、第1処理モードによる処理結果が所定の処理結果であるか否かを判断する処理の詳細例を示すフローチャートである。図8は、図2のステップS4の詳細例を示すフローチャートである。図8に示すように、第1処理モードによる判定処理によりカメラずれ有りと判定されたか否かが確認される(ステップS41)。   FIG. 8 is a flowchart showing a detailed example of processing for determining whether or not the processing result in the first processing mode is a predetermined processing result. FIG. 8 is a flowchart showing a detailed example of step S4 in FIG. As shown in FIG. 8, it is confirmed whether or not the camera shift is determined by the determination processing in the first processing mode (step S41).

カメラずれ有りと判定された場合(ステップS41でYes)、図2に示すステップS5に進む。一方、カメラずれ有りと判定されなかった場合(ステップS41でNo)、所定期間判定が未判定か否かが確認される(ステップS42)。第1処理モードにおいて、所定の複数フレームにわたって連続してカメラずれの有無の判定が行われていない場合、所定期間未判定と判定される。   If it is determined that there is a camera shift (Yes in step S41), the process proceeds to step S5 shown in FIG. On the other hand, if it is not determined that there is a camera shift (No in step S41), it is confirmed whether or not the predetermined period determination is undetermined (step S42). In the first processing mode, when it is not continuously determined whether or not there is a camera shift over a plurality of predetermined frames, it is determined as undetermined for a predetermined period.

所定期間未判定である場合(ステップS42でYes)、図2に示すステップS5に進む。一方、所定期間未判定でない場合には(ステップS42でNo)、カメラずれ無しとの判定を確定し(ステップS43)、ステップS1に戻ってステップS1以降の処理を繰り返す。   When the determination is not made for the predetermined period (Yes in step S42), the process proceeds to step S5 shown in FIG. On the other hand, when the determination is not made for the predetermined period (No in step S42), the determination that there is no camera shift is confirmed (step S43), the process returns to step S1 and the processes in step S1 and subsequent steps are repeated.

以上のように、本実施形態では、図2のステップS4に示す所定の処理結果には、カメラ21に異常が有る(カメラずれ有り)との処理結果が含まれる。これによれば、高速走行時に行われる第1処理モードでカメラずれが認められた場合に、低速走行による第2処理モードでのカメラずれの判定処理が行われるために、カメラずれの誤検出を低減することができる。   As described above, in the present embodiment, the predetermined processing result shown in step S4 of FIG. 2 includes the processing result indicating that the camera 21 has an abnormality (there is a camera shift). According to this, when a camera shift is recognized in the first processing mode performed during high-speed traveling, the camera shift determination processing in the second processing mode due to low-speed traveling is performed, so that the erroneous detection of the camera shift is prevented. It can be reduced.

また、本実施形態では、図2のステップS4に示す所定の処理結果には、カメラ21の異常の有無(カメラずれの有無)を所定期間判定することができていないとの処理結果が含まれる。特徴点FPが所定数以上検出されないという事態は、白線のコーナーのような高い特徴量を示す特徴点FPが存在しない場合の他に、カメラ21の取付けが大きくずれている場合にも起こる。第1処理モードだけでは、この差を明確に区別することができない。本実施形態のように、カメラずれの有無の判定ができない状態が繰り返される場合に、特徴点FPを抽出するための閾値を下げる第2処理モードによる判定処理が行われることによって、カメラずれを適切に検出することができる。   Further, in the present embodiment, the predetermined processing result shown in step S4 of FIG. 2 includes the processing result that it is not possible to determine the presence / absence of abnormality of the camera 21 (presence / absence of camera shift) for a predetermined period. . The situation in which the feature points FP are not detected by a predetermined number or more occurs not only when there is no feature point FP having a high feature amount such as a corner of a white line, but also when the camera 21 is largely attached. This difference cannot be clearly distinguished only by the first processing mode. When the state in which the presence or absence of the camera shift cannot be determined is repeated as in the present embodiment, the camera shift is appropriately performed by performing the determination process in the second processing mode that lowers the threshold value for extracting the feature point FP. Can be detected.

図2に戻って、制御部12は、ステップS5以降の第2処理モードが実行される場合に、カメラ21を用いた車両の周辺環境の認識処理よりもカメラ21の異常(カメラずれ)の判定処理を優先する。これによれば、車両の低速走行時において、カメラずれが生じている可能性がある場合に限って周辺環境の認識処理よりもカメラずれの判定処理が優先される。このために、カメラ21の車両への搭載目的に応じた処理(周辺環境の認識処理)をできる限り優先しつつ、カメラ21の異常を適切に検出することができる。   Returning to FIG. 2, when the second processing mode after step S5 is executed, the control unit 12 determines the abnormality (camera shift) of the camera 21 rather than the recognition processing of the surrounding environment of the vehicle using the camera 21. Give priority to processing. According to this, only when there is a possibility that a camera shift has occurred when the vehicle is traveling at a low speed, the camera shift determination process has priority over the surrounding environment recognition process. Therefore, it is possible to appropriately detect the abnormality of the camera 21 while giving priority to the processing (the recognition processing of the surrounding environment) according to the purpose of mounting the camera 21 in the vehicle as much as possible.

本実施形態では、制御部12は、第1処理モードから第2処理モードに切り替える場合に、自動運転制御装置5に対して自動運転を要求する。当該要求により、移動体制御システムSYS1は、第2処理モードでカメラ21の異常(カメラずれ)の有無を判定する判定処理を行う場合に、移動体(車両)を自動運転させる。なお、自動運転は、第1処理モードから第2処理モードに切り替える必要があると判断された後、安全を確保できるタイミングで開始されることが好ましい。この判断は、自動運転制御装置5によって行われてよく、自動運転制御装置5は、自動運転の開始を制御部12に通知する。例えば、自動運転は、車両の発進や停車のタイミングで一時的に行われる。   In the present embodiment, the control unit 12 requests the automatic driving control device 5 to perform automatic driving when switching from the first processing mode to the second processing mode. In response to the request, the moving body control system SYS1 automatically drives the moving body (vehicle) when performing the determination process of determining whether the camera 21 is abnormal (camera shift) in the second processing mode. In addition, it is preferable that the automatic operation is started at a timing at which safety can be secured after it is determined that the first processing mode needs to be switched to the second processing mode. This determination may be performed by the automatic driving control device 5, and the automatic driving control device 5 notifies the control unit 12 of the start of the automatic driving. For example, automatic driving is temporarily performed when the vehicle starts or stops.

本実施形態によれば、車両を所定の速度範囲で低速走行させつつ、ハンドルを一定として直線走行させることを精度良く行わせることができ、第2処理モードによるカメラずれの有無の判定処理を精度良く行うことができる。   According to the present embodiment, it is possible to accurately perform straight traveling with the steering wheel kept constant while the vehicle travels at a low speed within a predetermined speed range, and it is possible to accurately determine whether or not there is a camera shift in the second processing mode. You can do it well.

第2処理モードでの判定処理のための自動運転が開始されると、第1処理モードの場合と同様に、直進走行しているか否かが確認される(ステップS6)。そして、直進走行している場合(ステップS6でYes)には、制御部12は、車両の速度が第2速度範囲内であるか否かを確認する(ステップS7)。第2速度範囲は、例えば時速3km以上5km以下としてよい。   When the automatic operation for the determination processing in the second processing mode is started, it is confirmed whether or not the vehicle is traveling straight ahead, as in the case of the first processing mode (step S6). Then, when the vehicle is traveling straight ahead (Yes in step S6), the control unit 12 confirms whether or not the speed of the vehicle is within the second speed range (step S7). The second speed range may be, for example, 3 km or more per hour and 5 km or less.

制御部12は、車両の速度が第2速度範囲外である場合(ステップS7でNo)、ステップS6に戻る。すなわち、制御部12は、車両が直進走行を行っていること、および、車両の速度が第2速度範囲内であることを条件としてカメラずれに関する処理を進める。車両が第2速度範囲内で走行していると判断される場合(ステップS7でYes)、制御部12は、第2処理モードによるカメラずれの有無の判定処理を行う(ステップS8)。   When the vehicle speed is outside the second speed range (No in step S7), the control unit 12 returns to step S6. That is, the control unit 12 advances the process relating to the camera shift on the condition that the vehicle is traveling straight ahead and that the vehicle speed is within the second speed range. When it is determined that the vehicle is traveling within the second speed range (Yes in step S7), the control unit 12 performs a process of determining whether or not there is a camera shift in the second processing mode (step S8).

図9は、第1実施形態の異常検出装置における第2処理モードによるカメラずれの有無の判定処理の一例を示すフローチャートである。なお、第2処理モードによる判定処理は、図3で示した第1処理モードによる判定処理と似ている。図3と処理内容が同様であるものについては、詳細な説明を省略する。   FIG. 9 is a flowchart showing an example of a process for determining whether or not there is a camera shift in the second processing mode in the abnormality detection device of the first embodiment. The determination process in the second processing mode is similar to the determination process in the first processing mode shown in FIG. Detailed description of the same processing contents as those in FIG. 3 will be omitted.

図9に示すように、制御部12は、フレーム画像から特徴点FPを抽出する処理を行う(ステップS81)。第2処理モードでは、第2閾値T2を超える特徴量を有する画素が特徴点FPとして抽出される。第2閾値T2は第1閾値T1(第1処理モードの閾値)に比べて低い値に設定されている。このために、路面の細かな凹凸に由来する特徴点FPが多数抽出される。例えばアスファルト路面のように表面に凹凸が多い路面からは多くの特徴点FPが抽出される。なお、例えばコンクリート路面のような平滑な路面では特徴点FPの数が少なくなる傾向がある。すなわち、路面の状態によっては、抽出される特徴点数が十分に得られないことも起こり得る。このような点を考慮して、第2処理モードにおいても第1処理モードと同様に、特徴点数が所定数に満たない場合には判定不能として、判定処理をやり直す構成としてもよい。   As shown in FIG. 9, the control unit 12 performs a process of extracting the feature point FP from the frame image (step S81). In the second processing mode, the pixels having the characteristic amount exceeding the second threshold T2 are extracted as the characteristic points FP. The second threshold T2 is set to a value lower than the first threshold T1 (threshold of the first processing mode). For this reason, a large number of feature points FP derived from the fine unevenness of the road surface are extracted. For example, many feature points FP are extracted from a road surface having many irregularities such as an asphalt road surface. Note that the number of feature points FP tends to decrease on a smooth road surface such as a concrete road surface. That is, it may happen that the number of feature points to be extracted cannot be sufficiently obtained depending on the condition of the road surface. In consideration of such a point, similarly to the first processing mode, in the second processing mode, when the number of feature points is less than the predetermined number, the determination is not possible and the determination processing may be performed again.

特徴点FPの抽出処理が行われると、制御部12はオプティカルフローOFを算出する(ステップS82)。オプティカルフローOFが算出されると、制御部12は、オプティカルフローOFの座標変換を行って移動ベクトルVを算出する(ステップS83)。これらの処理は、第1処理モードと同様である。   When the feature point FP extraction processing is performed, the control unit 12 calculates the optical flow OF (step S82). When the optical flow OF is calculated, the control unit 12 performs coordinate conversion of the optical flow OF to calculate the movement vector V (step S83). These processes are similar to those in the first processing mode.

移動ベクトルVが算出されると、制御部12は、複数の移動ベクトルVに基づいてヒストグラムを生成する(ステップS84)。本実施形態では、制御部12は、各移動ベクトルVを前後方向と左右方向との2成分に分けて、第1ヒストグラムと第2ヒストグラムとを生成する。制御部12は、第1ヒストグラムと第2ヒストグラムとを用いて移動量の推定値を算出する(ステップS85)。   When the movement vector V is calculated, the control unit 12 generates a histogram based on the plurality of movement vectors V (step S84). In this embodiment, the control unit 12 divides each movement vector V into two components in the front-rear direction and the left-right direction to generate a first histogram and a second histogram. The control unit 12 calculates the estimated value of the movement amount using the first histogram and the second histogram (step S85).

図10は、制御部12によって生成された第1ヒストグラムHG1の一例を示す図である。図11は、制御部12によって生成された第2ヒストグラムHG2の一例を示す図である。なお、制御部12は、ヒストグラムHG1、HG2の生成の前後において、先に求められた全ての移動ベクトルVの中から所定の条件に該当する移動ベクトルVを処理対象から除外する処理を行ってもよい。例えば、自車両の速度、舵角、シフトレバー位置等から予想される大きさや方向と大きくずれる移動ベクトルVは除外されてよい。また、例えば、ヒストグラムHG1、HG2において、度数が極端に低い階級に属する移動ベクトルVは除外されてよい。   FIG. 10 is a diagram showing an example of the first histogram HG1 generated by the control unit 12. FIG. 11 is a diagram showing an example of the second histogram HG2 generated by the control unit 12. It should be noted that the control unit 12 may perform the process of excluding the movement vector V satisfying a predetermined condition from all the previously obtained movement vectors V before and after the generation of the histograms HG1 and HG2. Good. For example, the movement vector V that largely deviates from the expected size or direction from the speed, steering angle, shift lever position, etc. of the host vehicle may be excluded. Further, for example, in the histograms HG1 and HG2, the movement vector V belonging to a class having an extremely low frequency may be excluded.

図10に示す第1ヒストグラムHG1は、移動ベクトルVの前後方向成分に基づいて得られたヒストグラムである。第1ヒストグラムHG1は、移動ベクトルVの数を度数とし、前後方向への移動量(移動ベクトルの前後方向成分の長さ)を階級とするヒストグラムである。図11に示す第2ヒストグラムHG2は、移動ベクトルVの左右方向成分に基づいて得られたヒストグラムである。第2ヒストグラムHG2は、移動ベクトルVの数を度数とし、左右方向への移動量(移動ベクトルの左右方向成分の長さ)を階級とするヒストグラムである。   The first histogram HG1 shown in FIG. 10 is a histogram obtained based on the front-back direction component of the movement vector V. The first histogram HG1 is a histogram in which the number of movement vectors V is a frequency, and the amount of movement in the front-rear direction (length of the front-rear direction component of the movement vector) is a class. The second histogram HG2 shown in FIG. 11 is a histogram obtained based on the horizontal component of the movement vector V. The second histogram HG2 is a histogram in which the number of movement vectors V is a frequency and the amount of movement in the left-right direction (the length of the left-right component of the movement vector) is a class.

図10および図11は、自車両が後方に直進した場合に得られたヒストグラムである。図10および図11は、カメラずれが生じていない場合のヒストグラムの一例である。第1ヒストグラムHG1は、後方側の特定の移動量(階級)に偏って度数が多くなる正規分布形状になっている。一方、第2ヒストグラムHG2は、移動量ゼロの近傍の階級に偏って度数が多くなる正規分布形状になっている。カメラずれが生じると、ヒストグラムの形状に変化が見られる。   10 and 11 are histograms obtained when the vehicle travels straight backward. FIG. 10 and FIG. 11 are examples of histograms when the camera shift has not occurred. The first histogram HG1 has a normal distribution shape in which the frequency increases toward a specific amount of movement (class) on the rear side. On the other hand, the second histogram HG2 has a normal distribution shape in which the frequency increases due to being biased toward the class near the movement amount of zero. When the camera shift occurs, the shape of the histogram changes.

本実施形態では、制御部12は、第1ヒストグラムHG1の中央値(メジアン)を前後方向の移動量の推定値とする。制御部12は、第2ヒストグラムHG2の中央値を左右方向の移動量の推定値とする。ただし、制御部12による推定値の決定方法は、これに限定されない。制御部12は、例えば、各ヒストグラムHG1、HG2の度数が最大となる階級の移動量(最頻値)を推定値としてもよい。   In the present embodiment, the control unit 12 sets the median value (median) of the first histogram HG1 as the estimated value of the movement amount in the front-rear direction. The control unit 12 sets the median value of the second histogram HG2 as the estimated value of the movement amount in the left-right direction. However, the method of determining the estimated value by the control unit 12 is not limited to this. The control unit 12 may use, for example, the movement amount (moderate value) of the class in which the frequency of each of the histograms HG1 and HG2 is maximum as the estimated value.

移動量の推定値が得られると、制御部12は、第1処理モードの場合と同様に、当該推定値と、センサ部3からの情報によって得られる比較値とを比較してカメラずれの有無を判定する(ステップS86)。カメラずれの有無の判定は、図7に示す処理と同様であるために、詳細説明は省略する。第2処理モードでは、多数の特徴点を用いて移動量の推定を行うことができるために、第1処理モードに比べてカメラずれの有無の判定処理の精度を向上することができる。第2処理モードにおいても、第1処理モードと同様に、複数のフレーム画像の処理結果に基づきカメラずれの有無を判定する構成としてもよい。   When the estimated value of the movement amount is obtained, the control unit 12 compares the estimated value with the comparison value obtained from the information from the sensor unit 3 to determine whether there is a camera shift, as in the case of the first processing mode. Is determined (step S86). Since the determination of the presence / absence of the camera shift is the same as the processing shown in FIG. 7, detailed description thereof will be omitted. In the second processing mode, since the amount of movement can be estimated using a large number of feature points, the accuracy of the process of determining whether or not there is a camera shift can be improved compared to the first processing mode. Similarly to the first processing mode, the second processing mode may be configured to determine whether or not there is a camera shift based on the processing results of a plurality of frame images.

第2処理モードでカメラずれ有りとの判定が行われた場合に、異常検出装置1はカメラずれを検出する。カメラずれが検出された場合、異常検出装置1は、表示装置6にカメラずれの発生を表示させるための処理を行い、運転者等にカメラ21の異常を報知することが好ましい。また、異常検出装置1は、カメラ21からの情報を用いて運転支援を行う機能(例えば自動駐車機能等)を停止(オフ)するための処理を行うことが好ましい。この際、運転支援機能を停止したことを表示装置6に表示させることが好ましい。車両に複数のカメラ21が搭載される場合、複数のカメラ21のうちの1つでもカメラずれが発生した場合には、上述した運転者等への報知処理、および、運転支援装機能の停止処理を行うことが好ましい。   When it is determined in the second processing mode that there is a camera shift, the abnormality detection device 1 detects the camera shift. When the camera shift is detected, it is preferable that the abnormality detection device 1 perform a process for displaying the occurrence of the camera shift on the display device 6 to notify the driver or the like of the abnormality of the camera 21. Further, the abnormality detection device 1 preferably performs a process for stopping (turning off) a function (for example, an automatic parking function) that provides driving assistance using information from the camera 21. At this time, it is preferable to display on the display device 6 that the driving support function is stopped. When a plurality of cameras 21 are mounted on the vehicle, if even one of the plurality of cameras 21 causes a camera shift, the above-described driver notification process and driver assisting device stop process are performed. Is preferably performed.

第2処理モードでカメラずれ無しとの判定が行われた場合には、異常検出装置1はカメラずれが検出されなかったとして一旦、カメラずれの検出処理を終了する。そして、その後、所定のタイミングでカメラずれの検出処理を再度開始する。   When it is determined that there is no camera shift in the second processing mode, the abnormality detection device 1 determines that no camera shift is detected, and temporarily ends the camera shift detection process. Then, after that, the camera shift detection process is restarted at a predetermined timing.

本実施形態では、通常は、高速走行でカメラずれの有無を判定する第1処理モードを使用し、第1処理モードでカメラずれの発生が疑われる結果が得られた場合のみ、低速走行でカメラずれの有無の判定を行う第2処理モードを使用する。このために、低速走行時においては、原則として、カメラずれの検出処理に邪魔されることなく、カメラ21による周辺環境の認識処理を行うことができる。また、2つの処理モードを用いてカメラずれの判定を行うことができるために、カメラずれを誤検出する可能性を低減することができる。   In the present embodiment, normally, the first processing mode for determining the presence / absence of a camera shift during high-speed traveling is used, and only when a result in which the occurrence of a camera shift is suspected is obtained in the first processing mode, the camera during low-speed traveling is used. The second processing mode for determining the presence / absence of deviation is used. Therefore, during low-speed traveling, in principle, the peripheral environment recognition process can be performed by the camera 21 without being disturbed by the camera shift detection process. Further, since the camera shift can be determined using the two processing modes, it is possible to reduce the possibility of erroneously detecting the camera shift.

また、本実施形態では、カメラ21の取付け状態が大きくずれたことも適切に検出することができる。これについて、図12および図13を参照して説明する。図12は、大きなカメラずれを生じたカメラ21によって撮影された撮影画像Pを例示する模式図である。図13は、大きなカメラずれを生じたカメラ21によって撮影された撮影画像Pに基づいて生成された第1ヒストグラムHG1を例示する図である。   Further, in the present embodiment, it is possible to properly detect that the mounting state of the camera 21 is largely deviated. This will be described with reference to FIGS. 12 and 13. FIG. 12 is a schematic diagram illustrating a captured image P captured by the camera 21 in which a large camera shift has occurred. FIG. 13 is a diagram exemplifying the first histogram HG1 generated based on the captured image P captured by the camera 21 in which a large camera shift has occurred.

図12に示す例では、カメラ21が大きくずれて、特徴点の抽出領域ER内には、空および遠方の建物(立体物)が主として映っている。通常、空や遠方の立体物の特徴点FPは、特徴量が小さいために、大きな閾値が設定される第1処理モードでは特徴点FPとして抽出されない。すなわち、大きなカメラずれが生じている場合には、第1処理モードでは、特徴点FPが所定数以上抽出されず、カメラずれの判定ができない状態が所定期間以上続く。この結果、第1処理モードから第2処理モードに切り替わってカメラずれの判定処理が行われる。第2処理モードでは、特徴点FPを抽出するための閾値が小さくされるために、空や遠方の立体物に由来する特徴点FPが抽出される。   In the example shown in FIG. 12, the camera 21 is largely displaced, and the sky and distant buildings (three-dimensional objects) are mainly reflected in the feature point extraction area ER. Normally, the feature point FP of a three-dimensional object in the sky or a distant object is not extracted as the feature point FP in the first processing mode in which a large threshold value is set because the feature amount is small. That is, when a large camera shift occurs, in the first processing mode, the feature points FP are not extracted by the predetermined number or more, and the state in which the camera shift cannot be determined continues for the predetermined period or more. As a result, the camera shift determination process is performed by switching from the first process mode to the second process mode. In the second processing mode, since the threshold value for extracting the feature point FP is reduced, the feature point FP derived from the sky or a distant three-dimensional object is extracted.

図13に示すように、空および遠方の立体物に由来する特徴点FPの移動ベクトルVは、車両が移動しているにもかかわらず、ベクトルの大きさはゼロ又はゼロ近傍の値になる。これは、空および遠方の立体物に由来する特徴点FPは、自車両から非常に遠い位置に存在するためである。この結果、大きなカメラずれが生じた場合には、推定値と比較値との値が大きくずれ、カメラずれを検出することができる。   As shown in FIG. 13, the moving vector V of the feature point FP derived from the sky and a distant three-dimensional object has a vector magnitude of zero or a value near zero even though the vehicle is moving. This is because the feature point FP derived from the sky and a distant three-dimensional object exists at a position very far from the own vehicle. As a result, when a large camera shift occurs, the estimated value and the comparison value greatly shift, and the camera shift can be detected.

以上に説明した通り、本実施形態では、第1処理モードによる判定処理と、第2処理モードによる判定処理とのいずれにおいても、特徴点の位置の時間変化から車両(移動体)の移動情報(例えば移動量)の推定値が求められる。そして、いずれの判定処理においても、移動情報の推定値に基づきカメラ21の異常の有無が判定される。すなわち、本構成によれば、第1処理モードと第2処理モードとのいずれにおいても、カメラ21の異常の有無を判定するに際して、車両の移動情報の推定値を得ることができる。   As described above, in the present embodiment, in both the determination processing in the first processing mode and the determination processing in the second processing mode, the movement information of the vehicle (moving body) is calculated from the temporal change of the position of the feature point. For example, an estimated value of the movement amount) is obtained. Then, in any of the determination processes, the presence / absence of abnormality of the camera 21 is determined based on the estimated value of the movement information. That is, according to this configuration, the estimated value of the movement information of the vehicle can be obtained when determining the presence or absence of the abnormality of the camera 21 in both the first processing mode and the second processing mode.

<4.変形例>
以上においては、第2処理モードでカメラずれの有無の判定処理を行う場合に、自動運転が行われる構成としたが、これは例示にすぎない。第2処理モードでカメラずれの有無の判定処理を行う場合に、運転者による運転(手動運転)が行われてもよい。この場合には、制御部12は、第1処理モードから第2処理モードへの切り替えを行う場合に、移動体(車両)に搭載される表示装置6に、第2処理モードに適した運転を行うことを促すメッセージを表示させる処理を行うことが好ましい。表示画面の表示内容には、例えば、カメラずれの判定処理を行う必要があること、および、当該判定処理のために、どのような運転をする必要があるかが含まれてよい。表示装置6による表示処理によって、運転者はカメラずれの判定を行うことが必要であることを認識して、それに応じた運転を開始することができる。なお、画面によるメッセージに加えて、或いは、画面によるメッセージに替えて、例えば音声により第2処理モードに適した運転を促す構成としてもよい。また、第1処理モードで判定処理が行われる場合においても、表示装置6に、第1処理モードに適した運転を行うことを促すメッセージを表示させる構成としてもよい。また、場合によっては、第1処理モードでカメラずれの有無の判定処理を行う場合に、自動運転が行われる構成としてもよい。
<4. Modification>
In the above, the configuration is such that the automatic operation is performed when the determination process of the presence or absence of the camera shift is performed in the second processing mode, but this is merely an example. When performing the determination process of the presence or absence of the camera shift in the second processing mode, driving by the driver (manual driving) may be performed. In this case, when switching from the first processing mode to the second processing mode, the control unit 12 causes the display device 6 mounted on the moving body (vehicle) to perform an operation suitable for the second processing mode. It is preferable to perform a process of displaying a message prompting the user to do so. The display content of the display screen may include, for example, that it is necessary to perform a camera shift determination process, and what kind of driving is required for the determination process. By the display processing by the display device 6, the driver can recognize that it is necessary to determine the camera shift, and can start the driving according to the recognition. In addition to the message displayed on the screen, or in place of the message displayed on the screen, for example, a configuration may be adopted that prompts a driving suitable for the second processing mode by voice. Further, even when the determination process is performed in the first processing mode, the display device 6 may be configured to display a message prompting the driver to perform an operation suitable for the first processing mode. Further, in some cases, the configuration may be such that automatic operation is performed when the process of determining whether or not there is a camera shift is performed in the first processing mode.

また、以上においては、通常時は第1処理モードが使用され、第2処理モードは、第1処理モードで所定の処理結果が得られた場合にのみ使用される構成としたが、これは例示である。第2処理モードは、第1処理モードの処理結果と関係なく、使用されてもよい。例えば、ナビゲーション装置等によって自車両が駐車場以外の場所を走行していると判断される場合には、自車両が低速走行(例えば時速3km以上5km以下)をしていることを条件として、第1処理モードの代わりに第2処理モードを用いたカメラずれの検出処理が行われてよい。   Further, in the above, the first processing mode is normally used, and the second processing mode is used only when a predetermined processing result is obtained in the first processing mode. Is. The second processing mode may be used regardless of the processing result of the first processing mode. For example, when it is determined by the navigation device or the like that the host vehicle is traveling in a place other than the parking lot, it is assumed that the host vehicle is traveling at a low speed (for example, 3 km or more and 5 km or less per hour). The camera shift detection process using the second process mode instead of the one process mode may be performed.

また、以上においては、判定処理のために切り替えて使用可能な処理モードの数を2つとしたが、処理モードの数は3つ以上であってもよい。   Further, in the above, the number of processing modes that can be switched and used for the determination processing is two, but the number of processing modes may be three or more.

また、以上においては、カメラ21の異常検出に用いるデータは、自車両が直進走行している場合に収集される構成とした。ただし、これは例示であり、カメラ21の異常検出に用いるデータは、自車両が直進走行していない場合に収集されてもよい。   Further, in the above description, the data used for detecting the abnormality of the camera 21 is collected when the host vehicle is traveling straight ahead. However, this is an example, and the data used for detecting the abnormality of the camera 21 may be collected when the vehicle is not traveling straight ahead.

<<B.第2実施形態>>
<1.異常検出システム>
次に、第2実施形態について説明する。第2実施形態の説明にあたって、第1実施形態と重複する内容については、特に必要がない場合には、その説明を省略する。また、第1実施形態と重複する部分には、同じ符号を付す。
<< B. Second embodiment >>
<1. Anomaly detection system>
Next, a second embodiment will be described. In the description of the second embodiment, the contents overlapping with those of the first embodiment will be omitted unless particularly necessary. Further, the same reference numerals are given to the same parts as those in the first embodiment.

図14は、本発明の第2実施形態に係る異常検出システムSYS2Aの構成を示すブロック図である。第2実施形態の異常検出システムSYS2Aは、第1実施形態の異常検出システムSYS2と同様に、異常検出装置1Aと、撮影部2と、センサ部3とを備える。異常検出システムSYS2Aも、第1実施形態と同様に、カメラずれを検出するシステムである。なお、撮影部2およびセンサ部3の構成は、第1実施形態と同様であるために、その説明は省略する。   FIG. 14 is a block diagram showing the configuration of the abnormality detection system SYS2A according to the second embodiment of the present invention. Similar to the abnormality detection system SYS2 of the first embodiment, the abnormality detection system SYS2A of the second embodiment includes an abnormality detection device 1A, a photographing unit 2, and a sensor unit 3. The abnormality detection system SYS2A is also a system for detecting a camera shift, as in the first embodiment. Since the configurations of the image capturing unit 2 and the sensor unit 3 are the same as those in the first embodiment, the description thereof will be omitted.

<2.異常検出装置>
異常検出装置1Aは、第1実施形態と同様に、カメラを搭載する車両ごとに備えられる。異常検出装置1Aは、カメラで撮影された撮影画像に基づいて異常を検出する装置(カメラずれ検出装置)である。
<2. Abnormality detection device>
The abnormality detection device 1A is provided for each vehicle equipped with a camera, as in the first embodiment. The abnormality detection device 1A is a device (camera shift detection device) that detects an abnormality based on a captured image captured by a camera.

図14に示すように、異常検出装置1Aは、画像取得部111と、制御部12Aと、記憶部13Aと、を備える。画像取得部111の構成は、第1実施形態と同様であるために、その説明は省略する。   As shown in FIG. 14, the abnormality detection device 1A includes an image acquisition unit 111, a control unit 12A, and a storage unit 13A. The configuration of the image acquisition unit 111 is the same as that of the first embodiment, and therefore its description is omitted.

制御部12Aは、第1実施形態と同様に、例えば、CPU、RAMおよびROM等を備えるコンピュータであり、異常検出装置1Aの全体を統括的に制御する。また、記憶部13Aは、第1実施形態と同様に、不揮発性のメモリであり、ファームウェアとしてのプログラムを含む各種の情報を記憶する。制御部12Aの各種の機能は、CPUが記憶部13Aに記憶されるコンピュータプラグラムに従って演算処理を行うことによって実現される。   As in the first embodiment, the control unit 12A is a computer including, for example, a CPU, a RAM, a ROM, and the like, and controls the entire abnormality detection device 1A as a whole. The storage unit 13A is a non-volatile memory, and stores various kinds of information including a program as firmware, as in the first embodiment. Various functions of the control unit 12A are realized by the CPU performing arithmetic processing according to a computer program stored in the storage unit 13A.

第2実施形態においても、第1実施形態と同様に、制御部12Aは、カメラ21の異常の有無を、カメラ21で撮影された撮影画像から抽出される特徴点の位置の時間変化に基づき判定する判定処理を実行する。判定処理は、第1処理モードと第2処理モードとを選択可能に設けられる。ただし、判定処理の方式、および、処理モードの選択方式が第1実施形態と異なる。以下、この相違点を中心に説明する。なお、本実施形態においてもカメラ21の数は複数であり、各カメラ21について判定処理が行われる。   In the second embodiment as well, similar to the first embodiment, the control unit 12A determines whether or not there is an abnormality in the camera 21 based on the temporal change in the position of the feature point extracted from the captured image captured by the camera 21. Execute the judgment process. The determination process is provided so that the first processing mode and the second processing mode can be selected. However, the determination processing method and the processing mode selection method are different from those in the first embodiment. Hereinafter, this difference will be mainly described. Also in the present embodiment, the number of cameras 21 is plural, and the determination process is performed for each camera 21.

制御部12Aは、モード選択部120、抽出部121、特定部122、推定部123、及び判定部124を備える。モード選択部120、抽出部121、特定部122、推定部123、及び判定部124は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてよい。   The control unit 12A includes a mode selection unit 120, an extraction unit 121, a specification unit 122, an estimation unit 123, and a determination unit 124. The mode selection unit 120, the extraction unit 121, the identification unit 122, the estimation unit 123, and the determination unit 124 are conceptual components. The functions executed by one component may be distributed to a plurality of components, or the functions possessed by a plurality of components may be integrated into one component.

モード選択部120は、第1処理モードと、第2処理モードとを選択する。詳細には、モード選択部120は、車両の速度に応じて第1処理モードと第2処理モードとを選択する。第1処理モードは、第2処理モードに比べて車両の速度が高速である場合に使用される。   The mode selection unit 120 selects the first processing mode and the second processing mode. Specifically, the mode selection unit 120 selects the first processing mode and the second processing mode according to the speed of the vehicle. The first processing mode is used when the speed of the vehicle is higher than that in the second processing mode.

抽出部121は、カメラ21からの撮影画像から第1特徴点及び第2特徴点を含む複数の特徴点を抽出する。抽出部121は、撮影画像を構成する画素それぞれについて特徴量を算出し、特徴量が所定の閾値を超える画素を特徴点として抽出する。所定の閾値は、第1処理モードでは第1閾値、第2処理モードでは第2閾値とされる。第2閾値は第1閾値より小さい。第1閾値は、例えば白線のコーナーのような非常に大きな特徴量を有する特徴点のみが抽出されるように設定される。第2閾値は、路面の細かい凹凸に由来する特徴点が多数抽出されるように設定される。抽出部121は、路面上の特徴点の中から第1特徴点及び第2特徴点を選定する。なお、本実施形態では、所定の平面として路面を想定する。   The extraction unit 121 extracts a plurality of feature points including the first feature point and the second feature point from the image captured by the camera 21. The extraction unit 121 calculates a feature amount for each of the pixels forming the captured image, and extracts a pixel having a feature amount exceeding a predetermined threshold value as a feature point. The predetermined threshold is the first threshold in the first processing mode and the second threshold in the second processing mode. The second threshold is smaller than the first threshold. The first threshold value is set so that only feature points having a very large feature amount such as a white line corner are extracted. The second threshold value is set so that a large number of feature points derived from fine irregularities on the road surface are extracted. The extraction unit 121 selects the first feature point and the second feature point from the feature points on the road surface. In this embodiment, a road surface is assumed as the predetermined plane.

特定部122は、異なる時刻で撮影された2つの撮影画像から抽出された第1特徴点及び第2特徴点の各オプティカルフローを導出する。オプティカルフローは、異なる時刻で撮影された2つの撮影画像間における特徴点の動きを示す動きベクトルである。異なる時刻の間隔は、画像取得部11のフレーム周期と同一であってもよく、画像取得部11のフレーム周期の複数倍であってもよい。   The identifying unit 122 derives each optical flow of the first feature point and the second feature point extracted from the two captured images captured at different times. The optical flow is a motion vector indicating the motion of the feature point between two captured images captured at different times. The interval between different times may be the same as the frame period of the image acquisition unit 11, or may be a multiple of the frame period of the image acquisition unit 11.

特定部122は、第1特徴点及び第2特徴点の各オプティカルフローを用いて、異なる時刻で撮影された2つの撮影画像から抽出された第1特徴点及び第2特徴点の各位置変化を算出する。特定部122は、第1特徴点の位置変化及び第2特徴点の位置変化に基づき、所定の平面との交線が互いに平行となる面の組を2組特定する。なお、特定部122の処理は、第1処理モードと第2処理モードとで同じであってよい。   The identifying unit 122 uses the optical flows of the first feature point and the second feature point to determine the positional changes of the first feature point and the second feature point extracted from the two captured images captured at different times. calculate. The specifying unit 122 specifies two sets of planes whose intersecting lines with a predetermined plane are parallel to each other based on the position change of the first feature point and the position change of the second feature point. The processing of the identifying unit 122 may be the same in the first processing mode and the second processing mode.

推定部123は、特定部122で特定した面の組に基づきカメラの姿勢(カメラの取付け角度)を推定する。例えば抽出部121がフロントカメラから第1特徴点及び第2特徴点を抽出した場合、推定部123はフロントカメラの姿勢(カメラの取付け角度)を推定する。なお、推定部123の処理は、第1処理モードと第2処理モードとで同じであってよい。   The estimation unit 123 estimates the posture of the camera (camera attachment angle) based on the set of surfaces identified by the identification unit 122. For example, when the extraction unit 121 extracts the first feature point and the second feature point from the front camera, the estimation unit 123 estimates the posture of the front camera (camera mounting angle). The processing of the estimation unit 123 may be the same in the first processing mode and the second processing mode.

判定部124は、推定部123によって推定されたカメラ21の姿勢に基づき、カメラずれの有無を判定する。カメラずれ有りと判定されると、異常検出装置1Aがカメラ21の異常を検出したことになる。例えば、この異常を異常検出装置1Aが車両のユーザに報知することで、車両のユーザはディーラによるカメラの取付調整を依頼する等の対策をとることが可能となる。なお、判定部124の処理は、第1処理モードと第2処理モードとで同じであってよい。   The determination unit 124 determines whether or not there is a camera shift based on the posture of the camera 21 estimated by the estimation unit 123. If it is determined that there is a camera shift, the abnormality detection device 1A has detected an abnormality of the camera 21. For example, the abnormality detection device 1A notifies the user of the vehicle of this abnormality, so that the user of the vehicle can take measures such as requesting a camera mounting adjustment by the dealer. The processing of the determination unit 124 may be the same in the first processing mode and the second processing mode.

なお、画像取得部11、モード選択部120、抽出部121、特定部122、及び推定部123によって姿勢推定装置14が構成される。姿勢推定装置14との観点からは、制御部12Aは、車両(移動体)に搭載されるカメラ21で撮影された撮影画像から抽出される特徴点の位置の変化に基づきカメラ21の姿勢を推定する推定処理を実行する。推定処理は、第1処理モードと第2処理モードとを選択可能に設けられる。姿勢推定装置14を備える異常検出装置1Aは、姿勢推定装置14による推定処理に基づいてカメラ21の異常の有無を判定する。   The image estimating unit 11, the mode selecting unit 120, the extracting unit 121, the specifying unit 122, and the estimating unit 123 configure the posture estimating device 14. From the viewpoint of the posture estimation device 14, the control unit 12A estimates the posture of the camera 21 based on the change in the position of the feature point extracted from the captured image captured by the camera 21 mounted on the vehicle (moving body). The estimation process is performed. The estimation processing is provided so that the first processing mode and the second processing mode can be selected. The abnormality detection device 1A including the posture estimation device 14 determines whether or not there is an abnormality in the camera 21 based on the estimation processing by the posture estimation device 14.

図15は、本発明の第2実施形態に係る異常検出装置1Aにおけるカメラずれの検出フローの一例を示すフローチャートである。カメラずれの検出処理は、例えば、イグニッションオン(電気自動車の場合パワーオン)の後、所定のタイミングで繰り返し行われる。以下、カメラ21がフロントカメラである場合を例に挙げてカメラずれの検出処理を説明する。   FIG. 15 is a flowchart showing an example of a camera shift detection flow in the abnormality detection device 1A according to the second embodiment of the present invention. The camera shift detection process is repeatedly performed at a predetermined timing after the ignition is turned on (power on in the case of an electric vehicle). Hereinafter, the detection process of the camera shift will be described taking the case where the camera 21 is the front camera as an example.

図15に示すように、まず、制御部12Aは、カメラ21を搭載する車両が直進しているか否かを監視する(ステップS101)。当該監視は、第1実施形態の場合と同様である。制御部12Aは、車両が直進走行を開始するまでカメラずれの有無の判定を行わない。なお、後述するステップS104の処理において、互いに重なっていない第1特徴点のオプティカルフローと第2特徴点のオプティカルフローが導出できればカメラの姿勢を推定することができるので、本実施形態とは異なり車両の進行方向が曲がっているときにカメラずれの判定を行ってもよい。   As shown in FIG. 15, first, the control unit 12A monitors whether or not the vehicle equipped with the camera 21 is traveling straight (step S101). The monitoring is the same as in the case of the first embodiment. The control unit 12A does not determine whether or not there is a camera shift until the vehicle starts traveling straight ahead. In the process of step S104 described later, if the optical flow of the first feature point and the optical flow of the second feature point that do not overlap each other can be derived, the posture of the camera can be estimated, so unlike the present embodiment, the vehicle The camera misalignment may be determined when the traveling direction of is curved.

本実施形態では、車両が直進していると判断される場合(ステップS101でYes)、モード選択部120により判定処理の処理モードの選択が行われる(ステップS102)。図16は、処理モードの選択処理の一例を示すフローチャートである。図16は、図15のステップS102の詳細例を示すフローチャートである。   In this embodiment, when it is determined that the vehicle is traveling straight (Yes in step S101), the mode selection unit 120 selects the processing mode of the determination process (step S102). FIG. 16 is a flowchart showing an example of processing mode selection processing. FIG. 16 is a flowchart showing a detailed example of step S102 in FIG.

まず、モード選択部120は、車両の速度が第1速度範囲内か否かを確認する(ステップS1021)。車両の速度は、例えば速度センサ31から得られる。第1速度範囲は、例えば時速5km以上30km未満とされる。   First, the mode selection unit 120 confirms whether or not the speed of the vehicle is within the first speed range (step S1021). The speed of the vehicle is obtained from the speed sensor 31, for example. The first speed range is, for example, not less than 5 km / h and less than 30 km / h.

車両の速度が第1速度範囲内である場合(ステップS1021でYes)、モード選択部120は第1処理モードを選択する(ステップS1022)。一方、車両の速度が第1速度範囲外である場合(ステップS1021でNo)、モード選択部120は、車両の速度が第2速度範囲内か否かを確認する(ステップS1023)。第2速度範囲は、例えば時速3km以上5km未満とされる。   When the speed of the vehicle is within the first speed range (Yes in step S1021), the mode selection unit 120 selects the first processing mode (step S1022). On the other hand, when the vehicle speed is outside the first speed range (No in step S1021), the mode selection unit 120 confirms whether the vehicle speed is within the second speed range (step S1023). The second speed range is, for example, 3 km or more per hour and less than 5 km per hour.

車両の速度が第2速度範囲内である場合(ステップS1023でYes)、モード選択部120は第2処理モードを選択する(ステップS1024)。一方、車両の速度が第2速度範囲外である場合(ステップS1023でNo)、処理モードの選択を行わず、ステップS101に戻る。例えば、車両の速度が時速30km以上である場合や、時速3km未満の場合にステップS101に戻る。車両の速度が速すぎると、特徴点の動きを追えない可能性があり、車両の速度が遅すぎるとオプティカルフローの長さが短くなって判定の精度が低下する可能性があることを考慮するものである。   When the speed of the vehicle is within the second speed range (Yes in step S1023), the mode selection unit 120 selects the second processing mode (step S1024). On the other hand, when the speed of the vehicle is outside the second speed range (No in step S1023), the processing mode is not selected and the process returns to step S101. For example, when the speed of the vehicle is 30 km / h or higher, or when the speed is less than 3 km / h, the process returns to step S101. Consider that if the vehicle speed is too fast, it may not be possible to follow the movement of the feature points, and if the vehicle speed is too slow, the length of the optical flow may be shortened and the accuracy of the determination may decrease. It is a thing.

なお、本実施形態では、第1速度範囲内か否かが確認された後に第2速度範囲内か否かが確認される構成としたが、これは例示にすぎない。例えば、第2速度範囲内か否かが確認された後に第1速度範囲内か否かが確認される構成としてもよい。   In the present embodiment, the configuration is made in which it is confirmed whether or not it is within the second speed range after it is confirmed whether or not it is within the first speed range, but this is merely an example. For example, the configuration may be such that it is confirmed whether or not it is within the first speed range after it is confirmed whether or not it is within the second speed range.

図15に戻って、処理モードが選択されると、抽出部121によって特徴点の抽出が行われる(ステップS103)。特徴点の抽出方法は第1実施形態と同様である。第1処理モードが選択された場合、白線のコーナーのようなコーナー度が高い特徴点のみが抽出される。一方、第2処理モードが選択された場合、白線のコーナーのようなコーナー度が高い特徴点以外に、例えば路面(例えばアスファルト路面)の凹凸に由来する特徴点が多数得られる。   Returning to FIG. 15, when the processing mode is selected, the extraction unit 121 extracts feature points (step S103). The feature point extraction method is the same as that in the first embodiment. When the first processing mode is selected, only feature points with a high degree of corner, such as white line corners, are extracted. On the other hand, when the second processing mode is selected, a large number of feature points derived from, for example, the unevenness of the road surface (eg, asphalt road surface) are obtained in addition to the feature points having a high degree of corner such as the corners of the white line.

なお、特徴点の抽出前に撮影画像に対して前処理が行われてよい。例えば、第1処理モードが選択された場合に、追跡精度が悪い特徴点が誤って抽出されないように、特徴点の抽出前に撮影画像にノイズを除去する処理が施されてよい。また、抽出部121による特徴点の抽出処理によって、以下の処理に必要となる特徴点が得られない場合が起こり得る。このような場合には、カメラずれの有無が判定できないと判断されて、カメラずれの検出処理が一旦終了されてよい。   Note that preprocessing may be performed on the captured image before extracting the characteristic points. For example, when the first processing mode is selected, noise may be removed from the captured image before extracting the characteristic points so that the characteristic points with poor tracking accuracy are not erroneously extracted. In addition, the feature point extraction process performed by the extraction unit 121 may not provide the feature points required for the following processes. In such a case, it may be determined that the presence / absence of a camera shift cannot be determined, and the camera shift detection process may be temporarily terminated.

本実施形態では、抽出部121は、第1特徴点FP1と第2特徴点FP2とを抽出する。図17は、抽出部121によって抽出された第1特徴点FP1と第2特徴点FP2とを例示する図である。なお、図17は、カメラ21で撮影された撮影画像Pを模式的に示した図である。撮影画像Pは、車両のボディが映り込む領域BOを含む。第1特徴点FP1及び第2特徴点FP2は路面RS上に存在する。図17においては、路面に描かれている制限速度を示す数字の部分に第1特徴点FP1及び第2特徴点FP2が存在する。   In the present embodiment, the extraction unit 121 extracts the first feature point FP1 and the second feature point FP2. FIG. 17 is a diagram exemplifying the first feature points FP1 and the second feature points FP2 extracted by the extraction unit 121. Note that FIG. 17 is a diagram schematically showing a captured image P captured by the camera 21. The captured image P includes a region BO in which the body of the vehicle is reflected. The first feature point FP1 and the second feature point FP2 exist on the road surface RS. In FIG. 17, the first characteristic point FP1 and the second characteristic point FP2 are present in the portion of the numeral indicating the speed limit drawn on the road surface.

なお、抽出部121で抽出される特徴点の数は2つより多いことがある。特に、第2処理モードでは多数の特徴点が抽出される。特徴点が2つより多く抽出された場合には、複数の特徴点の中から、以下の処理に適した2つの特徴点を選定する構成としてよい。また、第1特徴点FP1と第2特徴点FP2との組を2つ以上抽出して、それぞれに対して以下の処理を行ってもよい。   Note that the number of feature points extracted by the extraction unit 121 may be more than two. In particular, a large number of feature points are extracted in the second processing mode. When more than two feature points are extracted, two feature points suitable for the following processing may be selected from the plurality of feature points. Alternatively, two or more sets of the first feature point FP1 and the second feature point FP2 may be extracted and the following process may be performed on each of them.

図15に戻って、第1特徴点FP1及び第2特徴点FP2が抽出されると、特定部122は、第1特徴点FP1のオプティカルフローOF1と、第2特徴点FP2のオプティカルフローOF2と、を導出する(ステップS104)。   Returning to FIG. 15, when the first feature point FP1 and the second feature point FP2 are extracted, the identifying unit 122 determines the optical flow OF1 of the first feature point FP1 and the optical flow OF2 of the second feature point FP2. Is derived (step S104).

図18は、第1特徴点FP1のオプティカルフローOF1及び第2特徴点FP2のオプティカルフローOF2を導出する手法を説明するための図である。図18は、図17と同様に便宜的に示された模式図である。図18は、図17に示す撮影画像(前フレームP)の撮影後、所定時間が経過した後にカメラ21で撮影された撮影画像(現フレームP’)である。図17に示す撮影画像Pの撮影後、所定時間が経過するまでの間に、車両は前方に直進している。図18に示す丸印FP1Pは、図17に示す撮影画像Pの撮影時点における第1特徴点FP1の位置を示す。図18に示す丸印FP2Pは、図17に示す撮影画像Pの撮影時点における第2特徴点FP2の位置を示す。   FIG. 18 is a diagram for explaining a method of deriving the optical flow OF1 of the first feature point FP1 and the optical flow OF2 of the second feature point FP2. FIG. 18 is a schematic diagram shown for convenience as in FIG. FIG. 18 is a photographed image (current frame P ′) photographed by the camera 21 after a predetermined time has elapsed after the photographed image (previous frame P) shown in FIG. 17 was photographed. After the captured image P shown in FIG. 17 is captured, the vehicle is traveling straight ahead until a predetermined time elapses. A circle FP1P shown in FIG. 18 indicates the position of the first feature point FP1 at the time of capturing the captured image P shown in FIG. A circle FP2P shown in FIG. 18 indicates the position of the second feature point FP2 at the time of shooting the shot image P shown in FIG.

図18に示すように、車両が前方に直進すると、車両の前方に存在する第1特徴点FP1及び第2特徴点FP2は車両に近づく。すなわち、第1特徴点FP1及び第2特徴点FP2は、現フレームP’と前フレームPとで異なる位置に現れる。特定部122は、現フレームP’の第1特徴点FP1と前フレームPの第1特徴点FP1とを、その近傍の画素値に基づいて対応付け、対応付けた第1特徴点FP1のそれぞれの位置に基づいて、第1特徴点FP1のオプティカルフローOF1を導出する。同様に、特定部122は、現フレームP’の第2特徴点FP2と前フレームPの第2特徴点FP2とを、その近傍の画素値に基づいて対応付け、対応付けた第2特徴点FP2のそれぞれの位置に基づいて、第2特徴点FP2のオプティカルフローOF2を導出する。   As shown in FIG. 18, when the vehicle travels straight ahead, the first feature point FP1 and the second feature point FP2 existing in front of the vehicle approach the vehicle. That is, the first feature point FP1 and the second feature point FP2 appear at different positions in the current frame P ′ and the previous frame P. The identifying unit 122 associates the first feature point FP1 of the current frame P ′ and the first feature point FP1 of the previous frame P on the basis of the pixel values in the vicinity of each of the first feature points FP1. The optical flow OF1 of the first feature point FP1 is derived based on the position. Similarly, the identifying unit 122 associates the second feature point FP2 of the current frame P ′ with the second feature point FP2 of the previous frame P based on the pixel values in the vicinity thereof, and the associated second feature point FP2. The optical flow OF2 of the second feature point FP2 is derived based on the respective positions of.

第1特徴点FP1のオプティカルフローOF1と第2特徴点FP2のオプティカルフローOF2が導出されると、特定部122は、特徴点に対し、記憶部13Aに記憶されているカメラ21に内部パラメータを用いて座標変換を行う。座標変換では、カメラ21の収差補正と、歪補正とが行われる。収差補正は、カメラ21の光学系の収差による歪みを補正するために行われる。具体的には樽型歪みや糸巻歪みなど歪曲収差の補正である。歪み補正は、カメラ21の光学系そのものの歪みを補正するために行われる。具体的には魚眼補正などである。座標変換により、特徴点の座標は、被写体が透視投影によって撮影された場合に二次元画像上で得られる座標に変換される。   When the optical flow OF1 of the first feature point FP1 and the optical flow OF2 of the second feature point FP2 are derived, the identifying unit 122 uses the internal parameter for the camera 21 stored in the storage unit 13A for the feature point. Coordinate conversion. In the coordinate conversion, aberration correction and distortion correction of the camera 21 are performed. Aberration correction is performed to correct distortion due to aberration of the optical system of the camera 21. Specifically, it is correction of distortion aberration such as barrel distortion and pincushion distortion. The distortion correction is performed to correct the distortion of the optical system itself of the camera 21. Specifically, it is fisheye correction. By the coordinate conversion, the coordinates of the feature points are converted into the coordinates obtained on the two-dimensional image when the subject is photographed by perspective projection.

特徴点の座標変換が行われると、特定部122は、図19に示すように、第1特徴点FP1のオプティカルフローOF1の始点を頂点SP1、第1特徴点FP1のオプティカルフローOF1の終点を頂点EP1、第2特徴点FP2のオプティカルフローOF2の始点を頂点SP2、及び第2特徴点FP2のオプティカルフローOF2の終点を頂点EPとする四角形QLを仮想的に形成する(ステップS105、図15参照)。以降、説明のために四角形や、該四角形の辺などの幾何的要素を仮想的に形成して用いる。しかし、実際の処理では、特徴点の座標や直線の方向などのベクトル演算に基づき、同等の作用を持つ幾何的要素に基づかない処理としてもよい。   When the coordinate conversion of the feature points is performed, the specifying unit 122 sets the start point of the optical flow OF1 of the first feature point FP1 to the vertex SP1 and the end point of the optical flow OF1 of the first feature point FP1 to the vertex as illustrated in FIG. A quadrangle QL is virtually formed in which EP1 is the start point of the optical flow OF2 of the second feature point FP2 as the vertex SP2, and the end point of the optical flow OF2 of the second feature point FP2 is the vertex EP (step S105, see FIG. 15). . Hereinafter, for the sake of explanation, a quadrangle and geometric elements such as sides of the quadrangle are virtually formed and used. However, in the actual processing, the processing may not be based on the geometrical elements having the same action, based on the vector calculation of the coordinates of the characteristic points and the direction of the straight line.

四角形QLが仮想的に形成されると、図20に示すように、特定部122は、四角形QLと、記憶部13Aに記憶されているカメラ21の内部パラメータとを用いて、三次元空間におけるカメラ21の投影面IMG上に四角形QLを移動させ、投影面IMG上での四角形QL1を仮想的に生成する(ステップS106)。   When the quadrangle QL is virtually formed, as shown in FIG. 20, the identifying unit 122 uses the quadrangle QL and the internal parameters of the camera 21 stored in the storage unit 13A to determine the camera in the three-dimensional space. The quadrangle QL is moved onto the projection plane IMG 21 to virtually generate the quadrangle QL1 on the projection plane IMG (step S106).

なお説明のため、以下のように辺を定義する。四角形QL1の第1辺SD1は、四角形QL(図19参照)において、頂点SP1および頂点SP2を結んだ辺に対応する。つまり、前フレームPにおける第1特徴点FP1と第2特徴点FP2を結んだ辺に相当する。同様に、四角形QL1の第2辺SD2は、四角形QLにおいて、頂点SP2および頂点EP2を結んだ辺に対応する。つまり、第2特徴点FP2のオプティカルフローOF2に相当する。同様に、四角形QL1の第3辺SD3は、四角形QLにおいて、頂点EP1および頂点EP2を結んだ辺に対応する。つまり、現フレームP’における第1特徴点FP1と第2特徴点FP2とを結んだ辺に相当する。同様に、四角形QL1の第4辺SD4は、四角形QLにおいて、頂点SP1および頂点EP1を結んだ辺に対応する。つまり、第1特徴点FP1のオプティカルフローOF1に相当する。   For the sake of explanation, edges are defined as follows. The first side SD1 of the quadrangle QL1 corresponds to the side connecting the vertices SP1 and SP2 in the quadrangle QL (see FIG. 19). That is, it corresponds to the side connecting the first feature point FP1 and the second feature point FP2 in the previous frame P. Similarly, the second side SD2 of the quadrangle QL1 corresponds to the side connecting the vertices SP2 and EP2 in the quadrangle QL. That is, it corresponds to the optical flow OF2 of the second feature point FP2. Similarly, the third side SD3 of the quadrangle QL1 corresponds to the side connecting the vertices EP1 and EP2 in the quadrangle QL. That is, it corresponds to the side connecting the first feature point FP1 and the second feature point FP2 in the current frame P '. Similarly, the fourth side SD4 of the quadrangle QL1 corresponds to the side connecting the vertices SP1 and EP1 in the quadrangle QL. That is, it corresponds to the optical flow OF1 of the first feature point FP1.

また、以下のように面を定義する(図20参照)。四角形QL1の第1辺SD1とカメラ21の光学中心OCとが含まれる面を第1面F1とする。同様に、四角形QL1の第2辺SD2とカメラ21の光学中心OCとが含まれる面を第2面F2とする。同様に、四角形QL1の第3辺SD3とカメラ21の光学中心OCとが含まれる面を第3面F3とする。同様に、四角形QL1の第4辺SD4とカメラ21の光学中心OCとが含まれる面を第4面F4とする。   Further, the surface is defined as follows (see FIG. 20). A surface including the first side SD1 of the quadrangle QL1 and the optical center OC of the camera 21 is referred to as a first surface F1. Similarly, a surface including the second side SD2 of the quadrangle QL1 and the optical center OC of the camera 21 is referred to as a second surface F2. Similarly, a surface including the third side SD3 of the quadrangle QL1 and the optical center OC of the camera 21 is referred to as a third surface F3. Similarly, a surface including the fourth side SD4 of the quadrangle QL1 and the optical center OC of the camera 21 is referred to as a fourth surface F4.

次に、特定部122は、所定の平面との交線が互いに平行になる面の組を2組特定する(ステップS107)。所定の平面とはあらかじめ平面の法線が分かっている面である。具体的には車両が移動を行っている平面であり、つまり路面である。所定の平面は、厳密な平面でなくてもよく、特定部122が所定の平面との交線が互いに平行になる面の組を2組特定する際に平面とみなすことができるものであればよい。   Next, the specifying unit 122 specifies two sets of surfaces whose intersecting lines with a predetermined plane are parallel to each other (step S107). The predetermined plane is a plane whose normal is known in advance. Specifically, it is the plane on which the vehicle is moving, that is, the road surface. The predetermined plane need not be a strict plane, and can be regarded as a plane when the specifying unit 122 specifies two sets of planes whose intersecting lines with the predetermined plane are parallel to each other. Good.

本実施形態では、異常検出装置1Aは、車両が直進している場合に、異なる時刻に撮影された2つの画像から特徴点を抽出し、該特徴点のオプティカルフローを算出する。また、該特徴点は路面などの所定の平面上に位置している静止物から抽出される。したがって、算出されるオプティカルフローは実世界上では、車両に対する静止物の相対的な位置変化を表す。つまり向きが逆となった車両の移動ベクトルである。   In the present embodiment, the abnormality detection device 1A extracts feature points from two images captured at different times and calculates the optical flow of the feature points when the vehicle is traveling straight. In addition, the feature points are extracted from a stationary object located on a predetermined plane such as a road surface. Therefore, the calculated optical flow represents the relative position change of the stationary object with respect to the vehicle in the real world. In other words, it is the movement vector of the vehicle whose direction is reversed.

四角形QL1の第2辺SD2と第4辺SD4とは、共に特徴点のオプティカルフローに対応するので、共に実世界上では車両の移動ベクトルに相当する。したがって、路面上では互いに平行となると想定される。   The second side SD2 and the fourth side SD4 of the quadrangle QL1 both correspond to the optical flow of the feature point, and thus both correspond to the movement vector of the vehicle in the real world. Therefore, it is assumed that they are parallel to each other on the road surface.

また、四角形QL1の第1辺SD1と第3辺SD3とは、共に特徴点同士の位置関係なので、実世界上では車両の移動に伴う静止物同士の位置関係に相当する。移動前の位置関係が第1辺SD1に相当し、移動後の位置関係が第3辺SD3に相当する。このとき静止物の位置は変わらないため、移動前後で位置関係は変わらない。したがって、路面上ではこれも互いに平行となると想定される。   Further, since the first side SD1 and the third side SD3 of the quadrangle QL1 are both in the positional relationship between the feature points, they correspond to the positional relationship between the stationary objects associated with the movement of the vehicle in the real world. The positional relationship before the movement corresponds to the first side SD1, and the positional relationship after the movement corresponds to the third side SD3. At this time, since the position of the stationary object does not change, the positional relationship does not change before and after the movement. Therefore, it is assumed that these are also parallel to each other on the road surface.

したがって、特定部122は、路面との交線が平行な面として、第2面F2と第4面F4との組と、第1面F1と第3面F3との組と、の2つの組を特定する。つまり、特定部122は、オプティカルフローを含む面同士を1つの組とし、同時刻に撮影された特徴点を含む面同士を他の組として、計2つの組を特定する。   Therefore, the specifying unit 122 sets two sets of a set of the second face F2 and the fourth face F4 and a set of the first face F1 and the third face F3 as the faces whose intersection lines with the road surface are parallel to each other. Specify. In other words, the specifying unit 122 specifies a total of two sets, with the faces including the optical flow as one set and the faces including the feature points captured at the same time as another set.

なお、図20において四角形QL2は、現フレームP’の撮影時点での第1特徴点FP1の3次元空間(実世界)上の位置、現フレームP’の撮影時点での第2特徴点FP2の3次元空間上の位置、前フレームPの撮影時点での第1特徴点FP1の3次元空間上の位置、及び前フレームPの撮影時点での第2特徴点FP2の3次元空間上の位置を頂点とする四角形である。第1面F1は、四角形QL2の第1辺SD11を含む。同様に、第2面F2は四角形QL2の第2辺SD12を含み、第3面F3は四角形QL2の第3辺SD13を含み、第4面F4は四角形QL2の第4辺SD14を含む。このとき、上記のように四角形QL2は路面上に形成される平行四辺形であると想定される。   In FIG. 20, a quadrangle QL2 indicates the position of the first feature point FP1 in the three-dimensional space (real world) at the time of shooting the current frame P ′, and the second feature point FP2 at the time of shooting the current frame P ′. The position in the three-dimensional space, the position of the first feature point FP1 in the three-dimensional space at the time of capturing the previous frame P, and the position of the second feature point FP2 in the three-dimensional space at the time of capturing the previous frame P are It is a quadrangle with the apex. The first surface F1 includes the first side SD11 of the quadrangle QL2. Similarly, the second surface F2 includes the second side SD12 of the quadrangle QL2, the third surface F3 includes the third side SD13 of the quadrangle QL2, and the fourth surface F4 includes the fourth side SD14 of the quadrangle QL2. At this time, the quadrangle QL2 is assumed to be a parallelogram formed on the road surface as described above.

次に、推定部123は、路面の法線を算出する(ステップS108)。まず、推定部123は、特定部122で特定した面の組の一方である第1面F1と第3面F3とに基づき、面同士の交線の方向を求める。詳細には、第1面F1と第3面F3との交線CL1の向きを求める(図21参照)。交線CL1の方向ベクトルV1は、第1面F1の法線ベクトル及び第3面F3の法線ベクトルそれぞれと垂直なベクトルである。したがって、推定部123は、第1面F1の法線ベクトルと第3面F3の法線ベクトルとの外積により、交線CL1の方向ベクトルV1を求める。第1面F1と第3面F3は、路面との交線が平行となるため、方向ベクトルV1は路面と平行になる。   Next, the estimation unit 123 calculates the normal line of the road surface (step S108). First, the estimation unit 123 obtains the direction of the line of intersection between the faces based on the first face F1 and the third face F3, which are one of the sets of faces identified by the identifying unit 122. Specifically, the direction of the line of intersection CL1 between the first surface F1 and the third surface F3 is obtained (see FIG. 21). The direction vector V1 of the intersection line CL1 is a vector perpendicular to the normal vector of the first surface F1 and the normal vector of the third surface F3. Therefore, the estimation unit 123 obtains the direction vector V1 of the intersection line CL1 by the cross product of the normal vector of the first surface F1 and the normal vector of the third surface F3. The first surface F1 and the third surface F3 have parallel lines of intersection with the road surface, so that the direction vector V1 is parallel to the road surface.

同様に、推定部123は、特定部122で特定した面の組の他方である第2面F2と第4面F4との交線の方向を求める。詳細には第2面F2と第4面F4との交線CL2の向きを求める(図22参照)。交線CL2の方向ベクトルV2は、第2面F2の法線ベクトル及び第4面F4の法線ベクトルそれぞれと垂直なベクトルである。したがって、推定部123は、第2面F2の法線ベクトルと第4面F4の法線ベクトルとの外積により、交線CL2の方向ベクトルV2を求める。第2面F2と第4面F4も同様に、路面との交線が平行となるため、方向ベクトルV2は路面と平行になる。   Similarly, the estimation unit 123 obtains the direction of the line of intersection between the second surface F2 and the fourth surface F4 that is the other of the pair of surfaces identified by the identifying unit 122. Specifically, the direction of the line of intersection CL2 between the second surface F2 and the fourth surface F4 is obtained (see FIG. 22). The direction vector V2 of the intersection line CL2 is a vector perpendicular to the normal vector of the second surface F2 and the normal vector of the fourth surface F4. Therefore, the estimation unit 123 obtains the direction vector V2 of the intersection line CL2 by the outer product of the normal vector of the second surface F2 and the normal vector of the fourth surface F4. Similarly, in the second surface F2 and the fourth surface F4, the lines of intersection with the road surface are also parallel, so the direction vector V2 is parallel to the road surface.

推定部123は、方向ベクトルV1と方向ベクトルV2との外積により、四角形QL2の面の法線、すなわち路面の法線を算出する。推定部123が算出した路面の法線はカメラ21のカメラ座標系で算出されるため、実際の路面の法線である垂直方向との違いから3次元空間の座標系を求め、路面に対するカメラ21の姿勢を推定することができる。その推定結果から推定部123は車両に対するカメラ21の姿勢を推定する(ステップS109)。なお、ステップS108の算出処理は、例えば公知のARToolkitを利用して実行することができる。   The estimation unit 123 calculates the normal of the surface of the quadrangle QL2, that is, the normal of the road surface by the cross product of the direction vector V1 and the direction vector V2. Since the normal line of the road surface calculated by the estimating unit 123 is calculated in the camera coordinate system of the camera 21, the coordinate system of the three-dimensional space is obtained from the difference from the vertical direction which is the normal line of the actual road surface, and the camera 21 with respect to the road surface is obtained. Can be estimated. The estimation unit 123 estimates the attitude of the camera 21 with respect to the vehicle from the estimation result (step S109). The calculation process of step S108 can be executed by using, for example, a known ARToolkit.

カメラ21の姿勢推定を行うと、判定部124は、推定部123によって推定されたカメラ21の姿勢に基づき、カメラずれの有無を判定する(ステップS110)。カメラ21の取付時の姿勢は、予め記憶部13Aに記憶されており、記憶部13Aに記憶されるデータとの比較によりカメラずれの有無を判定することができる。ステップS110におけるカメラずれの有無の判定が完了すると、図15に示すフローが終了する。   After estimating the posture of the camera 21, the determination unit 124 determines whether or not there is a camera shift based on the posture of the camera 21 estimated by the estimation unit 123 (step S110). The attitude of the camera 21 at the time of attachment is stored in advance in the storage unit 13A, and the presence or absence of the camera shift can be determined by comparison with the data stored in the storage unit 13A. When the determination as to whether or not there is a camera shift in step S110 is completed, the flow shown in FIG. 15 ends.

以上からわかるように、本実施形態の異常検出装置1Aによれば、車両(移動体)の速度が速い場合と遅い場合とで、カメラずれ(カメラ21の異常)の有無を判定する判定処理の処理モードを変更する。これにより、車両の速度に合った適切な判定処理を行うことができる。例えば出庫時や狭い道を走行する場合等の低速で走行する場合には、第2処理モードが利用される。このようなシーンでは、コーナー度が高い特徴点を見つけ難い可能性が高く、特徴点の抽出閾値を下げる第2処理モードを利用した判定処理は適切と言える。一方、車両がある程度の速度で走行するシーンでは、道路に白線表示が記載されていることが多く、特徴点の追跡を行い易く判定精度を向上できる第1処理モードを利用した判定処理は適切と言える。本実施形態によれば、判定精度をなるべく良くしつつ、カメラ21の異常の有無を判定する機会を増やすことができる。   As can be seen from the above, according to the abnormality detection device 1A of the present embodiment, the determination process of determining whether or not there is a camera shift (abnormality of the camera 21) depending on whether the vehicle (moving body) is fast or slow. Change the processing mode. As a result, it is possible to perform appropriate determination processing suitable for the speed of the vehicle. For example, when traveling at a low speed such as when leaving the warehouse or traveling on a narrow road, the second processing mode is used. In such a scene, there is a high possibility that it will be difficult to find a feature point with a high degree of corners, and it can be said that the determination process using the second processing mode that lowers the feature point extraction threshold is appropriate. On the other hand, in a scene in which the vehicle travels at a certain speed, white lines are often displayed on the road, and the determination processing using the first processing mode that can easily track the feature points and improve the determination accuracy is appropriate. I can say. According to the present embodiment, it is possible to increase the chances of determining the presence or absence of abnormality of the camera 21, while improving the determination accuracy as much as possible.

また、本実施形態の姿勢推定装置14によれば、車両(移動体)の速度が速い場合と遅い場合とで、カメラ21の姿勢を推定する推定処理の処理モードを変更する。これにより、車両の速度に合った適切な推定処理を行うことができる。例えば出庫時や狭い道を走行する場合等の低速で走行するシーンでは、コーナー度が高い特徴点を見つけ難可能性が高く、特徴点の抽出閾値を下げる第2処理モードを利用した推定処理は適切と言える。一方、車両がある程度の速度で走行するシーンでは、道路に白線表示が記載されていることが多く、特徴点の追跡を行い易く推定精度を向上できる第1処理モードを利用した推定処理は適切と言える。本実施形態によれば、姿勢推定の精度をなるべく良くしつつ、カメラ21の姿勢推定の機会を増やすことができる。   Further, according to the posture estimation device 14 of the present embodiment, the processing mode of the estimation process for estimating the posture of the camera 21 is changed depending on whether the speed of the vehicle (moving body) is fast or slow. This makes it possible to perform an appropriate estimation process that matches the speed of the vehicle. For example, in a low-speed scene such as when leaving a warehouse or traveling on a narrow road, there is a high possibility that it is difficult to find a feature point with a high degree of cornering, and the estimation process using the second processing mode that lowers the feature point extraction threshold is Can be said to be appropriate. On the other hand, in a scene in which the vehicle travels at a certain speed, white lines are often displayed on the road, and the estimation processing using the first processing mode that can easily track the feature points and improve the estimation accuracy is appropriate. I can say. According to the present embodiment, it is possible to increase the chances of posture estimation of the camera 21 while improving the accuracy of posture estimation as much as possible.

また、本実施形態では、第1処理モードによる判定処理と、第2処理モードによる判定処理とのいずれにおいても、特徴点の位置の時間変化からカメラ21の姿勢が推定される。そして、いずれの判定処理においても、推定されたカメラ21の姿勢に基づきカメラ21の異常の有無が判定される。すなわち、本構成によれば、第1処理モードと第2処理モードとのいずれにおいても、カメラ21の異常の有無を判定するに際して、カメラ21の姿勢の推定値を得ることができる。   Further, in the present embodiment, the posture of the camera 21 is estimated from the temporal change in the position of the feature point in both the determination processing in the first processing mode and the determination processing in the second processing mode. Then, in any of the determination processes, the presence or absence of abnormality of the camera 21 is determined based on the estimated posture of the camera 21. That is, according to this configuration, the estimated value of the posture of the camera 21 can be obtained when determining whether or not there is an abnormality in the camera 21 in both the first processing mode and the second processing mode.

<3.変形例>
上記の説明ではカメラ21の光学中心OCと、四角形QL1の1つの辺を含む平面を特定するとしたがこの限りではない。当該平面の法線方向の特定をもって平面を特定することとしてもよい。例えば光学中心OCから各頂点への方向ベクトルの外積により平面の法線方向を求め、該法線方向によって面を特定するとしてもよい。この場合、第1面F1の法線方向と第3面F3の法線方向とを1つの組とし、第2面F2の法線方向と第4面F4の法線方向とを他の組として2つの組を特定するとよい。
<3. Modification>
In the above description, the plane including the optical center OC of the camera 21 and one side of the quadrangle QL1 is specified, but the present invention is not limited to this. The plane may be specified by specifying the normal direction of the plane. For example, the normal direction of the plane may be obtained by the outer product of the direction vectors from the optical center OC to each vertex, and the surface may be specified by the normal direction. In this case, the normal direction of the first surface F1 and the normal direction of the third surface F3 are set as one set, and the normal direction of the second surface F2 and the normal direction of the fourth surface F4 are set as another set. Two sets should be identified.

また、面は平行移動させてもよい。例えば第1面F1の代わりに、第1面F1を平行移動させた面を第3面F3と組としてもよい。平行移動しても所定の平面との交線の向きは変わらないからである。   Also, the planes may be translated. For example, instead of the first surface F1, a surface obtained by moving the first surface F1 in parallel may be combined with the third surface F3. This is because the direction of the line of intersection with the predetermined plane does not change even if it moves in parallel.

また、第1処理モードによる判定処理と、第2処理モードによる判定処理とのいずれにおいても、特徴点の位置の時間変化から車両の移動情報の推定値が求められ、移動情報の推定値に基づきカメラ21の異常の有無が判定されてもよい。   Further, in both the determination processing in the first processing mode and the determination processing in the second processing mode, the estimated value of the movement information of the vehicle is obtained from the temporal change of the position of the feature point, and based on the estimated value of the movement information. The presence / absence of abnormality of the camera 21 may be determined.

<<C.第3実施形態>>
<1.異常検出システム>
次に、第3実施形態について説明する。第3実施形態の説明にあたって、第1実施形態および第2実施形態と重複する内容については、特に必要がない場合には、その説明を省略する。また、第1実施形態および第2実施形態と重複する部分には、同じ符号を付す。
<< C. Third Embodiment >>
<1. Anomaly detection system>
Next, a third embodiment will be described. In the description of the third embodiment, the contents overlapping with those of the first embodiment and the second embodiment will be omitted unless particularly necessary. Further, the same reference numerals are given to the portions that overlap with the first embodiment and the second embodiment.

図23は、本発明の第3実施形態に係る異常検出システムSYS2Bの構成を示すブロック図である。第3実施形態の異常検出システムSYS2Bは、第1実施形態の異常検出システムSYS2および第2実施形態の異常検出システムSYS2Aと同様に、異常検出装置1Bと、撮影部2と、センサ部3とを備える。異常検出システムSYS2Bも、第1実施形態および第2実施形態と同様に、カメラずれを検出するシステムである。なお、撮影部2およびセンサ部3の構成は、第1実施形態および第2実施形態と同様であるために、その説明は省略する。   FIG. 23 is a block diagram showing the configuration of the abnormality detection system SYS2B according to the third embodiment of the present invention. The abnormality detection system SYS2B of the third embodiment includes an abnormality detection device 1B, an imaging unit 2, and a sensor unit 3 as in the abnormality detection system SYS2 of the first embodiment and the abnormality detection system SYS2A of the second embodiment. Prepare The abnormality detection system SYS2B is also a system that detects a camera shift, as in the first and second embodiments. Since the configurations of the image capturing unit 2 and the sensor unit 3 are the same as those in the first and second embodiments, the description thereof will be omitted.

<2.異常検出装置>
異常検出装置1Bは、第1実施形態および第2実施形態と同様に、カメラを搭載する車両ごとに備えられる。異常検出装置1Bは、カメラで撮影された撮影画像に基づいて異常を検出する装置(カメラずれ検出装置)である。
<2. Abnormality detection device>
The abnormality detection device 1B is provided for each vehicle equipped with a camera, as in the first and second embodiments. The abnormality detection device 1B is a device (camera deviation detection device) that detects an abnormality based on a captured image captured by a camera.

図23に示すように、異常検出装置1Bは、画像取得部111と、制御部12Bと、記憶部13Bと、を備える。画像取得部111の構成は、第1実施形態および第2実施形態と同様であるために、その説明は省略する。制御部12Bおよび記憶部13Bについて、第1実施形態および第2実施形態と異なる部分を有する。なお、記憶部13Bは、制御部12Bの機能を実現するためのプログラムについて、第1実施形態および第2実施形態と異なるものを記憶する。   As shown in FIG. 23, the abnormality detection device 1B includes an image acquisition unit 111, a control unit 12B, and a storage unit 13B. The configuration of the image acquisition unit 111 is the same as that of the first and second embodiments, and thus the description thereof is omitted. The control unit 12B and the storage unit 13B have different parts from those of the first and second embodiments. The storage unit 13B stores a program for realizing the function of the control unit 12B, which is different from those in the first and second embodiments.

第3実施形態においても、第1実施形態および第2実施形態と同様に、制御部12Bは、カメラ21の異常の有無を、カメラ21で撮影された撮影画像から抽出される特徴点の位置の時間変化に基づき判定する判定処理を実行する。判定処理は、第1処理モードと第2処理モードとを選択可能に設けられる。ただし、例えば判定処理の方式が第1実施形態および第2実施形態と異なる。また、第3実施形態では、車両が移動中だけでなく、車両が停車中においてもカメラ21の異常の有無を検出することができる。この点においても、第3実施形態は、第1実施形態および第2実施形態と異なる。なお、本実施形態においてもカメラ21の数は複数であり、各カメラ21について判定処理が行われる。   In the third embodiment as well, similar to the first and second embodiments, the control unit 12B determines the presence / absence of abnormality of the camera 21 based on the position of the feature point extracted from the captured image captured by the camera 21. A determination process for determining based on the change over time is executed. The determination process is provided so that the first processing mode and the second processing mode can be selected. However, for example, the method of determination processing is different from that of the first and second embodiments. Further, in the third embodiment, it is possible to detect whether or not there is an abnormality in the camera 21 not only when the vehicle is moving but also when the vehicle is stopped. Also in this respect, the third embodiment is different from the first and second embodiments. Also in the present embodiment, the number of cameras 21 is plural, and the determination process is performed for each camera 21.

図24は、本発明の第3実施形態に係る異常検出装置1Bにおけるカメラずれの検出フローの一例を示すフローチャートである。カメラずれの検出処理は、例えば、イグニッションオン(電気自動車の場合パワーオン)の後、所定のタイミングで繰り返し行われる。以下、カメラ21がフロントカメラである場合を例に挙げてカメラずれの検出処理を説明する。   FIG. 24 is a flowchart showing an example of a camera shift detection flow in the abnormality detection device 1B according to the third embodiment of the present invention. The camera shift detection process is repeatedly performed at a predetermined timing after the ignition is turned on (power on in the case of an electric vehicle). Hereinafter, the detection process of the camera shift will be described taking the case where the camera 21 is the front camera as an example.

図24に示すように、まず、制御部12Bは、カメラ21を搭載する車両が停車中であるか否かを確認する(ステップS201)。車両が停車中であるか否かについては、例えば速度センサ31から得られる速度情報により確認することができる。   As shown in FIG. 24, first, the control unit 12B confirms whether or not the vehicle equipped with the camera 21 is stopped (step S201). Whether or not the vehicle is stopped can be confirmed by, for example, speed information obtained from the speed sensor 31.

車両が停車中である場合(ステップS201でYes)、制御部12Bは停車時用判定処理を実行する(ステップS202)。停車時用判定処理は、特徴点の位置の時間変化に基づきカメラ21の異常の有無を判定する判定処理とは異なる処理でカメラ21の異常の有無(カメラずれの有無)を判定する。   When the vehicle is stopped (Yes in step S201), the control unit 12B executes the stop time determination process (step S202). The stoppage determination process determines whether or not there is an abnormality in the camera 21 (whether or not there is a camera shift) by a process different from the determination process that determines whether or not there is an abnormality in the camera 21 based on the change in the position of the feature point with time.

これによれば、車両が移動している場合だけでなく、車両が停止している場合にもカメラ21の異常の有無を判定することができるために、判定の機会を増やすことができる。すなわち、カメラ21の異常に素早く気付くことができる。カメラずれは、車両が駐車中等にカメラ21に物体がぶつかって生じることがある。このために、車両の停車中にもカメラずれの判定を行うことは有効である。   According to this, since it is possible to determine whether or not there is an abnormality in the camera 21 not only when the vehicle is moving but also when the vehicle is stopped, it is possible to increase the chances of the determination. That is, the abnormality of the camera 21 can be noticed quickly. The camera shift may occur when an object hits the camera 21 while the vehicle is parked or the like. Therefore, it is effective to determine the camera shift even when the vehicle is stopped.

本実施形態においては、停車時用判定処理においては、カメラ21で撮影された撮影画像から得られる車両(移動体)のボディのエッジ画像に基づきカメラ21の異常の有無が判定される。例えば上述した図4や図17等に示すように、カメラ21の撮影画像には車両のボディが映る。カメラずれが生じると、ボディの映り方が変化する。このために、ボディのエッジ画像を利用してカメラずれを検出することができる。   In the present embodiment, in the stop-time determination process, it is determined whether or not the camera 21 is abnormal based on the edge image of the body of the vehicle (moving body) obtained from the captured image captured by the camera 21. For example, as shown in FIG. 4 and FIG. 17 described above, the body of the vehicle is reflected in the captured image of the camera 21. When the camera shift occurs, the appearance of the body changes. Therefore, the camera shift can be detected using the edge image of the body.

図25は、停車時用判定処理を用いたカメラずれの検出フローの一例を示すフローチャートである。図25は、図24のステップS202の詳細例を示すフローチャートである。   FIG. 25 is a flowchart showing an example of a camera shift detection flow using the vehicle stop determination process. FIG. 25 is a flowchart showing a detailed example of step S202 of FIG.

制御部12Bは、車両が停車中にカメラ21から取得した撮影画像に対して、前処理(ぼかし)を行う(ステップS2021)。前処理は、撮影画像を平滑化する処理であり、ノイズを低減する目的で行われる。前処理は、例えば、ガウシアンフィルタ処理やメディアンフィルタ処理であってよい。また、前処理は、撮影画像の部位ごとに処理条件を変更して実施されてもよい。例えば、撮影画像の中央側が先鋭であり、端側がぼやけた印象である場合には、画像の真ん中側のぼかしが端側より強調された処理となるように、撮影画像の部位ごとに処理条件が変更されてよい。   The control unit 12B performs preprocessing (blurring) on the captured image acquired from the camera 21 while the vehicle is stopped (step S2021). The pre-process is a process for smoothing a captured image, and is performed for the purpose of reducing noise. The preprocessing may be, for example, Gaussian filter processing or median filter processing. Further, the preprocessing may be performed by changing the processing condition for each part of the captured image. For example, when the center side of the captured image is sharp and the edge side is blurred, the processing condition is different for each part of the captured image so that the blurring on the middle side of the image is emphasized from the edge side. May be changed.

制御部12Bは、前処理を行った撮影画像に対して、エッジ検出を行う(ステップS2022)。エッジは、画像内の画素の画素値が急激に変化している部分であり、画像内のオブジェクトの輪郭を表す線である。制御部12Bは、撮影画像内の画素の画素値を微分処理することにより、撮影画像内のエッジを検出する。撮影画像内の画素の画素値を微分処理すると、撮影画像内の画素の画素値が急激に変化している部分の微分値が大きくなる。制御部12Bは、予め決められた基準に基づいて、微分値が大きい部分をエッジとして検出する。なお、エッジ検出の手法としては、例えばCanny法等が用いられてよい。   The control unit 12B performs edge detection on the preprocessed captured image (step S2022). The edge is a portion in which the pixel value of the pixel in the image is abruptly changed, and is a line representing the contour of the object in the image. The control unit 12B detects the edge in the captured image by differentiating the pixel value of the pixel in the captured image. When the pixel value of the pixel in the captured image is differentiated, the differential value of the portion in which the pixel value of the pixel in the captured image is rapidly changed becomes large. The control unit 12B detects a portion having a large differential value as an edge based on a predetermined reference. The Canny method or the like may be used as the edge detection method.

制御部12Bは、エッジ検出を行って得られたエッジ画像に対して、マスク処理を行う(ステップS2023)。制御部12Bは、車種毎のボディ形状に応じて予め設定される車両のエッジの探索領域を除いて画像のマスク処理を行う。これにより、例えば風景等の不要なエッジを適切に除去することができ、ボディのエッジを誤検出する可能性を低減することができる。また、これにより、カメラずれの判定のための画像を迅速に取得することができる。マスク処理は行われなくてもよい。   The control unit 12B performs mask processing on the edge image obtained by performing edge detection (step S2023). The control unit 12B performs the masking process on the image excluding the vehicle edge search region that is preset according to the body shape of each vehicle type. As a result, unnecessary edges such as scenery can be appropriately removed, and the possibility of falsely detecting the edge of the body can be reduced. In addition, this makes it possible to quickly acquire an image for determining the camera shift. The mask processing may not be performed.

制御部12Bは、マスク処理後に得られるエッジ画像に対して、不要なエッジを除去する処理を行う(ステップS2024)。例えば、制御部12Bは、マスク処理後に得られるエッジ画像のうち、車両のボディの設計値から想定されるエッジと異なると判断されるエッジを除去する処理を行う。   The control unit 12B performs processing for removing unnecessary edges on the edge image obtained after the mask processing (step S2024). For example, the control unit 12B performs a process of removing, from the edge image obtained after the masking process, an edge determined to be different from the edge assumed from the design value of the vehicle body.

制御部12Bは、取得したボディのエッジ画像と、基準画像とのパターンマッチング処理を行う(ステップS2025)。基準画像は、予め記憶部13Bに記憶された画像であり、カメラ21が車両に正しく取り付けられた状態の撮影画像から得られた比較用の画像である。   The control unit 12B performs pattern matching processing between the acquired edge image of the body and the reference image (step S2025). The reference image is an image stored in the storage unit 13B in advance, and is an image for comparison obtained from the captured image in the state where the camera 21 is properly attached to the vehicle.

制御部12Bは、パターンマッチング処理が終了すると、パターンマッチング処理の結果に基づいてカメラずれの判定を行う(ステップS2026)。制御部12Bは、例えば、取得されたエッジ画像の基準画像に対する一致率を算出して、一致率に基づいてカメラずれの有無を判定する。   When the pattern matching process ends, the control unit 12B determines the camera shift based on the result of the pattern matching process (step S2026). The control unit 12B calculates, for example, the matching rate of the acquired edge image with respect to the reference image, and determines whether or not there is a camera shift based on the matching rate.

図24に戻って、車両が停車中でない場合(ステップS201でNo)、制御部12Bは車両が直進しているか否かを確認する(ステップS203)。車両が直進しているか否かの確認手法は、第1実施形態と同様であってよい。車両が直進していないと判断される場合(ステップS203でNo)、ステップS201に戻る。   Returning to FIG. 24, when the vehicle is not stopped (No in step S201), the control unit 12B confirms whether the vehicle is traveling straight (step S203). The method of checking whether the vehicle is going straight may be the same as that of the first embodiment. When it is determined that the vehicle is not traveling straight (No in step S203), the process returns to step S201.

車両が直進していると判断される場合(ステップS203でYes)、制御部12Bは、車両の速度が第1速度範囲内か否かを確認する(ステップS204)。車両の速度は、例えば速度センサ31から得られる。第1速度範囲は、例えば時速5km以上30km未満とされる。   When it is determined that the vehicle is traveling straight (Yes in step S203), the control unit 12B confirms whether or not the speed of the vehicle is within the first speed range (step S204). The speed of the vehicle is obtained from the speed sensor 31, for example. The first speed range is, for example, not less than 5 km / h and less than 30 km / h.

車両の速度が第1速度範囲内である場合(ステップS204でYes)、制御部12Bは、第1処理モードによる判定処理を実行する(ステップS205)。第1処理モードによる判定処理は、カメラ21の撮影画像からカメラ21の姿勢を推定する姿勢推定処理の結果に基づいてカメラずれの有無を判定する処理である。当該判定処理は、第2実施形態で説明した処理と同様であるために、詳細な説明は省略する。なお、第1処理モードであるために、カメラ21の姿勢推定に用いられる特徴点はコーナー度が高く、特徴点の抽出誤差を少なくできる。すなわち、カメラ21の姿勢の推定処理の精度を良くして、カメラずれの判定の精度も向上することができる。   When the speed of the vehicle is within the first speed range (Yes in step S204), the control unit 12B executes the determination process in the first processing mode (step S205). The determination process in the first processing mode is a process of determining the presence / absence of a camera shift based on the result of the posture estimation process that estimates the posture of the camera 21 from the captured image of the camera 21. Since the determination process is the same as the process described in the second embodiment, detailed description will be omitted. Since it is in the first processing mode, the feature points used for the posture estimation of the camera 21 have a high degree of corners, and the feature point extraction error can be reduced. That is, the accuracy of the posture estimation process of the camera 21 can be improved, and the accuracy of the camera shift determination can be improved.

車両の速度が第1速度範囲外である場合(ステップS204でNo)、制御部12Bは、車両の速度が第2速度範囲内か否かを確認する(ステップS206)。第2速度範囲は、例えば時速3km以上5km未満とされる。車両の速度が第2速度範囲外である場合(ステップS206でNo)、カメラずれの判定が行われることなく、ステップS201に戻る。   When the vehicle speed is outside the first speed range (No in step S204), the control unit 12B confirms whether the vehicle speed is within the second speed range (step S206). The second speed range is, for example, 3 km or more per hour and less than 5 km per hour. When the vehicle speed is outside the second speed range (No in step S206), the process returns to step S201 without determining the camera shift.

車両の速度が第2速度範囲内である場合(ステップS206でYes)、制御部12Bは、第2処理モードによる判定処理を実行する(ステップS207)。第2処理モードによる判定処理は、カメラ21の撮影画像から車両の移動情報(例えば移動量)を推定する移動情報推定の結果に基づいてカメラずれの有無を判定する処理である。当該判定処理は、第1実施形態で説明した処理(図9参照)と同様であるために、詳細な説明は省略する。なお、第2処理モードであるために、白線のコーナーのようなコーナー度が高い特徴点が抽出できないような場合でも特徴点を抽出してカメラずれの有無の判定処理を行える。例えば、車両の出庫時や狭い道路の走行時等においてもカメラずれの有無の判定を行うことができ、カメラずれの有無の判定機会を増やしてカメラずれを素早く検出することができる。   When the speed of the vehicle is within the second speed range (Yes in step S206), the control unit 12B executes the determination process in the second processing mode (step S207). The determination process in the second processing mode is a process of determining the presence or absence of a camera shift based on the result of movement information estimation that estimates movement information (for example, the amount of movement) of the vehicle from the image captured by the camera 21. The determination process is the same as the process described in the first embodiment (see FIG. 9), and thus detailed description will be omitted. Since the second processing mode is used, even if a feature point having a high degree of corner, such as a white line corner, cannot be extracted, the feature point can be extracted to determine whether or not there is a camera shift. For example, the presence / absence of a camera shift can be determined even when the vehicle is leaving the vehicle or running on a narrow road, and the opportunity for determining the presence / absence of a camera shift can be increased to quickly detect the camera shift.

第3実施形態によれば、車両の速度状態に応じて適切なカメラずれの判定処理を行うことができるために、カメラずれの有無の判定を精度良く行うことができ、更には、カメラずれの検出を素早く行うことができる。   According to the third embodiment, since it is possible to perform an appropriate camera shift determination process according to the speed state of the vehicle, it is possible to accurately determine whether or not there is a camera shift, and further The detection can be done quickly.

また、本実施形態では、第1処理モードによる判定処理においては、特徴点の位置の時間変化からカメラ21の姿勢が推定され、推定されたカメラ21の姿勢に基づきカメラ21の異常の有無が判定される。第2処理モードによる判定処理においては、特徴点の位置の時間変化から車両(移動体)の移動情報(例えば移動量)の推定値が求められ、移動情報の推定値に基づきカメラ21の異常の有無が判定される。車両の速度に応じて、カメラ21の異常の有無を判定する判定処理の方式が使い分けられる構成であり、速度に応じてカメラ21の異常の有無を適切に判断することができる。   Further, in the present embodiment, in the determination processing in the first processing mode, the orientation of the camera 21 is estimated from the time change of the position of the feature point, and it is determined whether there is an abnormality in the camera 21 based on the estimated orientation of the camera 21. To be done. In the determination processing in the second processing mode, the estimated value of the movement information (for example, the movement amount) of the vehicle (moving body) is obtained from the temporal change of the position of the feature point, and the abnormality of the camera 21 is determined based on the estimated value of the movement information. Presence / absence is determined. The configuration of the determination process for determining whether or not there is an abnormality in the camera 21 is properly used according to the speed of the vehicle, and it is possible to appropriately determine whether or not there is an abnormality in the camera 21 according to the speed.

なお、場合によっては、第1処理モードによる判定処理において、特徴点の位置の時間変化から車両の移動情報の推定値が求められ、移動情報の推定値に基づきカメラ21の異常の有無が判定されてよい。第2処理モードによる判定処理において、特徴点の位置の時間変化からカメラ21の姿勢が推定され、推定されたカメラ21の姿勢に基づきカメラ21の異常の有無が判定されてよい。   In some cases, in the determination process in the first processing mode, the estimated value of the vehicle movement information is obtained from the temporal change in the position of the feature point, and the presence or absence of abnormality of the camera 21 is determined based on the estimated value of the movement information. You may In the determination process in the second processing mode, the posture of the camera 21 may be estimated from the temporal change in the position of the feature point, and the presence or absence of abnormality of the camera 21 may be determined based on the estimated posture of the camera 21.

<<D.留意事項>>
本明細書における実施形態や変形例の構成は、本発明の例示にすぎない。実施形態や変形例の構成は、本発明の技術的思想を超えない範囲で適宜変更されてもよい。また、複数の実施形態及び変形例は、可能な範囲で組み合わせて実施されてよい。
<< D. Notes >>
The configurations of the embodiments and modified examples in the present specification are merely examples of the present invention. The configurations of the embodiments and the modifications may be appropriately modified without departing from the technical idea of the present invention. Further, the plurality of embodiments and modified examples may be implemented in combination within a possible range.

また、以上においては、コンピュータプログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これらの機能のうちの少なくとも一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの少なくとも一部は、ソフトウェア的に実現されてもよい。   Further, although it has been described above that various functions are realized by software by the arithmetic processing of the CPU according to the computer program, at least a part of these functions is realized by an electrical hardware circuit. May be. On the contrary, at least a part of the functions realized by the hardware circuit may be realized by software.

本発明は、自動駐車等の移動体の運転支援を行うカメラの異常検知や姿勢推定を行うために利用することができる。また、本発明は、ドライブレコーダ等の運転情報を記録するカメラの異常検知や姿勢の推定を行うために利用することができる。また、本発明は、カメラの異常情報や姿勢の推定情報を利用して撮影画像を補正する補正装置等に利用することができる。また、本発明は、複数の移動体とネットワークにより通信可能に設けられるセンターと連携して動作する装置等に利用することができる。当該装置は、例えば、センターに撮影画像を送信する場合に、カメラの異常情報や姿勢の推定情報を撮影画像とセットにして送信する構成であってよい。そして、センターでは、カメラの姿勢の推定情報を用いて、各種画像処理(カメラの姿勢も考慮した画像の視点・視方向を変更する処理、例えば車両の車体前方方向の画像に視点・視方向変換した画像を生成する等)、画像を用いた計測処理におけるカメラの姿勢に対する補正処理、カメラ姿勢の経年変化の統計処理(多くの車両のデータ)、等を行い、ユーザへの有用な提供データを生成する等する。   INDUSTRIAL APPLICABILITY The present invention can be used to detect an abnormality in a camera that assists driving of a moving body such as automatic parking and to estimate a posture. Further, the present invention can be used to detect an abnormality in a camera that records driving information such as a drive recorder and estimate the posture. Further, the present invention can be used in a correction device or the like that corrects a captured image by using abnormality information of a camera and estimated posture information. Further, the present invention can be used for an apparatus or the like that operates in cooperation with a center that is communicable with a plurality of mobile units via a network. For example, when transmitting the captured image to the center, the apparatus may be configured to transmit camera abnormality information and posture estimation information together with the captured image. Then, the center uses various kinds of image processing (processing for changing the viewpoint / viewing direction of the image in consideration of the camera attitude, for example, converting the viewpoint / viewing direction into an image in the front direction of the vehicle body of the vehicle, using the estimated information of the camera attitude. Generated image, etc.), correction processing for the camera posture in measurement processing using the image, statistical processing of secular change of camera posture (data of many vehicles), etc. to provide useful data to the user. Generate, etc.

1、1A、1B・・・異常検出装置
5・・・自動運転制御装置
6・・・表示装置
12、12A、12B・・・制御部
21・・・カメラ
FP・・・特徴点
SYS1・・・移動体制御システム
T1・・・第1閾値
T2・・・第2閾値
1, 1A, 1B ... Abnormality detection device 5 ... Automatic operation control device 6 ... Display device 12, 12A, 12B ... Control unit 21 ... Camera FP ... Characteristic point SYS1 ... Mobile control system T1 ... first threshold T2 ... second threshold

Claims (15)

移動体に搭載されるカメラの異常を検出する異常検出装置であって、
前記カメラの異常の有無を、前記カメラで撮影された撮影画像から抽出される特徴点の位置の時間変化に基づき判定する判定処理を実行する制御部を備え、
前記判定処理は、
前記特徴点を抽出する閾値を第1閾値とする第1処理モードと、
前記閾値を前記第1閾値より小さい第2閾値とする第2処理モードと、
を選択可能に設けられ、
前記第1処理モードは、前記第2処理モードに比べて、前記移動体の速度が高速である場合に使用される、異常検出装置。
An abnormality detection device for detecting an abnormality of a camera mounted on a moving body,
A control unit that executes a determination process of determining whether or not there is an abnormality in the camera based on a temporal change in the position of a feature point extracted from a captured image captured by the camera,
The determination process is
A first processing mode in which a threshold for extracting the feature points is a first threshold;
A second processing mode in which the threshold is a second threshold smaller than the first threshold;
Is provided so that
The first processing mode is an abnormality detection device used when the speed of the moving body is higher than that in the second processing mode.
前記第1処理モードは、通常時に使用される処理モードであり、
前記第2処理モードは、前記第1処理モードにより所定の処理結果が得られた場合に使用される処理モードである、請求項1に記載の異常検出装置。
The first processing mode is a processing mode that is normally used,
The abnormality detection device according to claim 1, wherein the second processing mode is a processing mode used when a predetermined processing result is obtained in the first processing mode.
前記所定の処理結果には、前記カメラに異常が有るとの処理結果が含まれる、請求項2に記載の異常検出装置。   The abnormality detection device according to claim 2, wherein the predetermined processing result includes a processing result indicating that the camera has an abnormality. 前記所定の処理結果には、前記カメラの異常の有無を所定期間判定することができていないとの処理結果が含まれる、請求項2又は3に記載の異常検出装置。   The abnormality detection device according to claim 2, wherein the predetermined processing result includes a processing result indicating that the presence or absence of abnormality of the camera cannot be determined for a predetermined period. 前記制御部は、前記移動体の周辺環境を前記カメラで撮影された撮影画像に基づき認識する認識処理を実行可能に設けられ、
前記制御部は、通常時において、前記移動体の速度が前記第2処理モードに対応する速度である場合には、前記認識処理を前記判定処理よりも優先し、
前記制御部は、前記第2処理モードの実行が決まった場合に、前記認識処理よりも前記判定処理を優先する、請求項2から4のいずれか1項に記載の異常検出装置。
The control unit is provided to be able to perform a recognition process for recognizing the surrounding environment of the moving body based on a captured image captured by the camera,
In a normal time, the control unit prioritizes the recognition process over the determination process when the speed of the moving body is a speed corresponding to the second processing mode,
The abnormality detection device according to claim 2, wherein the control unit prioritizes the determination process over the recognition process when execution of the second processing mode is determined.
前記制御部は、前記第1処理モードから前記第2処理モードに切り替える場合に、前記移動体に搭載される表示装置に、前記第2処理モードに適した運転を行うことを促すメッセージを表示させる処理を行う、請求項1から5のいずれか1項に記載の異常検出装置。   When switching from the first processing mode to the second processing mode, the control unit causes a display device mounted on the moving body to display a message urging to perform an operation suitable for the second processing mode. The abnormality detection device according to any one of claims 1 to 5, which performs processing. 前記制御部は、前記第1処理モードから前記第2処理モードに切り替える場合に、前記移動体の自動運転を制御する自動運転制御装置に対して、自動運転を要求する、請求項1から6のいずれか1項に記載の異常検出装置。   7. The control unit requests automatic operation to an automatic operation control device that controls automatic operation of the moving body when switching from the first processing mode to the second processing mode. The abnormality detection device according to any one of items. 前記第1処理モードによる前記判定処理と、前記第2処理モードによる前記判定処理とのいずれにおいても、前記特徴点の位置の時間変化から前記移動体の移動情報の推定値が求められ、前記移動情報の推定値に基づき前記カメラの異常の有無が判定される、請求項1から7のいずれか1項に記載の異常検出装置。   In both the determination processing in the first processing mode and the determination processing in the second processing mode, the estimated value of the movement information of the moving body is obtained from the temporal change in the position of the characteristic point, and the movement is performed. The abnormality detection device according to claim 1, wherein presence or absence of abnormality of the camera is determined based on an estimated value of information. 前記第1処理モードによる前記判定処理と、前記第2処理モードによる前記判定処理とのいずれにおいても、前記特徴点の位置の時間変化から前記カメラの姿勢が推定され、推定された前記カメラの姿勢に基づき前記カメラの異常の有無が判定される、請求項1に記載の異常検出装置。   In both the determination processing in the first processing mode and the determination processing in the second processing mode, the orientation of the camera is estimated from the temporal change in the position of the feature point, and the estimated orientation of the camera The abnormality detection device according to claim 1, wherein the presence or absence of abnormality of the camera is determined based on. 前記第1処理モードによる前記判定処理においては、前記特徴点の位置の時間変化から前記カメラの姿勢が推定され、推定された前記カメラの姿勢に基づき前記カメラの異常の有無が判定され、
前記第2処理モードによる前記判定処理においては、前記特徴点の位置の時間変化から前記移動体の移動情報の推定値が求められ、前記移動情報の推定値に基づき前記カメラの異常の有無が判定される、請求項1に記載の異常検出装置。
In the determination processing in the first processing mode, the orientation of the camera is estimated from the temporal change in the position of the feature point, and the presence or absence of abnormality of the camera is determined based on the estimated orientation of the camera,
In the determination processing in the second processing mode, the estimated value of the movement information of the moving body is obtained from the time change of the position of the characteristic point, and it is determined whether or not there is an abnormality in the camera based on the estimated value of the movement information. The abnormality detection device according to claim 1, which is performed.
前記制御部は、前記移動体が停車中である場合に、前記判定処理とは異なる処理で前記カメラの異常の有無を判定する停車時用判定処理を実行する、請求項1又は10に記載の異常検出装置。   11. The control unit according to claim 1 or 10, wherein when the mobile body is stopped, a vehicle stop determination process for determining whether or not there is an abnormality in the camera is performed by a process different from the determination process. Anomaly detection device. 前記停車時用判定処理においては、前記カメラで撮影された撮影画像から得られる前記移動体のボディのエッジ画像に基づき前記カメラの異常の有無が判定される、請求項11に記載の異常検出装置。   The abnormality detection device according to claim 11, wherein in the determination processing for when the vehicle is stopped, presence or absence of abnormality of the camera is determined based on an edge image of a body of the moving body obtained from a captured image captured by the camera. . 移動体に搭載されるカメラで撮影された撮影画像から抽出される特徴点の位置の時間変化に基づき前記カメラの姿勢を推定する推定処理を実行する制御部を備え、
前記推定処理は、
前記特徴点を抽出する閾値を第1閾値とする第1処理モードと、
前記閾値を前記第1閾値より小さい第2閾値とする第2処理モードと、
を選択可能に設けられ、
前記第1処理モードは、前記第2処理モードに比べて、前記移動体の速度が高速である場合に使用される、姿勢推定装置。
A control unit that executes an estimation process for estimating the posture of the camera based on the temporal change in the position of the feature point extracted from the captured image captured by the camera mounted on the moving body,
The estimation process is
A first processing mode in which a threshold for extracting the feature points is a first threshold;
A second processing mode in which the threshold is a second threshold smaller than the first threshold;
Is provided so that
The posture estimation device used in the first processing mode when the speed of the moving body is higher than that in the second processing mode.
請求項1から7のいずれか1項に記載の異常検出装置と、
前記移動体の自動運転を制御する自動運転制御装置と、
を備え、
少なくとも前記第2処理モードで前記判定処理を行う場合に、前記移動体を自動運転させる、移動体制御システム。
An abnormality detection device according to any one of claims 1 to 7,
An automatic driving control device for controlling the automatic driving of the moving body,
Equipped with
A mobile control system that automatically drives the mobile when the determination process is performed at least in the second processing mode.
装置によって、移動体に搭載されるカメラの異常を検出する異常検出方法であって、
前記カメラの異常の有無を、前記カメラで撮影された撮影画像から抽出される特徴点の位置の時間変化に基づき判定する処理工程を備え、
前記処理工程は、
前記特徴点を抽出する閾値を第1閾値とする第1処理モードと、
前記閾値を前記第1閾値より小さい第2閾値とする第2処理モードと、
を選択可能に設けられ、
前記第1処理モードは、前記第2処理モードに比べて、前記移動体の速度が高速である場合に使用される、異常検出方法。
An abnormality detection method for detecting an abnormality of a camera mounted on a moving body by a device,
A process step of determining whether or not there is an abnormality in the camera based on a temporal change in the position of a feature point extracted from a captured image captured by the camera,
The processing step is
A first processing mode in which a threshold for extracting the feature points is a first threshold;
A second processing mode in which the threshold is a second threshold smaller than the first threshold;
Is provided so that
The first processing mode is an abnormality detection method used when the speed of the moving body is higher than that of the second processing mode.
JP2019144530A 2018-09-13 2019-08-06 Abnormality detection device, abnormality detection method, posture estimation device, and mobile body control system Active JP7270499B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/557,004 US20200090347A1 (en) 2018-09-13 2019-08-30 Apparatus for estimating movement information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018191566 2018-10-10
JP2018191566 2018-10-10

Publications (2)

Publication Number Publication Date
JP2020060550A true JP2020060550A (en) 2020-04-16
JP7270499B2 JP7270499B2 (en) 2023-05-10

Family

ID=70218942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019144530A Active JP7270499B2 (en) 2018-09-13 2019-08-06 Abnormality detection device, abnormality detection method, posture estimation device, and mobile body control system

Country Status (1)

Country Link
JP (1) JP7270499B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021032678A (en) * 2019-08-23 2021-03-01 株式会社デンソーテン Device and method for estimating attitude
CN113899307A (en) * 2020-07-06 2022-01-07 本田技研工业株式会社 Processing device, processing method, and storage medium
CN115082571A (en) * 2022-07-20 2022-09-20 深圳云游四海信息科技有限公司 Anomaly detection method and system for in-road parking camera
JP7359922B1 (en) 2022-09-26 2023-10-11 株式会社デンソーテン Information processing device, information processing method and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003329411A (en) * 2002-05-14 2003-11-19 Matsushita Electric Ind Co Ltd Camera calibration device
WO2014034064A1 (en) * 2012-08-30 2014-03-06 株式会社デンソー Image processing device and storage medium
JP2015202835A (en) * 2014-04-16 2015-11-16 株式会社デンソー Attachment error display control device of on-vehicle camera and attachment error detection device
JP2017211200A (en) * 2016-05-23 2017-11-30 株式会社デンソー Camera calibrating device, and camera calibrating method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003329411A (en) * 2002-05-14 2003-11-19 Matsushita Electric Ind Co Ltd Camera calibration device
WO2014034064A1 (en) * 2012-08-30 2014-03-06 株式会社デンソー Image processing device and storage medium
JP2015202835A (en) * 2014-04-16 2015-11-16 株式会社デンソー Attachment error display control device of on-vehicle camera and attachment error detection device
JP2017211200A (en) * 2016-05-23 2017-11-30 株式会社デンソー Camera calibrating device, and camera calibrating method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021032678A (en) * 2019-08-23 2021-03-01 株式会社デンソーテン Device and method for estimating attitude
CN113899307A (en) * 2020-07-06 2022-01-07 本田技研工业株式会社 Processing device, processing method, and storage medium
US11868135B2 (en) 2020-07-06 2024-01-09 Honda Motor Co., Ltd. Processing device, processing method, and medium for evaluating map reliability for vehicles
CN113899307B (en) * 2020-07-06 2024-03-22 本田技研工业株式会社 Processing device, processing method, and storage medium
CN115082571A (en) * 2022-07-20 2022-09-20 深圳云游四海信息科技有限公司 Anomaly detection method and system for in-road parking camera
JP7359922B1 (en) 2022-09-26 2023-10-11 株式会社デンソーテン Information processing device, information processing method and program
JP2024047398A (en) * 2022-09-26 2024-04-05 株式会社デンソーテン Information processing device, information processing method and program

Also Published As

Publication number Publication date
JP7270499B2 (en) 2023-05-10

Similar Documents

Publication Publication Date Title
JP7270499B2 (en) Abnormality detection device, abnormality detection method, posture estimation device, and mobile body control system
US9330472B2 (en) System and method for distorted camera image correction
JP5421072B2 (en) Approaching object detection system
JP6532229B2 (en) Object detection apparatus, object detection system, object detection method and program
US20200311964A1 (en) Object detection device and object detection method
JP2019191806A (en) Abnormality detection device and abnormality detection method
JP6139465B2 (en) Object detection device, driving support device, object detection method, and object detection program
US20200090347A1 (en) Apparatus for estimating movement information
US20170259830A1 (en) Moving amount derivation apparatus
KR20180112010A (en) A method of detecting an object on the road side of a car, a computing device, a driver assistance system and an automobile
JP2019219719A (en) Abnormality detection device and abnormality detection method
JP5539250B2 (en) Approaching object detection device and approaching object detection method
WO2019156072A1 (en) Attitude estimating device
JP2020198074A (en) Posture estimation device, abnormality detection device, correction device, and posture estimation method
JP2020060899A (en) Calibration device for on-vehicle camera
JP7311407B2 (en) Posture estimation device and posture estimation method
JP7303064B2 (en) Image processing device and image processing method
JP7380443B2 (en) Partial image generation device and computer program for partial image generation
JP6407596B2 (en) Image processing apparatus and driving support system
JP6802999B2 (en) Compartment line detection system
WO2017090097A1 (en) Outside recognition device for vehicle
JP2021077061A (en) Obstacle detection device and obstacle detection method
JP6174884B2 (en) Outside environment recognition device and outside environment recognition method
JP2008042759A (en) Image processing apparatus
JP2020042716A (en) Abnormality detection device and abnormality detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230425

R150 Certificate of patent or registration of utility model

Ref document number: 7270499

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150