JP2020060550A - Abnormality detector, method for detecting abnormality, posture estimating device, and mobile control system - Google Patents
Abnormality detector, method for detecting abnormality, posture estimating device, and mobile control system Download PDFInfo
- Publication number
- JP2020060550A JP2020060550A JP2019144530A JP2019144530A JP2020060550A JP 2020060550 A JP2020060550 A JP 2020060550A JP 2019144530 A JP2019144530 A JP 2019144530A JP 2019144530 A JP2019144530 A JP 2019144530A JP 2020060550 A JP2020060550 A JP 2020060550A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- processing mode
- processing
- abnormality
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 186
- 230000005856 abnormality Effects 0.000 title claims abstract description 178
- 238000012545 processing Methods 0.000 claims abstract description 345
- 230000008569 process Effects 0.000 claims description 163
- 238000001514 detection method Methods 0.000 claims description 133
- 230000008859 change Effects 0.000 claims description 36
- 230000002123 temporal effect Effects 0.000 claims description 19
- 230000003287 optical effect Effects 0.000 description 56
- 239000013598 vector Substances 0.000 description 54
- 238000010586 diagram Methods 0.000 description 25
- 238000000605 extraction Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 11
- 238000012937 correction Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 8
- 101000786631 Homo sapiens Protein SYS1 homolog Proteins 0.000 description 6
- 102100025575 Protein SYS1 homolog Human genes 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 230000004075 alteration Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 239000010426 asphalt Substances 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 241000226585 Antennaria plantaginifolia Species 0.000 description 1
- 101100309712 Arabidopsis thaliana SD11 gene Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、異常検出装置、異常検出方法、姿勢推定装置、および、移動体制御システムに関する。 The present invention relates to an abnormality detection device, an abnormality detection method, a posture estimation device, and a moving body control system.
従来、自動車等の車両には、駐車支援等に利用されるカメラが搭載されている。例えば車両に搭載される車載カメラは、車両を工場から出荷する前に、車両に固定した状態で取り付けられる。しかしながら、車載カメラは、例えば不意の接触や経年変化等によって、工場出荷時の取付け状態からずれを起こすことがある。車載カメラの取付け位置や角度がずれると、例えば、カメラ画像を利用して判断されるハンドルの操舵量等に誤差が生じるために、車載カメラの取付けのずれを検出することは重要である。 Conventionally, a vehicle such as an automobile is equipped with a camera used for parking assistance and the like. For example, an in-vehicle camera mounted on a vehicle is fixed to the vehicle before being shipped from the factory. However, the vehicle-mounted camera may deviate from the mounting state at the time of factory shipment due to, for example, an unexpected contact or aged deterioration. If the mounting position or the angle of the vehicle-mounted camera is deviated, for example, an error occurs in the steering amount of the steering wheel or the like determined by using the camera image. Therefore, it is important to detect the displacement of the vehicle-mounted camera.
特許文献1には、車両の外界を撮像して得た撮像画像を出力する車載撮像手段と、車載撮像手段から出力された撮像画像において所定の特徴点を抽出し、特徴点の移動の時間変化からオプティカルフローを演算する演算手段と、演算手段により演算されたオプティカルフローに基づき車載撮像手段の光軸を補正する補正手段とを備える車両用撮像装置が開示される。
In
ところで、車載カメラを用いて自動駐車等の低速走行時の運転支援を行う場合、車載カメラによって車両周辺に存在する移動物や静止物を認識する必要がある。このために、車両の低速走行時には、車両周辺環境の認識処理を他の処理に優先して行うことが考えられる。この場合、車載カメラのカメラずれの検出処理は、車両周辺環境の認識処理を優先して行う必要がない高速走行時に行うことが考えられる。しかし、車両の移動速度が大きくなると、特徴点の追跡が難しくなり、カメラずれの検出精度が低下することが懸念される。 By the way, when using a vehicle-mounted camera to perform driving assistance during low-speed traveling such as automatic parking, it is necessary to recognize a moving object or a stationary object existing around the vehicle by the vehicle-mounted camera. For this reason, when the vehicle is traveling at a low speed, it may be possible to prioritize the processing for recognizing the environment surrounding the vehicle over other processing. In this case, it is conceivable that the processing for detecting the camera shift of the vehicle-mounted camera is performed during high-speed traveling, in which it is not necessary to prioritize the processing for recognizing the vehicle surrounding environment. However, when the moving speed of the vehicle becomes high, it becomes difficult to track the feature points, and there is a concern that the detection accuracy of the camera shift is lowered.
また、異なる視点において、特徴点の追跡を精度良く行うためにコーナー度が高い特徴点が利用される構成とした場合、例えば車両の出庫時や、車両が狭い道路を走行する場合等においてコーナー度が高い特徴点が存在せず、特徴点の抽出を行えない可能性がある。この結果、カメラずれの有無の判定機会が減少することが懸念される。 In addition, when the feature points with a high corner degree are used to accurately track the feature points from different viewpoints, for example, when the vehicle is leaving or when the vehicle is traveling on a narrow road, the corner degree is There is a possibility that the feature points cannot be extracted because there is no feature point with high. As a result, there is a concern that the chances of determining whether or not there is a camera shift decrease.
本発明は、カメラの移動体への搭載目的に応じた処理をできる限り優先しつつ、カメラの異常を適切に検出することができる技術を提供することを目的とする。また、本発明は、判定精度をなるべく良くしつつ、カメラの異常の有無を判定する機会を増やすことができる技術を提供することを他の目的とする。なお、本発明は、前述の2つの目的のうちの少なくともいずれか一方を達成することができる技術を提供することを目的とする。 It is an object of the present invention to provide a technique capable of appropriately detecting an abnormality in a camera while giving priority to processing according to the purpose of mounting the camera on a moving body as much as possible. Another object of the present invention is to provide a technique capable of increasing the chances of determining the presence / absence of a camera abnormality while improving the determination accuracy as much as possible. It is an object of the present invention to provide a technique capable of achieving at least one of the above two objects.
上記目的を達成するために本発明の異常検出装置は、移動体に搭載されるカメラの異常を検出する異常検出装置であって、前記カメラの異常の有無を、前記カメラで撮影された撮影画像から抽出される特徴点の位置の時間変化に基づき判定する判定処理を実行する制御部を備え、前記判定処理は、前記特徴点を抽出する閾値を第1閾値とする第1処理モードと、前記閾値を前記第1閾値より小さい第2閾値とする第2処理モードと、を選択可能に設けられ、前記第1処理モードは、前記第2処理モードに比べて、前記移動体の速度が高速である場合に使用される構成(第1の構成)になっている。 In order to achieve the above object, an abnormality detecting device of the present invention is an abnormality detecting device for detecting an abnormality of a camera mounted on a moving body, and detects whether or not there is an abnormality in the camera, a captured image taken by the camera. A control unit that executes a determination process based on a temporal change in the position of the feature point extracted from the determination process, wherein the determination process includes a first processing mode in which a threshold value for extracting the feature point is a first threshold value; A second processing mode in which a threshold is a second threshold smaller than the first threshold is provided in a selectable manner. In the first processing mode, the speed of the moving body is higher than that in the second processing mode. The configuration (first configuration) is used in some cases.
上記第1の構成の異常検出装置において、前記第1処理モードは、通常時に使用される処理モードであり、前記第2処理モードは、前記第1処理モードにより所定の処理結果が得られた場合に使用される処理モードである構成(第2の構成)であることが好ましい。 In the anomaly detection device having the first configuration, the first processing mode is a processing mode that is normally used, and the second processing mode is a case where a predetermined processing result is obtained by the first processing mode. It is preferable that the configuration is a processing mode used in (2nd configuration).
上記第2の構成の異常検出装置において、前記所定の処理結果には、前記カメラに異常が有るとの処理結果が含まれる構成(第3の構成)であることが好ましい。 In the abnormality detecting device having the second configuration, it is preferable that the predetermined processing result includes a processing result that the camera has an abnormality (third configuration).
上記第2又は第3の構成の異常検出装置において、前記所定の処理結果には、前記カメラの異常の有無を所定期間判定することができていないとの処理結果が含まれる構成(第4の構成)であることが好ましい。 In the abnormality detecting device having the second or third configuration, the predetermined processing result includes a processing result indicating that the presence / absence of abnormality of the camera cannot be determined for a predetermined period (fourth configuration). It is preferable that it is a structure).
上記第2から第4のいずれかの構成の異常検出装置において、前記制御部は、前記移動体の周辺環境を前記カメラで撮影された撮影画像に基づき認識する認識処理を実行可能に設けられ、前記制御部は、通常時において、前記移動体の速度が前記第2処理モードに対応する速度である場合には、前記認識処理を前記判定処理よりも優先し、前記制御部は、前記第2処理モードの実行が決まった場合に、前記認識処理よりも前記判定処理を優先する構成(第5の構成)であることが好ましい。 In the abnormality detection device having any one of the second to fourth configurations, the control unit is provided to be capable of performing a recognition process of recognizing a surrounding environment of the moving body based on a captured image captured by the camera, In a normal state, the control unit prioritizes the recognition process over the determination process when the speed of the moving body is a speed corresponding to the second processing mode, and the control unit sets the second processing mode. It is preferable that when the execution of the processing mode is decided, the determination processing is prioritized over the recognition processing (fifth configuration).
上記第1から第5のいずれかの構成の異常検出装置において、前記制御部は、前記第1処理モードから前記第2処理モードに切り替える場合に、前記移動体に搭載される表示装置に、前記第2処理モードに適した運転を行うことを促すメッセージを表示させる処理を行う構成(第6の構成)であってよい。 In the abnormality detection device having any one of the first to fifth configurations, the control unit, when switching from the first processing mode to the second processing mode, displays on the display device mounted on the moving body, The configuration (sixth configuration) may be configured to perform a process of displaying a message that prompts the driver to perform an operation suitable for the second processing mode.
上記第1から第6のいずれかの構成の異常検出装置において、前記制御部は、前記第1処理モードから前記第2処理モードに切り替える場合に、前記移動体の自動運転を制御する自動運転制御装置に対して、自動運転を要求する構成(第7の構成)であってよい。 In the abnormality detection device having any one of the first to sixth configurations, the control unit controls automatic operation of the moving body when switching from the first processing mode to the second processing mode. The device may have a configuration (seventh configuration) that requests automatic operation.
上記第1から第7のいずれかの構成の異常検出装置において、前記第1処理モードによる前記判定処理と、前記第2処理モードによる前記判定処理とのいずれにおいても、前記特徴点の位置の時間変化から前記移動体の移動情報の推定値が求められ、前記移動情報の推定値に基づき前記カメラの異常の有無が判定される構成(第8の構成)であってよい。 In the abnormality detection device having any one of the first to seventh configurations, the time of the position of the characteristic point is set in both the determination processing in the first processing mode and the determination processing in the second processing mode. An estimated value of the movement information of the moving body may be obtained from the change, and the presence or absence of abnormality of the camera may be determined based on the estimated value of the movement information (eighth configuration).
上記第1の構成の異常検出装置において、前記第1処理モードによる前記判定処理と、前記第2処理モードによる前記判定処理とのいずれにおいても、前記特徴点の位置の時間変化から前記カメラの姿勢が推定され、推定された前記カメラの姿勢に基づき前記カメラの異常の有無が判定される構成(第9の構成)であってよい。 In the abnormality detecting device having the first configuration, in both of the determination processing in the first processing mode and the determination processing in the second processing mode, the posture of the camera is determined from the time change of the position of the characteristic point. May be estimated, and the presence or absence of abnormality of the camera may be determined based on the estimated posture of the camera (ninth configuration).
上記第1の構成の異常検出装置において、前記第1処理モードによる前記判定処理においては、前記特徴点の位置の時間変化から前記カメラの姿勢が推定され、推定された前記カメラの姿勢に基づき前記カメラの異常の有無が判定され、前記第2処理モードによる前記判定処理においては、前記特徴点の位置の時間変化から前記移動体の移動情報の推定値が求められ、前記移動情報の推定値に基づき前記カメラの異常の有無が判定される構成(第10の構成)であってよい。 In the abnormality detection device having the first configuration, in the determination process in the first processing mode, the posture of the camera is estimated from the temporal change of the position of the feature point, and the posture of the camera is estimated based on the estimated posture of the camera. It is determined whether or not there is an abnormality in the camera, and in the determination processing in the second processing mode, the estimated value of the movement information of the moving body is obtained from the time change of the position of the feature point, and the estimated value of the movement information is obtained. The configuration (tenth configuration) may be configured to determine whether or not there is an abnormality in the camera based on the determination.
上記第1又は第10の構成の異常検出装置において、前記制御部は、前記移動体が停車中である場合に、前記判定処理とは異なる処理で前記カメラの異常の有無を判定する停車時用判定処理を実行する構成(第11の構成)であってよい。 In the abnormality detection device having the first or tenth configuration, the control unit is for a vehicle stop that determines whether there is an abnormality in the camera by a process different from the determination process when the moving body is stopped. It may be a configuration (11th configuration) that executes the determination process.
上記第11の構成の異常検出装置において、前記停車時用判定処理においては、前記カメラで撮影された撮影画像から得られる前記移動体のボディのエッジ画像に基づき前記カメラの異常の有無が判定される構成(第12の構成)であることが好ましい。 In the abnormality detection device having the eleventh configuration, in the vehicle stop determination process, presence / absence of abnormality of the camera is determined based on an edge image of the body of the moving body obtained from a captured image captured by the camera. It is preferable that it has a configuration (twelfth configuration).
上記目的を達成するために本発明の姿勢推定装置は、移動体に搭載されるカメラで撮影された撮影画像から抽出される特徴点の位置の時間変化に基づき前記カメラの姿勢を推定する推定処理を実行する制御部を備え、前記推定処理は、前記特徴点を抽出する閾値を第1閾値とする第1処理モードと、前記閾値を前記第1閾値より小さい第2閾値とする第2処理モードと、を選択可能に設けられ、前記第1処理モードは、前記第2処理モードに比べて、前記移動体の速度が高速である場合に使用される構成(第13の構成)になっている。 In order to achieve the above object, the posture estimation device of the present invention is an estimation process for estimating the posture of a camera based on the temporal change in the position of a feature point extracted from a captured image captured by a camera mounted on a moving body. And a second processing mode in which the threshold value is a second threshold value smaller than the first threshold value, and the estimation process is a first processing mode in which the threshold value for extracting the feature points is a first threshold value. Are provided so as to be selectable, and the first processing mode has a configuration (thirteenth configuration) used when the speed of the moving body is higher than that of the second processing mode. .
上記目的を達成するために本発明の移動体制御システムは、上記第1から第7のいずれかの構成の異常検出装置と、前記移動体の自動運転を制御する自動運転制御装置と、を備え、少なくとも前記第2処理モードで前記判定処理を行う場合に、前記移動体を自動運転させる構成(第14の構成)になっている。 In order to achieve the above object, a mobile body control system of the present invention comprises an abnormality detection device having any one of the first to seventh configurations, and an automatic operation control device for controlling the automatic operation of the mobile body. At least when the determination process is performed in the second processing mode, the moving body is automatically driven (14th configuration).
上記目的を達成するために本発明の異常検出方法は、装置によって、移動体に搭載されるカメラの異常を検出する異常検出方法であって、前記カメラの異常の有無を、前記カメラで撮影された撮影画像から抽出される特徴点の位置の時間変化に基づき判定する処理工程を備え、前記処理工程は、前記特徴点を抽出する閾値を第1閾値とする第1処理モードと、前記閾値を前記第1閾値より小さい第2閾値とする第2処理モードと、を選択可能に設けられ、前記第1処理モードは、前記第2処理モードに比べて、前記移動体の速度が高速である場合に使用される構成(第15の構成)になっている。 In order to achieve the above object, an abnormality detection method of the present invention is an abnormality detection method for detecting an abnormality of a camera mounted on a moving body by an apparatus, wherein whether or not there is an abnormality in the camera is captured by the camera. A processing step of making a determination based on a temporal change in the position of a feature point extracted from the captured image, the processing step comprising a first processing mode in which a threshold for extracting the feature point is a first threshold, and the threshold A second processing mode in which a second threshold value smaller than the first threshold value is provided, and the first processing mode is faster than the second processing mode in speed of the moving body. It has a configuration (15th configuration) used for.
本発明によると、カメラの移動体への搭載目的に応じた処理をできる限り優先しつつ、カメラの異常を適切に検出することができる。また、本発明によると、判定精度をなるべく良くしつつ、カメラの異常の有無を判定する機会を増やすことができる。 According to the present invention, it is possible to appropriately detect an abnormality of a camera while giving priority to processing according to the purpose of mounting the camera on a moving body as much as possible. Further, according to the present invention, it is possible to increase the chances of determining whether or not there is an abnormality in the camera while improving the determination accuracy as much as possible.
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、本発明が適用される移動体が車両である場合を例にとり説明するが、本発明が適用される移動体は車両に限定される趣旨ではない。本発明は、例えば船舶、航空機、ロボット等に適用されてもよい。車両には、例えば自動車、電車、無人搬送車等の車輪を有する乗り物が広く含まれる。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following description, the case where the moving body to which the present invention is applied is a vehicle will be described as an example, but the moving body to which the present invention is applied is not limited to the vehicle. The present invention may be applied to, for example, ships, aircrafts, robots, and the like. Vehicles include a wide range of vehicles having wheels, such as automobiles, trains, and automated guided vehicles.
また、以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向」とする。また、車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の右側から左側に向かう方向を「左方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の左側から右側に向かう方向を「右方向」とする。なお、前後左右の方向は、単に説明のために用いられる名称であって、実際の位置関係及び方向を限定する趣旨ではない。 Further, in the following description, the direction in which the vehicle travels straight ahead and the direction from the driver's seat toward the steering wheel is referred to as “forward direction”. Further, the direction in which the vehicle travels straight ahead and the direction from the steering wheel to the driver's seat is referred to as “rearward direction”. In addition, a direction that is a direction perpendicular to the straight traveling direction of the vehicle and the vertical line and that goes from the right side to the left side of the driver facing the front direction is referred to as “left direction”. Further, a direction that is a direction perpendicular to the straight traveling direction of the vehicle and the vertical line and that is from the left side of the driver facing the front direction to the right side is referred to as “right direction”. The front, rear, left, and right directions are merely names used for description, and are not intended to limit the actual positional relationship and direction.
<<A.第1実施形態>>
<1.移動体制御システム>
図1は、本発明の第1実施形態に係る移動体制御システムSYS1の構成を示すブロック図である。本実施形態において移動体は車両であり、移動体制御システムSYS1は車両制御システムである。図1に示すように、移動体制御システムSYS1は、異常検出システムSYS2と、自動運転制御装置5と、表示装置6とを備える。後述のように、異常検出システムSYS2は異常検出装置1を備える。換言すると、移動体制御システムSYS1は、異常検出装置1と自動運転制御装置5とを備える。
<< A. First Embodiment >>
<1. Mobile control system>
FIG. 1 is a block diagram showing the configuration of a mobile body control system SYS1 according to the first embodiment of the present invention. In this embodiment, the moving body is a vehicle, and the moving body control system SYS1 is a vehicle control system. As shown in FIG. 1, the mobile control system SYS1 includes an abnormality detection system SYS2, an automatic driving control device 5, and a display device 6. As described later, the abnormality detection system SYS2 includes the
自動運転制御装置5は、移動体の自動運転を制御する。自動運転制御装置5は、各移動体に搭載される。詳細には、自動運転制御装置5は、車両の駆動部と、制動部と、操舵部とを制御するECU(Electronic Control Unit)である。駆動部には、例えばエンジンやモータが含まれる。制動部にはブレーキが含まれる。操舵部には、ステアリングホイール(ハンドル)が含まれる。自動運転制御装置5による制御動作のオンオフは、異常検出装置1からの指示によって切替可能に設けられている。自動運転制御装置5による制御が開始されると、アクセル、ブレーキ、および、ハンドルが運転者の操作によらず自動で行われる。なお、自動運転制御装置5による制御動作のオンオフは、運転者によって切替可能であることが好ましい。
The automatic driving control device 5 controls the automatic driving of the moving body. The automatic driving control device 5 is mounted on each moving body. Specifically, the automatic driving control device 5 is an ECU (Electronic Control Unit) that controls the drive unit, the braking unit, and the steering unit of the vehicle. The drive unit includes, for example, an engine and a motor. The braking unit includes a brake. The steering unit includes a steering wheel (handle). ON / OFF of the control operation by the automatic driving control device 5 is provided so as to be switchable according to an instruction from the
表示装置6は、各移動体に搭載される。詳細には、表示装置6は、車両の室内に、表示面が運転者から見える位置に配置される。表示装置6は、例えば液晶表示装置、有機EL表示装置、プラズマ表示装置等であってよい。表示装置6は、車両に固定される装置であってもよいが、車両外に持ち出すことが可能な装置であってもよい。 The display device 6 is mounted on each moving body. Specifically, the display device 6 is arranged inside the vehicle at a position where the display surface can be seen by the driver. The display device 6 may be, for example, a liquid crystal display device, an organic EL display device, a plasma display device, or the like. The display device 6 may be a device that is fixed to the vehicle, or may be a device that can be taken out of the vehicle.
<2.異常検出システム>
図1に示すように、異常検出システムSYS2は、異常検出装置1と、撮影部2と、センサ部3とを備える。なお、本実施形態において、異常は、車両に搭載されるカメラの取付けのずれ(以下、「カメラずれ」と表現する)が生じた状態を指す。すなわち、異常検出システムSYS2は、車両に搭載されるカメラのカメラずれを検出するシステムである。詳細には、異常検出システムSYS2は、例えば、工場出荷時における車両へのカメラの取付け状態等の基準となる取付け状態からのカメラずれを検出するシステムである。カメラずれには、軸ずれや、軸周りの回転によるずれ等が広く含まれる。軸ずれには、取付け位置のずれや取付け角度のずれ等が含まれる。
<2. Anomaly detection system>
As shown in FIG. 1, the abnormality detection system SYS2 includes an
撮影部2は、車両周辺の状況を認識する目的で車両に設けられる。撮影部2はカメラ21を備える。カメラ21は車載カメラである。カメラ21は例えば魚眼レンズを用いて構成される。カメラ21は、異常検出装置1に有線又は無線により接続され、撮影画像を異常検出装置1に出力する。
The
なお、本実施形態では、撮影部2は複数のカメラ21を備える。複数のカメラ21は、フロントカメラ、バックカメラ、左サイドカメラ、右サイドカメラの4つのカメラである。フロントカメラは車両の前方を撮影するカメラである。バックカメラは車両の後方を撮影するカメラである。左サイドカメラは車両の左方を撮影するカメラである。右サイドカメラは車両の右方を撮影するカメラである。4つのカメラ21により、車両の水平方向における全周囲を撮影することができる。これにより、車両の駐車支援を安全に行うことができる。ただし、撮影部2が備えるカメラ21の数は単数でもよいし、4つ以外の複数であってもよい。
In addition, in the present embodiment, the
異常検出装置1は、移動体に搭載されるカメラ21の異常を検出する装置である。詳細には、異常検出装置1は、車両に搭載されたカメラ21からの情報に基づき当該カメラ21自身のカメラずれを検出する。すなわち、異常検出装置1はカメラずれ検出装置である。異常検出装置1を用いることによって、車両を走行させながらカメラずれを迅速に検出することができる。異常検出装置1により、例えば、カメラずれが生じた状態で駐車支援等の運転支援が行われることを防止できる。
The
本実施形態では、異常検出装置1は、カメラずれの検出対象となるカメラを搭載する車両に搭載される。以下、異常検出装置1を搭載する車両のことを自車両と呼ぶことがある。ただし、異常検出装置1は、カメラずれの検出対象となるカメラを搭載する車両以外の場所に配置されてもよい。例えば、異常検出装置1は、カメラ21を有する車両と通信可能なデータセンタ等に配置されてもよい。
In the present embodiment, the
本実施形態では、撮影部2が複数のカメラ21を有するために、異常検出装置1は、カメラ21毎にカメラずれの検出を行う。異常検出装置1は、自動運転制御装置5および表示装置6と有線又は無線により接続され、これらの装置5、6と情報のやりとりを行う。異常検出装置1の詳細については後述する。
In the present embodiment, since the
センサ部3は、カメラ21が搭載される車両に関する情報を検出する複数のセンサを有する。本実施形態では、センサ部3は、速度センサ31と舵角センサ32とを含む。速度センサ31は、車両の速度を検出し、その検出値に応じた電気信号を出力する。舵角センサ32は、車両のステアリングホイール(ハンドル)の回転角を検出し、その検出値に応じた電気信号を出力する。速度センサ31および舵角センサ32は、通信バス4を介して異常検出装置1に接続される。すなわち、速度センサ31で取得された車両の速度情報は、通信バス4を介して異常検出装置1に入力される。舵角センサ32で取得された車両のステアリングホイールの回転角情報は、通信バス4を介して異常検出装置1に入力される。なお、通信バス4は、例えばCAN(Controller Area Network)バスであってよい。
The
<3.異常検出装置>
図1に示すように、異常検出装置1は、画像取得部11と、制御部12と、記憶部13とを備える。
<3. Abnormality detection device>
As shown in FIG. 1, the
画像取得部11は、自車両のカメラ21からアナログ又はデジタルの撮影画像(フレーム画像)を所定周期(例えば1/30秒周期)で周期的に取得する。本実施形態では、撮影部2が複数のカメラ21を有するために、画像取得部11は各カメラ21からフレーム画像を取得する。取得したフレーム画像がアナログの場合には、そのアナログのフレーム画像をデジタルのフレーム画像に変換(A/D変換)する。画像取得部11は、取得したフレーム画像に対して所定の画像処理を行い、処理後のフレーム画像を制御部12に出力する。
The
制御部12は、例えばマイクロコンピュータであり、異常検出装置1の全体を統括的に制御する。制御部12は、CPU、RAMおよびROM等を備える。記憶部13は、例えば、フラッシュメモリ等の不揮発性のメモリであり、各種の情報を記憶する。記憶部13は、各種のコンピュータプログラム131やデータ(不図示)を記憶する。制御部12の各種の機能は、CPUが記憶部13に記憶されるコンピュータプログラム131に従って演算処理を行うことによって実現される。なお、画像取得部11は、制御部12のCPUがコンピュータプログラム131に従って演算処理を行うことによって実現される構成でもよい。
The
本実施形態では、制御部12は、カメラ21の異常の有無を、カメラ21で撮影された撮影画像から抽出される特徴点の位置の時間変化に基づき判定する判定処理を実行する。判定処理は、第1処理モードと第2処理モードとを選択可能に設けられる。すなわち、制御部12は、第1処理モードに従ってカメラずれの有無を判定する場合と、第2処理モードにしたがってカメラずれの有無を判定する場合とがある。なお、本実施形態では、撮影部2が複数のカメラ21を備えるために、各カメラ21に対してカメラ21の異常の有無を判定する判定処理が行われる。
In the present embodiment, the
第1処理モードでは、特徴点を抽出する閾値が第1閾値とされる。一方、第2処理モードでは、特徴点を抽出する閾値が第1閾値より小さい第2閾値とされる。第1処理モードと第2処理モードとでは、特徴点の抽出結果に差が生じる。 In the first processing mode, the threshold for extracting the feature points is the first threshold. On the other hand, in the second processing mode, the threshold value for extracting the feature points is the second threshold value that is smaller than the first threshold value. A difference occurs in the extraction result of the feature points between the first processing mode and the second processing mode.
特徴点は、フレーム画像中のエッジの交点など、フレーム画像において際立って検出できる点である。特徴点は、例えば白線等で描かれる路面標示のコーナー、路面上のひび、路面上のしみ、路面上の砂利等から抽出される。特徴点は、例えば、ハリスオペレータ等の公知の手法を用いて抽出することができる。 A feature point is a point that can be prominently detected in a frame image, such as an intersection of edges in the frame image. The characteristic points are extracted from, for example, a corner of the road marking drawn with a white line or the like, a crack on the road surface, a stain on the road surface, gravel on the road surface, or the like. The feature points can be extracted using a known method such as Harris operator.
本実施形態では、制御部12は、フレーム画像を構成する画素それぞれについて特徴量を算出し、特徴量が所定の閾値を超える画素を特徴点として抽出する。特徴量は、画素がどれだけ特徴的であるかの指標であり、例えばいわゆるコーナーらしさを示すコーナー度である。所定の閾値は、第1処理モードと第2処理モードとで異なる。
In the present embodiment, the
本実施形態では、特徴量の算出には、KLT法(Kanade-Lucus-Tomasi tracker)が用いられる。特徴量の算出にあたって、フレーム画像上にxy座標系が規定され、各画素について、ソベルフィルタを用いて、以下の3つのパラメータG11、G12、G22が求められる。
ソベルフィルタを用いた処理により、各画素について以下の行列Mが得られる。
行列M(式(4))の固有値λは、Iを単位行列として、下記の式(5)から求められる。
式(5)の解は、2次方程式の解として下記の式(6)、(7)に示すλ1と、λ2として求められる。
本実施形態では、以下の式(8)を満たす画素を特徴点として抽出する。極小値となる固有値λ1を特徴量とする。式(8)において、Tは特徴点を検出するための所定の閾値である。詳細には、所定の閾値Tは、第1処理モードでは第1閾値T1、第2処理モードでは第2閾値T2とされる。第2閾値T2は第1閾値T1より小さい。第1閾値T1は、例えば白線のコーナーのような非常に大きな特徴量を有する特徴点のみが抽出されるように設定される。第2閾値T2は、路面の細かい凹凸に由来する特徴点が多数抽出されるように設定される。
第1処理モードは、第2処理モードに比べて、移動体(車両)の速度が高速である場合に使用される。第1処理モードでは、白線のコーナーのような非常に大きな特徴量を有する特徴点を利用して特徴点の追跡を行うことができる。このために、車両の速度がある程度速い場合でも、特徴点の位置の時間変化を精度良く求めることができ、カメラずれの有無の判定精度の低下を抑制できる。一方、第2処理モードは、特徴点の数が多数となるが、特徴量の小さな特徴点を多く含む。車両の速度が速くなると、特徴量の小さな特徴点は追跡が難しくなる。このために、第2処理モードは、車両が低速の場合に適したモードである。すなわち、第1処理モードは高速走行用の処理モードであり、第2処理モードは低速走行用の処理モードである。 The first processing mode is used when the speed of the moving body (vehicle) is higher than that in the second processing mode. In the first processing mode, feature points can be tracked by using feature points having a very large feature amount such as white line corners. For this reason, even when the speed of the vehicle is high to some extent, it is possible to accurately obtain the temporal change in the position of the characteristic point, and it is possible to suppress a decrease in the determination accuracy of the presence or absence of the camera shift. On the other hand, the second processing mode has a large number of feature points, but includes many feature points with a small feature amount. As the vehicle speed increases, it becomes difficult to track feature points with small feature amounts. For this reason, the second processing mode is a mode suitable when the vehicle is at a low speed. That is, the first processing mode is a processing mode for high speed traveling, and the second processing mode is a processing mode for low speed traveling.
本実施形態の構成によれば、車両が高速走行する場合には第1処理モードによってカメラずれの判定処理を行い、車両が低速走行する場合には第2処理モードによってカメラずれの判定処理を行うことができる。すなわち、走行速度に適した手法でカメラずれの判定を行うことができ、カメラずれの誤検出を低減することができる。 According to the configuration of the present embodiment, when the vehicle runs at high speed, the camera shift determination process is performed in the first processing mode, and when the vehicle runs at low speed, the camera shift determination process is performed in the second processing mode. be able to. That is, the camera shift can be determined by a method suitable for the traveling speed, and erroneous detection of the camera shift can be reduced.
本実施形態では、詳細には、第1処理モードは、通常時に使用される処理モードである。第2処理モードは、第1処理モードによって所定の処理結果が得られた場合に使用される処理モードである。すなわち、異常検出装置1は、原則として、高速で走行する車両から得られる情報を用いて、第1処理モードによりカメラずれの有無を判定する。そして、異常検出装置1は、特定の条件の場合に限って、例外的に第1処理モードから第2処理モードに切り替え、低速で走行する車両から得られる情報を用いてカメラずれの有無を判定する。本実施形態によれば、低速走行時にカメラずれの検出に関わる処理が行われることを抑制することができ、低速走行時にカメラずれの検出とは関係のない処理を実行することができる。
In the present embodiment, in detail, the first processing mode is a processing mode that is normally used. The second processing mode is a processing mode used when a predetermined processing result is obtained by the first processing mode. That is, in principle, the
本実施形態では、制御部12は、移動体(車両)の周辺環境をカメラ21で撮影された撮影画像に基づき認識する認識処理を実行可能に設けられる。当該認識処理は、例えばフレーム画像からエッジを抽出し、車両周辺の移動物や静止物を認識する処理である。例えば、公知のパターンマッチング処理やニューラルネットワークを用いた演算処理等により、移動物や静止物の認識が行われる。換言すると、制御部12は、カメラ21の異常を検出する装置としての機能以外の機能を備える。本実施形態では、制御部12は、駐車支援を行う装置としての機能も備える。
In the present embodiment, the
制御部12は、通常時において、移動体(車両)の速度が第2処理モードに対応する速度である場合には、車両の周辺環境を認識する認識処理を、カメラ21の異常の有無を判定する判定処理よりも優先する。本実施形態では、通常時においては、制御部12は、低速走行時に周辺環境の認識処理を優先して行い、高速走行時にカメラずれの有無を判定する判定処理を優先して行う。これによれば、制御部12の処理が一時期に過度に集中することを抑制することができ、制御部12の処理負荷を低減することができる。車両の駐車支援のための周辺環境の認識処理は低速走行時に行われるために、本実施形態の構成は、制御部12が駐車支援を行う装置としての機能も備える場合に好適である。
When the speed of the moving body (vehicle) is normally the speed corresponding to the second processing mode, the
図2は、第1実施形態の異常検出装置1によるカメラずれの検出フローの一例を示すフローチャートである。カメラずれの検出処理は、例えば、所定期間毎(1週間毎等)、所定走行距離毎(100km毎等)、エンジン起動毎(イグニッション(IG)オン毎)、エンジン起動が所定回数に達した時点毎等に実行されてよい。なお、本実施形態では、撮影部2が4つのカメラ21を備えるために、各カメラ21について、図2に示すカメラずれの検出フローが実施される。重複説明を避けるために、ここでは、カメラ21がフロントカメラである場合を代表例として、カメラずれの検出フローを説明する。
FIG. 2 is a flowchart showing an example of a camera shift detection flow by the
図2に示すように、まず、制御部12は、カメラ21を搭載する車両が直進しているか否かを監視する(ステップS1)。車両が直進しているか否かは、例えば、舵角センサ32から得られるステアリングホイールの回転角情報に基づいて判断することができる。なお、直進には、前進方向の直進と、後退方向の直進との両方が含まれる。
As shown in FIG. 2, first, the
制御部12は、車両の直進を検出するまで、ステップS1の監視を繰り返す。すなわち、制御部12は、車両が直進走行を行っていることを条件としてカメラずれに関する処理を進める。これによれば、車両の進行方向が曲がっている場合の情報を用いることなくカメラずれの検出に関する処理を行うことができるために、情報処理が複雑になることを避けられる。
The
車両が直進していると判断される場合(ステップS1でYes)、制御部12は、車両の速度が第1速度範囲内であるか否かを確認する(ステップS2)。第1速度範囲は、例えば時速15km以上30km以下としてよい。第1速度範囲は、車両の駐車支援が行われる速度より速い速度に設定されることが好ましい。なお、車両の速度が速くなりすぎると、特徴点の追跡が困難になるために、車両の速度は速すぎないことが好ましい。
When it is determined that the vehicle is traveling straight (Yes in step S1), the
制御部12は、車両の速度が第1速度範囲外である場合(ステップS2でNo)、ステップS1に戻る。すなわち、制御部12は、車両が直進走行を行っていること、および、車両の速度が第1速度範囲内であることを条件としてカメラずれに関する処理を進める。本実施形態では、原則として低速走行の場合にはカメラずれに関する処理が開始されないために、車両の周辺環境の認識処理とカメラずれに関する処理とが同時に進められることを避けることができ、制御部12の処理負荷が一時に集中することを抑制することができる。
When the speed of the vehicle is outside the first speed range (No in step S2), the
車両が第1速度範囲内で走行していると判断される場合(ステップS2でYes)、制御部12は、第1処理モードによるカメラずれの有無の判定処理を行う(ステップS3)。なお、ステップS1とステップS2とは、順番が入れ替わってもよい。
When it is determined that the vehicle is traveling within the first speed range (Yes in step S2), the
図3は、第1実施形態の異常検出装置1における第1処理モードによるカメラずれの有無の判定処理の一例を示すフローチャートである。図3に示すように、制御部12は、フレーム画像から特徴点を抽出する処理を行う(ステップS31)。第1処理モードでは、特徴点を抽出するための第1閾値T1が高い値に設定されている。このために、抽出される特徴点は、コーナーらしさを示す特徴量が大きな特徴点である。
FIG. 3 is a flowchart showing an example of a process of determining the presence / absence of a camera shift in the first processing mode in the
図4は、特徴点FPを抽出する手法を説明するための図である。図4は、カメラ21(フロントカメラ)で撮影されたフレーム画像Pを模式的に示す。図4に示すように、制御部12は、フレーム画像Pに所定の抽出領域ERを設定する。制御部12は、所定の抽出領域ERから特徴点FPを抽出する。所定の抽出領域ERは、路面RS部分が映る位置に設定される。所定の抽出領域ERは、フレーム画像Pの中心部Cを含む広範囲に設定されることが好ましい。これにより、特徴点FPの発生箇所が均一でなく偏った範囲に偏在する場合でも、特徴点FPを抽出することができる。
FIG. 4 is a diagram for explaining a method of extracting the feature point FP. FIG. 4 schematically shows a frame image P captured by the camera 21 (front camera). As shown in FIG. 4, the
なお、図4においては、特徴点FPの数は2つとされているが、この数は便宜的なものであり、実際の数を示すものではない。複数の特徴点FPが抽出される場合もあれば、1つの特徴点FPのみしか抽出されない場合もある。また、特徴点FPが抽出されない場合もある。 Although the number of feature points FP is two in FIG. 4, this number is for convenience and does not indicate the actual number. In some cases, a plurality of feature points FP may be extracted, and in some cases only one feature point FP may be extracted. Moreover, the feature point FP may not be extracted.
図3に戻って、特徴点FPの抽出処理が行われると、特徴点数が所定数以上であるか否かが確認される(ステップS32)。特徴点数が所定数に満たない場合には(ステップS32でNo)、制御部12はカメラずれの有無が判定できないと判断し(ステップS37)、第1処理モードによる判定処理を終了する。一方、特徴点数が所定数以上である場合には(ステップS32でYes)、所定の時間間隔をあけて入力された2つのフレーム画像間における特徴点FPの動きを示すオプティカルフローの算出が行われる(ステップS33)。なお、所定数は、1つ以上であればよく、その数は、例えば実験やシミュレーション等によって決定してよい。
Returning to FIG. 3, when the feature point FP extraction processing is performed, it is confirmed whether the number of feature points is equal to or more than a predetermined number (step S32). When the number of characteristic points is less than the predetermined number (No in step S32), the
図5は、オプティカルフローOFを求める手法を説明するための図である。図5は、図4と同様に便宜的に示された模式図である。図5は、図4に示すフレーム画像(前回フレーム画像)Pの撮影後、所定の撮影時間間隔(1周期に相当)が経過した後にカメラ21で撮影されたフレーム画像(今回フレーム画像)P´である。図4に示すフレーム画像Pの撮影後、所定時間間隔が経過するまでの間に、自車両は後退している。図5に示す破線の丸印は、図4に示す前回フレーム画像Pにおいて抽出された特徴点FPの位置を示す。
FIG. 5 is a diagram for explaining a method for obtaining the optical flow OF. FIG. 5 is a schematic view shown for convenience as in FIG. FIG. 5 shows a frame image (current frame image) P ′ captured by the
図5に示すように、自車両が後退すると、自車両の前方に存在する特徴点FPは自車両から離れる。すなわち、特徴点FPは、今回フレーム画像P´と前回フレーム画像Pとで異なる位置に現れる。制御部12は、今回フレーム画像P´の特徴点FPと前回フレーム画像Pの特徴点FPとを、その近傍の画素値も考慮に入れて対応付け、対応付けた特徴点FPのそれぞれの位置に基づいてオプティカルフローOFを求める。なお、制御部12は、前回フレーム画像(1周期前のフレーム画像)がない場合にはオプティカルフローOFの算出処理を行わない。この場合もカメラずれの有無は判定されない。また、フレーム画像Pから複数の特徴点FPが抽出された場合には、各特徴点FPに対してオプティカルフローOFの算出処理が行われる。
As shown in FIG. 5, when the host vehicle moves backward, the feature point FP existing in front of the host vehicle separates from the host vehicle. That is, the feature point FP appears at a different position between the current frame image P ′ and the previous frame image P. The
図3に戻って、特徴点FPのオプティカルフローOFが算出されると、制御部12は、カメラ座標系で与えられるオプティカルフローOFの座標変換を行って移動ベクトルVを算出する(ステップS34)。座標変換は、カメラ座標系を路面上の座標系に変換する処理である。なお、制御部12は、フレーム画像Pから抽出された特徴点FPの座標について先に路面上の座標に変換し、オプティカルフローOFを求めることなく移動ベクトルを求めてもよい。
Returning to FIG. 3, when the optical flow OF of the feature point FP is calculated, the
図6は、座標変換処理を説明するための図である。図6に示すように、制御部12は、カメラ21の位置(視点VP1)から見たオプティカルフローOFを、自車両が存在する路面RSの上方の視点VP2から見た移動ベクトルVに変換する。制御部12は、フレーム画像上のオプティカルフローOFを、路面に相当する仮想平面RS_Vに投影することで移動ベクトルVに変換する。移動ベクトルVの大きさは、自車両の路面RS上の移動量(移動距離)を示す。なお、本実施形態では、カメラ21が魚眼レンズであるために座標変換処理には歪補正が含まれることが好ましい。また、複数のオプティカルフローOFが求められた場合には、各オプティカルフローOFに対して移動ベクトルVの算出処理が行われる。
FIG. 6 is a diagram for explaining the coordinate conversion process. As shown in FIG. 6, the
図3に戻って、路面RS上の動きを示す移動ベクトルVが算出されると、制御部12は、移動ベクトルVに基づき移動量(移動距離)の推定値を求める(ステップS35)。本実施形態では、制御部12は、移動ベクトルVの前後方向成分の長さを前後方向の移動量の推定値とする。また、制御部12は、移動ベクトルVの左右方向成分の長さを左右方向の移動量の推定値とする。
Returning to FIG. 3, when the movement vector V indicating the movement on the road surface RS is calculated, the
なお、移動ベクトルVの数が複数である場合には、前後方向および左右方向のそれぞれについて、各移動ベクトルVから求められる長さの平均値を推定値としてよい。また、移動ベクトルVの数が複数である場合には、特徴量が最も大きい特徴点FPから得られた移動ベクトルVのみを用いて前後方向および左右方向の移動量の推定値を求めてもよい。また、移動ベクトルVの数が多数である場合には、後述のヒストグラムを用いた統計処理によって前後方向および左右方向の移動量の推定値を求めてもよい。 When the number of movement vectors V is plural, the estimated value may be the average value of the lengths obtained from the movement vectors V in the front-rear direction and the left-right direction. When there are a plurality of movement vectors V, the estimated values of the movement amounts in the front-rear direction and the left-right direction may be obtained using only the movement vector V obtained from the feature point FP having the largest feature amount. . When the number of movement vectors V is large, the estimated values of the movement amounts in the front-rear direction and the left-right direction may be obtained by statistical processing using a histogram described later.
移動量の推定値が得られると、制御部12は、当該推定値と、センサ部3からの情報によって得られる比較値とを比較してカメラずれの有無を判定する(ステップS36)。本実施形態では、前後方向の移動量について推定値と比較値との比較が行われる。また、左右方向の移動量について推定値と比較値との比較が行われる。比較値を正解値として、当該正解値に対する推定値のずれの大きさを判断する。当該ずれの大きさが所定の閾値を超える場合に、カメラずれが発生していると判断される。
When the estimated value of the movement amount is obtained, the
前後方向の比較値(移動量)は、オプティカルフローOFを導出するための2つのフレーム画像の撮影時間間隔と、当該時間間隔における速度センサ31から得られる自車両の速度とによって算出することができる。また、本実施形態では、自車両が前後方向に直進している場合に得られるフレーム画像に基づいてカメラずれの有無が判定される。このために、左右方向の比較値(移動量)はゼロになる。
The comparison value (movement amount) in the front-rear direction can be calculated from the shooting time intervals of the two frame images for deriving the optical flow OF and the speed of the host vehicle obtained from the
なお、比較値は、センサ部3以外からの情報に基づいて求められてもよい。例えば、GPSセンサや、カメラずれの判定対象以外のカメラから得られる情報に基づいて比較値が求められてもよい。また、推定値および比較値は、移動量でなくてもよく、例えば速度であってもよい。
The comparison value may be obtained based on information from other than the
図7は、第1実施形態における制御部12によって行われるずれ判定の一例を示すフローチャートである。なお、図7に示す処理は、図3のステップS36の詳細処理例である。
FIG. 7 is a flowchart showing an example of the deviation determination performed by the
まず、制御部12は、自車両の前後方向の移動量について、推定値と比較値との差の大きさ(前後方向のずれ量)が、第1ずれ閾値より小さいか否かを確認する(ステップS361)。前後方向のずれ量が第1ずれ閾値以上である場合(ステップS361でNo)、制御部12は、カメラずれ有りと判定する(ステップS364)。
First, the
一方、前後方向のずれ量が第1ずれ閾値より小さい場合(ステップS361でYes)、制御部12は、自車両の左右方向の移動量について、推定値と比較値との差の大きさ(左右方向のずれ量)が、第2ずれ閾値より小さいか否かを確認する(ステップS362)。左右方向のずれ量が第2ずれ閾値以上である場合(ステップS362でNo)、制御部12は、カメラずれ有りと判定する(ステップS364)。
On the other hand, when the shift amount in the front-rear direction is smaller than the first shift threshold (Yes in step S361), the
一方、左右方向のずれ量が第2ずれ閾値より小さい場合(ステップS362でYes)、制御部12はカメラずれ無しと判定する(ステップS363)。
On the other hand, when the shift amount in the left-right direction is smaller than the second shift threshold (Yes in step S362), the
本実施形態では、前後方向の移動量および左右方向の移動量のうち、いずれか1つでも、ずれ量が大きくなると、カメラずれが発生していると判定する。これによれば、カメラずれが発生しているにもかかわらず、カメラずれが発生していないと判定する可能性を低減できる。ただし、これは例示である。例えば、前後方向の移動量および左右方向の移動量の両方においてずれ量が大きくなった場合に限って、カメラずれが発生していると判定する構成としてもよい。また、カメラずれの判定は、前後方向および左右方向の移動量だけでなく、例えばこれらを組み合わせた指標(例えば、前後方向の移動量の二乗値と、左右方向の移動量の二乗値との和)に基づいて判定されてもよい。カメラずれの判定は、前後方向の移動量と、左右方向の移動量とのいずれか一方のみを用いて判定されてもよい。 In the present embodiment, if any one of the front-rear direction movement amount and the left-right direction movement amount has a large displacement amount, it is determined that a camera displacement has occurred. According to this, it is possible to reduce the possibility that it is determined that the camera shift has not occurred even though the camera shift has occurred. However, this is an example. For example, the configuration may be such that it is determined that the camera shift occurs only when the shift amount becomes large in both the front-back direction movement amount and the left-right direction movement amount. Further, the determination of the camera shift is made not only by the amount of movement in the front-rear direction and the left-right direction, but also by, for example, an index combining these (for example, the sum of the square value of the amount of movement in the front-back direction and the square value of the amount of movement in the left-right direction). ). The camera misalignment may be determined using only one of the front-rear movement amount and the left-right movement amount.
また、本実施形態では、前後方向の移動量および左右方向の移動量について、順番に比較を行う構成としたが、これらの比較は同じタイミングで行われてもよい。また、前後方向の移動量および左右方向の移動量について順番に比較を行う構成の場合、その順番は特に限定されず、図7に示す順番とは異なる順番で比較が行われてもよい。また、以上では、1つのフレーム画像の処理結果に基づきカメラずれの有無を判定する構成としているが、これは例示にすぎない。複数のフレーム画像の処理結果に基づきカメラずれの有無を判定する構成としてもよい。これにより、カメラずれの有無を誤判定する可能性を低減することができる。 Further, in the present embodiment, the amount of movement in the front-rear direction and the amount of movement in the left-right direction are compared in order, but these comparisons may be performed at the same timing. Further, in the case of the configuration in which the amount of movement in the front-rear direction and the amount of movement in the left-right direction are compared in order, the order is not particularly limited, and the comparison may be performed in an order different from the order shown in FIG. 7. Further, in the above, the presence or absence of the camera shift is determined based on the processing result of one frame image, but this is merely an example. It may be configured to determine whether or not there is a camera shift based on the processing results of a plurality of frame images. As a result, it is possible to reduce the possibility of erroneously determining whether or not there is a camera shift.
図2に戻って、第1処理モードによるカメラずれの有無の判定処理が終了すると、制御部12は、処理結果が所定の処理結果であるか否かを判定する(ステップS4)。処理結果が所定の処理結果である場合(ステップS4でYes)、第1処理モードから第2処理モードに切り替えてカメラずれの有無の判定処理を行う必要があると判断する(ステップS5)。一方、処理結果が所定の処理結果でない場合(ステップS4でNo)、ステップS1に戻り、ステップS1以降の処理が繰り返される。
Returning to FIG. 2, when the process of determining the presence / absence of a camera shift in the first processing mode ends, the
図8は、第1処理モードによる処理結果が所定の処理結果であるか否かを判断する処理の詳細例を示すフローチャートである。図8は、図2のステップS4の詳細例を示すフローチャートである。図8に示すように、第1処理モードによる判定処理によりカメラずれ有りと判定されたか否かが確認される(ステップS41)。 FIG. 8 is a flowchart showing a detailed example of processing for determining whether or not the processing result in the first processing mode is a predetermined processing result. FIG. 8 is a flowchart showing a detailed example of step S4 in FIG. As shown in FIG. 8, it is confirmed whether or not the camera shift is determined by the determination processing in the first processing mode (step S41).
カメラずれ有りと判定された場合(ステップS41でYes)、図2に示すステップS5に進む。一方、カメラずれ有りと判定されなかった場合(ステップS41でNo)、所定期間判定が未判定か否かが確認される(ステップS42)。第1処理モードにおいて、所定の複数フレームにわたって連続してカメラずれの有無の判定が行われていない場合、所定期間未判定と判定される。 If it is determined that there is a camera shift (Yes in step S41), the process proceeds to step S5 shown in FIG. On the other hand, if it is not determined that there is a camera shift (No in step S41), it is confirmed whether or not the predetermined period determination is undetermined (step S42). In the first processing mode, when it is not continuously determined whether or not there is a camera shift over a plurality of predetermined frames, it is determined as undetermined for a predetermined period.
所定期間未判定である場合(ステップS42でYes)、図2に示すステップS5に進む。一方、所定期間未判定でない場合には(ステップS42でNo)、カメラずれ無しとの判定を確定し(ステップS43)、ステップS1に戻ってステップS1以降の処理を繰り返す。 When the determination is not made for the predetermined period (Yes in step S42), the process proceeds to step S5 shown in FIG. On the other hand, when the determination is not made for the predetermined period (No in step S42), the determination that there is no camera shift is confirmed (step S43), the process returns to step S1 and the processes in step S1 and subsequent steps are repeated.
以上のように、本実施形態では、図2のステップS4に示す所定の処理結果には、カメラ21に異常が有る(カメラずれ有り)との処理結果が含まれる。これによれば、高速走行時に行われる第1処理モードでカメラずれが認められた場合に、低速走行による第2処理モードでのカメラずれの判定処理が行われるために、カメラずれの誤検出を低減することができる。
As described above, in the present embodiment, the predetermined processing result shown in step S4 of FIG. 2 includes the processing result indicating that the
また、本実施形態では、図2のステップS4に示す所定の処理結果には、カメラ21の異常の有無(カメラずれの有無)を所定期間判定することができていないとの処理結果が含まれる。特徴点FPが所定数以上検出されないという事態は、白線のコーナーのような高い特徴量を示す特徴点FPが存在しない場合の他に、カメラ21の取付けが大きくずれている場合にも起こる。第1処理モードだけでは、この差を明確に区別することができない。本実施形態のように、カメラずれの有無の判定ができない状態が繰り返される場合に、特徴点FPを抽出するための閾値を下げる第2処理モードによる判定処理が行われることによって、カメラずれを適切に検出することができる。
Further, in the present embodiment, the predetermined processing result shown in step S4 of FIG. 2 includes the processing result that it is not possible to determine the presence / absence of abnormality of the camera 21 (presence / absence of camera shift) for a predetermined period. . The situation in which the feature points FP are not detected by a predetermined number or more occurs not only when there is no feature point FP having a high feature amount such as a corner of a white line, but also when the
図2に戻って、制御部12は、ステップS5以降の第2処理モードが実行される場合に、カメラ21を用いた車両の周辺環境の認識処理よりもカメラ21の異常(カメラずれ)の判定処理を優先する。これによれば、車両の低速走行時において、カメラずれが生じている可能性がある場合に限って周辺環境の認識処理よりもカメラずれの判定処理が優先される。このために、カメラ21の車両への搭載目的に応じた処理(周辺環境の認識処理)をできる限り優先しつつ、カメラ21の異常を適切に検出することができる。
Returning to FIG. 2, when the second processing mode after step S5 is executed, the
本実施形態では、制御部12は、第1処理モードから第2処理モードに切り替える場合に、自動運転制御装置5に対して自動運転を要求する。当該要求により、移動体制御システムSYS1は、第2処理モードでカメラ21の異常(カメラずれ)の有無を判定する判定処理を行う場合に、移動体(車両)を自動運転させる。なお、自動運転は、第1処理モードから第2処理モードに切り替える必要があると判断された後、安全を確保できるタイミングで開始されることが好ましい。この判断は、自動運転制御装置5によって行われてよく、自動運転制御装置5は、自動運転の開始を制御部12に通知する。例えば、自動運転は、車両の発進や停車のタイミングで一時的に行われる。
In the present embodiment, the
本実施形態によれば、車両を所定の速度範囲で低速走行させつつ、ハンドルを一定として直線走行させることを精度良く行わせることができ、第2処理モードによるカメラずれの有無の判定処理を精度良く行うことができる。 According to the present embodiment, it is possible to accurately perform straight traveling with the steering wheel kept constant while the vehicle travels at a low speed within a predetermined speed range, and it is possible to accurately determine whether or not there is a camera shift in the second processing mode. You can do it well.
第2処理モードでの判定処理のための自動運転が開始されると、第1処理モードの場合と同様に、直進走行しているか否かが確認される(ステップS6)。そして、直進走行している場合(ステップS6でYes)には、制御部12は、車両の速度が第2速度範囲内であるか否かを確認する(ステップS7)。第2速度範囲は、例えば時速3km以上5km以下としてよい。
When the automatic operation for the determination processing in the second processing mode is started, it is confirmed whether or not the vehicle is traveling straight ahead, as in the case of the first processing mode (step S6). Then, when the vehicle is traveling straight ahead (Yes in step S6), the
制御部12は、車両の速度が第2速度範囲外である場合(ステップS7でNo)、ステップS6に戻る。すなわち、制御部12は、車両が直進走行を行っていること、および、車両の速度が第2速度範囲内であることを条件としてカメラずれに関する処理を進める。車両が第2速度範囲内で走行していると判断される場合(ステップS7でYes)、制御部12は、第2処理モードによるカメラずれの有無の判定処理を行う(ステップS8)。
When the vehicle speed is outside the second speed range (No in step S7), the
図9は、第1実施形態の異常検出装置における第2処理モードによるカメラずれの有無の判定処理の一例を示すフローチャートである。なお、第2処理モードによる判定処理は、図3で示した第1処理モードによる判定処理と似ている。図3と処理内容が同様であるものについては、詳細な説明を省略する。 FIG. 9 is a flowchart showing an example of a process for determining whether or not there is a camera shift in the second processing mode in the abnormality detection device of the first embodiment. The determination process in the second processing mode is similar to the determination process in the first processing mode shown in FIG. Detailed description of the same processing contents as those in FIG. 3 will be omitted.
図9に示すように、制御部12は、フレーム画像から特徴点FPを抽出する処理を行う(ステップS81)。第2処理モードでは、第2閾値T2を超える特徴量を有する画素が特徴点FPとして抽出される。第2閾値T2は第1閾値T1(第1処理モードの閾値)に比べて低い値に設定されている。このために、路面の細かな凹凸に由来する特徴点FPが多数抽出される。例えばアスファルト路面のように表面に凹凸が多い路面からは多くの特徴点FPが抽出される。なお、例えばコンクリート路面のような平滑な路面では特徴点FPの数が少なくなる傾向がある。すなわち、路面の状態によっては、抽出される特徴点数が十分に得られないことも起こり得る。このような点を考慮して、第2処理モードにおいても第1処理モードと同様に、特徴点数が所定数に満たない場合には判定不能として、判定処理をやり直す構成としてもよい。
As shown in FIG. 9, the
特徴点FPの抽出処理が行われると、制御部12はオプティカルフローOFを算出する(ステップS82)。オプティカルフローOFが算出されると、制御部12は、オプティカルフローOFの座標変換を行って移動ベクトルVを算出する(ステップS83)。これらの処理は、第1処理モードと同様である。
When the feature point FP extraction processing is performed, the
移動ベクトルVが算出されると、制御部12は、複数の移動ベクトルVに基づいてヒストグラムを生成する(ステップS84)。本実施形態では、制御部12は、各移動ベクトルVを前後方向と左右方向との2成分に分けて、第1ヒストグラムと第2ヒストグラムとを生成する。制御部12は、第1ヒストグラムと第2ヒストグラムとを用いて移動量の推定値を算出する(ステップS85)。
When the movement vector V is calculated, the
図10は、制御部12によって生成された第1ヒストグラムHG1の一例を示す図である。図11は、制御部12によって生成された第2ヒストグラムHG2の一例を示す図である。なお、制御部12は、ヒストグラムHG1、HG2の生成の前後において、先に求められた全ての移動ベクトルVの中から所定の条件に該当する移動ベクトルVを処理対象から除外する処理を行ってもよい。例えば、自車両の速度、舵角、シフトレバー位置等から予想される大きさや方向と大きくずれる移動ベクトルVは除外されてよい。また、例えば、ヒストグラムHG1、HG2において、度数が極端に低い階級に属する移動ベクトルVは除外されてよい。
FIG. 10 is a diagram showing an example of the first histogram HG1 generated by the
図10に示す第1ヒストグラムHG1は、移動ベクトルVの前後方向成分に基づいて得られたヒストグラムである。第1ヒストグラムHG1は、移動ベクトルVの数を度数とし、前後方向への移動量(移動ベクトルの前後方向成分の長さ)を階級とするヒストグラムである。図11に示す第2ヒストグラムHG2は、移動ベクトルVの左右方向成分に基づいて得られたヒストグラムである。第2ヒストグラムHG2は、移動ベクトルVの数を度数とし、左右方向への移動量(移動ベクトルの左右方向成分の長さ)を階級とするヒストグラムである。 The first histogram HG1 shown in FIG. 10 is a histogram obtained based on the front-back direction component of the movement vector V. The first histogram HG1 is a histogram in which the number of movement vectors V is a frequency, and the amount of movement in the front-rear direction (length of the front-rear direction component of the movement vector) is a class. The second histogram HG2 shown in FIG. 11 is a histogram obtained based on the horizontal component of the movement vector V. The second histogram HG2 is a histogram in which the number of movement vectors V is a frequency and the amount of movement in the left-right direction (the length of the left-right component of the movement vector) is a class.
図10および図11は、自車両が後方に直進した場合に得られたヒストグラムである。図10および図11は、カメラずれが生じていない場合のヒストグラムの一例である。第1ヒストグラムHG1は、後方側の特定の移動量(階級)に偏って度数が多くなる正規分布形状になっている。一方、第2ヒストグラムHG2は、移動量ゼロの近傍の階級に偏って度数が多くなる正規分布形状になっている。カメラずれが生じると、ヒストグラムの形状に変化が見られる。 10 and 11 are histograms obtained when the vehicle travels straight backward. FIG. 10 and FIG. 11 are examples of histograms when the camera shift has not occurred. The first histogram HG1 has a normal distribution shape in which the frequency increases toward a specific amount of movement (class) on the rear side. On the other hand, the second histogram HG2 has a normal distribution shape in which the frequency increases due to being biased toward the class near the movement amount of zero. When the camera shift occurs, the shape of the histogram changes.
本実施形態では、制御部12は、第1ヒストグラムHG1の中央値(メジアン)を前後方向の移動量の推定値とする。制御部12は、第2ヒストグラムHG2の中央値を左右方向の移動量の推定値とする。ただし、制御部12による推定値の決定方法は、これに限定されない。制御部12は、例えば、各ヒストグラムHG1、HG2の度数が最大となる階級の移動量(最頻値)を推定値としてもよい。
In the present embodiment, the
移動量の推定値が得られると、制御部12は、第1処理モードの場合と同様に、当該推定値と、センサ部3からの情報によって得られる比較値とを比較してカメラずれの有無を判定する(ステップS86)。カメラずれの有無の判定は、図7に示す処理と同様であるために、詳細説明は省略する。第2処理モードでは、多数の特徴点を用いて移動量の推定を行うことができるために、第1処理モードに比べてカメラずれの有無の判定処理の精度を向上することができる。第2処理モードにおいても、第1処理モードと同様に、複数のフレーム画像の処理結果に基づきカメラずれの有無を判定する構成としてもよい。
When the estimated value of the movement amount is obtained, the
第2処理モードでカメラずれ有りとの判定が行われた場合に、異常検出装置1はカメラずれを検出する。カメラずれが検出された場合、異常検出装置1は、表示装置6にカメラずれの発生を表示させるための処理を行い、運転者等にカメラ21の異常を報知することが好ましい。また、異常検出装置1は、カメラ21からの情報を用いて運転支援を行う機能(例えば自動駐車機能等)を停止(オフ)するための処理を行うことが好ましい。この際、運転支援機能を停止したことを表示装置6に表示させることが好ましい。車両に複数のカメラ21が搭載される場合、複数のカメラ21のうちの1つでもカメラずれが発生した場合には、上述した運転者等への報知処理、および、運転支援装機能の停止処理を行うことが好ましい。
When it is determined in the second processing mode that there is a camera shift, the
第2処理モードでカメラずれ無しとの判定が行われた場合には、異常検出装置1はカメラずれが検出されなかったとして一旦、カメラずれの検出処理を終了する。そして、その後、所定のタイミングでカメラずれの検出処理を再度開始する。
When it is determined that there is no camera shift in the second processing mode, the
本実施形態では、通常は、高速走行でカメラずれの有無を判定する第1処理モードを使用し、第1処理モードでカメラずれの発生が疑われる結果が得られた場合のみ、低速走行でカメラずれの有無の判定を行う第2処理モードを使用する。このために、低速走行時においては、原則として、カメラずれの検出処理に邪魔されることなく、カメラ21による周辺環境の認識処理を行うことができる。また、2つの処理モードを用いてカメラずれの判定を行うことができるために、カメラずれを誤検出する可能性を低減することができる。
In the present embodiment, normally, the first processing mode for determining the presence / absence of a camera shift during high-speed traveling is used, and only when a result in which the occurrence of a camera shift is suspected is obtained in the first processing mode, the camera during low-speed traveling is used. The second processing mode for determining the presence / absence of deviation is used. Therefore, during low-speed traveling, in principle, the peripheral environment recognition process can be performed by the
また、本実施形態では、カメラ21の取付け状態が大きくずれたことも適切に検出することができる。これについて、図12および図13を参照して説明する。図12は、大きなカメラずれを生じたカメラ21によって撮影された撮影画像Pを例示する模式図である。図13は、大きなカメラずれを生じたカメラ21によって撮影された撮影画像Pに基づいて生成された第1ヒストグラムHG1を例示する図である。
Further, in the present embodiment, it is possible to properly detect that the mounting state of the
図12に示す例では、カメラ21が大きくずれて、特徴点の抽出領域ER内には、空および遠方の建物(立体物)が主として映っている。通常、空や遠方の立体物の特徴点FPは、特徴量が小さいために、大きな閾値が設定される第1処理モードでは特徴点FPとして抽出されない。すなわち、大きなカメラずれが生じている場合には、第1処理モードでは、特徴点FPが所定数以上抽出されず、カメラずれの判定ができない状態が所定期間以上続く。この結果、第1処理モードから第2処理モードに切り替わってカメラずれの判定処理が行われる。第2処理モードでは、特徴点FPを抽出するための閾値が小さくされるために、空や遠方の立体物に由来する特徴点FPが抽出される。
In the example shown in FIG. 12, the
図13に示すように、空および遠方の立体物に由来する特徴点FPの移動ベクトルVは、車両が移動しているにもかかわらず、ベクトルの大きさはゼロ又はゼロ近傍の値になる。これは、空および遠方の立体物に由来する特徴点FPは、自車両から非常に遠い位置に存在するためである。この結果、大きなカメラずれが生じた場合には、推定値と比較値との値が大きくずれ、カメラずれを検出することができる。 As shown in FIG. 13, the moving vector V of the feature point FP derived from the sky and a distant three-dimensional object has a vector magnitude of zero or a value near zero even though the vehicle is moving. This is because the feature point FP derived from the sky and a distant three-dimensional object exists at a position very far from the own vehicle. As a result, when a large camera shift occurs, the estimated value and the comparison value greatly shift, and the camera shift can be detected.
以上に説明した通り、本実施形態では、第1処理モードによる判定処理と、第2処理モードによる判定処理とのいずれにおいても、特徴点の位置の時間変化から車両(移動体)の移動情報(例えば移動量)の推定値が求められる。そして、いずれの判定処理においても、移動情報の推定値に基づきカメラ21の異常の有無が判定される。すなわち、本構成によれば、第1処理モードと第2処理モードとのいずれにおいても、カメラ21の異常の有無を判定するに際して、車両の移動情報の推定値を得ることができる。
As described above, in the present embodiment, in both the determination processing in the first processing mode and the determination processing in the second processing mode, the movement information of the vehicle (moving body) is calculated from the temporal change of the position of the feature point. For example, an estimated value of the movement amount) is obtained. Then, in any of the determination processes, the presence / absence of abnormality of the
<4.変形例>
以上においては、第2処理モードでカメラずれの有無の判定処理を行う場合に、自動運転が行われる構成としたが、これは例示にすぎない。第2処理モードでカメラずれの有無の判定処理を行う場合に、運転者による運転(手動運転)が行われてもよい。この場合には、制御部12は、第1処理モードから第2処理モードへの切り替えを行う場合に、移動体(車両)に搭載される表示装置6に、第2処理モードに適した運転を行うことを促すメッセージを表示させる処理を行うことが好ましい。表示画面の表示内容には、例えば、カメラずれの判定処理を行う必要があること、および、当該判定処理のために、どのような運転をする必要があるかが含まれてよい。表示装置6による表示処理によって、運転者はカメラずれの判定を行うことが必要であることを認識して、それに応じた運転を開始することができる。なお、画面によるメッセージに加えて、或いは、画面によるメッセージに替えて、例えば音声により第2処理モードに適した運転を促す構成としてもよい。また、第1処理モードで判定処理が行われる場合においても、表示装置6に、第1処理モードに適した運転を行うことを促すメッセージを表示させる構成としてもよい。また、場合によっては、第1処理モードでカメラずれの有無の判定処理を行う場合に、自動運転が行われる構成としてもよい。
<4. Modification>
In the above, the configuration is such that the automatic operation is performed when the determination process of the presence or absence of the camera shift is performed in the second processing mode, but this is merely an example. When performing the determination process of the presence or absence of the camera shift in the second processing mode, driving by the driver (manual driving) may be performed. In this case, when switching from the first processing mode to the second processing mode, the
また、以上においては、通常時は第1処理モードが使用され、第2処理モードは、第1処理モードで所定の処理結果が得られた場合にのみ使用される構成としたが、これは例示である。第2処理モードは、第1処理モードの処理結果と関係なく、使用されてもよい。例えば、ナビゲーション装置等によって自車両が駐車場以外の場所を走行していると判断される場合には、自車両が低速走行(例えば時速3km以上5km以下)をしていることを条件として、第1処理モードの代わりに第2処理モードを用いたカメラずれの検出処理が行われてよい。 Further, in the above, the first processing mode is normally used, and the second processing mode is used only when a predetermined processing result is obtained in the first processing mode. Is. The second processing mode may be used regardless of the processing result of the first processing mode. For example, when it is determined by the navigation device or the like that the host vehicle is traveling in a place other than the parking lot, it is assumed that the host vehicle is traveling at a low speed (for example, 3 km or more and 5 km or less per hour). The camera shift detection process using the second process mode instead of the one process mode may be performed.
また、以上においては、判定処理のために切り替えて使用可能な処理モードの数を2つとしたが、処理モードの数は3つ以上であってもよい。 Further, in the above, the number of processing modes that can be switched and used for the determination processing is two, but the number of processing modes may be three or more.
また、以上においては、カメラ21の異常検出に用いるデータは、自車両が直進走行している場合に収集される構成とした。ただし、これは例示であり、カメラ21の異常検出に用いるデータは、自車両が直進走行していない場合に収集されてもよい。
Further, in the above description, the data used for detecting the abnormality of the
<<B.第2実施形態>>
<1.異常検出システム>
次に、第2実施形態について説明する。第2実施形態の説明にあたって、第1実施形態と重複する内容については、特に必要がない場合には、その説明を省略する。また、第1実施形態と重複する部分には、同じ符号を付す。
<< B. Second embodiment >>
<1. Anomaly detection system>
Next, a second embodiment will be described. In the description of the second embodiment, the contents overlapping with those of the first embodiment will be omitted unless particularly necessary. Further, the same reference numerals are given to the same parts as those in the first embodiment.
図14は、本発明の第2実施形態に係る異常検出システムSYS2Aの構成を示すブロック図である。第2実施形態の異常検出システムSYS2Aは、第1実施形態の異常検出システムSYS2と同様に、異常検出装置1Aと、撮影部2と、センサ部3とを備える。異常検出システムSYS2Aも、第1実施形態と同様に、カメラずれを検出するシステムである。なお、撮影部2およびセンサ部3の構成は、第1実施形態と同様であるために、その説明は省略する。
FIG. 14 is a block diagram showing the configuration of the abnormality detection system SYS2A according to the second embodiment of the present invention. Similar to the abnormality detection system SYS2 of the first embodiment, the abnormality detection system SYS2A of the second embodiment includes an abnormality detection device 1A, a photographing
<2.異常検出装置>
異常検出装置1Aは、第1実施形態と同様に、カメラを搭載する車両ごとに備えられる。異常検出装置1Aは、カメラで撮影された撮影画像に基づいて異常を検出する装置(カメラずれ検出装置)である。
<2. Abnormality detection device>
The abnormality detection device 1A is provided for each vehicle equipped with a camera, as in the first embodiment. The abnormality detection device 1A is a device (camera shift detection device) that detects an abnormality based on a captured image captured by a camera.
図14に示すように、異常検出装置1Aは、画像取得部111と、制御部12Aと、記憶部13Aと、を備える。画像取得部111の構成は、第1実施形態と同様であるために、その説明は省略する。
As shown in FIG. 14, the abnormality detection device 1A includes an image acquisition unit 111, a
制御部12Aは、第1実施形態と同様に、例えば、CPU、RAMおよびROM等を備えるコンピュータであり、異常検出装置1Aの全体を統括的に制御する。また、記憶部13Aは、第1実施形態と同様に、不揮発性のメモリであり、ファームウェアとしてのプログラムを含む各種の情報を記憶する。制御部12Aの各種の機能は、CPUが記憶部13Aに記憶されるコンピュータプラグラムに従って演算処理を行うことによって実現される。
As in the first embodiment, the
第2実施形態においても、第1実施形態と同様に、制御部12Aは、カメラ21の異常の有無を、カメラ21で撮影された撮影画像から抽出される特徴点の位置の時間変化に基づき判定する判定処理を実行する。判定処理は、第1処理モードと第2処理モードとを選択可能に設けられる。ただし、判定処理の方式、および、処理モードの選択方式が第1実施形態と異なる。以下、この相違点を中心に説明する。なお、本実施形態においてもカメラ21の数は複数であり、各カメラ21について判定処理が行われる。
In the second embodiment as well, similar to the first embodiment, the
制御部12Aは、モード選択部120、抽出部121、特定部122、推定部123、及び判定部124を備える。モード選択部120、抽出部121、特定部122、推定部123、及び判定部124は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてよい。
The
モード選択部120は、第1処理モードと、第2処理モードとを選択する。詳細には、モード選択部120は、車両の速度に応じて第1処理モードと第2処理モードとを選択する。第1処理モードは、第2処理モードに比べて車両の速度が高速である場合に使用される。 The mode selection unit 120 selects the first processing mode and the second processing mode. Specifically, the mode selection unit 120 selects the first processing mode and the second processing mode according to the speed of the vehicle. The first processing mode is used when the speed of the vehicle is higher than that in the second processing mode.
抽出部121は、カメラ21からの撮影画像から第1特徴点及び第2特徴点を含む複数の特徴点を抽出する。抽出部121は、撮影画像を構成する画素それぞれについて特徴量を算出し、特徴量が所定の閾値を超える画素を特徴点として抽出する。所定の閾値は、第1処理モードでは第1閾値、第2処理モードでは第2閾値とされる。第2閾値は第1閾値より小さい。第1閾値は、例えば白線のコーナーのような非常に大きな特徴量を有する特徴点のみが抽出されるように設定される。第2閾値は、路面の細かい凹凸に由来する特徴点が多数抽出されるように設定される。抽出部121は、路面上の特徴点の中から第1特徴点及び第2特徴点を選定する。なお、本実施形態では、所定の平面として路面を想定する。
The
特定部122は、異なる時刻で撮影された2つの撮影画像から抽出された第1特徴点及び第2特徴点の各オプティカルフローを導出する。オプティカルフローは、異なる時刻で撮影された2つの撮影画像間における特徴点の動きを示す動きベクトルである。異なる時刻の間隔は、画像取得部11のフレーム周期と同一であってもよく、画像取得部11のフレーム周期の複数倍であってもよい。
The identifying unit 122 derives each optical flow of the first feature point and the second feature point extracted from the two captured images captured at different times. The optical flow is a motion vector indicating the motion of the feature point between two captured images captured at different times. The interval between different times may be the same as the frame period of the
特定部122は、第1特徴点及び第2特徴点の各オプティカルフローを用いて、異なる時刻で撮影された2つの撮影画像から抽出された第1特徴点及び第2特徴点の各位置変化を算出する。特定部122は、第1特徴点の位置変化及び第2特徴点の位置変化に基づき、所定の平面との交線が互いに平行となる面の組を2組特定する。なお、特定部122の処理は、第1処理モードと第2処理モードとで同じであってよい。 The identifying unit 122 uses the optical flows of the first feature point and the second feature point to determine the positional changes of the first feature point and the second feature point extracted from the two captured images captured at different times. calculate. The specifying unit 122 specifies two sets of planes whose intersecting lines with a predetermined plane are parallel to each other based on the position change of the first feature point and the position change of the second feature point. The processing of the identifying unit 122 may be the same in the first processing mode and the second processing mode.
推定部123は、特定部122で特定した面の組に基づきカメラの姿勢(カメラの取付け角度)を推定する。例えば抽出部121がフロントカメラから第1特徴点及び第2特徴点を抽出した場合、推定部123はフロントカメラの姿勢(カメラの取付け角度)を推定する。なお、推定部123の処理は、第1処理モードと第2処理モードとで同じであってよい。
The estimation unit 123 estimates the posture of the camera (camera attachment angle) based on the set of surfaces identified by the identification unit 122. For example, when the
判定部124は、推定部123によって推定されたカメラ21の姿勢に基づき、カメラずれの有無を判定する。カメラずれ有りと判定されると、異常検出装置1Aがカメラ21の異常を検出したことになる。例えば、この異常を異常検出装置1Aが車両のユーザに報知することで、車両のユーザはディーラによるカメラの取付調整を依頼する等の対策をとることが可能となる。なお、判定部124の処理は、第1処理モードと第2処理モードとで同じであってよい。
The determination unit 124 determines whether or not there is a camera shift based on the posture of the
なお、画像取得部11、モード選択部120、抽出部121、特定部122、及び推定部123によって姿勢推定装置14が構成される。姿勢推定装置14との観点からは、制御部12Aは、車両(移動体)に搭載されるカメラ21で撮影された撮影画像から抽出される特徴点の位置の変化に基づきカメラ21の姿勢を推定する推定処理を実行する。推定処理は、第1処理モードと第2処理モードとを選択可能に設けられる。姿勢推定装置14を備える異常検出装置1Aは、姿勢推定装置14による推定処理に基づいてカメラ21の異常の有無を判定する。
The
図15は、本発明の第2実施形態に係る異常検出装置1Aにおけるカメラずれの検出フローの一例を示すフローチャートである。カメラずれの検出処理は、例えば、イグニッションオン(電気自動車の場合パワーオン)の後、所定のタイミングで繰り返し行われる。以下、カメラ21がフロントカメラである場合を例に挙げてカメラずれの検出処理を説明する。
FIG. 15 is a flowchart showing an example of a camera shift detection flow in the abnormality detection device 1A according to the second embodiment of the present invention. The camera shift detection process is repeatedly performed at a predetermined timing after the ignition is turned on (power on in the case of an electric vehicle). Hereinafter, the detection process of the camera shift will be described taking the case where the
図15に示すように、まず、制御部12Aは、カメラ21を搭載する車両が直進しているか否かを監視する(ステップS101)。当該監視は、第1実施形態の場合と同様である。制御部12Aは、車両が直進走行を開始するまでカメラずれの有無の判定を行わない。なお、後述するステップS104の処理において、互いに重なっていない第1特徴点のオプティカルフローと第2特徴点のオプティカルフローが導出できればカメラの姿勢を推定することができるので、本実施形態とは異なり車両の進行方向が曲がっているときにカメラずれの判定を行ってもよい。
As shown in FIG. 15, first, the
本実施形態では、車両が直進していると判断される場合(ステップS101でYes)、モード選択部120により判定処理の処理モードの選択が行われる(ステップS102)。図16は、処理モードの選択処理の一例を示すフローチャートである。図16は、図15のステップS102の詳細例を示すフローチャートである。 In this embodiment, when it is determined that the vehicle is traveling straight (Yes in step S101), the mode selection unit 120 selects the processing mode of the determination process (step S102). FIG. 16 is a flowchart showing an example of processing mode selection processing. FIG. 16 is a flowchart showing a detailed example of step S102 in FIG.
まず、モード選択部120は、車両の速度が第1速度範囲内か否かを確認する(ステップS1021)。車両の速度は、例えば速度センサ31から得られる。第1速度範囲は、例えば時速5km以上30km未満とされる。
First, the mode selection unit 120 confirms whether or not the speed of the vehicle is within the first speed range (step S1021). The speed of the vehicle is obtained from the
車両の速度が第1速度範囲内である場合(ステップS1021でYes)、モード選択部120は第1処理モードを選択する(ステップS1022)。一方、車両の速度が第1速度範囲外である場合(ステップS1021でNo)、モード選択部120は、車両の速度が第2速度範囲内か否かを確認する(ステップS1023)。第2速度範囲は、例えば時速3km以上5km未満とされる。 When the speed of the vehicle is within the first speed range (Yes in step S1021), the mode selection unit 120 selects the first processing mode (step S1022). On the other hand, when the vehicle speed is outside the first speed range (No in step S1021), the mode selection unit 120 confirms whether the vehicle speed is within the second speed range (step S1023). The second speed range is, for example, 3 km or more per hour and less than 5 km per hour.
車両の速度が第2速度範囲内である場合(ステップS1023でYes)、モード選択部120は第2処理モードを選択する(ステップS1024)。一方、車両の速度が第2速度範囲外である場合(ステップS1023でNo)、処理モードの選択を行わず、ステップS101に戻る。例えば、車両の速度が時速30km以上である場合や、時速3km未満の場合にステップS101に戻る。車両の速度が速すぎると、特徴点の動きを追えない可能性があり、車両の速度が遅すぎるとオプティカルフローの長さが短くなって判定の精度が低下する可能性があることを考慮するものである。 When the speed of the vehicle is within the second speed range (Yes in step S1023), the mode selection unit 120 selects the second processing mode (step S1024). On the other hand, when the speed of the vehicle is outside the second speed range (No in step S1023), the processing mode is not selected and the process returns to step S101. For example, when the speed of the vehicle is 30 km / h or higher, or when the speed is less than 3 km / h, the process returns to step S101. Consider that if the vehicle speed is too fast, it may not be possible to follow the movement of the feature points, and if the vehicle speed is too slow, the length of the optical flow may be shortened and the accuracy of the determination may decrease. It is a thing.
なお、本実施形態では、第1速度範囲内か否かが確認された後に第2速度範囲内か否かが確認される構成としたが、これは例示にすぎない。例えば、第2速度範囲内か否かが確認された後に第1速度範囲内か否かが確認される構成としてもよい。 In the present embodiment, the configuration is made in which it is confirmed whether or not it is within the second speed range after it is confirmed whether or not it is within the first speed range, but this is merely an example. For example, the configuration may be such that it is confirmed whether or not it is within the first speed range after it is confirmed whether or not it is within the second speed range.
図15に戻って、処理モードが選択されると、抽出部121によって特徴点の抽出が行われる(ステップS103)。特徴点の抽出方法は第1実施形態と同様である。第1処理モードが選択された場合、白線のコーナーのようなコーナー度が高い特徴点のみが抽出される。一方、第2処理モードが選択された場合、白線のコーナーのようなコーナー度が高い特徴点以外に、例えば路面(例えばアスファルト路面)の凹凸に由来する特徴点が多数得られる。
Returning to FIG. 15, when the processing mode is selected, the
なお、特徴点の抽出前に撮影画像に対して前処理が行われてよい。例えば、第1処理モードが選択された場合に、追跡精度が悪い特徴点が誤って抽出されないように、特徴点の抽出前に撮影画像にノイズを除去する処理が施されてよい。また、抽出部121による特徴点の抽出処理によって、以下の処理に必要となる特徴点が得られない場合が起こり得る。このような場合には、カメラずれの有無が判定できないと判断されて、カメラずれの検出処理が一旦終了されてよい。
Note that preprocessing may be performed on the captured image before extracting the characteristic points. For example, when the first processing mode is selected, noise may be removed from the captured image before extracting the characteristic points so that the characteristic points with poor tracking accuracy are not erroneously extracted. In addition, the feature point extraction process performed by the
本実施形態では、抽出部121は、第1特徴点FP1と第2特徴点FP2とを抽出する。図17は、抽出部121によって抽出された第1特徴点FP1と第2特徴点FP2とを例示する図である。なお、図17は、カメラ21で撮影された撮影画像Pを模式的に示した図である。撮影画像Pは、車両のボディが映り込む領域BOを含む。第1特徴点FP1及び第2特徴点FP2は路面RS上に存在する。図17においては、路面に描かれている制限速度を示す数字の部分に第1特徴点FP1及び第2特徴点FP2が存在する。
In the present embodiment, the
なお、抽出部121で抽出される特徴点の数は2つより多いことがある。特に、第2処理モードでは多数の特徴点が抽出される。特徴点が2つより多く抽出された場合には、複数の特徴点の中から、以下の処理に適した2つの特徴点を選定する構成としてよい。また、第1特徴点FP1と第2特徴点FP2との組を2つ以上抽出して、それぞれに対して以下の処理を行ってもよい。
Note that the number of feature points extracted by the
図15に戻って、第1特徴点FP1及び第2特徴点FP2が抽出されると、特定部122は、第1特徴点FP1のオプティカルフローOF1と、第2特徴点FP2のオプティカルフローOF2と、を導出する(ステップS104)。 Returning to FIG. 15, when the first feature point FP1 and the second feature point FP2 are extracted, the identifying unit 122 determines the optical flow OF1 of the first feature point FP1 and the optical flow OF2 of the second feature point FP2. Is derived (step S104).
図18は、第1特徴点FP1のオプティカルフローOF1及び第2特徴点FP2のオプティカルフローOF2を導出する手法を説明するための図である。図18は、図17と同様に便宜的に示された模式図である。図18は、図17に示す撮影画像(前フレームP)の撮影後、所定時間が経過した後にカメラ21で撮影された撮影画像(現フレームP’)である。図17に示す撮影画像Pの撮影後、所定時間が経過するまでの間に、車両は前方に直進している。図18に示す丸印FP1Pは、図17に示す撮影画像Pの撮影時点における第1特徴点FP1の位置を示す。図18に示す丸印FP2Pは、図17に示す撮影画像Pの撮影時点における第2特徴点FP2の位置を示す。
FIG. 18 is a diagram for explaining a method of deriving the optical flow OF1 of the first feature point FP1 and the optical flow OF2 of the second feature point FP2. FIG. 18 is a schematic diagram shown for convenience as in FIG. FIG. 18 is a photographed image (current frame P ′) photographed by the
図18に示すように、車両が前方に直進すると、車両の前方に存在する第1特徴点FP1及び第2特徴点FP2は車両に近づく。すなわち、第1特徴点FP1及び第2特徴点FP2は、現フレームP’と前フレームPとで異なる位置に現れる。特定部122は、現フレームP’の第1特徴点FP1と前フレームPの第1特徴点FP1とを、その近傍の画素値に基づいて対応付け、対応付けた第1特徴点FP1のそれぞれの位置に基づいて、第1特徴点FP1のオプティカルフローOF1を導出する。同様に、特定部122は、現フレームP’の第2特徴点FP2と前フレームPの第2特徴点FP2とを、その近傍の画素値に基づいて対応付け、対応付けた第2特徴点FP2のそれぞれの位置に基づいて、第2特徴点FP2のオプティカルフローOF2を導出する。 As shown in FIG. 18, when the vehicle travels straight ahead, the first feature point FP1 and the second feature point FP2 existing in front of the vehicle approach the vehicle. That is, the first feature point FP1 and the second feature point FP2 appear at different positions in the current frame P ′ and the previous frame P. The identifying unit 122 associates the first feature point FP1 of the current frame P ′ and the first feature point FP1 of the previous frame P on the basis of the pixel values in the vicinity of each of the first feature points FP1. The optical flow OF1 of the first feature point FP1 is derived based on the position. Similarly, the identifying unit 122 associates the second feature point FP2 of the current frame P ′ with the second feature point FP2 of the previous frame P based on the pixel values in the vicinity thereof, and the associated second feature point FP2. The optical flow OF2 of the second feature point FP2 is derived based on the respective positions of.
第1特徴点FP1のオプティカルフローOF1と第2特徴点FP2のオプティカルフローOF2が導出されると、特定部122は、特徴点に対し、記憶部13Aに記憶されているカメラ21に内部パラメータを用いて座標変換を行う。座標変換では、カメラ21の収差補正と、歪補正とが行われる。収差補正は、カメラ21の光学系の収差による歪みを補正するために行われる。具体的には樽型歪みや糸巻歪みなど歪曲収差の補正である。歪み補正は、カメラ21の光学系そのものの歪みを補正するために行われる。具体的には魚眼補正などである。座標変換により、特徴点の座標は、被写体が透視投影によって撮影された場合に二次元画像上で得られる座標に変換される。
When the optical flow OF1 of the first feature point FP1 and the optical flow OF2 of the second feature point FP2 are derived, the identifying unit 122 uses the internal parameter for the
特徴点の座標変換が行われると、特定部122は、図19に示すように、第1特徴点FP1のオプティカルフローOF1の始点を頂点SP1、第1特徴点FP1のオプティカルフローOF1の終点を頂点EP1、第2特徴点FP2のオプティカルフローOF2の始点を頂点SP2、及び第2特徴点FP2のオプティカルフローOF2の終点を頂点EPとする四角形QLを仮想的に形成する(ステップS105、図15参照)。以降、説明のために四角形や、該四角形の辺などの幾何的要素を仮想的に形成して用いる。しかし、実際の処理では、特徴点の座標や直線の方向などのベクトル演算に基づき、同等の作用を持つ幾何的要素に基づかない処理としてもよい。 When the coordinate conversion of the feature points is performed, the specifying unit 122 sets the start point of the optical flow OF1 of the first feature point FP1 to the vertex SP1 and the end point of the optical flow OF1 of the first feature point FP1 to the vertex as illustrated in FIG. A quadrangle QL is virtually formed in which EP1 is the start point of the optical flow OF2 of the second feature point FP2 as the vertex SP2, and the end point of the optical flow OF2 of the second feature point FP2 is the vertex EP (step S105, see FIG. 15). . Hereinafter, for the sake of explanation, a quadrangle and geometric elements such as sides of the quadrangle are virtually formed and used. However, in the actual processing, the processing may not be based on the geometrical elements having the same action, based on the vector calculation of the coordinates of the characteristic points and the direction of the straight line.
四角形QLが仮想的に形成されると、図20に示すように、特定部122は、四角形QLと、記憶部13Aに記憶されているカメラ21の内部パラメータとを用いて、三次元空間におけるカメラ21の投影面IMG上に四角形QLを移動させ、投影面IMG上での四角形QL1を仮想的に生成する(ステップS106)。
When the quadrangle QL is virtually formed, as shown in FIG. 20, the identifying unit 122 uses the quadrangle QL and the internal parameters of the
なお説明のため、以下のように辺を定義する。四角形QL1の第1辺SD1は、四角形QL(図19参照)において、頂点SP1および頂点SP2を結んだ辺に対応する。つまり、前フレームPにおける第1特徴点FP1と第2特徴点FP2を結んだ辺に相当する。同様に、四角形QL1の第2辺SD2は、四角形QLにおいて、頂点SP2および頂点EP2を結んだ辺に対応する。つまり、第2特徴点FP2のオプティカルフローOF2に相当する。同様に、四角形QL1の第3辺SD3は、四角形QLにおいて、頂点EP1および頂点EP2を結んだ辺に対応する。つまり、現フレームP’における第1特徴点FP1と第2特徴点FP2とを結んだ辺に相当する。同様に、四角形QL1の第4辺SD4は、四角形QLにおいて、頂点SP1および頂点EP1を結んだ辺に対応する。つまり、第1特徴点FP1のオプティカルフローOF1に相当する。 For the sake of explanation, edges are defined as follows. The first side SD1 of the quadrangle QL1 corresponds to the side connecting the vertices SP1 and SP2 in the quadrangle QL (see FIG. 19). That is, it corresponds to the side connecting the first feature point FP1 and the second feature point FP2 in the previous frame P. Similarly, the second side SD2 of the quadrangle QL1 corresponds to the side connecting the vertices SP2 and EP2 in the quadrangle QL. That is, it corresponds to the optical flow OF2 of the second feature point FP2. Similarly, the third side SD3 of the quadrangle QL1 corresponds to the side connecting the vertices EP1 and EP2 in the quadrangle QL. That is, it corresponds to the side connecting the first feature point FP1 and the second feature point FP2 in the current frame P '. Similarly, the fourth side SD4 of the quadrangle QL1 corresponds to the side connecting the vertices SP1 and EP1 in the quadrangle QL. That is, it corresponds to the optical flow OF1 of the first feature point FP1.
また、以下のように面を定義する(図20参照)。四角形QL1の第1辺SD1とカメラ21の光学中心OCとが含まれる面を第1面F1とする。同様に、四角形QL1の第2辺SD2とカメラ21の光学中心OCとが含まれる面を第2面F2とする。同様に、四角形QL1の第3辺SD3とカメラ21の光学中心OCとが含まれる面を第3面F3とする。同様に、四角形QL1の第4辺SD4とカメラ21の光学中心OCとが含まれる面を第4面F4とする。
Further, the surface is defined as follows (see FIG. 20). A surface including the first side SD1 of the quadrangle QL1 and the optical center OC of the
次に、特定部122は、所定の平面との交線が互いに平行になる面の組を2組特定する(ステップS107)。所定の平面とはあらかじめ平面の法線が分かっている面である。具体的には車両が移動を行っている平面であり、つまり路面である。所定の平面は、厳密な平面でなくてもよく、特定部122が所定の平面との交線が互いに平行になる面の組を2組特定する際に平面とみなすことができるものであればよい。 Next, the specifying unit 122 specifies two sets of surfaces whose intersecting lines with a predetermined plane are parallel to each other (step S107). The predetermined plane is a plane whose normal is known in advance. Specifically, it is the plane on which the vehicle is moving, that is, the road surface. The predetermined plane need not be a strict plane, and can be regarded as a plane when the specifying unit 122 specifies two sets of planes whose intersecting lines with the predetermined plane are parallel to each other. Good.
本実施形態では、異常検出装置1Aは、車両が直進している場合に、異なる時刻に撮影された2つの画像から特徴点を抽出し、該特徴点のオプティカルフローを算出する。また、該特徴点は路面などの所定の平面上に位置している静止物から抽出される。したがって、算出されるオプティカルフローは実世界上では、車両に対する静止物の相対的な位置変化を表す。つまり向きが逆となった車両の移動ベクトルである。 In the present embodiment, the abnormality detection device 1A extracts feature points from two images captured at different times and calculates the optical flow of the feature points when the vehicle is traveling straight. In addition, the feature points are extracted from a stationary object located on a predetermined plane such as a road surface. Therefore, the calculated optical flow represents the relative position change of the stationary object with respect to the vehicle in the real world. In other words, it is the movement vector of the vehicle whose direction is reversed.
四角形QL1の第2辺SD2と第4辺SD4とは、共に特徴点のオプティカルフローに対応するので、共に実世界上では車両の移動ベクトルに相当する。したがって、路面上では互いに平行となると想定される。 The second side SD2 and the fourth side SD4 of the quadrangle QL1 both correspond to the optical flow of the feature point, and thus both correspond to the movement vector of the vehicle in the real world. Therefore, it is assumed that they are parallel to each other on the road surface.
また、四角形QL1の第1辺SD1と第3辺SD3とは、共に特徴点同士の位置関係なので、実世界上では車両の移動に伴う静止物同士の位置関係に相当する。移動前の位置関係が第1辺SD1に相当し、移動後の位置関係が第3辺SD3に相当する。このとき静止物の位置は変わらないため、移動前後で位置関係は変わらない。したがって、路面上ではこれも互いに平行となると想定される。 Further, since the first side SD1 and the third side SD3 of the quadrangle QL1 are both in the positional relationship between the feature points, they correspond to the positional relationship between the stationary objects associated with the movement of the vehicle in the real world. The positional relationship before the movement corresponds to the first side SD1, and the positional relationship after the movement corresponds to the third side SD3. At this time, since the position of the stationary object does not change, the positional relationship does not change before and after the movement. Therefore, it is assumed that these are also parallel to each other on the road surface.
したがって、特定部122は、路面との交線が平行な面として、第2面F2と第4面F4との組と、第1面F1と第3面F3との組と、の2つの組を特定する。つまり、特定部122は、オプティカルフローを含む面同士を1つの組とし、同時刻に撮影された特徴点を含む面同士を他の組として、計2つの組を特定する。 Therefore, the specifying unit 122 sets two sets of a set of the second face F2 and the fourth face F4 and a set of the first face F1 and the third face F3 as the faces whose intersection lines with the road surface are parallel to each other. Specify. In other words, the specifying unit 122 specifies a total of two sets, with the faces including the optical flow as one set and the faces including the feature points captured at the same time as another set.
なお、図20において四角形QL2は、現フレームP’の撮影時点での第1特徴点FP1の3次元空間(実世界)上の位置、現フレームP’の撮影時点での第2特徴点FP2の3次元空間上の位置、前フレームPの撮影時点での第1特徴点FP1の3次元空間上の位置、及び前フレームPの撮影時点での第2特徴点FP2の3次元空間上の位置を頂点とする四角形である。第1面F1は、四角形QL2の第1辺SD11を含む。同様に、第2面F2は四角形QL2の第2辺SD12を含み、第3面F3は四角形QL2の第3辺SD13を含み、第4面F4は四角形QL2の第4辺SD14を含む。このとき、上記のように四角形QL2は路面上に形成される平行四辺形であると想定される。 In FIG. 20, a quadrangle QL2 indicates the position of the first feature point FP1 in the three-dimensional space (real world) at the time of shooting the current frame P ′, and the second feature point FP2 at the time of shooting the current frame P ′. The position in the three-dimensional space, the position of the first feature point FP1 in the three-dimensional space at the time of capturing the previous frame P, and the position of the second feature point FP2 in the three-dimensional space at the time of capturing the previous frame P are It is a quadrangle with the apex. The first surface F1 includes the first side SD11 of the quadrangle QL2. Similarly, the second surface F2 includes the second side SD12 of the quadrangle QL2, the third surface F3 includes the third side SD13 of the quadrangle QL2, and the fourth surface F4 includes the fourth side SD14 of the quadrangle QL2. At this time, the quadrangle QL2 is assumed to be a parallelogram formed on the road surface as described above.
次に、推定部123は、路面の法線を算出する(ステップS108)。まず、推定部123は、特定部122で特定した面の組の一方である第1面F1と第3面F3とに基づき、面同士の交線の方向を求める。詳細には、第1面F1と第3面F3との交線CL1の向きを求める(図21参照)。交線CL1の方向ベクトルV1は、第1面F1の法線ベクトル及び第3面F3の法線ベクトルそれぞれと垂直なベクトルである。したがって、推定部123は、第1面F1の法線ベクトルと第3面F3の法線ベクトルとの外積により、交線CL1の方向ベクトルV1を求める。第1面F1と第3面F3は、路面との交線が平行となるため、方向ベクトルV1は路面と平行になる。 Next, the estimation unit 123 calculates the normal line of the road surface (step S108). First, the estimation unit 123 obtains the direction of the line of intersection between the faces based on the first face F1 and the third face F3, which are one of the sets of faces identified by the identifying unit 122. Specifically, the direction of the line of intersection CL1 between the first surface F1 and the third surface F3 is obtained (see FIG. 21). The direction vector V1 of the intersection line CL1 is a vector perpendicular to the normal vector of the first surface F1 and the normal vector of the third surface F3. Therefore, the estimation unit 123 obtains the direction vector V1 of the intersection line CL1 by the cross product of the normal vector of the first surface F1 and the normal vector of the third surface F3. The first surface F1 and the third surface F3 have parallel lines of intersection with the road surface, so that the direction vector V1 is parallel to the road surface.
同様に、推定部123は、特定部122で特定した面の組の他方である第2面F2と第4面F4との交線の方向を求める。詳細には第2面F2と第4面F4との交線CL2の向きを求める(図22参照)。交線CL2の方向ベクトルV2は、第2面F2の法線ベクトル及び第4面F4の法線ベクトルそれぞれと垂直なベクトルである。したがって、推定部123は、第2面F2の法線ベクトルと第4面F4の法線ベクトルとの外積により、交線CL2の方向ベクトルV2を求める。第2面F2と第4面F4も同様に、路面との交線が平行となるため、方向ベクトルV2は路面と平行になる。 Similarly, the estimation unit 123 obtains the direction of the line of intersection between the second surface F2 and the fourth surface F4 that is the other of the pair of surfaces identified by the identifying unit 122. Specifically, the direction of the line of intersection CL2 between the second surface F2 and the fourth surface F4 is obtained (see FIG. 22). The direction vector V2 of the intersection line CL2 is a vector perpendicular to the normal vector of the second surface F2 and the normal vector of the fourth surface F4. Therefore, the estimation unit 123 obtains the direction vector V2 of the intersection line CL2 by the outer product of the normal vector of the second surface F2 and the normal vector of the fourth surface F4. Similarly, in the second surface F2 and the fourth surface F4, the lines of intersection with the road surface are also parallel, so the direction vector V2 is parallel to the road surface.
推定部123は、方向ベクトルV1と方向ベクトルV2との外積により、四角形QL2の面の法線、すなわち路面の法線を算出する。推定部123が算出した路面の法線はカメラ21のカメラ座標系で算出されるため、実際の路面の法線である垂直方向との違いから3次元空間の座標系を求め、路面に対するカメラ21の姿勢を推定することができる。その推定結果から推定部123は車両に対するカメラ21の姿勢を推定する(ステップS109)。なお、ステップS108の算出処理は、例えば公知のARToolkitを利用して実行することができる。
The estimation unit 123 calculates the normal of the surface of the quadrangle QL2, that is, the normal of the road surface by the cross product of the direction vector V1 and the direction vector V2. Since the normal line of the road surface calculated by the estimating unit 123 is calculated in the camera coordinate system of the
カメラ21の姿勢推定を行うと、判定部124は、推定部123によって推定されたカメラ21の姿勢に基づき、カメラずれの有無を判定する(ステップS110)。カメラ21の取付時の姿勢は、予め記憶部13Aに記憶されており、記憶部13Aに記憶されるデータとの比較によりカメラずれの有無を判定することができる。ステップS110におけるカメラずれの有無の判定が完了すると、図15に示すフローが終了する。
After estimating the posture of the
以上からわかるように、本実施形態の異常検出装置1Aによれば、車両(移動体)の速度が速い場合と遅い場合とで、カメラずれ(カメラ21の異常)の有無を判定する判定処理の処理モードを変更する。これにより、車両の速度に合った適切な判定処理を行うことができる。例えば出庫時や狭い道を走行する場合等の低速で走行する場合には、第2処理モードが利用される。このようなシーンでは、コーナー度が高い特徴点を見つけ難い可能性が高く、特徴点の抽出閾値を下げる第2処理モードを利用した判定処理は適切と言える。一方、車両がある程度の速度で走行するシーンでは、道路に白線表示が記載されていることが多く、特徴点の追跡を行い易く判定精度を向上できる第1処理モードを利用した判定処理は適切と言える。本実施形態によれば、判定精度をなるべく良くしつつ、カメラ21の異常の有無を判定する機会を増やすことができる。
As can be seen from the above, according to the abnormality detection device 1A of the present embodiment, the determination process of determining whether or not there is a camera shift (abnormality of the camera 21) depending on whether the vehicle (moving body) is fast or slow. Change the processing mode. As a result, it is possible to perform appropriate determination processing suitable for the speed of the vehicle. For example, when traveling at a low speed such as when leaving the warehouse or traveling on a narrow road, the second processing mode is used. In such a scene, there is a high possibility that it will be difficult to find a feature point with a high degree of corners, and it can be said that the determination process using the second processing mode that lowers the feature point extraction threshold is appropriate. On the other hand, in a scene in which the vehicle travels at a certain speed, white lines are often displayed on the road, and the determination processing using the first processing mode that can easily track the feature points and improve the determination accuracy is appropriate. I can say. According to the present embodiment, it is possible to increase the chances of determining the presence or absence of abnormality of the
また、本実施形態の姿勢推定装置14によれば、車両(移動体)の速度が速い場合と遅い場合とで、カメラ21の姿勢を推定する推定処理の処理モードを変更する。これにより、車両の速度に合った適切な推定処理を行うことができる。例えば出庫時や狭い道を走行する場合等の低速で走行するシーンでは、コーナー度が高い特徴点を見つけ難可能性が高く、特徴点の抽出閾値を下げる第2処理モードを利用した推定処理は適切と言える。一方、車両がある程度の速度で走行するシーンでは、道路に白線表示が記載されていることが多く、特徴点の追跡を行い易く推定精度を向上できる第1処理モードを利用した推定処理は適切と言える。本実施形態によれば、姿勢推定の精度をなるべく良くしつつ、カメラ21の姿勢推定の機会を増やすことができる。
Further, according to the
また、本実施形態では、第1処理モードによる判定処理と、第2処理モードによる判定処理とのいずれにおいても、特徴点の位置の時間変化からカメラ21の姿勢が推定される。そして、いずれの判定処理においても、推定されたカメラ21の姿勢に基づきカメラ21の異常の有無が判定される。すなわち、本構成によれば、第1処理モードと第2処理モードとのいずれにおいても、カメラ21の異常の有無を判定するに際して、カメラ21の姿勢の推定値を得ることができる。
Further, in the present embodiment, the posture of the
<3.変形例>
上記の説明ではカメラ21の光学中心OCと、四角形QL1の1つの辺を含む平面を特定するとしたがこの限りではない。当該平面の法線方向の特定をもって平面を特定することとしてもよい。例えば光学中心OCから各頂点への方向ベクトルの外積により平面の法線方向を求め、該法線方向によって面を特定するとしてもよい。この場合、第1面F1の法線方向と第3面F3の法線方向とを1つの組とし、第2面F2の法線方向と第4面F4の法線方向とを他の組として2つの組を特定するとよい。
<3. Modification>
In the above description, the plane including the optical center OC of the
また、面は平行移動させてもよい。例えば第1面F1の代わりに、第1面F1を平行移動させた面を第3面F3と組としてもよい。平行移動しても所定の平面との交線の向きは変わらないからである。 Also, the planes may be translated. For example, instead of the first surface F1, a surface obtained by moving the first surface F1 in parallel may be combined with the third surface F3. This is because the direction of the line of intersection with the predetermined plane does not change even if it moves in parallel.
また、第1処理モードによる判定処理と、第2処理モードによる判定処理とのいずれにおいても、特徴点の位置の時間変化から車両の移動情報の推定値が求められ、移動情報の推定値に基づきカメラ21の異常の有無が判定されてもよい。
Further, in both the determination processing in the first processing mode and the determination processing in the second processing mode, the estimated value of the movement information of the vehicle is obtained from the temporal change of the position of the feature point, and based on the estimated value of the movement information. The presence / absence of abnormality of the
<<C.第3実施形態>>
<1.異常検出システム>
次に、第3実施形態について説明する。第3実施形態の説明にあたって、第1実施形態および第2実施形態と重複する内容については、特に必要がない場合には、その説明を省略する。また、第1実施形態および第2実施形態と重複する部分には、同じ符号を付す。
<< C. Third Embodiment >>
<1. Anomaly detection system>
Next, a third embodiment will be described. In the description of the third embodiment, the contents overlapping with those of the first embodiment and the second embodiment will be omitted unless particularly necessary. Further, the same reference numerals are given to the portions that overlap with the first embodiment and the second embodiment.
図23は、本発明の第3実施形態に係る異常検出システムSYS2Bの構成を示すブロック図である。第3実施形態の異常検出システムSYS2Bは、第1実施形態の異常検出システムSYS2および第2実施形態の異常検出システムSYS2Aと同様に、異常検出装置1Bと、撮影部2と、センサ部3とを備える。異常検出システムSYS2Bも、第1実施形態および第2実施形態と同様に、カメラずれを検出するシステムである。なお、撮影部2およびセンサ部3の構成は、第1実施形態および第2実施形態と同様であるために、その説明は省略する。
FIG. 23 is a block diagram showing the configuration of the abnormality detection system SYS2B according to the third embodiment of the present invention. The abnormality detection system SYS2B of the third embodiment includes an
<2.異常検出装置>
異常検出装置1Bは、第1実施形態および第2実施形態と同様に、カメラを搭載する車両ごとに備えられる。異常検出装置1Bは、カメラで撮影された撮影画像に基づいて異常を検出する装置(カメラずれ検出装置)である。
<2. Abnormality detection device>
The
図23に示すように、異常検出装置1Bは、画像取得部111と、制御部12Bと、記憶部13Bと、を備える。画像取得部111の構成は、第1実施形態および第2実施形態と同様であるために、その説明は省略する。制御部12Bおよび記憶部13Bについて、第1実施形態および第2実施形態と異なる部分を有する。なお、記憶部13Bは、制御部12Bの機能を実現するためのプログラムについて、第1実施形態および第2実施形態と異なるものを記憶する。
As shown in FIG. 23, the
第3実施形態においても、第1実施形態および第2実施形態と同様に、制御部12Bは、カメラ21の異常の有無を、カメラ21で撮影された撮影画像から抽出される特徴点の位置の時間変化に基づき判定する判定処理を実行する。判定処理は、第1処理モードと第2処理モードとを選択可能に設けられる。ただし、例えば判定処理の方式が第1実施形態および第2実施形態と異なる。また、第3実施形態では、車両が移動中だけでなく、車両が停車中においてもカメラ21の異常の有無を検出することができる。この点においても、第3実施形態は、第1実施形態および第2実施形態と異なる。なお、本実施形態においてもカメラ21の数は複数であり、各カメラ21について判定処理が行われる。
In the third embodiment as well, similar to the first and second embodiments, the
図24は、本発明の第3実施形態に係る異常検出装置1Bにおけるカメラずれの検出フローの一例を示すフローチャートである。カメラずれの検出処理は、例えば、イグニッションオン(電気自動車の場合パワーオン)の後、所定のタイミングで繰り返し行われる。以下、カメラ21がフロントカメラである場合を例に挙げてカメラずれの検出処理を説明する。
FIG. 24 is a flowchart showing an example of a camera shift detection flow in the
図24に示すように、まず、制御部12Bは、カメラ21を搭載する車両が停車中であるか否かを確認する(ステップS201)。車両が停車中であるか否かについては、例えば速度センサ31から得られる速度情報により確認することができる。
As shown in FIG. 24, first, the
車両が停車中である場合(ステップS201でYes)、制御部12Bは停車時用判定処理を実行する(ステップS202)。停車時用判定処理は、特徴点の位置の時間変化に基づきカメラ21の異常の有無を判定する判定処理とは異なる処理でカメラ21の異常の有無(カメラずれの有無)を判定する。
When the vehicle is stopped (Yes in step S201), the
これによれば、車両が移動している場合だけでなく、車両が停止している場合にもカメラ21の異常の有無を判定することができるために、判定の機会を増やすことができる。すなわち、カメラ21の異常に素早く気付くことができる。カメラずれは、車両が駐車中等にカメラ21に物体がぶつかって生じることがある。このために、車両の停車中にもカメラずれの判定を行うことは有効である。
According to this, since it is possible to determine whether or not there is an abnormality in the
本実施形態においては、停車時用判定処理においては、カメラ21で撮影された撮影画像から得られる車両(移動体)のボディのエッジ画像に基づきカメラ21の異常の有無が判定される。例えば上述した図4や図17等に示すように、カメラ21の撮影画像には車両のボディが映る。カメラずれが生じると、ボディの映り方が変化する。このために、ボディのエッジ画像を利用してカメラずれを検出することができる。
In the present embodiment, in the stop-time determination process, it is determined whether or not the
図25は、停車時用判定処理を用いたカメラずれの検出フローの一例を示すフローチャートである。図25は、図24のステップS202の詳細例を示すフローチャートである。 FIG. 25 is a flowchart showing an example of a camera shift detection flow using the vehicle stop determination process. FIG. 25 is a flowchart showing a detailed example of step S202 of FIG.
制御部12Bは、車両が停車中にカメラ21から取得した撮影画像に対して、前処理(ぼかし)を行う(ステップS2021)。前処理は、撮影画像を平滑化する処理であり、ノイズを低減する目的で行われる。前処理は、例えば、ガウシアンフィルタ処理やメディアンフィルタ処理であってよい。また、前処理は、撮影画像の部位ごとに処理条件を変更して実施されてもよい。例えば、撮影画像の中央側が先鋭であり、端側がぼやけた印象である場合には、画像の真ん中側のぼかしが端側より強調された処理となるように、撮影画像の部位ごとに処理条件が変更されてよい。
The
制御部12Bは、前処理を行った撮影画像に対して、エッジ検出を行う(ステップS2022)。エッジは、画像内の画素の画素値が急激に変化している部分であり、画像内のオブジェクトの輪郭を表す線である。制御部12Bは、撮影画像内の画素の画素値を微分処理することにより、撮影画像内のエッジを検出する。撮影画像内の画素の画素値を微分処理すると、撮影画像内の画素の画素値が急激に変化している部分の微分値が大きくなる。制御部12Bは、予め決められた基準に基づいて、微分値が大きい部分をエッジとして検出する。なお、エッジ検出の手法としては、例えばCanny法等が用いられてよい。
The
制御部12Bは、エッジ検出を行って得られたエッジ画像に対して、マスク処理を行う(ステップS2023)。制御部12Bは、車種毎のボディ形状に応じて予め設定される車両のエッジの探索領域を除いて画像のマスク処理を行う。これにより、例えば風景等の不要なエッジを適切に除去することができ、ボディのエッジを誤検出する可能性を低減することができる。また、これにより、カメラずれの判定のための画像を迅速に取得することができる。マスク処理は行われなくてもよい。
The
制御部12Bは、マスク処理後に得られるエッジ画像に対して、不要なエッジを除去する処理を行う(ステップS2024)。例えば、制御部12Bは、マスク処理後に得られるエッジ画像のうち、車両のボディの設計値から想定されるエッジと異なると判断されるエッジを除去する処理を行う。
The
制御部12Bは、取得したボディのエッジ画像と、基準画像とのパターンマッチング処理を行う(ステップS2025)。基準画像は、予め記憶部13Bに記憶された画像であり、カメラ21が車両に正しく取り付けられた状態の撮影画像から得られた比較用の画像である。
The
制御部12Bは、パターンマッチング処理が終了すると、パターンマッチング処理の結果に基づいてカメラずれの判定を行う(ステップS2026)。制御部12Bは、例えば、取得されたエッジ画像の基準画像に対する一致率を算出して、一致率に基づいてカメラずれの有無を判定する。
When the pattern matching process ends, the
図24に戻って、車両が停車中でない場合(ステップS201でNo)、制御部12Bは車両が直進しているか否かを確認する(ステップS203)。車両が直進しているか否かの確認手法は、第1実施形態と同様であってよい。車両が直進していないと判断される場合(ステップS203でNo)、ステップS201に戻る。
Returning to FIG. 24, when the vehicle is not stopped (No in step S201), the
車両が直進していると判断される場合(ステップS203でYes)、制御部12Bは、車両の速度が第1速度範囲内か否かを確認する(ステップS204)。車両の速度は、例えば速度センサ31から得られる。第1速度範囲は、例えば時速5km以上30km未満とされる。
When it is determined that the vehicle is traveling straight (Yes in step S203), the
車両の速度が第1速度範囲内である場合(ステップS204でYes)、制御部12Bは、第1処理モードによる判定処理を実行する(ステップS205)。第1処理モードによる判定処理は、カメラ21の撮影画像からカメラ21の姿勢を推定する姿勢推定処理の結果に基づいてカメラずれの有無を判定する処理である。当該判定処理は、第2実施形態で説明した処理と同様であるために、詳細な説明は省略する。なお、第1処理モードであるために、カメラ21の姿勢推定に用いられる特徴点はコーナー度が高く、特徴点の抽出誤差を少なくできる。すなわち、カメラ21の姿勢の推定処理の精度を良くして、カメラずれの判定の精度も向上することができる。
When the speed of the vehicle is within the first speed range (Yes in step S204), the
車両の速度が第1速度範囲外である場合(ステップS204でNo)、制御部12Bは、車両の速度が第2速度範囲内か否かを確認する(ステップS206)。第2速度範囲は、例えば時速3km以上5km未満とされる。車両の速度が第2速度範囲外である場合(ステップS206でNo)、カメラずれの判定が行われることなく、ステップS201に戻る。
When the vehicle speed is outside the first speed range (No in step S204), the
車両の速度が第2速度範囲内である場合(ステップS206でYes)、制御部12Bは、第2処理モードによる判定処理を実行する(ステップS207)。第2処理モードによる判定処理は、カメラ21の撮影画像から車両の移動情報(例えば移動量)を推定する移動情報推定の結果に基づいてカメラずれの有無を判定する処理である。当該判定処理は、第1実施形態で説明した処理(図9参照)と同様であるために、詳細な説明は省略する。なお、第2処理モードであるために、白線のコーナーのようなコーナー度が高い特徴点が抽出できないような場合でも特徴点を抽出してカメラずれの有無の判定処理を行える。例えば、車両の出庫時や狭い道路の走行時等においてもカメラずれの有無の判定を行うことができ、カメラずれの有無の判定機会を増やしてカメラずれを素早く検出することができる。
When the speed of the vehicle is within the second speed range (Yes in step S206), the
第3実施形態によれば、車両の速度状態に応じて適切なカメラずれの判定処理を行うことができるために、カメラずれの有無の判定を精度良く行うことができ、更には、カメラずれの検出を素早く行うことができる。 According to the third embodiment, since it is possible to perform an appropriate camera shift determination process according to the speed state of the vehicle, it is possible to accurately determine whether or not there is a camera shift, and further The detection can be done quickly.
また、本実施形態では、第1処理モードによる判定処理においては、特徴点の位置の時間変化からカメラ21の姿勢が推定され、推定されたカメラ21の姿勢に基づきカメラ21の異常の有無が判定される。第2処理モードによる判定処理においては、特徴点の位置の時間変化から車両(移動体)の移動情報(例えば移動量)の推定値が求められ、移動情報の推定値に基づきカメラ21の異常の有無が判定される。車両の速度に応じて、カメラ21の異常の有無を判定する判定処理の方式が使い分けられる構成であり、速度に応じてカメラ21の異常の有無を適切に判断することができる。
Further, in the present embodiment, in the determination processing in the first processing mode, the orientation of the
なお、場合によっては、第1処理モードによる判定処理において、特徴点の位置の時間変化から車両の移動情報の推定値が求められ、移動情報の推定値に基づきカメラ21の異常の有無が判定されてよい。第2処理モードによる判定処理において、特徴点の位置の時間変化からカメラ21の姿勢が推定され、推定されたカメラ21の姿勢に基づきカメラ21の異常の有無が判定されてよい。
In some cases, in the determination process in the first processing mode, the estimated value of the vehicle movement information is obtained from the temporal change in the position of the feature point, and the presence or absence of abnormality of the
<<D.留意事項>>
本明細書における実施形態や変形例の構成は、本発明の例示にすぎない。実施形態や変形例の構成は、本発明の技術的思想を超えない範囲で適宜変更されてもよい。また、複数の実施形態及び変形例は、可能な範囲で組み合わせて実施されてよい。
<< D. Notes >>
The configurations of the embodiments and modified examples in the present specification are merely examples of the present invention. The configurations of the embodiments and the modifications may be appropriately modified without departing from the technical idea of the present invention. Further, the plurality of embodiments and modified examples may be implemented in combination within a possible range.
また、以上においては、コンピュータプログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これらの機能のうちの少なくとも一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの少なくとも一部は、ソフトウェア的に実現されてもよい。 Further, although it has been described above that various functions are realized by software by the arithmetic processing of the CPU according to the computer program, at least a part of these functions is realized by an electrical hardware circuit. May be. On the contrary, at least a part of the functions realized by the hardware circuit may be realized by software.
本発明は、自動駐車等の移動体の運転支援を行うカメラの異常検知や姿勢推定を行うために利用することができる。また、本発明は、ドライブレコーダ等の運転情報を記録するカメラの異常検知や姿勢の推定を行うために利用することができる。また、本発明は、カメラの異常情報や姿勢の推定情報を利用して撮影画像を補正する補正装置等に利用することができる。また、本発明は、複数の移動体とネットワークにより通信可能に設けられるセンターと連携して動作する装置等に利用することができる。当該装置は、例えば、センターに撮影画像を送信する場合に、カメラの異常情報や姿勢の推定情報を撮影画像とセットにして送信する構成であってよい。そして、センターでは、カメラの姿勢の推定情報を用いて、各種画像処理(カメラの姿勢も考慮した画像の視点・視方向を変更する処理、例えば車両の車体前方方向の画像に視点・視方向変換した画像を生成する等)、画像を用いた計測処理におけるカメラの姿勢に対する補正処理、カメラ姿勢の経年変化の統計処理(多くの車両のデータ)、等を行い、ユーザへの有用な提供データを生成する等する。 INDUSTRIAL APPLICABILITY The present invention can be used to detect an abnormality in a camera that assists driving of a moving body such as automatic parking and to estimate a posture. Further, the present invention can be used to detect an abnormality in a camera that records driving information such as a drive recorder and estimate the posture. Further, the present invention can be used in a correction device or the like that corrects a captured image by using abnormality information of a camera and estimated posture information. Further, the present invention can be used for an apparatus or the like that operates in cooperation with a center that is communicable with a plurality of mobile units via a network. For example, when transmitting the captured image to the center, the apparatus may be configured to transmit camera abnormality information and posture estimation information together with the captured image. Then, the center uses various kinds of image processing (processing for changing the viewpoint / viewing direction of the image in consideration of the camera attitude, for example, converting the viewpoint / viewing direction into an image in the front direction of the vehicle body of the vehicle, using the estimated information of the camera attitude. Generated image, etc.), correction processing for the camera posture in measurement processing using the image, statistical processing of secular change of camera posture (data of many vehicles), etc. to provide useful data to the user. Generate, etc.
1、1A、1B・・・異常検出装置
5・・・自動運転制御装置
6・・・表示装置
12、12A、12B・・・制御部
21・・・カメラ
FP・・・特徴点
SYS1・・・移動体制御システム
T1・・・第1閾値
T2・・・第2閾値
1, 1A, 1B ... Abnormality detection device 5 ... Automatic operation control device 6 ...
Claims (15)
前記カメラの異常の有無を、前記カメラで撮影された撮影画像から抽出される特徴点の位置の時間変化に基づき判定する判定処理を実行する制御部を備え、
前記判定処理は、
前記特徴点を抽出する閾値を第1閾値とする第1処理モードと、
前記閾値を前記第1閾値より小さい第2閾値とする第2処理モードと、
を選択可能に設けられ、
前記第1処理モードは、前記第2処理モードに比べて、前記移動体の速度が高速である場合に使用される、異常検出装置。 An abnormality detection device for detecting an abnormality of a camera mounted on a moving body,
A control unit that executes a determination process of determining whether or not there is an abnormality in the camera based on a temporal change in the position of a feature point extracted from a captured image captured by the camera,
The determination process is
A first processing mode in which a threshold for extracting the feature points is a first threshold;
A second processing mode in which the threshold is a second threshold smaller than the first threshold;
Is provided so that
The first processing mode is an abnormality detection device used when the speed of the moving body is higher than that in the second processing mode.
前記第2処理モードは、前記第1処理モードにより所定の処理結果が得られた場合に使用される処理モードである、請求項1に記載の異常検出装置。 The first processing mode is a processing mode that is normally used,
The abnormality detection device according to claim 1, wherein the second processing mode is a processing mode used when a predetermined processing result is obtained in the first processing mode.
前記制御部は、通常時において、前記移動体の速度が前記第2処理モードに対応する速度である場合には、前記認識処理を前記判定処理よりも優先し、
前記制御部は、前記第2処理モードの実行が決まった場合に、前記認識処理よりも前記判定処理を優先する、請求項2から4のいずれか1項に記載の異常検出装置。 The control unit is provided to be able to perform a recognition process for recognizing the surrounding environment of the moving body based on a captured image captured by the camera,
In a normal time, the control unit prioritizes the recognition process over the determination process when the speed of the moving body is a speed corresponding to the second processing mode,
The abnormality detection device according to claim 2, wherein the control unit prioritizes the determination process over the recognition process when execution of the second processing mode is determined.
前記第2処理モードによる前記判定処理においては、前記特徴点の位置の時間変化から前記移動体の移動情報の推定値が求められ、前記移動情報の推定値に基づき前記カメラの異常の有無が判定される、請求項1に記載の異常検出装置。 In the determination processing in the first processing mode, the orientation of the camera is estimated from the temporal change in the position of the feature point, and the presence or absence of abnormality of the camera is determined based on the estimated orientation of the camera,
In the determination processing in the second processing mode, the estimated value of the movement information of the moving body is obtained from the time change of the position of the characteristic point, and it is determined whether or not there is an abnormality in the camera based on the estimated value of the movement information. The abnormality detection device according to claim 1, which is performed.
前記推定処理は、
前記特徴点を抽出する閾値を第1閾値とする第1処理モードと、
前記閾値を前記第1閾値より小さい第2閾値とする第2処理モードと、
を選択可能に設けられ、
前記第1処理モードは、前記第2処理モードに比べて、前記移動体の速度が高速である場合に使用される、姿勢推定装置。 A control unit that executes an estimation process for estimating the posture of the camera based on the temporal change in the position of the feature point extracted from the captured image captured by the camera mounted on the moving body,
The estimation process is
A first processing mode in which a threshold for extracting the feature points is a first threshold;
A second processing mode in which the threshold is a second threshold smaller than the first threshold;
Is provided so that
The posture estimation device used in the first processing mode when the speed of the moving body is higher than that in the second processing mode.
前記移動体の自動運転を制御する自動運転制御装置と、
を備え、
少なくとも前記第2処理モードで前記判定処理を行う場合に、前記移動体を自動運転させる、移動体制御システム。 An abnormality detection device according to any one of claims 1 to 7,
An automatic driving control device for controlling the automatic driving of the moving body,
Equipped with
A mobile control system that automatically drives the mobile when the determination process is performed at least in the second processing mode.
前記カメラの異常の有無を、前記カメラで撮影された撮影画像から抽出される特徴点の位置の時間変化に基づき判定する処理工程を備え、
前記処理工程は、
前記特徴点を抽出する閾値を第1閾値とする第1処理モードと、
前記閾値を前記第1閾値より小さい第2閾値とする第2処理モードと、
を選択可能に設けられ、
前記第1処理モードは、前記第2処理モードに比べて、前記移動体の速度が高速である場合に使用される、異常検出方法。 An abnormality detection method for detecting an abnormality of a camera mounted on a moving body by a device,
A process step of determining whether or not there is an abnormality in the camera based on a temporal change in the position of a feature point extracted from a captured image captured by the camera,
The processing step is
A first processing mode in which a threshold for extracting the feature points is a first threshold;
A second processing mode in which the threshold is a second threshold smaller than the first threshold;
Is provided so that
The first processing mode is an abnormality detection method used when the speed of the moving body is higher than that of the second processing mode.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/557,004 US20200090347A1 (en) | 2018-09-13 | 2019-08-30 | Apparatus for estimating movement information |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018191566 | 2018-10-10 | ||
JP2018191566 | 2018-10-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020060550A true JP2020060550A (en) | 2020-04-16 |
JP7270499B2 JP7270499B2 (en) | 2023-05-10 |
Family
ID=70218942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019144530A Active JP7270499B2 (en) | 2018-09-13 | 2019-08-06 | Abnormality detection device, abnormality detection method, posture estimation device, and mobile body control system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7270499B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021032678A (en) * | 2019-08-23 | 2021-03-01 | 株式会社デンソーテン | Device and method for estimating attitude |
CN113899307A (en) * | 2020-07-06 | 2022-01-07 | 本田技研工业株式会社 | Processing device, processing method, and storage medium |
CN115082571A (en) * | 2022-07-20 | 2022-09-20 | 深圳云游四海信息科技有限公司 | Anomaly detection method and system for in-road parking camera |
JP7359922B1 (en) | 2022-09-26 | 2023-10-11 | 株式会社デンソーテン | Information processing device, information processing method and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003329411A (en) * | 2002-05-14 | 2003-11-19 | Matsushita Electric Ind Co Ltd | Camera calibration device |
WO2014034064A1 (en) * | 2012-08-30 | 2014-03-06 | 株式会社デンソー | Image processing device and storage medium |
JP2015202835A (en) * | 2014-04-16 | 2015-11-16 | 株式会社デンソー | Attachment error display control device of on-vehicle camera and attachment error detection device |
JP2017211200A (en) * | 2016-05-23 | 2017-11-30 | 株式会社デンソー | Camera calibrating device, and camera calibrating method |
-
2019
- 2019-08-06 JP JP2019144530A patent/JP7270499B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003329411A (en) * | 2002-05-14 | 2003-11-19 | Matsushita Electric Ind Co Ltd | Camera calibration device |
WO2014034064A1 (en) * | 2012-08-30 | 2014-03-06 | 株式会社デンソー | Image processing device and storage medium |
JP2015202835A (en) * | 2014-04-16 | 2015-11-16 | 株式会社デンソー | Attachment error display control device of on-vehicle camera and attachment error detection device |
JP2017211200A (en) * | 2016-05-23 | 2017-11-30 | 株式会社デンソー | Camera calibrating device, and camera calibrating method |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021032678A (en) * | 2019-08-23 | 2021-03-01 | 株式会社デンソーテン | Device and method for estimating attitude |
CN113899307A (en) * | 2020-07-06 | 2022-01-07 | 本田技研工业株式会社 | Processing device, processing method, and storage medium |
US11868135B2 (en) | 2020-07-06 | 2024-01-09 | Honda Motor Co., Ltd. | Processing device, processing method, and medium for evaluating map reliability for vehicles |
CN113899307B (en) * | 2020-07-06 | 2024-03-22 | 本田技研工业株式会社 | Processing device, processing method, and storage medium |
CN115082571A (en) * | 2022-07-20 | 2022-09-20 | 深圳云游四海信息科技有限公司 | Anomaly detection method and system for in-road parking camera |
JP7359922B1 (en) | 2022-09-26 | 2023-10-11 | 株式会社デンソーテン | Information processing device, information processing method and program |
JP2024047398A (en) * | 2022-09-26 | 2024-04-05 | 株式会社デンソーテン | Information processing device, information processing method and program |
Also Published As
Publication number | Publication date |
---|---|
JP7270499B2 (en) | 2023-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7270499B2 (en) | Abnormality detection device, abnormality detection method, posture estimation device, and mobile body control system | |
US9330472B2 (en) | System and method for distorted camera image correction | |
JP5421072B2 (en) | Approaching object detection system | |
JP6532229B2 (en) | Object detection apparatus, object detection system, object detection method and program | |
US20200311964A1 (en) | Object detection device and object detection method | |
JP2019191806A (en) | Abnormality detection device and abnormality detection method | |
JP6139465B2 (en) | Object detection device, driving support device, object detection method, and object detection program | |
US20200090347A1 (en) | Apparatus for estimating movement information | |
US20170259830A1 (en) | Moving amount derivation apparatus | |
KR20180112010A (en) | A method of detecting an object on the road side of a car, a computing device, a driver assistance system and an automobile | |
JP2019219719A (en) | Abnormality detection device and abnormality detection method | |
JP5539250B2 (en) | Approaching object detection device and approaching object detection method | |
WO2019156072A1 (en) | Attitude estimating device | |
JP2020198074A (en) | Posture estimation device, abnormality detection device, correction device, and posture estimation method | |
JP2020060899A (en) | Calibration device for on-vehicle camera | |
JP7311407B2 (en) | Posture estimation device and posture estimation method | |
JP7303064B2 (en) | Image processing device and image processing method | |
JP7380443B2 (en) | Partial image generation device and computer program for partial image generation | |
JP6407596B2 (en) | Image processing apparatus and driving support system | |
JP6802999B2 (en) | Compartment line detection system | |
WO2017090097A1 (en) | Outside recognition device for vehicle | |
JP2021077061A (en) | Obstacle detection device and obstacle detection method | |
JP6174884B2 (en) | Outside environment recognition device and outside environment recognition method | |
JP2008042759A (en) | Image processing apparatus | |
JP2020042716A (en) | Abnormality detection device and abnormality detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220331 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230313 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230418 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230425 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7270499 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |