JP2020140478A - Abnormality detection apparatus and abnormality detection method - Google Patents

Abnormality detection apparatus and abnormality detection method Download PDF

Info

Publication number
JP2020140478A
JP2020140478A JP2019035939A JP2019035939A JP2020140478A JP 2020140478 A JP2020140478 A JP 2020140478A JP 2019035939 A JP2019035939 A JP 2019035939A JP 2019035939 A JP2019035939 A JP 2019035939A JP 2020140478 A JP2020140478 A JP 2020140478A
Authority
JP
Japan
Prior art keywords
feature point
unit
pixel
abnormality detection
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019035939A
Other languages
Japanese (ja)
Other versions
JP7169227B2 (en
Inventor
康司 大西
Yasushi Onishi
康司 大西
隆幸 小笹
Takayuki Ozasa
隆幸 小笹
直士 垣田
Naoshi Kakita
直士 垣田
輝彦 上林
Teruhiko Kamibayashi
輝彦 上林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019035939A priority Critical patent/JP7169227B2/en
Publication of JP2020140478A publication Critical patent/JP2020140478A/en
Application granted granted Critical
Publication of JP7169227B2 publication Critical patent/JP7169227B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an abnormality detection apparatus capable of stably detecting an abnormality of a camera by removing feature points that are difficult to extract stably in time.SOLUTION: An abnormality detection apparatus 100 comprises: an acquisition unit 110 for acquiring an image from a camera mounted on a moving object; a candidate extraction unit 120 for extracting feature point candidates from the image; a discrimination pixel identification unit 130 for identifying a first discriminant pixel to an N-th discriminant pixel (N is a natural number of 2 or more) that are in the predetermined first to N-th positional relationship with the feature point candidate; a luminance difference calculation unit 140 for calculating the luminance difference between the feature point candidate and a k-th (k is a natural number 1 or more and N or less) discrimination pixel; a comparison unit 150 for comparing the k-th luminance difference with a k-th threshold set according to the k-th positional relationship; a feature point extraction unit 160 for extracting the feature point from the feature point candidates based on the results of comparison by the comparison unit; and an abnormality detection unit 170 for detecting whether or not the camera has the abnormality based on the temporal position change of the feature point and the moving amount of the moving object.SELECTED DRAWING: Figure 1

Description

本発明は、異常検出装置、および異常検出方法に関する。 The present invention relates to an abnormality detection device and an abnormality detection method.

従来、自動車などの車両には、駐車支援などに利用するため、カメラが搭載されることがあった。このようなカメラでは、取付状態の異常、特に取付方向や取付位置のずれが生じると、画像認識が正常に行えない。そのため、例えば特許文献1のように、車両外界の撮影画像から特徴点を抽出し、該特徴点の時間変化からオプティカルフローを算出して取付状態の異常を検出する車両用撮像装置が知られている。 Conventionally, vehicles such as automobiles have sometimes been equipped with cameras for use in parking assistance and the like. With such a camera, image recognition cannot be performed normally if an abnormality in the mounting state, particularly a deviation in the mounting direction or mounting position occurs. Therefore, for example, as in Patent Document 1, a vehicle imaging device that extracts a feature point from a photographed image of the outside world of the vehicle, calculates an optical flow from the time change of the feature point, and detects an abnormality in the mounting state is known. There is.

特開2011−055342号公報Japanese Unexamined Patent Publication No. 2011-055342

ところで、画像から抽出できる特徴点には、時間的に安定して抽出し続けられるものと、時間的に安定して抽出されにくいものがある。前者は例えば、白線標示の角から得られる特徴点である。後者は例えば、路面の凹凸から得られるものである。後者のような特徴点が用いられた場合、車両用撮像装置は、フレーム間での特徴点の連続性が得られず、安定したオプティカルフローを算出できず、安定的に異常を検出することが困難となる。 By the way, the feature points that can be extracted from an image include those that can be continuously extracted stably in time and those that are difficult to be extracted in a stable manner in time. The former is, for example, a feature point obtained from the corner of the white line marking. The latter is obtained, for example, from the unevenness of the road surface. When the latter feature points are used, the vehicle imaging device cannot obtain the continuity of the feature points between frames, cannot calculate a stable optical flow, and can stably detect anomalies. It will be difficult.

本発明の目的は、上記後者のような、安定して異常検出を行える異常検出装置を提供することである。 An object of the present invention is to provide an anomaly detection device capable of stably detecting anomalies, such as the latter.

本発明による異常検出装置は、移動体に搭載されたカメラから画像を取得する取得部と、前記取得部により取得された画像から特徴点候補を抽出する候補抽出部と、前記候補抽出部により抽出された特徴点候補と所定の第1〜第N(Nは2以上の自然数)の位置関係にある第1〜第N判別画素を特定する判別画素特定部と、前記抽出された特徴点候補と前記判別画素特定部により特定された第k(kは1以上N以下の自然数)判別画素との輝度差を算出する輝度差算出部と、前記第k輝度差を前記第k位置関係に応じて設定された第kしきい値と比較する比較部と、前記比較部が第1〜第N輝度差を第1〜第Nしきい値と比較した結果に基づき、前記特徴点候補から特徴点を抽出する特徴点抽出部と、前記特徴点抽出部により抽出された特徴点の位置の時間変化と、前記移動体の移動量とに基づき、前記カメラの異常の有無を検出する異常検出部と、を備える。 The abnormality detection device according to the present invention has an acquisition unit that acquires an image from a camera mounted on a moving body, a candidate extraction unit that extracts feature point candidates from the image acquired by the acquisition unit, and a candidate extraction unit. The discriminant pixel identification unit that identifies the first to Nth discriminant pixels having a predetermined positional relationship between the feature point candidate and the predetermined first to Nth (N is a natural number of 2 or more), and the extracted feature point candidate. A brightness difference calculation unit that calculates the brightness difference from the k-th (natural number k is 1 or more and N or less) discrimination pixel specified by the discrimination pixel identification unit, and the k-th brightness difference according to the k-th positional relationship. Based on the result of the comparison unit comparing with the set kth threshold value and the comparison unit with the first to Nth brightness differences with the first to Nth threshold values, the feature points are selected from the feature point candidates. An abnormality detection unit that detects the presence or absence of an abnormality in the camera based on the feature point extraction unit to be extracted, the time change of the position of the feature point extracted by the feature point extraction unit, and the movement amount of the moving body. To be equipped.

本発明は、安定して異常検出を行うことができる。 The present invention can stably detect anomalies.

本発明の実施形態による異常検出装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the abnormality detection apparatus by embodiment of this invention. 特徴点候補を抽出する手法を説明するための図である。It is a figure for demonstrating the method of extracting a feature point candidate. 特徴点候補と判別画素との関係を説明するための図である。It is a figure for demonstrating the relationship between a feature point candidate and a discrimination pixel. 位置関係としきい値の関係の具体例を示す図である。It is a figure which shows the specific example of the relationship between a positional relationship and a threshold value. 特徴点候補近傍の輝度分布の一例を示す図である。It is a figure which shows an example of the luminance distribution in the vicinity of a feature point candidate. オプティカルフローを求める手法を説明するための図である。It is a figure for demonstrating the method of finding an optical flow. 座標変換処理を説明するための図である。It is a figure for demonstrating the coordinate conversion process. カメラずれの検出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the detection process of a camera displacement. 特徴点抽出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the feature point extraction process. 画素の記録方向に平行に位置関係を設定した場合の一例を示す図である。It is a figure which shows an example of the case where the positional relationship is set parallel to the recording direction of a pixel. フレーム画像中央付近の特徴点候補に対する判別画素と、フレーム画像外縁付近の特徴点候補に対する判別画素の位置関係の補正の一例を示す図である。It is a figure which shows an example of the correction of the positional relationship of the discriminant pixel for the feature point candidate near the center of a frame image, and the discriminant pixel for a feature point candidate near the outer edge of a frame image.

以下、図面を参照し、本発明の実施の形態を詳しく説明する。図中同一又は相当部分には同一符号を付してその説明は繰り返さない。なお、以下では移動体として車両を例にとって説明を行うが、本発明が適用される移動体は車両に限定されるものではない。本発明は、カメラが取り付けられた移動体、例えばロボットなどに適用されてもよい。車両には、例えば、自動車、電車、無人搬送車などの車輪を有する乗り物が広く含まれる。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The same or corresponding parts in the drawings are designated by the same reference numerals and the description thereof will not be repeated. In the following, a vehicle will be described as an example of a moving body, but the moving body to which the present invention is applied is not limited to the vehicle. The present invention may be applied to a moving body to which a camera is attached, such as a robot. Vehicles include a wide range of vehicles with wheels, such as automobiles, trains, and automatic guided vehicles.

また、以下の説明では、便宜上、重力の方向と、進行方向と、左右とに基づき、移動体に係る方向について次のように定める。重力が働く向きを「下方向」、その逆方向を「上方向」とする。移動体の進行方向を「前方向」、その逆方向を「後方向」とする。前方向を重力が働く向きを軸に90度時計回りに回転させた方向を「右方向」、その逆方向を「左方向」とする。つまり、以下の説明で用いる方向については、運転席に座っている人間がフロントガラス越しに進行方向を向いている場合に、一般的に用いられる前後左右上下に対応する。 Further, in the following description, for convenience, the direction related to the moving body is defined as follows based on the direction of gravity, the direction of travel, and the left and right. The direction in which gravity acts is "downward", and the opposite direction is "upward". The traveling direction of the moving body is defined as "forward direction", and the opposite direction is defined as "rearward direction". The direction in which the forward direction is rotated 90 degrees clockwise around the direction in which gravity acts is defined as the "right direction", and the opposite direction is defined as the "left direction". That is, the directions used in the following description correspond to the generally used front-back, left-right, up-down directions when the person sitting in the driver's seat is facing the traveling direction through the windshield.

<1.移動体制御システム>
図1は、本発明の実施の形態に係る移動体制御システムの構成を示す機能ブロック図である。移動体制御システムSYS1は、異常検出システムSYS2と、自動運転制御装置500と、表示装置600とを備える。移動体制御システムSYS1は、異常検出システムSYS2が備える撮影部200により撮影された画像を用いて、移動体を制御する。撮影部200は、自動運転制御装置500などで用いるために、移動体周辺の画像を撮影する。
<1. Mobile control system >
FIG. 1 is a functional block diagram showing a configuration of a mobile body control system according to an embodiment of the present invention. The moving body control system SYS1 includes an abnormality detection system SYS2, an automatic operation control device 500, and a display device 600. The moving body control system SYS1 controls the moving body by using the image taken by the photographing unit 200 included in the abnormality detection system SYS2. The photographing unit 200 photographs an image around the moving body for use in the automatic driving control device 500 and the like.

異常検出システムSYS2は、移動体に搭載されたカメラの異常の有無を検出する。詳細は後述する。 自動運転制御装置500は、移動体の自動運転を制御する。自動運転制御装置500は、各移動体に搭載される。詳細には、自動運転制御装置500は、移動体に搭載された撮影部200とセンサ部300とからの情報と、予め設定された自動制御の目的に基づき、図示しない移動体の駆動部と、制動部と、操舵部とを制御するECU(Electronic Control Unit)である。 The abnormality detection system SYS2 detects the presence or absence of an abnormality in the camera mounted on the moving body. Details will be described later. The automatic operation control device 500 controls the automatic operation of the moving body. The automatic operation control device 500 is mounted on each moving body. Specifically, the automatic operation control device 500 includes information from the photographing unit 200 and the sensor unit 300 mounted on the moving body, and a driving unit of the moving body (not shown) based on a preset purpose of automatic control. It is an ECU (Electronic Control Unit) that controls the braking unit and the steering unit.

予め設定された自動制御の目的とは、例えば自動駐車や、前方車両への追随などである。駆動部は、エンジンやモータを備える。制動部はブレーキを備える。操舵部はステアリングホイール(ハンドル)を備える。 The purpose of the preset automatic control is, for example, automatic parking or following the vehicle in front. The drive unit includes an engine and a motor. The braking unit is equipped with a brake. The steering unit includes a steering wheel (handle).

自動運転制御装置500による制御が開始されると、駆動部、制動部、操舵部の制御が運転者の操作に依らず自動で行われる。自動駐車を例にとると、自動運転制御装置500は、撮影部200から取得した画像に基づいて空きスペースを認識し、空きスペースに移動体が移動するように駆動部、制動部、操舵部を制御する。 When the control by the automatic driving control device 500 is started, the driving unit, the braking unit, and the steering unit are automatically controlled regardless of the driver's operation. Taking automatic parking as an example, the automatic driving control device 500 recognizes an empty space based on an image acquired from the photographing unit 200, and sets the drive unit, the braking unit, and the steering unit so that the moving body moves to the empty space. Control.

上記のような自動運転制御装置500による制御動作は、異常検出システムSYS2における異常の検出状況に応じてオン/オフの切替が可能に構成される。換言すると、撮影部200に異常があると異常検出システムSYS2が検出している場合は、自動運転制御装置500の制御動作をオフにすることができる。これにより異常状態となっている撮影部200からの情報に基づく制御を抑制することができ、自動運転制御をより安全に行うことができる。 The control operation by the automatic operation control device 500 as described above is configured to be able to be switched on / off according to the abnormality detection status in the abnormality detection system SYS2. In other words, when the abnormality detection system SYS2 detects that there is an abnormality in the photographing unit 200, the control operation of the automatic operation control device 500 can be turned off. As a result, control based on information from the photographing unit 200 in an abnormal state can be suppressed, and automatic driving control can be performed more safely.

表示装置600は、各移動体に搭載され、運転者に対して種々の情報を表示する。具体的には、表示装置600は車両の室内に運転者が視認できる位置に搭載される。表示装置600は、図示しない表示部と、操作部とを備える。 The display device 600 is mounted on each moving body and displays various information to the driver. Specifically, the display device 600 is mounted in the interior of the vehicle at a position where the driver can see it. The display device 600 includes a display unit (not shown) and an operation unit.

表示部は液晶パネル、OLED(Organic Light Emitting Diode)パネル、蛍光表示管などで構成される。表示部にはカメラ210で撮影された移動体周辺の画像や、自動運転制御における移動制御のガイド線や異常検出システムSYS2で検出したカメラ210の異常の有無の状態などを表示する。 The display unit is composed of a liquid crystal panel, an OLED (Organic Light Emitting Diode) panel, a fluorescent display tube, and the like. The display unit displays an image of the surroundings of the moving body taken by the camera 210, a guide line for movement control in automatic driving control, and a state of presence or absence of abnormality in the camera 210 detected by the abnormality detection system SYS2.

操作部は、ボタンやタッチパネルなどを備える。操作部は、運転者が自動運転制御装置500に対して操作を行う際の入力装置である。 The operation unit includes buttons, a touch panel, and the like. The operation unit is an input device when the driver operates the automatic operation control device 500.

<2.異常検出システム>
異常検出システムSYS2は、撮影部200における異常の有無を検出する。具体的には、撮影部200の備えるカメラ210の異常の有無を検出する。
<2. Anomaly detection system>
The abnormality detection system SYS2 detects the presence or absence of an abnormality in the photographing unit 200. Specifically, the presence or absence of an abnormality in the camera 210 included in the photographing unit 200 is detected.

なお、本実施の形態において、異常とは移動体に搭載されたカメラ210の取付のずれ(以下「カメラずれ」と表現する)が生じた状態を指す。具体的には、カメラずれとは、工場出荷時などの予め基準となるカメラ210の取付状態からのずれを検出するシステムである。 カメラずれとは、工場集荷時時などの基準時におけるカメラ210の取付状態からの変化を示す。カメラずれは、カメラ210の取付位置の変化と、カメラ210の向きの変化とを含む。向きの変化とは、カメラ210のチルト角、パン角、ロール角の変化、である。 In the present embodiment, the abnormality refers to a state in which the camera 210 mounted on the moving body is misaligned (hereinafter referred to as “camera misalignment”). Specifically, the camera deviation is a system that detects a deviation from the mounting state of the camera 210, which is a reference in advance at the time of shipment from the factory. The camera deviation indicates a change from the mounted state of the camera 210 at a reference time such as when the factory is picked up. The camera deviation includes a change in the mounting position of the camera 210 and a change in the orientation of the camera 210. The change in orientation is a change in the tilt angle, pan angle, and roll angle of the camera 210.

異常検出システムSYS2は、異常検出装置100と、撮影部200と、センサ部300と、通信バス400と、を備える。 The abnormality detection system SYS2 includes an abnormality detection device 100, a photographing unit 200, a sensor unit 300, and a communication bus 400.

異常検出装置100は、撮影部200により撮影された移動体周辺の画像に基づいて、カメラずれがあるか否かを検出する。詳細については後述する。 The abnormality detection device 100 detects whether or not there is a camera shift based on the image around the moving body taken by the photographing unit 200. Details will be described later.

撮影部200は、1つの機能としては前述のように、自動運転制御装置500などで用いるために、移動体周辺の画像を撮影する。異常検出システムSYS2においては、他の機能として、異常検出装置100に撮影した画像を出力する。撮影部200は、複数のカメラ210を備える。複数のカメラ210の各々は、移動体周辺の画像を撮影する。複数のカメラ210の各々は、1つのカメラで移動体周辺を広く撮影するため、魚眼レンズなどの画角の広い光学系を有することが好ましい。 As described above, the photographing unit 200 captures an image of the periphery of the moving body for use in the automatic driving control device 500 or the like. In the abnormality detection system SYS2, as another function, an image captured by the abnormality detection device 100 is output. The photographing unit 200 includes a plurality of cameras 210. Each of the plurality of cameras 210 captures an image around the moving body. Since each of the plurality of cameras 210 captures a wide area around the moving body with one camera, it is preferable to have an optical system having a wide angle of view such as a fisheye lens.

複数のカメラ210の各々は異常検出装置100に有線または無線で接続され、撮影した画像を異常検出装置100に出力する。 Each of the plurality of cameras 210 is connected to the abnormality detection device 100 by wire or wirelessly, and outputs the captured image to the abnormality detection device 100.

フロントカメラは移動体の前方を撮影するカメラである。バックカメラは移動体の後方を撮影するカメラである。左サイドカメラは移動体の左方を撮影するカメラである。右サイドカメラは移動体の右方を撮影するカメラである。 The front camera is a camera that captures the front of a moving body. The back camera is a camera that captures the rear of a moving body. The left side camera is a camera that captures the left side of a moving body. The right side camera is a camera that captures the right side of a moving object.

各々のカメラは、互いの撮影範囲が重複するように配置される。これにより移動体の水平方向における全周囲を撮影することができる。ただし、撮影部200が備えるカメラ210の数は単数でもよいし、4つ以外の複数であってもよい。 The cameras are arranged so that their shooting ranges overlap each other. This makes it possible to photograph the entire circumference of the moving body in the horizontal direction. However, the number of cameras 210 included in the photographing unit 200 may be a single number, or may be a plurality of cameras other than four.

センサ部300は、1つの機能としては前述のように、自動運転制御装置500などで用いるために車両の各種状態を測定する。異常検出システムSYS2においては、他の機能として、移動体の速度を検出する。センサ部300は、車速センサ310を少なくとも備える。 As described above, the sensor unit 300 measures various states of the vehicle for use in the automatic driving control device 500 and the like. In the abnormality detection system SYS2, the speed of the moving body is detected as another function. The sensor unit 300 includes at least a vehicle speed sensor 310.

車速センサ310は、移動体の速度を検出する。検出した速度はその検出値に応じた電気信号として出力される。出力される電気信号は、例えばアナログ電圧や、符号化されたデジタル信号などである。なお、センサ部300は、速度センサ310の他に、レーダ、舵角センサ、GPS(Global Positioning System)などの位置センサを備えてもよい。 センサ部300は、通信バス400を介して異常検出装置100に接続される。前述の車速に基づく電気信号など、センサ部300が検出したセンサデータは、通信バス400を介して異常検出装置100に出力される。通信バス400は、例えばCAN(Controller Area Network)バスなどである。 The vehicle speed sensor 310 detects the speed of the moving body. The detected speed is output as an electric signal according to the detected value. The output electric signal is, for example, an analog voltage or a coded digital signal. In addition to the speed sensor 310, the sensor unit 300 may include position sensors such as a radar, a steering angle sensor, and a GPS (Global Positioning System). The sensor unit 300 is connected to the abnormality detection device 100 via the communication bus 400. The sensor data detected by the sensor unit 300, such as the above-mentioned electric signal based on the vehicle speed, is output to the abnormality detection device 100 via the communication bus 400. The communication bus 400 is, for example, a CAN (Controller Area Network) bus.

<3.異常検出装置>
<3.1.異常検出装置の構成>
図1を用いて異常検出装置100の構成を説明する。図1に示すように、異常検出装置100は、取得部110と、候補抽出部120と、判別画素特定部130と、輝度差算出部140と、比較部150と、特徴点抽出部160と、異常検出部170と、記憶部180とを備える。
<3. Anomaly detection device>
<3.1. Configuration of anomaly detection device>
The configuration of the abnormality detection device 100 will be described with reference to FIG. As shown in FIG. 1, the abnormality detection device 100 includes an acquisition unit 110, a candidate extraction unit 120, a discrimination pixel identification unit 130, a brightness difference calculation unit 140, a comparison unit 150, and a feature point extraction unit 160. An abnormality detection unit 170 and a storage unit 180 are provided.

異常検出装置100は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、入出力ポート等を含むマイクロコンピュータや各種回路を有する。 The abnormality detection device 100 includes, for example, a microcomputer including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an input / output port, and various circuits.

マイクロコンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、異常検出装置100が備える取得部110や候補抽出部120などの各々の機能ブロックの機能を実現する。なお、各機能ブロックの少なくともいずれか一つまたは全部を、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。 The CPU of the microcomputer, for example, realizes the functions of each functional block such as the acquisition unit 110 and the candidate extraction unit 120 included in the abnormality detection device 100 by reading and executing the program stored in the ROM. It should be noted that at least one or all of each functional block may be configured by hardware such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

取得部110は、移動体に搭載されたカメラ210から撮影画像(フレーム画像)を取得する。取得部110は、取得したフレーム画像を候補抽出部120に出力する。 The acquisition unit 110 acquires a captured image (frame image) from the camera 210 mounted on the moving body. The acquisition unit 110 outputs the acquired frame image to the candidate extraction unit 120.

取得部110は、機能を実現するマイクロコンピュータの入出力ポートなどを介し、カメラ210と有線もしくは無線で接続される。 The acquisition unit 110 is connected to the camera 210 by wire or wirelessly via an input / output port of a microcomputer that realizes the function.

取得部110が取得するフレーム画像のフォーマットは、アナログ、もしくはデジタルのいずれでもよい。フレーム画像のフォーマットとしてアナログ用いる場合、取得部110はADコンバータ(Analog to Digital converter)を備えるとよい。 The format of the frame image acquired by the acquisition unit 110 may be either analog or digital. When analog is used as the format of the frame image, the acquisition unit 110 may include an AD converter (Analog to Digital converter).

候補抽出部120は、取得部110で取得したフレーム画像から特徴点候補を抽出する。候補抽出部120は、抽出した特徴点候補を判別画素特定部130に出力する。 The candidate extraction unit 120 extracts feature point candidates from the frame image acquired by the acquisition unit 110. The candidate extraction unit 120 outputs the extracted feature point candidates to the discrimination pixel identification unit 130.

判別画素特定部130は、候補抽出部120により抽出された特徴点候補から、所定の第1〜第Nの位置関係にある第1〜第N判別画素を特定する(Nは2以上の自然数)。判別画素特定部130は、特徴点候補と、特定した第1〜第N判別画素とを輝度差算出部140に出力する。 The discrimination pixel identification unit 130 identifies the first to Nth discrimination pixels having a predetermined first to Nth positional relationship from the feature point candidates extracted by the candidate extraction unit 120 (N is a natural number of 2 or more). .. The discrimination pixel identification unit 130 outputs the feature point candidate and the specified first to Nth discrimination pixels to the luminance difference calculation unit 140.

輝度差算出部140は、候補抽出部120により抽出された特徴点候補と、判別画素特定部130により特定された第k(kは1以上N以下の自然数)判別画素との輝度差である第k輝度差を算出する。輝度差算出部140は、算出した第k輝度差を比較部150に出力する。
比較部150は、輝度差算出部140により算出された第k輝度差と第k位置関係に応じて設定された第kしきい値を比較する。比較部150は、比較結果を特徴点抽出部160に出力する
特徴点抽出部160は、比較部150により行われた比較の結果に基づき、候補抽出部120により抽出された特徴点候補から特徴点を抽出する。特徴点抽出部160は、抽出した特徴点を異常検出部170に出力する。
The luminance difference calculation unit 140 is the luminance difference between the feature point candidate extracted by the candidate extraction unit 120 and the kth (k is a natural number of 1 or more and N or less) discrimination pixel specified by the discrimination pixel identification unit 130. k The brightness difference is calculated. The luminance difference calculation unit 140 outputs the calculated k-th luminance difference to the comparison unit 150.
The comparison unit 150 compares the k-th luminance difference calculated by the luminance difference calculation unit 140 with the k-th threshold value set according to the k-th positional relationship. The comparison unit 150 outputs the comparison result to the feature point extraction unit 160. The feature point extraction unit 160 uses the feature point candidates extracted by the candidate extraction unit 120 based on the result of the comparison performed by the comparison unit 150. Is extracted. The feature point extraction unit 160 outputs the extracted feature points to the abnormality detection unit 170.

異常検出部170は、特徴点抽出部160により抽出された特徴点の位置の時間変化と、移動体の移動量に基づきカメラずれを検出する。 The abnormality detection unit 170 detects the camera deviation based on the time change of the position of the feature point extracted by the feature point extraction unit 160 and the movement amount of the moving body.

異常検出部170は、機能を実現するマイクロコンピュータの入出力ポートなどを介し、通信バス400と接続される。異常検出部170は、通信バス400を介してセンサ部と接続される。 The abnormality detection unit 170 is connected to the communication bus 400 via an input / output port of a microcomputer that realizes the function. The abnormality detection unit 170 is connected to the sensor unit via the communication bus 400.

記憶部180は、マイクロコンピュータが実行するプログラムや種々の設定などを記憶する。記憶部180は、具体的には例えば、ROMやフラッシュメモリなどの半導体記憶媒体や、HDD(Hard Disk Drive)などの磁気記憶媒体で構成される。 The storage unit 180 stores a program executed by the microcomputer, various settings, and the like. Specifically, the storage unit 180 is composed of, for example, a semiconductor storage medium such as a ROM or a flash memory, or a magnetic storage medium such as an HDD (Hard Disk Drive).

<3.2.異常検出装置の動作>
次に、図1を用いて異常検出装置100の動作について詳細説明する。
<3.2. Operation of anomaly detection device>
Next, the operation of the abnormality detection device 100 will be described in detail with reference to FIG.

取得部110は、移動体に搭載されたカメラ210から撮影画像(フレーム画像)を取得する。取得部110は、マイクロコンピュータの入出力ポートなどを介してカメラ210と通信を行い、撮影画像を取得する。 The acquisition unit 110 acquires a captured image (frame image) from the camera 210 mounted on the moving body. The acquisition unit 110 communicates with the camera 210 via an input / output port of a microcomputer or the like to acquire a captured image.

取得部110は、フレーム画像を所定の周期、例えば1/30秒周期で周期的に取得する。 The acquisition unit 110 periodically acquires the frame image at a predetermined cycle, for example, a 1/30 second cycle.

本実施形態では、撮影部200が複数のカメラ210を有するため、取得部110はそれぞれのカメラ210からフレーム画像を取得する。 In the present embodiment, since the photographing unit 200 has a plurality of cameras 210, the acquisition unit 110 acquires a frame image from each camera 210.

取得部110は、取得したフレーム画像に対して所定の画像処理を行い、処理後のフレーム画像を候補抽出部120に出力する。 The acquisition unit 110 performs predetermined image processing on the acquired frame image, and outputs the processed frame image to the candidate extraction unit 120.

取得するフレーム画像がアナログの場合には、取得部110は、図示しないADコンバータを用いてアナログのフレーム画像を、デジタルのフレーム画像に変換(A/D変換)してもよい。 When the frame image to be acquired is analog, the acquisition unit 110 may convert the analog frame image into a digital frame image (A / D conversion) by using an AD converter (not shown).

候補抽出部120は、取得部110で取得したフレーム画像から特徴点候補を抽出する。候補抽出部120は、抽出した特徴点候補を判別画素特定部130に出力する。 The candidate extraction unit 120 extracts feature point candidates from the frame image acquired by the acquisition unit 110. The candidate extraction unit 120 outputs the extracted feature point candidates to the discrimination pixel identification unit 130.

特徴点候補とは、後述の特徴点抽出部160で抽出される特徴点の候補である。特徴点とは、フレーム画像中のエッジの交点など、フレーム画像において際立って検出できる点である。 The feature point candidate is a feature point candidate extracted by the feature point extraction unit 160 described later. The feature point is a point that can be conspicuously detected in the frame image, such as an intersection of edges in the frame image.

特徴点候補は、例えば白線で描かれる路面標示の角、路面上のひびや凹凸の陰影、路面上のしみ、路面上の砂利などから検出される。特徴点候補は、例えば、ハリスオペレータ等の公知の特徴点抽出手法を用いて抽出することができる。 Feature point candidates are detected, for example, from the corners of road markings drawn with white lines, shadows of cracks and irregularities on the road surface, stains on the road surface, gravel on the road surface, and the like. The feature point candidates can be extracted using, for example, a known feature point extraction method such as a Harris operator.

図2を用いて特徴点候補の抽出について説明をする。図2は、フレーム画像PICに自車の車体VB、路面RS、白線標示RMが写っている状況の例である。 The extraction of feature point candidates will be described with reference to FIG. FIG. 2 is an example of a situation in which the vehicle body VB, the road surface RS, and the white line marking RM of the own vehicle are shown in the frame image PIC.

フレーム画像PICには、特徴点を抽出する範囲であるROI(Region of Interest)121が設定されている。特徴点候補は、ROI121内から抽出される。ROI121は、路面RSが写っている範囲に設定される。また、ROI121は、フレーム画像PICの中心を含む広範囲に設定されることが好ましい。これにより、特徴点候補の発生場所がROI121に対して均一でなく、偏った領域に偏在して発生する場合でも、候補抽出部120は、好適に特徴点候補を抽出することができる。なお図中ではROI121は矩形領域として例示したが、この限りではない。 ROI (Region of Interest) 121, which is a range for extracting feature points, is set in the frame image PIC. Feature point candidates are extracted from within ROI 121. ROI 121 is set in a range in which the road surface RS is captured. Further, it is preferable that the ROI 121 is set in a wide range including the center of the frame image PIC. As a result, the candidate extraction unit 120 can suitably extract the feature point candidates even when the feature point candidates are not uniformly generated with respect to the ROI 121 and are unevenly distributed in a biased region. In the figure, ROI 121 is illustrated as a rectangular area, but this is not the case.

本実施の形態では、候補抽出部120は、フレーム画像PICに設定されたROI121内の画素ごとに特徴量を算出し、該特徴量に基づき特徴点候補を抽出する。特徴量とは、画素が周囲の画素に対してどの程度特徴的であるかを示す指標である。例えばコーナーらしさを示すコーナー度である。本実施の形態では、特徴量の算出をKLT(Kanade-Lucas-Tomasi tracker)法を用いて行う。 In the present embodiment, the candidate extraction unit 120 calculates a feature amount for each pixel in the ROI 121 set in the frame image PIC, and extracts feature point candidates based on the feature amount. The feature amount is an index showing how characteristic a pixel is with respect to surrounding pixels. For example, it is the degree of corner that shows the uniqueness of a corner. In the present embodiment, the feature amount is calculated by using the KLT (Kanade-Lucas-Tomasi tracker) method.

特徴量の算出に先立ち、候補抽出部120は、フレーム画像PICに種々の前処理を施す。例えば候補抽出部120は、カラー画像をグレースケール画像に変換し、このグレースける画像をリサンプルする。グレースケール画像のサイズは、リサンプルにより変更される。リサンプル後、候補抽出部120は、リサンプルされたグレースける画像に対して、ノイズ除去のための各種フィルタ処理やぼかし処理を行う。 Prior to the calculation of the feature amount, the candidate extraction unit 120 performs various preprocessing on the frame image PIC. For example, the candidate extraction unit 120 converts a color image into a grayscale image and resamples the grayscale image. The size of the grayscale image is changed by resampling. After the resample, the candidate extraction unit 120 performs various filter processing and blurring processing for noise removal on the resampled graceful image.

候補抽出部120は、前処理を行ったフレーム画像PICを微分画像に変換する。微分画像とは、画素の位置に対する輝度の変化量に基づく画像である。微分画像は、フレーム画像PICの各画素に対応する輝度微分値が記録されている。輝度微分値は、x方向輝度微分値と、y方向輝度微分値とを含む。x方向輝度微分値は、フレーム画像PICの水平方向であるx方向における輝度の変化量である。y方向輝度微分値は、フレーム画像PICの垂直方向であるy方向における輝度の変化量である。微分画像の生成にはSobelフィルタ等、公知の微分フィルタを使用する。 The candidate extraction unit 120 converts the preprocessed frame image PIC into a differential image. The differential image is an image based on the amount of change in brightness with respect to the position of the pixel. In the differential image, the luminance differential value corresponding to each pixel of the frame image PIC is recorded. The luminance differential value includes an x-direction luminance differential value and a y-direction luminance derivative value. The x-direction luminance differential value is the amount of change in luminance in the x-direction, which is the horizontal direction of the frame image PIC. The y-direction luminance differential value is the amount of change in luminance in the y-direction, which is the vertical direction of the frame image PIC. A known differential filter such as a Sobel filter is used to generate a differential image.

微分画像中の座標(x,y)に位置する画素について、x方向の輝度微分値をdx(x,y),y方向の輝度微分値をdy(x,y)とした場合、G11,G12,G22を次のように定める。 For pixels located at coordinates (x, y) in the differential image, when the luminance differential value in the x direction is dx (x, y) and the luminance differential value in the y direction is dy (x, y), G11, G12 , G22 is defined as follows.

Figure 2020140478
Figure 2020140478

Figure 2020140478
Figure 2020140478

Figure 2020140478
Figure 2020140478

式(1)〜(3)で示すように、G11は、x方向の輝度微分値の2乗であり、G22はy方向の輝度微分値の2乗であり、G12は、x方向の輝度微分値とy方向の輝度微分値の積である。G11,G12,G22を用い、フレーム画像PICの各画素について、下記の式(4)より、行列Mが得られる。 As shown in the equations (1) to (3), G11 is the square of the luminance derivative value in the x direction, G22 is the square of the luminance derivative value in the y direction, and G12 is the luminance derivative value in the x direction. It is the product of the value and the brightness derivative value in the y direction. Using G11, G12, and G22, a matrix M can be obtained from the following equation (4) for each pixel of the frame image PIC.

Figure 2020140478
Figure 2020140478

次に行列Mの固有値λを求める。Iを単位行列とすると、下記の式(5)で求める。 Next, the eigenvalue λ of the matrix M is obtained. Assuming that I is an identity matrix, it is calculated by the following equation (5).

Figure 2020140478
Figure 2020140478

式(5)は、λの2次方程式として下記の式(6)および式(7)のように2つの固有値λ1、λ2として解くことができる。 Equation (5) can be solved as a quadratic equation of λ as two eigenvalues λ1 and λ2 as in the following equations (6) and (7).

Figure 2020140478
Figure 2020140478

本実施の形態では、候補抽出部120は、λ1とλ2のうち、小さい方を特徴量として選択する。候補抽出部120は、特徴量が所定のしきい値Tより大きい場合に、対応する画素を特徴点候補FPCとして抽出する。抽出した特徴点候補FPCは、判別画素特定部130に出力される。 In the present embodiment, the candidate extraction unit 120 selects the smaller of λ1 and λ2 as the feature amount. When the feature amount is larger than the predetermined threshold value T, the candidate extraction unit 120 extracts the corresponding pixel as the feature point candidate FPC. The extracted feature point candidate FPC is output to the discrimination pixel identification unit 130.

図2に示す例では、3つの特徴点候補FPC1、FPC2及びFPC3が、フレーム画像PICから抽出される。特徴点候補FPC1及びFPC2は、白線標示RMの角に対応する。特徴点候補FPC3は、路面の凹凸に対応する。 In the example shown in FIG. 2, three feature point candidates FPC1, FPC2 and FPC3 are extracted from the frame image PIC. The feature point candidates FPC1 and FPC2 correspond to the corners of the white line marking RM. The feature point candidate FPC3 corresponds to the unevenness of the road surface.

なお、特徴点候補の抽出数は、フレーム画像の内容により変動する。例えば横断歩道が写るような場合は、多数の白線標示の角が写るため、特徴点候補は3つより多く抽出されることもある。一方、曇りのように陰影ができにくい天候下で、路面しか映っていないような場合には、特徴点候補はまったく抽出されないこともある。 The number of feature point candidates extracted varies depending on the content of the frame image. For example, when a pedestrian crossing is shown, many corners of white line markings are shown, so more than three feature point candidates may be extracted. On the other hand, in the weather where shadows are hard to form such as cloudy weather, when only the road surface is reflected, the feature point candidates may not be extracted at all.

判別画素特定部130は、候補抽出部120により抽出された特徴点候補から、所定の第1〜第Nの位置関係にある第1〜第N判別画素を特定する(Nは2以上の自然数)。判別画素特定部130は、特徴点候補と、特定した第1〜第N判別画素とを輝度差算出部140に出力する。 The discrimination pixel identification unit 130 identifies the first to Nth discrimination pixels having a predetermined first to Nth positional relationship from the feature point candidates extracted by the candidate extraction unit 120 (N is a natural number of 2 or more). .. The discrimination pixel identification unit 130 outputs the feature point candidate and the specified first to Nth discrimination pixels to the luminance difference calculation unit 140.

以下の説明ではN=2、すなわち位置関係が2種類の場合について説明するがこの限りではない。 In the following description, the case where N = 2, that is, the case where there are two types of positional relationships will be described, but this is not the case.

図3は、特徴点候補と判別画素との関係を説明するための図である。図3に示すように、第1判別画素DP1は、特徴点候補FPCから第1の位置関係に位置する画素である。第1の位置関係とは、特徴点候補FPCを基準に、水平方向に+4画素(以下Δx=+4と記す)、垂直方向に−2画素(以下Δy=−2と記す)の位置である。 FIG. 3 is a diagram for explaining the relationship between the feature point candidate and the discriminant pixel. As shown in FIG. 3, the first discrimination pixel DP1 is a pixel located in the first positional relationship from the feature point candidate FPC. The first positional relationship is a position of +4 pixels (hereinafter referred to as Δx = +4) in the horizontal direction and -2 pixels (hereinafter referred to as Δy = -2) in the vertical direction based on the feature point candidate FPC.

なお、図3のように、水平方向は画像の左から右方向を正、垂直方向は画像の上から下方向を正とする。 As shown in FIG. 3, the horizontal direction is positive from the left to the right of the image, and the vertical direction is positive from the top to the bottom of the image.

また第2判別画素DP2は、特徴点候補FPCから第2の位置関係に位置する画素である。第2の位置関係とは、特徴点候補FPCを基準に、水平方向に−4画素(Δx=−4)、垂直方向に+2画素(Δy=+2)の位置である。 Further, the second discrimination pixel DP2 is a pixel located in a second positional relationship from the feature point candidate FPC. The second positional relationship is a position of -4 pixels (Δx = -4) in the horizontal direction and +2 pixels (Δy = +2) in the vertical direction with reference to the feature point candidate FPC.

第1〜第N位置関係は、特徴点候補FPCを通る直線L上において、特徴点候補FPCの両側に来るように設定することが好ましい。図3においては、特徴点候補FPCを通る直線L上に、特徴点候補FPCの右上側に第1の位置関係を、左下側に第2の位置関係を設定している。 The first to Nth positional relationships are preferably set so as to come on both sides of the feature point candidate FPC on the straight line L passing through the feature point candidate FPC. In FIG. 3, a first positional relationship is set on the upper right side of the feature point candidate FPC and a second positional relationship is set on the lower left side on the straight line L passing through the feature point candidate FPC.

図4を用いて、位置関係の設定について説明する。図4は、特徴点候補FPCを中心に水平近傍11画素の輝度の分布を示したものである。ここでは簡単のために図3とは異なり水平方向にΔx=±3の位置に判別画素DP1と判別画素DP2とを設定している。 The setting of the positional relationship will be described with reference to FIG. FIG. 4 shows the luminance distribution of 11 pixels in the horizontal vicinity centered on the feature point candidate FPC. Here, for the sake of simplicity, the discrimination pixel DP1 and the discrimination pixel DP2 are set at positions of Δx = ± 3 in the horizontal direction, unlike FIG.

本実施の形態では、異常検出装置100は、路面凹凸のような特徴的な輝度分布を検出するために、特徴点候補FPCと、特徴点候補FPC近傍の画素の輝度値を評価する。画素の輝度値は、後述するように、輝度差算出部140、比較部150及び特徴点抽出部160によって評価される。 In the present embodiment, the abnormality detection device 100 evaluates the brightness values of the feature point candidate FPC and the pixels in the vicinity of the feature point candidate FPC in order to detect a characteristic brightness distribution such as road surface unevenness. The luminance value of the pixel is evaluated by the luminance difference calculation unit 140, the comparison unit 150, and the feature point extraction unit 160, as will be described later.

路面の凹凸や、砂利のように、凸部の陰影によって特徴点候補FPCが抽出される場合、特徴点候補FPC近傍の輝度分布は、図4に示すように特徴点候補FPCを頂点とする山型の輝度分布を示すことが多い。山の頂上は、凸部に対する光の反射による高輝度部分であり、山の裾は、凸部の陰による低輝度部分である。 When the feature point candidate FPC is extracted by the unevenness of the road surface or the shadow of the convex portion such as gravel, the brightness distribution in the vicinity of the feature point candidate FPC is a mountain having the feature point candidate FPC as the apex as shown in FIG. Often shows a type brightness distribution. The top of the mountain is a high-brightness part due to the reflection of light on the convex part, and the hem of the mountain is a low-brightness part due to the shadow of the convex part.

そのため、山の頂点における位置の画素の輝度と、山の裾における位置の画素の輝度とを比較することで、輝度分布が路面凹凸において特徴的な山形の分布であるか否かを簡易に判断することができる。 Therefore, by comparing the brightness of the pixel at the top of the mountain with the brightness of the pixel at the foot of the mountain, it is easy to determine whether or not the brightness distribution is a characteristic mountain-shaped distribution in the road surface unevenness. can do.

そのため、本実施の形態では、山の頂点を基準としたときに、山の裾にあたる位置関係を、第1〜第Nの位置関係としてあらかじめ定めておく。これにより、特徴点候補FPCの位置を基準とした場合、第1〜第Nの位置関係における画素、すなわち判別画素は、山の裾における画素として特定できる。これにより、特徴点候補FPC近傍が、路面凹凸において特徴的な山形の輝度分布であるか否かを簡便に評価することができる。 Therefore, in the present embodiment, the positional relationship corresponding to the foot of the mountain is defined in advance as the first to Nth positional relationships when the top of the mountain is used as a reference. As a result, when the position of the feature point candidate FPC is used as a reference, the pixels in the first to Nth positional relationships, that is, the discrimination pixels can be specified as the pixels at the foot of the mountain. Thereby, it is possible to easily evaluate whether or not the vicinity of the feature point candidate FPC has a chevron-shaped luminance distribution characteristic of the road surface unevenness.

上記のように山型の輝度分布となるのは陰影が原因の一つであるため、判別画素と特徴点候補FPCとの位置関係は、特徴点候補FPCを通る直線L上であることが好ましい。また直線Lの向きは、光源、例えば太陽の方向を向いていることがより好ましい。これにより、凸部の反射と陰を好適にとらえることができ、より精度の高い特徴点の抽出が可能となる。 Since one of the causes of the mountain-shaped luminance distribution as described above is the shadow, the positional relationship between the discriminant pixel and the feature point candidate FPC is preferably on a straight line L passing through the feature point candidate FPC. .. Further, the direction of the straight line L is more preferably directed to the direction of the light source, for example, the sun. As a result, the reflection and shadow of the convex portion can be appropriately captured, and the feature points can be extracted with higher accuracy.

特定した判別画素は、特徴点候補とともに輝度差算出部140に出力される。 The identified discriminant pixel is output to the luminance difference calculation unit 140 together with the feature point candidate.

輝度差算出部140は、候補抽出部120により抽出された特徴点候補と、判別画素特定部130により特定された第k(kは1以上N以下の自然数)判別画素との輝度差である第k輝度差を算出する。輝度差算出部140は、算出した第k輝度差を比較部150に出力する。 The luminance difference calculation unit 140 is the luminance difference between the feature point candidate extracted by the candidate extraction unit 120 and the kth (k is a natural number of 1 or more and N or less) discrimination pixel specified by the discrimination pixel identification unit 130. k The brightness difference is calculated. The luminance difference calculation unit 140 outputs the calculated k-th luminance difference to the comparison unit 150.

具体的には、輝度差算出部140は、特徴点候補の画素の輝度と、第k判別画素との輝度の差を算出し、第k輝度差を算出する(kは1〜Nの自然数)。輝度差算出部140は、1つの特徴点候補に対してkを1〜Nまで変えて輝度差の算出を繰り返す。結果、1つの特徴点候補に対して、第1〜第N判別画素に対応する第1〜第N輝度差が算出される。特徴点候補と輝度差は比較部150に出力される。 Specifically, the luminance difference calculation unit 140 calculates the difference in luminance between the pixel of the feature point candidate pixel and the k-th discrimination pixel, and calculates the k-th luminance difference (k is a natural number of 1 to N). .. The luminance difference calculation unit 140 repeats the calculation of the luminance difference by changing k from 1 to N for one feature point candidate. As a result, the first to Nth luminance differences corresponding to the first to Nth discriminant pixels are calculated for one feature point candidate. The feature point candidate and the luminance difference are output to the comparison unit 150.

比較部150は、輝度差算出部140により算出された第k輝度差と第k位置関係に応じて設定された第kしきい値を比較する。比較部150は、比較結果を特徴点抽出部160に出力する。具体的には、第k輝度差と第kしきい値を比較する。 The comparison unit 150 compares the k-th luminance difference calculated by the luminance difference calculation unit 140 with the k-th threshold value set according to the k-th positional relationship. The comparison unit 150 outputs the comparison result to the feature point extraction unit 160. Specifically, the k-th luminance difference and the k-th threshold value are compared.

第k輝度差が第kしきい値より大きいとき、比較結果は真とする。また、第k輝度差が第kしきい値以下である場合、比較結果は偽とする。特徴点候補1つに対して、比較部150は、kを1〜Nまで変えて比較を繰り返す。結果、特徴点候補1つに対してN個の比較結果が得られる。比較部150は、候補抽出部120によって抽出された全ての特徴点候補に対して、輝度差と閾値とを比較する処理を行う。特徴点候補と比較結果は、特徴点抽出部160に出力される。 When the kth luminance difference is larger than the kth threshold value, the comparison result is true. When the k-th luminance difference is equal to or less than the k-th threshold value, the comparison result is false. For one feature point candidate, the comparison unit 150 repeats the comparison by changing k from 1 to N. As a result, N comparison results can be obtained for one feature point candidate. The comparison unit 150 performs a process of comparing the brightness difference with the threshold value for all the feature point candidates extracted by the candidate extraction unit 120. The feature point candidate and the comparison result are output to the feature point extraction unit 160.

それぞれの判別画素は、位置関係に対応したしきい値を有する。図3に示すように、第1判別画素は、第1の位置関係に対応した第1しきい値を有する。第2判別画素は、第2の位置関係に対応した第2しきい値を有する。 Each discriminant pixel has a threshold value corresponding to the positional relationship. As shown in FIG. 3, the first discriminant pixel has a first threshold value corresponding to the first positional relationship. The second discriminant pixel has a second threshold value corresponding to the second positional relationship.

図4を用いて、位置関係に対応したしきい値の設定について説明を行う。図4に示すように、特徴点候補FPC近傍の輝度分布は左右非対称な分布をとることが多い。図4においては特徴点候補FPC右側の第1判別画素DP1の輝度は、特徴点候補FPC左側の第2判別画素DP2の輝度よりも高い。そのため、第1判別画素DP1と特徴点候補FPCとの第1輝度差LD1は、第2判別画素DP2と特徴点候補FPCとの第2輝度差LD2よりも大きい。 The setting of the threshold value corresponding to the positional relationship will be described with reference to FIG. As shown in FIG. 4, the luminance distribution in the vicinity of the feature point candidate FPC often takes a left-right asymmetric distribution. In FIG. 4, the brightness of the first discrimination pixel DP1 on the right side of the feature point candidate FPC is higher than the brightness of the second discrimination pixel DP2 on the left side of the feature point candidate FPC. Therefore, the first luminance difference LD1 between the first discriminant pixel DP1 and the feature point candidate FPC is larger than the second luminance difference LD2 between the second discriminant pixel DP2 and the feature point candidate FPC.

このような路面凹凸が有する山形の輝度分布の非対称性は、前述のように凸部の陰影が原因の一つである。凸部の内、光源側の面は、光を反射するため輝度が高くなる傾向にある。一方、凸部の内、陰となる面は、自身が落とす影が重なることもあり輝度が低くなる傾向にある。 One of the causes of the asymmetry of the chevron-shaped brightness distribution of the road surface unevenness is the shadow of the convex portion as described above. Of the convex portions, the surface on the light source side reflects light and therefore tends to have high brightness. On the other hand, among the convex portions, the shaded surface tends to have low brightness because the shadow cast by itself may overlap.

したがって、特徴点候補FPCとの位置関係に対応して異なるしきい値を設定することで、より精度の高い特徴点の抽出が可能になる。 Therefore, by setting different threshold values according to the positional relationship with the feature point candidate FPC, it is possible to extract feature points with higher accuracy.

例えば、図4においては判別画素DP1に対応する閾値を、判別画素DP2に対応する閾値よりも小さく設定するとよい。すなわち、第1の位置関係に対応する第1のしきい値を、第2の位置関係に対応する第2しきい値よりも小さく設定するとよい。 For example, in FIG. 4, the threshold value corresponding to the discrimination pixel DP1 may be set smaller than the threshold value corresponding to the discrimination pixel DP2. That is, the first threshold value corresponding to the first positional relationship may be set smaller than the second threshold value corresponding to the second positional relationship.

図5に位置関係としきい値の対応の一例を示す。図5に示すように、位置関係、すなわち特徴点候補を基準とした水平方向の位置Δx、垂直方向の位置Δy、およびしきい値が、第1〜第Nの番号について対応付けられている。 FIG. 5 shows an example of the correspondence between the positional relationship and the threshold value. As shown in FIG. 5, the positional relationship, that is, the horizontal position Δx, the vertical position Δy, and the threshold value with respect to the feature point candidate are associated with each other with respect to the first to Nth numbers.

図5に示す位置関係としきい値の対応は、具体的にはテーブルの形で記憶部180に記憶されている。前述の判別画素特定部130は、適宜記憶部180のテーブルを参照して所定の位置関係を呼び出し、判別画素を特定する。比較部150は、適宜記憶部180のテーブルを参照して位置関係に対応するしきい値を呼び出し、輝度差を呼び出した閾値と比較する。 The correspondence between the positional relationship and the threshold value shown in FIG. 5 is specifically stored in the storage unit 180 in the form of a table. The discriminant pixel identification unit 130 described above appropriately refers to the table of the storage unit 180 and calls a predetermined positional relationship to specify the discriminant pixel. The comparison unit 150 appropriately refers to the table of the storage unit 180, calls the threshold value corresponding to the positional relationship, and compares the brightness difference with the called threshold value.

特徴点抽出部160は、比較部150により行われた比較の結果に基づき、候補抽出部120により抽出された特徴点候補から特徴点を抽出する。特徴点抽出部160は、抽出した特徴点を異常検出部170に出力する。 The feature point extraction unit 160 extracts feature points from the feature point candidates extracted by the candidate extraction unit 120 based on the result of the comparison performed by the comparison unit 150. The feature point extraction unit 160 outputs the extracted feature points to the abnormality detection unit 170.

具体的には、特徴点候補1つに対して得られたN個の比較結果うち、少なくとも一つが偽である場合、特徴点抽出部160は、特徴点候補を特徴点として抽出する。換言すると、N個の比較結果がすべて真である場合は、特徴点抽出部160は、特徴点候補を特徴点として抽出しない。抽出された特徴点は、異常検出部170に出力される。 Specifically, when at least one of the N comparison results obtained for one feature point candidate is false, the feature point extraction unit 160 extracts the feature point candidate as a feature point. In other words, if the N comparison results are all true, the feature point extraction unit 160 does not extract the feature point candidates as feature points. The extracted feature points are output to the abnormality detection unit 170.

異常検出部170は、特徴点抽出部160により抽出された特徴点の位置の時間変化と、移動体の移動量に基づきカメラずれを検出する。具体的には、異常検出部170は、オプティカルフロー算出処理、移動ベクトル算出処理、移動量推定処理、ずれ判定処理を行う。 The abnormality detection unit 170 detects the camera deviation based on the time change of the position of the feature point extracted by the feature point extraction unit 160 and the movement amount of the moving body. Specifically, the abnormality detection unit 170 performs optical flow calculation processing, movement vector calculation processing, movement amount estimation processing, and deviation determination processing.

オプティカルフロー算出処理は、抽出された特徴点の位置の時間変化に基づき、オプティカルフローを検出する処理である。具体的には、異常検出部170は、前回取得したフレーム画像に基づいて抽出された特徴点と、今回取得したフレーム画像に基づいて抽出された特徴点とを比較し、特徴点の位置の時間変化をオプティカルフローとして算出する。オプティカルフローの算出は種々の公知の方法がある。 The optical flow calculation process is a process of detecting an optical flow based on a time change of the position of an extracted feature point. Specifically, the anomaly detection unit 170 compares the feature points extracted based on the previously acquired frame image with the feature points extracted based on the frame image acquired this time, and compares the time of the position of the feature points. Calculate the change as an optical flow. There are various known methods for calculating the optical flow.

図6を用いてオプティカルフロー算出処理について説明する。図6は図2で示すフレーム画像PICに対して、次の取得タイミングで取得したフレーム画像PICを示す。すなわち、図6のフレーム画像PICは、図2のフレーム画像PICに対して所定の時間の後の画像とも言える。例えば画像取得周期である1/30秒後における移動体周囲の画像とも言える。図6のフレーム画像PICには、図2と同様に自車の車体VBと、路面RSと、白線標示RMが写っている。 The optical flow calculation process will be described with reference to FIG. FIG. 6 shows a frame image PIC acquired at the next acquisition timing with respect to the frame image PIC shown in FIG. That is, the frame image PIC of FIG. 6 can be said to be an image after a predetermined time with respect to the frame image PIC of FIG. For example, it can be said to be an image around the moving body after 1/30 second, which is the image acquisition cycle. Similar to FIG. 2, the frame image PIC of FIG. 6 shows the vehicle body VB of the own vehicle, the road surface RS, and the white line marking RM.

図6では、図2のフレーム画像PICにおいて抽出された特徴点を白丸(〇)で重畳して示している。なお図6では、図2において白線標示RMの角に起因する特徴点候補のみが、特徴点抽出部160において特徴点として抽出されて残っている。路面凹凸に起因する特徴点候補は特徴点抽出部160において抽出されていない。 In FIG. 6, the feature points extracted in the frame image PIC of FIG. 2 are superimposed and shown by white circles (◯). In FIG. 6, only the feature point candidates caused by the corners of the white line marking RM in FIG. 2 are extracted as feature points by the feature point extraction unit 160 and remain. The feature point candidates due to the road surface unevenness are not extracted by the feature point extraction unit 160.

今回取得したフレーム画像PICから抽出された特徴点は黒丸(●)として示す。白線標示RMの角に起因する特徴点FP1および、特徴点FP2の2つが抽出されている。 The feature points extracted from the frame image PIC acquired this time are indicated by black circles (●). Two feature points, FP1 and feature point FP2, which are caused by the corners of the white line marking RM, are extracted.

異常検出部170は、今回フレーム画像PICの特徴点と、前回フレーム画像の特徴点とを、その近傍の画素値も考慮に入れて対応付ける。異常検出部170は、対応付けられた特徴点のそれぞれの位置に基づいてオプティカルフローを算出する。具体的には、対応付けた2つの特徴点のうち、前回フレーム画像の特徴点を始点とし、今回フレーム画像の特徴点を終点としたときのベクトルを、対応付けた特徴点に対するオプティカルフローとする。 The anomaly detection unit 170 associates the feature points of the frame image PIC this time with the feature points of the previous frame image in consideration of the pixel values in the vicinity thereof. The abnormality detection unit 170 calculates the optical flow based on the respective positions of the associated feature points. Specifically, of the two associated feature points, the vector when the feature point of the previous frame image is the start point and the feature point of the frame image this time is the end point is used as the optical flow for the associated feature points. ..

図6では、白線標示RMの左下角に対応する特徴点同士によるオプティカルフローOF1と、右下角に対応する特徴点同士によるオプティカルフローOF2の2つが算出されている。 In FIG. 6, two are calculated: an optical flow OF1 with feature points corresponding to the lower left corner of the white line marking RM, and an optical flow OF2 with feature points corresponding to the lower right corner.

なお、対応する特徴点が見つからなかった場合は、異常検出部170は、オプティカルフローを算出しない。算出したオプティカルフローは移動ベクトル算出処理で用いる。 If the corresponding feature point is not found, the abnormality detection unit 170 does not calculate the optical flow. The calculated optical flow is used in the movement vector calculation process.

移動ベクトル算出処理は、算出したオプティカルフローを座標変換し、実空間における特徴点の移動ベクトルを算出する処理である。 The movement vector calculation process is a process of converting the calculated optical flow into coordinates and calculating the movement vector of the feature points in the real space.

オプティカルフロー算出処理で算出したオプティカルフローは、カメラ210で撮影されたフレーム画像、すなわち2次元の座標系における特徴点の動きである。異常検出部170は、移動ベクトル算出処理においてオプティカルフローを、実際の移動体が動く3次元の座標系における動きである移動ベクトルに変換する。 The optical flow calculated by the optical flow calculation process is a frame image taken by the camera 210, that is, the movement of feature points in a two-dimensional coordinate system. The anomaly detection unit 170 converts the optical flow into a movement vector, which is the movement in the three-dimensional coordinate system in which the actual moving body moves, in the movement vector calculation process.

図7を用いて移動ベクトルの算出について説明する。図7では簡単のため、ピンホールモデルに基づく説明を行う。 The calculation of the movement vector will be described with reference to FIG. 7. For the sake of simplicity, FIG. 7 will be described based on the pinhole model.

ピンホールモデルでは、カメラで撮影される画像は、カメラの視点VPcと被写体とを結ぶ直線に沿って、被写体が所定の撮影面PPcに投影されて得られる。 In the pinhole model, the image taken by the camera is obtained by projecting the subject onto a predetermined shooting surface PPc along a straight line connecting the viewpoint VPc of the camera and the subject.

例えば図7で示すように、実空間上の移動ベクトルOFtの始点は、移動ベクトルOFtの始点とカメラの視点VPcとを結ぶ直線が、撮影面PPcと交わる点に投影される。 For example, as shown in FIG. 7, the start point of the movement vector OFt in the real space is projected to the point where the straight line connecting the start point of the movement vector OFt and the viewpoint VPc of the camera intersects the photographing surface PPc.

同様に、移動ベクトルOFtの終点は、移動ベクトルOFtの終点とカメラの視点VPcとを結ぶ直線が、撮影面PPcと交わる点に投影される。このようにして撮影面PPcに投影された移動ベクトルOFtの始点と終点を結ぶと、フレーム画像におけるオプティカルフローOFcとなる。 Similarly, the end point of the movement vector OFt is projected at the point where the straight line connecting the end point of the movement vector OFt and the viewpoint VPc of the camera intersects the photographing surface PPc. When the start point and the end point of the movement vector OFt projected on the imaging surface PPc are connected in this way, the optical flow OFc in the frame image is obtained.

逆に考えるとカメラの視点VPcと撮影面PPc上に投影された被写体を結ぶ直線上に、実空間における被写体が存在する。つまり、カメラの視点VPcとオプティカルフローOF1の始点を結ぶ直線上には移動ベクトルOFtの始点がある。同様にカメラの視点VPcとオプティカルフローOFcの終点を結ぶ直線上には移動ベクトルOFtの終点がある。 Conversely, the subject in the real space exists on the straight line connecting the viewpoint VPc of the camera and the subject projected on the shooting surface PPc. That is, the start point of the movement vector OFt is on the straight line connecting the viewpoint VPc of the camera and the start point of the optical flow OF1. Similarly, the end point of the movement vector OFt is on the straight line connecting the viewpoint VPc of the camera and the end point of the optical flow OFc.

しかしながら、撮影の段階で奥行き方向の情報が失われるため、移動ベクトルOFtは、オプティカルフローOFcから一意に定めることができない。そのため、本実施例では移動ベクトルOFtは、仮想平面PPt上にあると仮定する。仮想平面PPtは、具体的には路面である。この仮定により、異常検出部170は、オプティカルフローOFcから移動ベクトルOFtを一意に求めることができる。具体的には、異常検出部170は、前述のカメラの視点VPcとオプティカルフローOFcとを結ぶ直線と、仮想平面PPtとの交点から移動ベクトルOFtを求める。 However, since the information in the depth direction is lost at the shooting stage, the movement vector OFt cannot be uniquely determined from the optical flow OFc. Therefore, in this embodiment, it is assumed that the movement vector OFt is on the virtual plane PPt. Specifically, the virtual plane PPt is a road surface. Based on this assumption, the abnormality detection unit 170 can uniquely obtain the movement vector OFt from the optical flow OFc. Specifically, the abnormality detection unit 170 obtains the movement vector OFt from the intersection of the straight line connecting the viewpoint VPc of the camera and the optical flow OFc and the virtual plane PPt.

移動ベクトル算出処理において、異常検出部170は、カメラの撮影方向と水平画角、垂直画角からフレーム画像中の任意の座標の点に対し、カメラの視点から当該座標の点がどの向きにあるかを表す方向ベクトルを求める。次に、異常検出部170は、カメラの視点位置として規定の値を設定する。以上において、フレーム画像中の任意の画素とカメラの視点VPcとを結ぶ直線が定まる。異常検出部170は、該直線と仮想平面PPtとの交点を求める。これをオプティカルフローOFcの始点と終点に対してそれぞれ行う。これにより、移動ベクトルOFtを求めることができる。なお、カメラの撮影方向と視点位置とは、例えば工場出荷時に既定の取付位置の座標や向きを用いるとよい。 In the movement vector calculation process, the abnormality detection unit 170 indicates in which direction the point of the coordinate is from the viewpoint of the camera with respect to the point of an arbitrary coordinate in the frame image from the shooting direction of the camera, the horizontal angle of view, and the vertical angle of view. Find the direction vector that represents. Next, the abnormality detection unit 170 sets a predetermined value as the viewpoint position of the camera. In the above, a straight line connecting an arbitrary pixel in the frame image and the viewpoint VPc of the camera is determined. The abnormality detection unit 170 finds the intersection of the straight line and the virtual plane PPt. This is done for the start and end points of the optical flow OFc, respectively. As a result, the movement vector OFt can be obtained. As the shooting direction and the viewpoint position of the camera, for example, the coordinates and orientation of the default mounting position at the time of shipment from the factory may be used.

なお、図7では、ピンホールモデルをもとに説明したがこの限りではない。本実施の形態のように魚眼レンズを用いる場合は撮影面PPcを平面ではなく半球面などの曲面として設定することが望ましいこともある。また光学系の歪に対する補正も事前に行われることが好ましい。 In FIG. 7, the description is based on the pinhole model, but this is not the case. When a fisheye lens is used as in the present embodiment, it may be desirable to set the imaging surface PPc as a curved surface such as a hemisphere instead of a flat surface. It is also preferable that the distortion of the optical system is corrected in advance.

移動量推定処理は、移動ベクトルに基づいて移動体の推定移動量を算出する処理である。前述のように、移動ベクトルは特徴点の路面における移動量と方向を示す。そのため、特徴点が静止物に起因するものであれば、移動ベクトルは相対的に移動体の移動量と移動方向を示すと考えることができる。本実施例では特徴点は特に白線標示などの静止物に起因するものを想定する。したがって、移動ベクトルに基づき、異常検出部170は、移動体の移動量を推定することができる。推定移動量は例えば、移動ベクトルの前後方向成分である前後推定移動量と、左右方向成分である左右推定移動量と、である。推定した推定移動量は、ずれ判定処理で用いる。 The movement amount estimation process is a process of calculating the estimated movement amount of the moving body based on the movement vector. As described above, the movement vector indicates the amount and direction of movement of the feature point on the road surface. Therefore, if the feature points are caused by a stationary object, the movement vector can be considered to relatively indicate the movement amount and the movement direction of the moving body. In this embodiment, it is assumed that the feature points are caused by a stationary object such as a white line mark. Therefore, based on the movement vector, the abnormality detection unit 170 can estimate the movement amount of the moving body. The estimated movement amount is, for example, a front-back estimated movement amount which is a front-back direction component of the movement vector and a left-right estimated movement amount which is a left-right direction component. The estimated movement amount is used in the deviation determination process.

なお、移動ベクトルが複数検出されている場合には、異常検出部170は、平均や中央値を用いるなど、種々の統計処理を行って推定移動量を算出することが好ましい。またヒストグラムを作成し、外れ値の除外や最大となるピークを選出するなど、高度な統計処理を行うことがより好ましい。 When a plurality of movement vectors are detected, it is preferable that the abnormality detection unit 170 performs various statistical processing such as using an average or a median to calculate the estimated movement amount. In addition, it is more preferable to create a histogram and perform advanced statistical processing such as excluding outliers and selecting the maximum peak.

ずれ判定処理は、推定移動量と、センサ部300から取得した車速に基づき算出した移動体の移動量とを比較し、カメラずれの有無を判定する処理である。具体的には、異常検出部170は、フレーム画像から推定した推定移動量と、移動体の移動量とが一致しない場合に、カメラずれがあると判定する。 The deviation determination process is a process of comparing the estimated movement amount with the movement amount of the moving body calculated based on the vehicle speed acquired from the sensor unit 300, and determining the presence or absence of camera deviation. Specifically, the abnormality detection unit 170 determines that there is a camera deviation when the estimated movement amount estimated from the frame image and the movement amount of the moving body do not match.

異常検出部170は、ずれ判定処理において移動体の移動量を、センサ部300から取得した車速に基づき算出する。具体的には、今回フレームの取得時刻と前回フレームの取得時刻の差、つまりフレーム取得間隔と、センサ部300から取得した車速との積により、移動体の移動量を算出する。 The abnormality detection unit 170 calculates the amount of movement of the moving body in the deviation determination process based on the vehicle speed acquired from the sensor unit 300. Specifically, the movement amount of the moving body is calculated from the difference between the acquisition time of the current frame and the acquisition time of the previous frame, that is, the product of the frame acquisition interval and the vehicle speed acquired from the sensor unit 300.

移動体が直進状態である場合、算出した移動体の移動量は、前後方向のものである。左右方向の移動量は0である。したがって異常検出部170は、前後推定移動量と、移動体の移動量とを比較する。また左右推定移動量と0とを比較する。 When the moving body is in the straight-ahead state, the calculated movement amount of the moving body is in the front-rear direction. The amount of movement in the left-right direction is 0. Therefore, the abnormality detection unit 170 compares the estimated front-back movement amount with the movement amount of the moving body. Also, the estimated left-right movement amount is compared with 0.

比較の結果、前後推定移動量と、左右推定移動量とがどちらもともに、差がない、と判定される場合、異常検出部170は、カメラずれがないと判定する。逆に、前後推定移動量と、左右推定移動量と、のいずれかでも差があると判断される場合、異常検出部170は、カメラずれがあると判定する。 As a result of the comparison, when it is determined that there is no difference between the front-back estimated movement amount and the left-right estimated movement amount, the abnormality detection unit 170 determines that there is no camera deviation. On the contrary, when it is determined that there is a difference between the estimated front-back movement amount and the left-right estimated movement amount, the abnormality detection unit 170 determines that there is a camera deviation.

なお、ここで言う「差がない」とは、両者の値の差や比が所定の範囲内ということを意味する。例えば、前後推定移動量と移動体の移動量との差が所定のしきい値よりも小さい場合、「差がない」、と判定するとよい。 In addition, "there is no difference" here means that the difference or ratio between the two values is within a predetermined range. For example, when the difference between the estimated front-rear movement amount and the movement amount of the moving body is smaller than a predetermined threshold value, it may be determined that there is no difference.

次に、実施形態に係る異常検出処理について、図8を参照して説明する。図8は、異常検出処理を説明するフローチャートである。なお、この処理は所定のサイクルで繰り返される。 Next, the abnormality detection process according to the embodiment will be described with reference to FIG. FIG. 8 is a flowchart illustrating an abnormality detection process. This process is repeated in a predetermined cycle.

異常検出装置100は、異常検出処理が開始すると、特徴点を抽出する(ステップS81)。特徴点抽出処理については後述する。 When the abnormality detection process starts, the abnormality detection device 100 extracts feature points (step S81). The feature point extraction process will be described later.

異常検出装置100は、抽出した特徴点の数が所定値以上であるか否かを判定する(ステップS82)。特徴点の数が所定値よりも少ない場合(S82:No)、異常検出装置100は、カメラずれの判定は不能と判断(ステップS83)して異常検出処理を終了する。 The abnormality detection device 100 determines whether or not the number of extracted feature points is equal to or greater than a predetermined value (step S82). When the number of feature points is less than the predetermined value (S82: No), the abnormality detection device 100 determines that the camera deviation cannot be determined (step S83), and ends the abnormality detection process.

抽出した特徴点の数が所定値以上である場合(S83:Yes)、異常検出装置100は、今回取得した画像に基づき抽出した特徴点と、前回取得した画像に基づき抽出した特徴点とに基づいてオプティカルフローを算出する(ステップS84)。 When the number of the extracted feature points is equal to or more than a predetermined value (S83: Yes), the abnormality detection device 100 is based on the feature points extracted based on the image acquired this time and the feature points extracted based on the image acquired last time. The optical flow is calculated (step S84).

異常検出装置100は、算出したオプティカルフローに対して座標変換を行い、移動ベクトルを算出する(ステップS85)。 The abnormality detection device 100 performs coordinate conversion on the calculated optical flow and calculates a movement vector (step S85).

異常検出装置100は、算出した移動ベクトルに基づき移動体の推定移動量を推定する(ステップS86)。 The abnormality detection device 100 estimates the estimated movement amount of the moving body based on the calculated movement vector (step S86).

異常検出装置100は、推定した推定移動量と、車速に基づき算出した移動体の移動量とを比較し、カメラずれが発生しているか否かを判定(ステップS87)し、異常検出処理を終了する。 The abnormality detection device 100 compares the estimated estimated movement amount with the movement amount of the moving body calculated based on the vehicle speed, determines whether or not the camera is displaced (step S87), and ends the abnormality detection process. To do.

次に、実施形態に係る特徴点の抽出処理(ステップS81)について、図9を参照して詳細に説明する。図9は、特徴点抽出処理を説明するフローチャートである。なお、例として判別画素を2つとしているがこの限りではない。 Next, the feature point extraction process (step S81) according to the embodiment will be described in detail with reference to FIG. FIG. 9 is a flowchart illustrating the feature point extraction process. As an example, the number of discrimination pixels is two, but this is not the case.

異常検出装置100は、特徴点抽出処理が開始すると、カメラから画像を取得する(ステップS901)。 When the feature point extraction process starts, the abnormality detection device 100 acquires an image from the camera (step S901).

異常検出装置100は、取得した画像から特徴点候補を抽出する(ステップS902)。 The abnormality detection device 100 extracts feature point candidates from the acquired image (step S902).

異常検出装置100は、抽出した特徴点候補から1つを選択(ステップS903)する。 The abnormality detection device 100 selects one from the extracted feature point candidates (step S903).

異常検出装置100は、選択した1つの特徴点候補に対し、2種類の位置関係における判別画素を2つ特定する(ステップS904)。以下、2種類の位置関係を、それぞれ第1の位置関係、第2の位置関係とする。また、2つの判別画素はそれぞれ第1判別画素、第2判別画素とする。ここでは例として判別画素を2つとしているが、任意のN個(N≧2の自然数)としてもよい。 The abnormality detection device 100 identifies two discriminant pixels in two types of positional relationships with respect to one selected feature point candidate (step S904). Hereinafter, the two types of positional relationships will be referred to as a first positional relationship and a second positional relationship, respectively. Further, the two discrimination pixels are the first discrimination pixel and the second discrimination pixel, respectively. Here, the number of discrimination pixels is two as an example, but any number of N (natural number with N ≧ 2) may be used.

異常検出装置100は、第1判別画素と、特徴点候補との輝度差である第1輝度差を算出する(ステップS905)。 The abnormality detection device 100 calculates the first luminance difference, which is the luminance difference between the first discriminant pixel and the feature point candidate (step S905).

異常検出装置100は、第1輝度差と、第1の位置関係に対応する第1しきい値とを比較する(ステップS906)。第1輝度差が第1しきい値以下である場合(S906:No)、異常検出装置100は、選択している1つの特徴点候補に対する処理を終了し、ステップS910以降を実行する。 The abnormality detection device 100 compares the first luminance difference with the first threshold value corresponding to the first positional relationship (step S906). When the first luminance difference is equal to or less than the first threshold value (S906: No), the abnormality detection device 100 ends the process for one selected feature point candidate, and executes step S910 and subsequent steps.

異常検出装置100は、第1輝度差が第1しきい値より大きい場合(S906:Yes)、第2判別画素に対する処理を実行する。 When the first luminance difference is larger than the first threshold value (S906: Yes), the abnormality detection device 100 executes the process for the second discriminant pixel.

異常検出装置100は、第2判別画素と、特徴点候補との輝度差である第2輝度差を算出する(ステップS907)。 The abnormality detection device 100 calculates the second luminance difference, which is the luminance difference between the second determining pixel and the feature point candidate (step S907).

異常検出装置100は、第2輝度差と、第2の位置関係に対応する第2しきい値とを比較する(ステップS908)。第2輝度差が第2しきい値以下である場合(S908:No)、異常検出装置100は、選択している1つの特徴点候補に対する処理を終了し、ステップS910以降を実行する。 The abnormality detection device 100 compares the second luminance difference with the second threshold value corresponding to the second positional relationship (step S908). When the second luminance difference is equal to or less than the second threshold value (S908: No), the abnormality detection device 100 ends the processing for one selected feature point candidate, and executes step S910 and subsequent steps.

異常検出装置100は、第2輝度差が第2しきい値より大きい場合(S908:Yes)、選択している1つの特徴点候補を、特徴点として抽出する(ステップS909)。 When the second luminance difference is larger than the second threshold value (S908: Yes), the abnormality detection device 100 extracts one selected feature point candidate as a feature point (step S909).

なお、判別画素を任意のN個設定する場合は、S905〜S906の処理を1セットとしてN回分繰り返すとよい。上記の説明ではN=2の例として説明した。 When arbitrarily setting N discriminant pixels, it is preferable to repeat the processes of S905 to S906 as one set N times. In the above description, it has been described as an example of N = 2.

異常検出装置100は、上記処理をすべての特徴点候補に対して実施したか判定する(ステップS910)。実施していなければ(S910:No)、まだ実施していない特徴点候補に対し、ステップ903以降を再度実行する。 The abnormality detection device 100 determines whether or not the above processing has been performed on all the feature point candidates (step S910). If it has not been executed (S910: No), step 903 and subsequent steps are executed again for the feature point candidates that have not been implemented yet.

異常検出装置は、すべての特徴点候補に対して処理を実施していれば(S910:Yes)、特徴点抽出処理を終了する。 If the abnormality detection device has performed processing on all the feature point candidates (S910: Yes), the feature point extraction process ends.

<3.3.異常検出装置の効果>
次に実施形態に係る異常検出装置の効果について説明を行う。
<3.3. Effect of anomaly detection device>
Next, the effect of the abnormality detection device according to the embodiment will be described.

異常検出装置100は、特徴点候補と所定の第1〜第Nの位置関係(Nは2以上の自然数)にある第1〜第N判別画素を特定する。 The abnormality detection device 100 identifies the first to Nth discriminant pixels having a predetermined first to first Nth positional relationship (N is a natural number of 2 or more) with the feature point candidate.

異常検出装置100は、抽出された特徴点候補と特定された第k判別画素(kは1以上N以下の自然数)との輝度差を算出し、前記第k輝度差を前記第k位置関係に応じて設定された第kしきい値と比較する。 The abnormality detection device 100 calculates the brightness difference between the extracted feature point candidate and the identified kth discrimination pixel (k is a natural number of 1 or more and N or less), and sets the kth brightness difference in the kth positional relationship. Compare with the kth threshold set accordingly.

これにより、異常検出装置100は、特徴点候補近傍における路面凹凸に起因する非対称な輝度分布を検出することができ、時間的に安定して抽出が可能な特徴点を精度よく抽出することができる。 As a result, the abnormality detection device 100 can detect the asymmetric luminance distribution caused by the road surface unevenness in the vicinity of the feature point candidate, and can accurately extract the feature points that can be stably extracted in time. ..

また、異常検出装置100は、特徴点候補を通る直線上に位置する画素を前記第1判別画素として特定し、前記直線上に位置するとともに前記抽出された特徴点候補を基準として前記第1判別画素の反対側に位置する画素を第2判別画素として特定する。 Further, the abnormality detection device 100 specifies a pixel located on a straight line passing through the feature point candidate as the first discriminating pixel, and the first discriminating pixel is located on the straight line and based on the extracted feature point candidate. A pixel located on the opposite side of the pixel is specified as a second discrimination pixel.

これにより、異常検出装置100は、特徴点候補近傍における非対称な輝度分布の原因の一つである、路面凹凸の陰影を精度よく捉えることが可能になり、時間的に安定して抽出が可能な特徴点をさらに精度よく抽出することができる。 As a result, the anomaly detection device 100 can accurately capture the shadow of the road surface unevenness, which is one of the causes of the asymmetric luminance distribution in the vicinity of the feature point candidate, and can extract it stably in time. Feature points can be extracted with higher accuracy.

以上のように本実施の形態について説明を行ってきた。ここで従来技術との比較を行う。従来技術では、特徴量の比較によって、特徴点候補から特徴点の抽出を行うことが知られている。例えば白線のコーナーのような明暗がはっきりとした画像の特徴から得られる特徴点候補は高い特徴量が得られる。一方路面の凹凸のような比較的ぼんやりとした画像の特徴から得られる特徴点候補は、しきい値T付近の低い特徴量となる。 As described above, the present embodiment has been described. Here, a comparison with the prior art is made. In the prior art, it is known that feature points are extracted from feature point candidates by comparing feature quantities. For example, a feature point candidate obtained from a feature of an image with clear light and darkness such as a corner of a white line can obtain a high feature amount. On the other hand, the feature point candidates obtained from the relatively vague image features such as the unevenness of the road surface have a low feature amount near the threshold value T.

つまり、時間的に安定して抽出が可能な特徴点は比較的高い特徴量を有している。一方時間的には安定して抽出しにくい特徴点は比較的低い特徴量を有している、と言うこともできる。このことを利用し、従来は特徴量に適宜しきい値を設定することで時間的に安定して抽出可能な特徴点を抽出する試みがなされてきた。しかしながら特徴量に対しては、適切なしきい値を引くことが難しかった。このため、過度に特徴点を減らしてしてしまったり、逆に特徴点を残しすぎたりすることがあった。このように、特徴点候補から特徴点を抽出する精度が低いことが課題であった。 That is, the feature points that can be stably extracted in time have a relatively high feature amount. On the other hand, it can be said that feature points that are stable in time and difficult to extract have relatively low feature quantities. Taking advantage of this, conventionally, attempts have been made to extract feature points that can be stably extracted in a timely manner by appropriately setting a threshold value for the feature amount. However, it was difficult to draw an appropriate threshold value for the feature quantity. For this reason, the feature points may be excessively reduced, or conversely, the feature points may be left too much. As described above, the problem is that the accuracy of extracting the feature points from the feature point candidates is low.

この原因の一つは、特徴量の大小は、輝度変化の大小に主に起因することにある。つまり路面の凹凸のように、非対称な特徴的な輝度分布を有する場合でも、輝度値の大小そのものは特徴量に反映しないことが多い。そのため従来手法のように特徴量自体を評価する手法では精度の高い抽出が難しかった。 One of the reasons for this is that the magnitude of the feature amount is mainly due to the magnitude of the change in brightness. That is, even if the luminance distribution is asymmetrical and characteristic, such as the unevenness of the road surface, the magnitude of the luminance value itself is often not reflected in the feature amount. Therefore, it is difficult to extract with high accuracy by the method of evaluating the feature quantity itself like the conventional method.

一方、本実施の形態では、上述のように特徴点候補の抽出を、特徴点候補近傍の輝度の分布に基づき行うことを特徴としている。異常検出装置100は、特徴点候補を基準とする所定の位置関係に対応したしきい値を設定することで、路面の凹凸のように、非対称な特徴的な輝度分布を精度よく判別することができる。また、特徴点候補を通る直線上に位置関係を設定することで、非対称な輝度分布の原因の一つである凹凸の陰影を精度よく捉えることが可能となる。この結果、異常検出装置100は、時間的に安定して抽出が可能な特徴点をさらに精度よく抽出することが可能である。 On the other hand, the present embodiment is characterized in that the feature point candidates are extracted based on the luminance distribution in the vicinity of the feature point candidates as described above. The anomaly detection device 100 can accurately discriminate an asymmetric characteristic brightness distribution such as unevenness of a road surface by setting a threshold value corresponding to a predetermined positional relationship based on a feature point candidate. it can. In addition, by setting the positional relationship on a straight line passing through the feature point candidates, it is possible to accurately capture the shadow of unevenness, which is one of the causes of the asymmetric luminance distribution. As a result, the abnormality detection device 100 can more accurately extract feature points that can be stably extracted in time.

次に変形例について説明を行う。 Next, a modified example will be described.

変形例に係る異常検出装置100は、特徴点候補を通る直線を、取得した画像の画素の記録方向に基づき決定する。図10は、画素の記録方向に平行に直線を設定した場合の一例を示す図である。図10では、画素の記録が画像の水平方向に対して行われている場合に、特徴点候補FPCを通る直線Lを水平方向に設定する。すなわち、判別画素は特徴点候補に対して水平方向に位置する所定の位置から特定する。図10では、例としてΔx=±3の位置に、判別画素DP1と、判別画素DP2との2つが特定されている。 The abnormality detection device 100 according to the modified example determines a straight line passing through the feature point candidate based on the recording direction of the pixels of the acquired image. FIG. 10 is a diagram showing an example in the case where a straight line is set parallel to the recording direction of the pixels. In FIG. 10, when the pixels are recorded in the horizontal direction of the image, the straight line L passing through the feature point candidate FPC is set in the horizontal direction. That is, the discriminating pixel is specified from a predetermined position located in the horizontal direction with respect to the feature point candidate. In FIG. 10, as an example, two discriminant pixels DP1 and discriminant pixel DP2 are specified at positions of Δx = ± 3.

一般的にフレーム画像を構成する画素は、メモリ中では水平1行分の画素を1単位として記録されていることが多い。このため水平方向、つまり画素の記録方向に対して平行な方向には、メモリ上で隣接もしくは近接した位置に画素が記録されている。一方、例えば垂直方向や斜め方向など、画素の記録方向に対して平行でない方向に対しては、メモリ上で遠い位置に画素が記録されている。 In general, the pixels that make up a frame image are often recorded in memory with pixels for one horizontal line as one unit. Therefore, in the horizontal direction, that is, in the direction parallel to the recording direction of the pixels, the pixels are recorded at positions adjacent to or close to each other on the memory. On the other hand, in a direction that is not parallel to the recording direction of the pixel, such as a vertical direction or an oblique direction, the pixel is recorded at a distant position on the memory.

一般にCPUに搭載されるキャッシュ機能などのメモリ先読み機能は、メモリ上で近い位置のデータに対しては先読み効果が高く、メモリ上で遠いデータに対しては先読み効果が低い。このため、異常検出装置100がメモリ先読み機能を有する場合、画素の記録方向を、直線Lの方向に設定することでメモリ先読み機能の効果を上げ、計算時間を低減することができる。 Generally, a memory look-ahead function such as a cache function mounted on a CPU has a high look-ahead effect for data at a position close to the memory and a low look-ahead effect for data far from the memory. Therefore, when the abnormality detection device 100 has the memory look-ahead function, the effect of the memory look-ahead function can be improved and the calculation time can be reduced by setting the recording direction of the pixels in the direction of the straight line L.

なお、上記では画素の記録方向として水平方向を例に説明を行ったがこの限りではない。垂直方向や斜め方向に画素が記録されていてもよい。 In the above description, the horizontal direction is taken as an example of the recording direction of the pixels, but this is not the case. Pixels may be recorded in the vertical direction or the diagonal direction.

また、上記変形例では、移動体の進行方向によって変化する光源方向に対し、特徴点候補を通る直線の方向が固定される。そのため、凹凸の陰影を精度よく捉えることができなくなる場合もありうる。そのため、予め画像を回転して、画素の記録方向と光源の方向とが合致するように構成してもよい。 Further, in the above modification, the direction of the straight line passing through the feature point candidate is fixed with respect to the light source direction that changes depending on the traveling direction of the moving body. Therefore, it may not be possible to accurately capture the shadows of the unevenness. Therefore, the image may be rotated in advance so that the recording direction of the pixels and the direction of the light source match.

例えば、カメラ真正面に太陽、つまり光源がある場合、光源の方向は画像中で垂直方向となる。一方、変形例に係る異常検出装置は、特徴点候補に対して画素の記録方向、つまり水平方向の位置で判別画素を特定する。そのため凹凸の陰影を検出しにくいことがある。このような場合は、取得した画像をあらかじめ90度回転させておく。すると、光源の方向が画像中で水平方向となり、画素の記録方向と光源の方向が合致する。これにより、凹凸の陰影を精度よく捉えることができ、時間的に安定して抽出が可能な特徴点をさらに精度よく抽出することが可能である。 For example, when the sun, that is, a light source, is directly in front of the camera, the direction of the light source is vertical in the image. On the other hand, the abnormality detection device according to the modified example identifies the discriminant pixel at the position in the recording direction of the pixel, that is, the horizontal direction with respect to the feature point candidate. Therefore, it may be difficult to detect the shadow of unevenness. In such a case, the acquired image is rotated 90 degrees in advance. Then, the direction of the light source becomes the horizontal direction in the image, and the recording direction of the pixels and the direction of the light source match. As a result, the shadows of the unevenness can be accurately captured, and the feature points that can be stably extracted in time can be extracted with higher accuracy.

また、変形例に係る異常検出装置100は、特徴点候補のフレーム画像内における位置に基づいて、判別画素を特定する位置関係に対して補正を行ってもよい。 Further, the abnormality detection device 100 according to the modified example may correct the positional relationship for specifying the discriminant pixel based on the position in the frame image of the feature point candidate.

位置関係の補正について、図11を用いて説明を行う。図11は、フレーム画像PIC中央付近の特徴点候補に対する判別画素と、フレーム画像PIC外縁付近の特徴点候補に対する判別画素の位置関係の補正の一例を示す図である。 The correction of the positional relationship will be described with reference to FIG. FIG. 11 is a diagram showing an example of correction of the positional relationship between the discrimination pixel for the feature point candidate near the center of the frame image PIC and the discrimination pixel for the feature point candidate near the outer edge of the frame image PIC.

前提として、無補正の場合は、例として特徴点候補から水平方向に3画素離れた位置関係(Δx=±3)において、判別画素を特定するものとする。 As a premise, in the case of no correction, as an example, the discriminant pixel is specified in the positional relationship (Δx = ± 3) 3 pixels horizontally away from the feature point candidate.

まず特徴点候補がフレーム画像PICの。中央の領域A1に位置するとする。この場合、異常検出装置100は位置関係の補正は行わない。したがって、判別画素は無補正の場合である特徴点候補から水平方向に3画素離れた位置関係(Δx=±3)において特定される。 First, the feature point candidate is the frame image PIC. It is assumed that it is located in the central region A1. In this case, the abnormality detection device 100 does not correct the positional relationship. Therefore, the discriminant pixel is specified in a positional relationship (Δx = ± 3) 3 pixels horizontally separated from the feature point candidate, which is the case of no correction.

次に特徴点候補がフレーム画像PICの、やや外縁の領域A2に位置するとする。この場合、異常検出装置100は位置関係を補正する。特徴点候補が画像の外縁に近いほど、判別画素が特徴点候補に近い位置から特定されるように、異常検出装置100は、位置関係を補正する。具体的には、領域A2では、無補正の場合の位置関係に対して、特徴点候補と判別画素との距離が67%に縮むように補正する。つまり、領域A2では、特徴点候補から水平方向に2画素離れた位置関係(Δx=±2)において判別画素を特定するように、異常検出装置100は位置関係を補正する。 Next, it is assumed that the feature point candidate is located in the slightly outer edge region A2 of the frame image PIC. In this case, the abnormality detection device 100 corrects the positional relationship. The abnormality detection device 100 corrects the positional relationship so that the closer the feature point candidate is to the outer edge of the image, the closer the discrimination pixel is to the feature point candidate. Specifically, in the region A2, the distance between the feature point candidate and the discriminant pixel is corrected to be reduced to 67% with respect to the positional relationship in the case of no correction. That is, in the region A2, the abnormality detection device 100 corrects the positional relationship so as to specify the discriminant pixel in the positional relationship (Δx = ± 2) that is two pixels horizontally separated from the feature point candidate.

次に、特徴点候補がフレーム画像PICのさらに外縁付近の領域A3に位置するとする。この場合、異常検出装置100は、特徴点候補が領域A2に位置する場合よりも、さらに判別画素が特徴点候補に近い位置となるように補正する。具体的には、領域A3では、無補正の場合の位置関係に対して、特徴点候補と判別画素との距離が33%に縮むように補正する。つまり、領域A3では、特徴点候補から水平方向に1画素離れた位置関係(Δx=±1)において判別画素を特定するように、異常検出装置100は位置関係を補正する。 Next, it is assumed that the feature point candidate is located in the region A3 near the outer edge of the frame image PIC. In this case, the abnormality detection device 100 corrects the discriminant pixel so that the discrimination pixel is closer to the feature point candidate than when the feature point candidate is located in the area A2. Specifically, in the region A3, the distance between the feature point candidate and the discriminant pixel is corrected to be reduced to 33% with respect to the positional relationship in the case of no correction. That is, in the region A3, the abnormality detection device 100 corrects the positional relationship so as to specify the discriminant pixel in the positional relationship (Δx = ± 1) one pixel away from the feature point candidate in the horizontal direction.

本実施例のように、移動体の周辺監視に用いられるカメラの光学系においては、魚眼レンズなどの広角レンズが用いられることが多い。そのため、画像中央に写る被写体に対して画像外縁に写る被写体の方が小さく写ることが多い。また、魚眼レンズを使用しない場合でも、フレーム画像外縁の路面の方が中央に比べて遠方に存在するため、フレーム画像中では小さく写る。つまり、路面凹凸による陰影も、画像中央よりも画像外縁の方が小さく写る。 As in this embodiment, a wide-angle lens such as a fisheye lens is often used in the optical system of a camera used for peripheral monitoring of a moving body. Therefore, the subject appearing on the outer edge of the image is often smaller than the subject appearing in the center of the image. Even when a fisheye lens is not used, the road surface on the outer edge of the frame image is farther away than the center, so that the image appears smaller in the frame image. That is, the shadow due to the unevenness of the road surface also appears smaller at the outer edge of the image than at the center of the image.

変形例のように、異常検出装置100は、特徴点候補のフレーム画像中の位置に基づき、判別画素を特定する位置関係に対して補正を行うことで、フレーム画像上の陰影の大きさに対応した位置関係から判別画素を特定することが可能になる。これにより、フレーム画像全体にわたって精度よく特徴点を抽出することができる。 As in the modified example, the abnormality detection device 100 corresponds to the size of the shadow on the frame image by correcting the positional relationship for specifying the discrimination pixel based on the position in the frame image of the feature point candidate. It becomes possible to specify the discriminant pixel from the positional relationship. As a result, feature points can be extracted with high accuracy over the entire frame image.

上記説明においては、特徴点候補のフレーム画像PICにおける特徴点候補の位置を、3つの領域に分けて説明を行ったが、これに限るものではない。異常検出装置100は、特徴点候補のフレーム画像中の位置に基づき連続的に補正してもよい。例えば、異常検出装置100は、フレーム画像の中心と、特徴点候補との距離を変数とする連続関数によって補正量を定め、位置関係を補正してもよい。また、異常検出装置100は、特徴点候補のフレーム画像中の位置に対応する補正量をテーブルとしてあらかじめ定め、位置関係を補正してもよい。 In the above description, the positions of the feature point candidates in the frame image PIC of the feature point candidates have been described by dividing them into three regions, but the description is not limited to this. The abnormality detection device 100 may continuously correct based on the position in the frame image of the feature point candidate. For example, the abnormality detection device 100 may correct the positional relationship by determining the correction amount by a continuous function in which the distance between the center of the frame image and the feature point candidate is a variable. Further, the abnormality detection device 100 may correct the positional relationship by predetermining the correction amount corresponding to the position of the feature point candidate in the frame image as a table.

また、変形例に係る異常検出装置100は、フレーム画像の輝度代表値に基づいてしきい値を補正してもよい。具体的には、異常検出装置100は、フレーム画像の平均輝度を算出し、平均輝度に基づきしきい値を補正する。例えば、フレーム画像の平均輝度が所定のしきい値より高い場合は、異常検出装置100は、第kのしきい値(kは1以上N以下の自然数)が無補正の場合より大きくなるように補正する。例えば1より大きい補正係数との積をとるとよい。 Further, the abnormality detection device 100 according to the modified example may correct the threshold value based on the brightness representative value of the frame image. Specifically, the abnormality detection device 100 calculates the average brightness of the frame image and corrects the threshold value based on the average brightness. For example, when the average brightness of the frame image is higher than a predetermined threshold value, the abnormality detection device 100 makes the kth threshold value (k is a natural number of 1 or more and N or less) larger than that of the case of no correction. to correct. For example, it is advisable to take the product of a correction coefficient larger than 1.

フレーム画像の輝度代表値が高い場合は、周囲が明るい状態が多い。このような状態で撮影したフレーム画像はコントラストが高くなる。路面凹凸について見た場合、路面凹凸に起因する特徴点候補近傍は、輝度分布の山が高くなる傾向がある。 When the typical brightness value of the frame image is high, the surroundings are often bright. The frame image taken in such a state has high contrast. When looking at the road surface unevenness, the peaks of the brightness distribution tend to be high in the vicinity of the feature point candidates due to the road surface unevenness.

また、画像の輝度代表値が低い場合は、逆に、周囲が暗い状態や、曇りのように陰影が生じにくい状態のことが多い。このためフレーム画像のコントラストが低くなる。路面凹凸について見た場合、路面凹凸に起因する特徴点候補近傍は、輝度分布の山が低くなる傾向がある。 On the contrary, when the representative brightness value of the image is low, it is often the case that the surroundings are dark or shadows are unlikely to occur such as cloudiness. Therefore, the contrast of the frame image becomes low. When looking at the road surface unevenness, the peaks of the brightness distribution tend to be low in the vicinity of the feature point candidates due to the road surface unevenness.

換言すると、周囲の明るさ、つまりフレーム画像の輝度代表値が変動すると、変動前は特徴点として抽出できていた特徴点候補が、変動後は抽出されなくなることがある。つまり時間的に安定して特徴点が抽出されなくなることがある。 In other words, when the ambient brightness, that is, the representative brightness value of the frame image fluctuates, the feature point candidates that could be extracted as feature points before the fluctuation may not be extracted after the fluctuation. That is, the feature points may not be extracted stably in time.

変形例に係る異常検出装置100は、画像の輝度代表値に基づいてしきい値を補正する。これにより、特徴点候補近傍の輝度分布に変動が起こっても、時間的に安定して特徴点を抽出することができる。 The abnormality detection device 100 according to the modified example corrects the threshold value based on the representative brightness value of the image. As a result, even if the brightness distribution in the vicinity of the feature point candidate fluctuates, the feature points can be extracted stably in time.

また、変形例に係る異常検出装置100は、判別画素を特定する際に、複数の直線を用いてもよい。例えば、図3において、変形例に係る異常検出装置100は、直線Lに直交する方向に別の直線を設定し、判別画素を該直線上からも特定するようにしてもよい。 Further, the abnormality detection device 100 according to the modified example may use a plurality of straight lines when specifying the discrimination pixel. For example, in FIG. 3, the abnormality detection device 100 according to the modified example may set another straight line in a direction orthogonal to the straight line L, and specify the discrimination pixel from the straight line as well.

また、変形例に係る異常検出装置100は、判別画素を特定する位置関係として整数の位置関係としなくてもよい。換言すると、画素と画素の間から判別画素を特定するように位置関係を設定してもよい。このような場合、画素と画素の補間値を用いて判別画素の輝度を算出するとよい。具体的には、Δx=1.5、Δy=1.5の位置関係から判別画素を特定する場合を考える。この場合、判別画素の輝度は、Δx=1,2と、Δy=1,2に位置する4つの画素に基づくバイリニア補間法など、公知の画素補間手法によって算出するとよい。 Further, the abnormality detection device 100 according to the modified example does not have to have an integer positional relationship as the positional relationship for specifying the discrimination pixel. In other words, the positional relationship may be set so as to specify the discriminant pixel from between the pixels. In such a case, it is preferable to calculate the brightness of the discriminant pixel by using the pixel-to-pixel interpolation value. Specifically, consider a case where the discriminant pixel is specified from the positional relationship of Δx = 1.5 and Δy = 1.5. In this case, the brightness of the discriminant pixel may be calculated by a known pixel interpolation method such as a bilinear interpolation method based on Δx = 1 and 2 and four pixels located at Δy = 1 and 2.

以上、本発明の実施の形態を説明したが、上述した実施の形態は本発明を実施するための例示に過ぎない。よって、本発明は上述した実施の形態に限定されることなく、その趣旨を逸脱しない範囲内で上述した実施の形態を適宜変形して実施することが可能である。 Although the embodiment of the present invention has been described above, the above-described embodiment is merely an example for carrying out the present invention. Therefore, the present invention is not limited to the above-described embodiment, and the above-described embodiment can be appropriately modified and implemented within a range that does not deviate from the gist thereof.

本発明による異常検出装置は、移動体に搭載されたカメラの異常検出に利用可能である。 The abnormality detection device according to the present invention can be used for abnormality detection of a camera mounted on a moving body.

100 異常検出装置
110 取得部
120 候補抽出部
130 判別画素特定部
140 輝度差算出部
150 比較部
160 特徴点抽出部
170 異常検出部
200 撮影部
300 センサ部
400 通信バス
100 Anomaly detection device 110 Acquisition unit 120 Candidate extraction unit 130 Discrimination pixel identification unit 140 Luminance difference calculation unit 150 Comparison unit 160 Feature point extraction unit 170 Abnormality detection unit 200 Imaging unit 300 Sensor unit 400 Communication bus

Claims (7)

移動体に搭載されたカメラから画像を取得する取得部と、
前記取得部により取得された画像から特徴点候補を抽出する候補抽出部と、
前記候補抽出部により抽出された特徴点候補と所定の第1〜第N(Nは2以上の自然数)位置関係にある第1〜第N判別画素を特定する判別画素特定部と、
前記抽出された特徴点候補と前記判別画素特定部により特定された第k(kは1以上N以下の自然数)判別画素との輝度差である第k輝度差を算出する輝度差算出部と、
前記第k輝度差を前記第k位置関係に応じて設定された第kしきい値と比較する比較部と、
前記比較部が第1〜第N輝度差を第1〜第Nしきい値と比較した結果に基づき、前記特徴点候補から特徴点を抽出する特徴点抽出部と、
前記特徴点抽出部により抽出された特徴点の位置の時間変化と、前記移動体の移動量とに基づき、前記カメラの異常の有無を検出する異常検出部と、
を備える異常検出装置。
An acquisition unit that acquires images from a camera mounted on a moving body,
A candidate extraction unit that extracts feature point candidates from the image acquired by the acquisition unit, and a candidate extraction unit.
A discriminant pixel identification unit that identifies the first to Nth discriminating pixels having a predetermined first-to-Nth (N is a natural number of 2 or more) positional relationship with the feature point candidate extracted by the candidate extraction unit.
A luminance difference calculation unit that calculates the kth luminance difference, which is the luminance difference between the extracted feature point candidate and the kth (k is a natural number of 1 or more and N or less) discrimination pixel specified by the discrimination pixel identification unit.
A comparison unit that compares the kth luminance difference with the kth threshold value set according to the kth positional relationship, and
A feature point extraction unit that extracts feature points from the feature point candidates based on the result of the comparison unit comparing the first to Nth luminance differences with the first to first N threshold values.
An abnormality detection unit that detects the presence or absence of an abnormality in the camera based on the time change of the position of the feature point extracted by the feature point extraction unit and the movement amount of the moving body.
Anomaly detection device.
前記判別画素特定部は、
前記抽出された特徴点候補を通る直線上に位置する画素を前記第1判別画素として特定し、
前記直線上に位置するとともに前記抽出された特徴点候補を基準として前記第1判別画素の反対側に位置する画素を第2判別画素として特定し、
前記第1しきい値は前記第2しきい値と異なる、
請求項1に記載の異常検出装置。
The discrimination pixel identification unit is
A pixel located on a straight line passing through the extracted feature point candidate is specified as the first discriminating pixel.
A pixel located on the straight line and on the opposite side of the first discrimination pixel with reference to the extracted feature point candidate is specified as a second discrimination pixel.
The first threshold is different from the second threshold.
The abnormality detection device according to claim 1.
前記抽出された特徴点候補を通る直線の方向は、前記取得された画像の画素値の記録順序に基づき決定する
ことを特徴とする請求項2に記載の異常検出装置。
The abnormality detection device according to claim 2, wherein the direction of the straight line passing through the extracted feature point candidates is determined based on the recording order of the pixel values of the acquired image.
前記判別画素特定部は、
前記第1〜第N位置関係の少なくとも1つを、前記抽出された特徴点候補の前記取得された画像内における位置に基づき補正する
ことを特徴とする請求項1ないし3のいずれか一つに記載の異常検出装置。
The discrimination pixel identification unit is
According to any one of claims 1 to 3, at least one of the first to Nth positional relationships is corrected based on the position of the extracted feature point candidate in the acquired image. The described anomaly detector.
前記判別画素特定部は、
前記特徴点候補が前記取得された画像の外縁に近い位置であるほど、前記特徴点候補と前記判別画素との距離が近くなるように前記第1〜第N位置関係の少なくとも1つを補正する
ことを特徴とする請求項4に記載の異常検出装置。
The discrimination pixel identification unit is
At least one of the first to Nth positional relationships is corrected so that the closer the feature point candidate is to the outer edge of the acquired image, the closer the distance between the feature point candidate and the discriminating pixel is. The abnormality detection device according to claim 4, wherein the abnormality detection device is characterized.
前記抽出部は、
前記取得された画像の輝度代表値に基づき、前記しきい値を補正する
ことを特徴とする請求項1ないし5のいずれか一つに記載の異常検出装置。
The extraction unit
The abnormality detection device according to any one of claims 1 to 5, wherein the threshold value is corrected based on the brightness representative value of the acquired image.
移動体に搭載されたカメラから画像を取得する取得工程と、
前記取得された画像から特徴点候補を抽出する候補抽出工程と、
前記抽出された特徴点候補と所定の第1〜第N(Nは2以上の自然数)の位置関係にある第1〜第N判別画素を特定する判別画素特定工程と、
前記抽出された特徴点候補と前記特定された第k(kは1以上N以下の自然数)判別画素との輝度差を算出する輝度差算出工程と、
前記第k輝度差を前記第k位置関係に応じて設定された第kしきい値と比較する比較工程と、
第1〜第N輝度差を第1〜第Nしきい値と比較した結果に基づき、前記特徴点候補から特徴点を抽出する特徴点抽出工程と、
前記抽出された特徴点の位置の時間変化と、前記移動体の移動量とに基づき、前記カメラの異常の有無を検出する異常検出工程と、
を備える異常検出方法。
The acquisition process of acquiring images from the camera mounted on the moving body,
A candidate extraction step for extracting feature point candidates from the acquired image, and
A discriminant pixel identification step for identifying the first to Nth discriminant pixels having a predetermined positional relationship between the extracted feature point candidates and a predetermined first to first N (N is a natural number of 2 or more).
A luminance difference calculation step for calculating the luminance difference between the extracted feature point candidate and the specified kth (k is a natural number of 1 or more and N or less) discrimination pixel, and
A comparison step of comparing the k-th luminance difference with the k-th threshold value set according to the k-th positional relationship, and
A feature point extraction step of extracting feature points from the feature point candidates based on the result of comparing the first to Nth luminance differences with the first to Nth threshold values, and
An abnormality detection step of detecting the presence or absence of an abnormality in the camera based on the time change of the position of the extracted feature point and the movement amount of the moving body.
Anomaly detection method comprising.
JP2019035939A 2019-02-28 2019-02-28 Anomaly detection device and anomaly detection method Active JP7169227B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019035939A JP7169227B2 (en) 2019-02-28 2019-02-28 Anomaly detection device and anomaly detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019035939A JP7169227B2 (en) 2019-02-28 2019-02-28 Anomaly detection device and anomaly detection method

Publications (2)

Publication Number Publication Date
JP2020140478A true JP2020140478A (en) 2020-09-03
JP7169227B2 JP7169227B2 (en) 2022-11-10

Family

ID=72265201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019035939A Active JP7169227B2 (en) 2019-02-28 2019-02-28 Anomaly detection device and anomaly detection method

Country Status (1)

Country Link
JP (1) JP7169227B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212813A (en) * 2015-05-14 2016-12-15 富士通株式会社 Image processor, image processing method and program
JP2017139612A (en) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 On-vehicle camera calibration system
JP2018160732A (en) * 2017-03-22 2018-10-11 株式会社デンソーテン Image processing apparatus, camera deviation determination system, and image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212813A (en) * 2015-05-14 2016-12-15 富士通株式会社 Image processor, image processing method and program
JP2017139612A (en) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 On-vehicle camera calibration system
JP2018160732A (en) * 2017-03-22 2018-10-11 株式会社デンソーテン Image processing apparatus, camera deviation determination system, and image processing method

Also Published As

Publication number Publication date
JP7169227B2 (en) 2022-11-10

Similar Documents

Publication Publication Date Title
US11270134B2 (en) Method for estimating distance to an object via a vehicular vision system
JP6230751B1 (en) Object detection apparatus and object detection method
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
CN101633356B (en) System and method for detecting pedestrians
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
EP2312497A1 (en) Apparatus for vehicle surroundings monitorings
US20100246901A1 (en) Operation Support System, Vehicle, And Method For Estimating Three-Dimensional Object Area
US10354413B2 (en) Detection system and picture filtering method thereof
US20220366700A1 (en) Object recognition device
US11081008B2 (en) Vehicle vision system with cross traffic detection
JP5937832B2 (en) In-vehicle camera exposure control system
JP2007179386A (en) Method and apparatus for recognizing white line
JP2020060550A (en) Abnormality detector, method for detecting abnormality, posture estimating device, and mobile control system
WO2019156072A1 (en) Attitude estimating device
CN111046741A (en) Method and device for identifying lane line
US10803625B2 (en) Detection system and picturing filtering method thereof
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
US20140226908A1 (en) Object detection apparatus, object detection method, storage medium, and integrated circuit
JP4798576B2 (en) Attachment detection device
JP2018073275A (en) Image recognition device
JP5338762B2 (en) White balance coefficient calculation device and program
JP2010286995A (en) Image processing system for vehicle
JP2008160635A (en) Camera state detection method
CN111260538B (en) Positioning and vehicle-mounted terminal based on long-baseline binocular fisheye camera
JP7169227B2 (en) Anomaly detection device and anomaly detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221028

R150 Certificate of patent or registration of utility model

Ref document number: 7169227

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150