JP2015215645A - Analyzer, analysis method and program - Google Patents

Analyzer, analysis method and program Download PDF

Info

Publication number
JP2015215645A
JP2015215645A JP2014096253A JP2014096253A JP2015215645A JP 2015215645 A JP2015215645 A JP 2015215645A JP 2014096253 A JP2014096253 A JP 2014096253A JP 2014096253 A JP2014096253 A JP 2014096253A JP 2015215645 A JP2015215645 A JP 2015215645A
Authority
JP
Japan
Prior art keywords
moving
dirt
state
camera
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014096253A
Other languages
Japanese (ja)
Inventor
知克 宮澤
Tomokatsu Miyazawa
知克 宮澤
貴裕 東
Takahiro Azuma
貴裕 東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidec Elesys Corp
Original Assignee
Nidec Elesys Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidec Elesys Corp filed Critical Nidec Elesys Corp
Priority to JP2014096253A priority Critical patent/JP2015215645A/en
Publication of JP2015215645A publication Critical patent/JP2015215645A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide novel means for detecting contamination adhered to a camera or a moving body to which a camera is installed.SOLUTION: An analyzer 10 comprises: a camera 11 installed to a moving body; a determination part 12 for determining whether or not the moving body is moving; a non-movement object detection part 13 for detecting a non-movement object which is shown in a same place in frames, over the plural frames, by analyzing pieces of image data which are created by the camera 11 during movement of the moving body; a contamination detection part 14 for evaluating a visual field state using one or more sizes of one or more non-movement objects detected by the non-movement object detection part 13, and when an evaluation value is in a predetermined range, detecting a state there is contamination; and a notification part 15 for outputting information indicating the state there is contamination, when the contamination detection part 14 detects the state there is contamination.

Description

本発明は、解析装置、解析方法、及び、プログラムに関する。   The present invention relates to an analysis apparatus, an analysis method, and a program.

特許文献1に、フロントガラスや光学面の汚れを検出する機能を備えた車載カメラ装置が開示されている。当該発明は、フロントガラスや光学面に汚れが付着すると、撮影画像がピンボケしたような現象を引き起こすことに基づく。   Patent Document 1 discloses an in-vehicle camera device having a function of detecting dirt on a windshield and an optical surface. The invention is based on causing a phenomenon that a photographed image is out of focus when dirt is attached to a windshield or an optical surface.

特許文献1に開示の車載カメラ装置は、カメラで撮影している走行中の環境の明るさに対して、十分に明るい光源を1つ以上検出し、その光源の周辺の輝度分布から光源のボヤケ具合を検出し、ボヤケ具合の大きさによって汚れを検出する。具体的には、当該車載カメラ装置は、光学面が汚れていない撮影部で撮影した撮影画像に2値化処理を施した理想画像を予め記憶する記憶部と、撮影した撮影画像に対して、予め定めた2つの閾値に基づいて2値化処理し、2値化処理された画像と、記憶部で記憶された理想画像とを比較し、比較した結果に基づいて汚れ検出を行う処理部と、を有する。   The in-vehicle camera device disclosed in Patent Document 1 detects one or more light sources that are sufficiently bright with respect to the brightness of a running environment being shot by the camera, and blurs the light source from the luminance distribution around the light source. The condition is detected, and the dirt is detected depending on the size of the blur. Specifically, the in-vehicle camera device includes a storage unit that stores in advance an ideal image obtained by performing binarization processing on a captured image captured by a capturing unit whose optical surface is not soiled, and a captured image, A processing unit that performs binarization processing based on two predetermined threshold values, compares the binarized image with an ideal image stored in the storage unit, and performs stain detection based on the comparison result; Have.

特開2014−43121号公報JP 2014-43121 A

特許文献1に開示の発明の場合、撮影画像内に写る可能性のある様々な種類及び大きさの光源(例:対応車のヘッドライト、信号機のライト等)に対応する理想画像を予め記憶しておく必要がある。しかし、撮影画像内に写る可能性のある光源の種類及び大きさは多種多様である。このため、それらすべてを網羅して理想画像を保持しておくのは難しい。   In the case of the invention disclosed in Patent Document 1, ideal images corresponding to various types and sizes of light sources (e.g., headlights of compatible vehicles, traffic lights, etc.) that may appear in the captured image are stored in advance. It is necessary to keep. However, there are a wide variety of types and sizes of light sources that may appear in the captured image. For this reason, it is difficult to hold an ideal image covering all of them.

本発明は、カメラやカメラが設置された移動体に付着した汚れを検出する新たな手段を提供することを課題とする。   An object of the present invention is to provide a new means for detecting dirt adhering to a camera or a moving body in which the camera is installed.

本発明の一実施形態によれば、
移動体に設置されるカメラと、
前記移動体が移動中か否かを判断する判断手段と、
前記移動体が移動中に前記カメラが生成した画像データを解析し、複数のフレームに亘ってフレーム内の同じ位置に写る非移動対象を検出する非移動対象検出手段と、
前記非移動対象検出手段が検出した一つ以上の前記非移動対象の内の何れか一つ以上の大きさを用いて視野状態を評価し、評価値が所定の範囲となる場合に、汚れ有りの状態を検出する汚れ検出手段と、
前記汚れ検出手段が汚れ有りの状態を検出すると、その旨を示す情報を出力する報知手段と、
を有する解析装置が提供される。
According to one embodiment of the present invention,
A camera installed on a moving object;
Determining means for determining whether or not the moving object is moving;
Non-moving object detection means for analyzing image data generated by the camera while the moving body is moving and detecting non-moving objects appearing at the same position in a frame over a plurality of frames;
The visual field state is evaluated using any one or more sizes of the one or more non-moving objects detected by the non-moving object detection means, and there is contamination when the evaluation value falls within a predetermined range. Dirt detection means for detecting the state of
When the dirt detection means detects a state with dirt, a notification means for outputting information indicating that,
Is provided.

また、本発明の一実施形態によれば、
コンピュータが、
移動体が移動中か否かを判断する判断工程と、
前記移動体が移動中に前記移動体に設置されたカメラが生成した画像データを解析し、複数のフレームに亘ってフレーム内の同じ位置に写る非移動対象を検出する非移動対象検出工程と、
前記非移動対象検出工程で検出した一つ以上の前記非移動対象の内の何れか一つ以上の大きさを用いて視野状態を評価し、評価値が所定の範囲となる場合に、汚れ有りの状態を検出する汚れ検出工程と、
前記汚れ検出工程で汚れ有りの状態が検出されると、その旨を示す情報を出力する報知工程と、
を実行する解析方法が提供される。
Also, according to one embodiment of the present invention,
Computer
A determination step of determining whether or not the moving object is moving;
A non-moving target detection step of analyzing image data generated by a camera installed on the moving body while the moving body is moving, and detecting a non-moving target that appears in the same position in the frame over a plurality of frames;
When the visual field state is evaluated using any one or more of the one or more non-moving objects detected in the non-moving object detection step, and the evaluation value falls within a predetermined range, there is contamination. A dirt detection step for detecting the state of
When a state with dirt is detected in the dirt detection step, a notification step for outputting information indicating that,
An analysis method for performing the above is provided.

また、本発明の一実施形態によれば、
コンピュータを、
移動体が移動中か否かを判断する判断手段、
前記移動体が移動中に前記移動体に設置されたカメラが生成した画像データを解析し、複数のフレームに亘ってフレーム内の同じ位置に写る非移動対象を検出する非移動対象検出手段、
前記非移動対象検出手段が検出した一つ以上の前記非移動対象の内の何れか一つ以上の大きさを用いて視野状態を評価し、評価値が所定の範囲となる場合に、汚れ有りの状態を検出する汚れ検出手段、
前記汚れ検出手段が汚れ有りの状態を検出すると、その旨を示す情報を出力する報知手段、
として機能させるためのプログラムが提供される。
Also, according to one embodiment of the present invention,
Computer
Determining means for determining whether or not the moving object is moving;
Non-moving object detection means for analyzing image data generated by a camera installed on the moving object while the moving object is moving, and detecting a non-moving object appearing at the same position in the frame over a plurality of frames;
The visual field state is evaluated using any one or more sizes of the one or more non-moving objects detected by the non-moving object detection means, and there is contamination when the evaluation value falls within a predetermined range. Dirt detection means for detecting the state of
When the dirt detection means detects a state with dirt, a notification means for outputting information indicating that,
A program for functioning as a server is provided.

本発明によれば、カメラやカメラが設置された移動体に付着した汚れを検出する新たな手段が提供される。   ADVANTAGE OF THE INVENTION According to this invention, the new means which detects the stain | pollution | contamination adhering to the mobile body in which the camera and the camera were installed is provided.

本実施形態の解析装置のハードウエア構成の一例を概念的に示す図である。It is a figure which shows notionally an example of the hardware constitutions of the analyzer of this embodiment. 本実施形態の作用効果を説明するための図である。It is a figure for demonstrating the effect of this embodiment. 本実施形態の解析装置の機能ブロック図の一例を示す図である。It is a figure which shows an example of the functional block diagram of the analyzer of this embodiment. 本実施形態の非移動対象検出部の処理の一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of the process of the non-movement object detection part of this embodiment. 本実施形態の解析装置の処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a process of the analyzer of this embodiment. 本実施形態の解析装置の機能ブロック図の一例を示す図である。It is a figure which shows an example of the functional block diagram of the analyzer of this embodiment. 本実施形態の解析装置の機能ブロック図の一例を示す図である。It is a figure which shows an example of the functional block diagram of the analyzer of this embodiment. 本実施形態の解析装置を自動車に取り付けた例を示す概念図である。It is a conceptual diagram which shows the example which attached the analyzer of this embodiment to the motor vehicle. 本実施形態の解析装置の機能ブロック図の一例を示す図である。It is a figure which shows an example of the functional block diagram of the analyzer of this embodiment.

まず、本実施形態の装置のハードウエア構成の一例について説明する。本実施形態の装置が備える各部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされたプログラム、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インタフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。なお、ここでプログラムとは、あらかじめ装置を出荷する段階からメモリ内に格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムも含む。   First, an example of the hardware configuration of the apparatus according to the present embodiment will be described. Each unit included in the apparatus according to the present embodiment includes a CPU (Central Processing Unit) of an arbitrary computer, a memory, a program loaded in the memory, a storage unit such as a hard disk for storing the program, and a network connection interface. And any combination of software. It will be understood by those skilled in the art that there are various modifications to the implementation method and apparatus. Here, the program includes a program downloaded from a storage medium such as a CD (Compact Disc), a server on the Internet, and the like in addition to a program stored in the memory in advance from the stage of shipping the apparatus.

図1は、本実施形態における解析装置10のハードウエア構成例を概念的に示す図である。解析装置10は、いわゆるコンピュータであり、相互にバス6Aで接続される、CPU(Central Processing Unit)1A、メモリ2A、入出力インタフェース(I/F)3A、通信装置4A、カメラ5A等を有する。メモリ2Aは、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、可搬型記憶媒体等である。   FIG. 1 is a diagram conceptually illustrating a hardware configuration example of an analysis apparatus 10 in the present embodiment. The analysis device 10 is a so-called computer, and includes a CPU (Central Processing Unit) 1A, a memory 2A, an input / output interface (I / F) 3A, a communication device 4A, a camera 5A, and the like that are connected to each other via a bus 6A. The memory 2A is a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk, a portable storage medium, or the like.

入出力I/F3Aは、表示装置(図示せず)、入力装置(図示せず)、車両制御装置(図示せず)等のような装置と接続され得る。通信装置4Aは、ネットワーク(図示せず)を介して他の装置と通信を行う。カメラ5Aは、いわゆる動画像を撮影可能に構成される。なお、カメラ5Aは、固定焦点カメラであってもよい。本実施形態は、解析装置10のハードウエア構成を制限しない。   The input / output I / F 3A can be connected to a device such as a display device (not shown), an input device (not shown), a vehicle control device (not shown), or the like. The communication device 4A communicates with other devices via a network (not shown). The camera 5A is configured to be able to take a so-called moving image. The camera 5A may be a fixed focus camera. The present embodiment does not limit the hardware configuration of the analysis apparatus 10.

以下、本実施の形態について説明する。なお、以下の実施形態の説明において利用する機能ブロック図は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。これらの図においては、各装置は1つの機器により実現されるよう記載されているが、その実現手段はこれに限定されない。すなわち、物理的に分かれた構成であっても、論理的に分かれた構成であっても構わない。なお、同一の構成要素には同一の符号を付し、適宜説明を省略する。   Hereinafter, this embodiment will be described. Note that the functional block diagram used in the following description of the embodiment shows functional unit blocks rather than hardware unit configurations. In these drawings, each device is described as being realized by one device, but the means for realizing it is not limited to this. That is, it may be a physically separated configuration or a logically separated configuration. In addition, the same code | symbol is attached | subjected to the same component and description is abbreviate | omitted suitably.

<第1の実施形態>
まず、本実施形態の概要について説明する。自動車等の移動体に設置されたカメラで移動体の外部を連続的に撮影した画像データにおいては、以下の特徴が存在する。
<First Embodiment>
First, an outline of the present embodiment will be described. Image data obtained by continuously photographing the outside of a moving body with a camera installed on the moving body such as an automobile has the following characteristics.

「複数のフレームを比較すると、そこに写っている大多数の対象の種類(例:前方車両、歩行者等)やその態様(例:フレーム内の位置、大きさ、形状等)は互いに異なる。しかし、カメラや移動体に付着した汚れに起因して写っている対象は、複数のフレームに亘って写っており、その態様(例:フレーム内の位置、大きさ、形状等)はほとんど変化しない。」 “When a plurality of frames are compared, the types of objects (e.g., forward vehicles, pedestrians, etc.) and their modes (e.g., position, size, shape, etc. within the frames) appear different from each other. However, an object that is captured due to dirt attached to the camera or moving object is captured over a plurality of frames, and its mode (eg, position, size, shape, etc. within the frame) hardly changes. . "

なお、「フレーム」は、動画を構成する複数の静止画各々を意味する。以下、フレーム各々のデータを、「フレームデータ」という。そして、複数のフレームデータのまとまりを「画像データ」という。   Note that “frame” means each of a plurality of still images constituting a moving image. Hereinafter, the data of each frame is referred to as “frame data”. A group of a plurality of frame data is called “image data”.

具体例を用いて上記特徴を説明する。図2は、自動車(移動体)に設置されたカメラで、自動車のフロントガラス越しに前方を撮影した前方画像の模式図である。図2(a)は、第1のタイミングで撮影されたフレームであり、図2(b)は、その直後の第2のタイミングで撮影されたフレームである。   The above features will be described using a specific example. FIG. 2 is a schematic diagram of a front image obtained by photographing the front through the windshield of the automobile with a camera installed in the automobile (moving body). FIG. 2A shows a frame shot at the first timing, and FIG. 2B shows a frame shot at the second timing immediately after that.

図2(a)のフレームにおいては、前方を走る前方車両101、白線102−1乃至102−4、街路樹103−1及び103−2が写っている。また、前方車両101の背面に被る位置に、フロントガラスに付着した汚れに起因した非移動対象200が写っている。なお、汚れに起因した非移動対象200は、汚れそのものであってもよいし、汚れに起因してボヤケタ部分であってもよい。   In the frame of FIG. 2A, the forward vehicle 101 running ahead, the white lines 102-1 to 102-4, and the street trees 103-1 and 103-2 are shown. In addition, the non-moving object 200 caused by dirt attached to the windshield is shown at a position covering the back surface of the forward vehicle 101. Note that the non-moving target 200 due to the dirt may be the dirt itself, or may be a blurred part due to the dirt.

一方、図2(b)のフレームにおいては、前方を走る前方車両101、白線102−2乃至102−4、街路樹103−1及び103−2が写っている。また、前方車両101の背面及び道路に被る位置に、フロントガラスに付着した汚れに起因した非移動対象200が写っている。   On the other hand, in the frame of FIG. 2B, the forward vehicle 101 running ahead, the white lines 102-2 to 102-4, and the street trees 103-1 and 103-2 are shown. Moreover, the non-moving object 200 resulting from the dirt adhering to the windshield is shown on the back of the forward vehicle 101 and the position on the road.

図2(a)と図2(b)のフレームを比較すると、例えば、図2(a)では白線102−1が写っているが、図2(b)ではこれが写っていないことが分かる。また、図2(a)で写っている前方車両101の形状(撮影画像内の形状)と、図2(b)で写っている前方車両101の形状(撮影画像内の形状)とが互いに異なることが分かる。さらに、図2(a)で写っている街路樹103−1及び街路樹103−2のフレーム内の位置と、図2(b)で写っている街路樹103−1及び街路樹103−2のフレーム内の位置とが互いに異なることが分かる。このように、移動体の移動(第1のタイミングから第2のタイミングまでの移動)に伴い、フレーム内に写っている大多数の対象の種類及び/又はその態様は変化する。   Comparing the frames of FIG. 2A and FIG. 2B, it can be seen that, for example, the white line 102-1 is shown in FIG. 2A, but this is not shown in FIG. 2B. Further, the shape of the forward vehicle 101 shown in FIG. 2A (the shape in the captured image) is different from the shape of the forward vehicle 101 reflected in FIG. 2B (the shape in the captured image). I understand that. Further, the positions of the street trees 103-1 and 103-2 shown in FIG. 2A in the frame, and the street trees 103-1 and 103-2 shown in FIG. It can be seen that the positions in the frame are different from each other. Thus, with the movement of the moving body (movement from the first timing to the second timing), the types and / or modes of the majority of objects shown in the frame change.

しかし、フロントガラスに付着した汚れに起因した非移動対象200(カメラや移動体に付着した汚れに起因してフレーム内に写っている対象)は、図2(a)及び図2(b)両方のフレームに写っており、また、その態様(例:フレーム内の位置、大きさ、形状等)はほとんど同じである。   However, the non-moving object 200 (the object reflected in the frame due to the dirt adhering to the camera or the moving body) due to the dirt adhering to the windshield is both in FIG. 2 (a) and FIG. 2 (b). The mode (e.g. position, size, shape, etc. in the frame) is almost the same.

このような特徴は、移動体の移動に伴い、大多数の対象は移動体との相対的な位置関係、より詳細には移動体に設置されたカメラとの相対的な位置関係が変化するが、移動体に設置されたカメラや移動体そのものに付着した汚れは、移動体及び移動体に設置されたカメラとの相対的な位置関係が変化しないことに起因する。   Such a feature is that as the moving body moves, the relative position of the majority of the objects changes with the moving body, and more specifically, the relative positional relation with the camera installed on the moving body changes. The dirt attached to the camera installed on the moving body or the moving body itself is due to the fact that the relative positional relationship between the moving body and the camera installed on the moving body does not change.

本実施形態の解析装置は当該特徴に基づき、複数のフレームに亘ってフレーム内の同じ位置に写っている対象を検出することで、カメラや移動体に付着した汚れを検出するよう構成されている。   Based on this feature, the analysis device of the present embodiment is configured to detect dirt attached to the camera or the moving body by detecting an object appearing at the same position in the frame over a plurality of frames. .

ところで、カメラや移動体に付着した汚れの中には、カメラで生成した画像データを利用する所定の処理(例:車線逸脱判定等)に影響を与え得る深刻なものもあれば、当該所定の処理にあまり影響を与えないものも存在する。前者を検出した場合、ユーザに報知する、汚れを取り除く処理を実行する、影響を受ける処理を停止する等の対応を行うことが好ましい。しかし、後者の場合、無視しても問題ない。いずれの汚れを検出した場合にも、上述のような対応を行うようにした場合、不要な対応を行うこととなり好ましくない。   By the way, some of the dirt adhering to the camera or the moving body may seriously affect a predetermined process (eg, lane departure determination) using the image data generated by the camera. There are some that do not affect the processing so much. When the former is detected, it is preferable to take measures such as notifying the user, executing a process for removing dirt, and stopping the affected process. However, in the latter case, it can be safely ignored. When any of the stains is detected, if the above-described countermeasure is performed, an unnecessary countermeasure is performed, which is not preferable.

そこで、本実施形態の解析装置は、複数のフレームに亘ってフレーム内の同じ位置に写っている非移動対象を検出すると、検出した非移動対象の大きさに基づいて視野状態(所定の処理に与える影響の度合い)を評価する。そして、本実施形態の解析装置は、評価結果が所定の範囲となる場合に、「汚れ有りの状態」と判定する。すなわち、本実施形態の解析装置が検出する状態(汚れ有りの状態)は、複数のフレームに亘ってフレーム内の同じ位置に写る非移動対象が検出され、かつ、その大きさを用いた視野状態の評価結果が所定の範囲となる状態である。非移動対象を検出した場合であっても、視野状態(所定の処理に与える影響の度合い)の評価結果が所定の範囲でない状態は、検出対象外である。   Therefore, when the analysis apparatus of the present embodiment detects a non-moving object that is captured at the same position in a frame over a plurality of frames, the visual field state (predetermined processing is performed) based on the size of the detected non-moving object. The degree of impact). Then, when the evaluation result falls within a predetermined range, the analysis apparatus according to the present embodiment determines that the “contaminated state”. That is, the state detected by the analysis apparatus of the present embodiment (the state with dirt) is a non-moving object that is captured at the same position in a frame over a plurality of frames, and a visual field state using the size. This is a state where the evaluation result is within a predetermined range. Even when a non-moving target is detected, a state where the evaluation result of the visual field state (degree of influence on predetermined processing) is not within the predetermined range is out of the detection target.

なお、汚れ有りの状態(splashed condition)とは、カメラのレンズ、若しくはフィルター(Photographic Filter)の表面に飛沫等が付着している状態、又は、カメラがフロントガラスの内側に配置されている場合は、フロントガラスの内側若しくは外側に、 一定量以上の飛沫等が付着している状態等を指す。雨滴、泥水、結露、は飛沫等の例であるが、これに限らない。一般的な汚れ、ホコリ、或いは木の葉等の物体であっても、本発明の技術思想は適応が可能であり、本願発明における、飛沫等に含まれる。また、飛沫等が付着する対象としては、上述した例に限らない。カメラの撮像対象とカメラを結ぶ光学経路の間に位置し、カメラが搭載される移動体と共に移動し、光を透過若しくは反射して撮像対象から来る光をカメラに導く物体は、何れもが本願発明における飛沫等が付着する対象として想定される。   Note that the splashed condition means that the surface of the camera lens or filter (Photographic Filter) is splashed or the camera is placed inside the windshield. It refers to the state where a certain amount or more of droplets are attached to the inside or outside of the windshield. Raindrops, muddy water, condensation are examples of splashes, but are not limited thereto. The technical concept of the present invention can be applied even to general objects such as dirt, dust, or leaves of trees, and is included in the droplets in the present invention. Further, the target to which the droplets or the like adhere is not limited to the above-described example. Any object that is located between the camera's imaging target and the optical path that connects the camera, moves with the moving body on which the camera is mounted, and transmits or reflects light to guide the light coming from the imaging target to the camera. It is assumed as a target to which droplets or the like in the invention are attached.

このような本実施形態の解析装置によれば、カメラや移動体に付着した汚れであって、カメラで生成した画像データを利用する所定の処理(例:車線逸脱判定等)に影響を与え得る汚れを検出することができる。   According to the analysis apparatus of the present embodiment as described above, dirt attached to the camera or the moving body may affect a predetermined process (eg, lane departure determination) using image data generated by the camera. Dirt can be detected.

次に、本実施形態の構成について詳細に説明する。図3に、本実施形態の解析装置10の機能ブロック図の一例を示す。図示するように、解析装置10は、カメラ11と、判断部12と、非移動対象検出部13と、汚れ検出部14と、報知部15とを有する。以下、各部について説明する。   Next, the configuration of the present embodiment will be described in detail. FIG. 3 shows an example of a functional block diagram of the analysis apparatus 10 of the present embodiment. As illustrated, the analysis apparatus 10 includes a camera 11, a determination unit 12, a non-moving target detection unit 13, a dirt detection unit 14, and a notification unit 15. Hereinafter, each part will be described.

カメラ11は、移動体に設置される。また、カメラ11は、いわゆる動画像を撮影可能に構成される。このようなカメラ11の構成は特段制限されず、従来のあらゆる構成を採用することができる。例えば、カメラ11は、固定焦点カメラであってもよい。カメラ11は、リアルタイム処理で、連続的に画像データを生成し、生成した画像データを以下で説明する非移動対象検出部13に入力する。なお、移動体は、例えば、自動車、貨物自動車、自動二輪車等が該当するが、これらに限定されない。   The camera 11 is installed on a moving body. Further, the camera 11 is configured to be able to take a so-called moving image. Such a configuration of the camera 11 is not particularly limited, and any conventional configuration can be adopted. For example, the camera 11 may be a fixed focus camera. The camera 11 continuously generates image data by real-time processing, and inputs the generated image data to the non-moving target detection unit 13 described below. In addition, although a mobile body corresponds to a motor vehicle, a cargo vehicle, a motorcycle etc., for example, it is not limited to these.

判断部12は、移動体が移動中か否かを判断する。以下、判断部12による判断手段の一例を説明するが、これに限定されない。   The determination unit 12 determines whether or not the moving body is moving. Hereinafter, although an example of the determination means by the determination part 12 is demonstrated, it is not limited to this.

例えば、判断部12は加速度センサを保持しておいてもよい。そして、判断部12は、当該加速度センサの測定結果に基づき、所定の時間ごとに(例:0.5秒毎、1秒ごと、5秒毎、10秒毎等)、移動体が移動中か否かを判断してもよい。その他、移動中か否かを判断する機能を移動体が備えている場合、判断部12は、移動体から所定の時間ごとに移動体の判断結果(例:移動中又は停止中)を取得してもよい。そして、判断部12は、移動体の判断結果を解析することで、移動体が移動中か否かを判断してもよい。   For example, the determination unit 12 may hold an acceleration sensor. Based on the measurement result of the acceleration sensor, the determination unit 12 determines whether the moving body is moving at predetermined time intervals (eg, every 0.5 seconds, every 1 second, every 5 seconds, every 10 seconds, etc.). It may be determined whether or not. In addition, when the moving body has a function of determining whether or not it is moving, the determination unit 12 obtains a determination result (eg, moving or stopped) of the moving body from the moving body every predetermined time. May be. Then, the determination unit 12 may determine whether or not the moving body is moving by analyzing the determination result of the moving body.

判断部12は、リアルタイム処理で、以下で説明する非移動対象検出部13に判断結果(例:移動中又は停止中)を入力する。   The determination unit 12 inputs a determination result (for example, moving or stopped) to the non-moving target detection unit 13 described below in real time processing.

カメラ11が搭載される移動体が移動中である際には、移動体の周囲の物体や風景は、カメラ11からみて常に移動しているように見える。この中で、非移動対象検出部13は、移動体が移動中にカメラ11が生成した画像データを解析し、複数のフレームに亘ってフレーム内の同じ位置に写る非移動対象を検出する。具体的には、非移動対象検出部13は、カメラ11からリアルタイム処理で画像データ(複数のフレームデータ)を取得すると、取得した複数のフレームデータに対して順に以下の(ステップ1)乃至(ステップ4)の処理を行う。なお、非移動対象検出部13は、取得したすべてのフレームデータに対して以下の処理を行ってもよいし、予め定められた所定フレーム数毎のフレームデータに対してのみ以下の処理を行ってもよい。   When the moving body on which the camera 11 is mounted is moving, objects and scenery around the moving body appear to always move as viewed from the camera 11. Among these, the non-moving target detection unit 13 analyzes the image data generated by the camera 11 while the moving body is moving, and detects a non-moving target that appears at the same position in the frame over a plurality of frames. Specifically, when the non-moving target detection unit 13 acquires image data (a plurality of frame data) from the camera 11 by real time processing, the following (Step 1) to (Step) are sequentially performed on the acquired plurality of frame data. The process of 4) is performed. The non-moving target detection unit 13 may perform the following process on all acquired frame data, or perform the following process only on frame data for each predetermined number of frames. Also good.

(ステップ1)処理対象のフレームデータが、移動体が移動中に生成されたものか否かの判定を行う。
(ステップ2)移動体が移動中に生成されたものである場合、そのフレームに写っている対象を抽出する。なお、移動体が移動中に生成されたものでない場合、次のフレームデータを処理対象として、(ステップ1)の処理を行う。
(ステップ3)抽出した対象各々のフレーム内の位置情報、及び、その他の特徴(例:形状、大きさ等)を算出する。
(ステップ4)算出した位置情報及びその他の特徴と、その以前のフレームデータに対する算出結果とを利用して、複数のフレームに亘ってフレーム内の同じ位置に写る非移動対象を検出する。
(Step 1) It is determined whether or not the frame data to be processed is generated while the moving body is moving.
(Step 2) If the moving object is generated while moving, the object shown in the frame is extracted. If the moving object is not generated during movement, the process of (Step 1) is performed on the next frame data as a processing target.
(Step 3) The position information in the frame of each extracted object and other characteristics (eg, shape, size, etc.) are calculated.
(Step 4) Using the calculated position information and other features, and the calculation result for the previous frame data, a non-moving object that is captured at the same position in the frame over a plurality of frames is detected.

以下、各ステップについて順に説明する。   Hereinafter, each step will be described in order.

ステップ1では、非移動対象検出部13は、処理対象のフレームデータが、移動体が移動中に生成されたものか否かの判定を行う。当該判定は、判断部12による判断結果を利用してなされる。その詳細としては様々な態様が存在し得るが、本実施形態の非移動対象検出部13はそのあらゆる態様を採用できる。以下、一例を説明するがこれに限定されない。   In step 1, the non-moving target detection unit 13 determines whether the processing target frame data is generated while the moving body is moving. This determination is made using the determination result by the determination unit 12. Although various modes may exist as the details, the non-moving target detection unit 13 of the present embodiment can adopt all the modes. An example will be described below, but the present invention is not limited to this.

例えば、非移動対象検出部13は、判断部12から所定の時間ごとに(例:0.5秒毎、1秒ごと、5秒毎、10秒毎等)取得する判断結果(例:移動中又は停止中)に基づいて、最新の移動体の状態(例:移動中又は停止中)を管理しておく。例えば、最新の移動体の状態(例:移動中又は停止中)を示すフラグを、判断部12から取得する判断結果(例:移動中又は停止中)に基づいて継続的に更新することで、最新の移動体の状態(例:移動中又は停止中)を管理しておいてもよい。   For example, the non-moving target detection unit 13 obtains a determination result (e.g., moving) every predetermined time from the determination unit 12 (e.g., every 0.5 seconds, every 1 second, every 5 seconds, every 10 seconds, etc.). Or, the latest state of the moving body (eg, moving or stopped) is managed on the basis of For example, by continuously updating the flag indicating the latest state of the moving body (e.g. moving or stopped) based on the determination result (e.g. moving or stopped) acquired from the determination unit 12, The latest state of the moving body (eg, moving or stopped) may be managed.

そして、非移動対象検出部13は、処理対象のフレームデータに、当該フレームデータに関する所定のタイミング(例:カメラ11から取得したタイミング、ステップ1の処理対象として特定したタイミング等)における上記「最新の移動体の状態」を対応付ける。   Then, the non-moving target detection unit 13 adds to the frame data to be processed the “latest latest information at a predetermined timing related to the frame data (eg, timing acquired from the camera 11, timing specified as the processing target in Step 1, etc.). Corresponds to the state of the moving object.

ステップ2では、処理対象のフレームデータが、移動体が移動中に生成されたものである場合、そのフレームに写っている対象を抽出する。当該抽出は、従来のあらゆる技術を利用して実現できる。以下、一例を説明するがこれに限定されない。   In step 2, if the frame data to be processed is generated while the moving object is moving, the object shown in the frame is extracted. The extraction can be realized using any conventional technique. An example will be described below, but the present invention is not limited to this.

例えば、解析部12は、処理対象のフレームに対して、エッジ検出処理を行う。そして、判断部12は、エッジで囲まれたエリアを、対象が写っているエリアとして特定する。   For example, the analysis unit 12 performs edge detection processing on the processing target frame. And the judgment part 12 specifies the area enclosed by the edge as an area where the object is reflected.

ステップ3では、抽出した対象各々のフレーム内の位置情報、及び、その他の特徴(例:形状、大きさ等を示す特徴量)を算出する。   In step 3, position information in the frame of each extracted object and other features (eg, feature quantities indicating shape, size, etc.) are calculated.

位置情報の表現手法は様々であるが、例えば、各対象が占めるエリアの中の任意の数の任意の位置から求まる代表値を、その対象の位置情報としてもよい。任意の位置は、例えば、各対象が占めるエリアA(図4参照)の中の中心点、左端の点A1、右端の点A2、上端の点A3、下端の点A4等であってもよい。   There are various methods for expressing the position information. For example, a representative value obtained from an arbitrary number of arbitrary positions in the area occupied by each target may be used as the position information of the target. The arbitrary position may be, for example, the center point in the area A (see FIG. 4) occupied by each object, the left end point A1, the right end point A2, the upper end point A3, the lower end point A4, and the like.

当該ステップで算出されるその他の特徴は、第1のフレームに写っている対象と、第2のフレームに写っている対象の同一性を判断するために利用することができる。このような処理を実現できれば、当該ステップで算出する「その他の特徴」をどのような種類としてもよい。例えば、対象の形状、対象の大きさ等が考えられる。このようなその他の特徴を算出する手段は、従来技術に準じて実現できるので、ここでの説明は省略する。   The other characteristics calculated in this step can be used to determine the identity of the object shown in the first frame and the object shown in the second frame. As long as such processing can be realized, the “other features” calculated in this step may be of any type. For example, the shape of the object, the size of the object, etc. can be considered. Such means for calculating other characteristics can be realized in accordance with the prior art, and therefore the description thereof is omitted here.

ステップ4では、算出した位置情報及びその他の特徴と、その以前のフレームデータに対する算出結果(位置情報及びその他の特徴)とを利用して、複数のフレームに亘ってフレーム内の同じ位置に写る非移動対象を検出する。   In step 4, using the calculated position information and other features and the calculation results (position information and other features) for the previous frame data, the non-images appearing at the same position in the frame over a plurality of frames. Detect moving objects.

当該検出は、処理対象のフレームデータから抽出した対象の位置情報及びその他の特徴と、それ以前のフレームデータから抽出した対象の位置情報及びその他の特徴とを比較し、位置情報及びその他の特徴が一致する又はその差が所定値以内である対象を特定することで、実現できる。以下で、フローチャートを用いて詳細な処理の流れの一例を説明するが、当該ステップの処理の流れはそこで説明するものに限定されない。   The detection compares the position information and other features of the target extracted from the frame data to be processed with the position information and other features of the target extracted from the previous frame data, and the position information and other features are compared. This can be realized by specifying an object that matches or whose difference is within a predetermined value. Hereinafter, an example of a detailed processing flow will be described with reference to a flowchart, but the processing flow of the step is not limited to that described here.

以上説明したステップ1乃至ステップ4により、複数(数は設計的事項)のフレームに亘ってフレーム内の同じ位置に写る非移動対象が検出される。なお、互いに分離した複数の非移動対象が存在する場合、非移動対象検出部13は複数の非移動対象を検出することができる。   Through Steps 1 to 4 described above, non-moving objects appearing at the same position in the frame are detected over a plurality of frames (the number is a design matter). When there are a plurality of non-moving objects separated from each other, the non-moving object detection unit 13 can detect a plurality of non-moving objects.

汚れ検出部14は、非移動対象検出部13が検出した一つ以上の非移動対象の内の何れか一つ以上の大きさを用いて視野状態を評価する。そして、汚れ検出部14は、評価値が所定の範囲となる場合に、汚れ有りの状態を検出する。   The dirt detection unit 14 evaluates the visual field state using one or more sizes of one or more non-moving targets detected by the non-moving target detection unit 13. And the dirt detection part 14 detects the state with dirt, when an evaluation value becomes a predetermined range.

視野状態は、カメラ11からの視野状態であり、フレーム内に存在する汚れに起因した非移動対象が大きいほど、視野状態は悪いということになる。汚れ検出部14は、例えば、以下のような手法で、視野状態を評価することができる。   The visual field state is a visual field state from the camera 11, and the larger the non-moving target due to the dirt existing in the frame, the worse the visual field state. The dirt detection unit 14 can evaluate the visual field state by the following method, for example.

(手法1)非移動対象の面積
本手法の場合、非移動対象の面積が評価値となる。非移動対象の面積は、例えば、非移動対象が占めるピクセル数で表現することができる。非移動対象検出部13が複数の非移動対象を検出している場合、それらすべての面積の合計を評価値としてもよいし、または、非移動対象各々の面積の統計値(例:最大値、平均値等)としてもよい。
(Method 1) Area of non-moving target In the case of this method, the area of the non-moving target is an evaluation value. The area of the non-moving object can be expressed by, for example, the number of pixels occupied by the non-moving object. When the non-moving object detection unit 13 detects a plurality of non-moving objects, the sum of all the areas may be used as an evaluation value, or a statistical value of each area of the non-moving objects (eg, maximum value, It may be an average value).

(手法2)ラスタスキャンした場合に非移動対象に係る部分の長さ
本手法の場合、非移動対象に係る部分の長さが評価値となる。例えば、行毎に非移動対象に係る部分(非移動対象が占有している部分)の長さを算出し、それらの総数を評価値としてもよい。長さは、例えば、ピクセル数で表現することができる。なお、ラスタスキャンはすべての行に対して実施するのでなく、所定の行間隔で実施してもよい。
(Method 2) Length of the portion related to the non-moving target when raster scanning is performed In the case of this method, the length of the portion related to the non-moving target is the evaluation value. For example, the length of the portion related to the non-moving target (the portion occupied by the non-moving target) may be calculated for each row, and the total number thereof may be used as the evaluation value. The length can be expressed by the number of pixels, for example. The raster scan may not be performed for all rows but may be performed at a predetermined line interval.

(手法3)カメラ11が取り込んだ光量値等
汚れが存在する場合、汚れが存在しない場合に比べて、カメラ11が取り込める光量が少なくなる。また、汚れが大きいほど、カメラ11が取り込める光量が少なくなる。そこで、所定の光源で所定の強さの光を発した時に、カメラ11が取り込んだ光量値に基づいて、非移動対象の大きさを評価することができる。本手法の場合、所定の光源で所定の強さの光を発した時にカメラ11が取り込んだ光量値、又は、この光量値から算出される値が評価値となる。
(Method 3) Light quantity value captured by the camera 11 When the dirt is present, the light quantity that the camera 11 can capture is less than when the dirt is not present. In addition, the greater the dirt, the less light that the camera 11 can capture. Therefore, when light of a predetermined intensity is emitted from a predetermined light source, the size of the non-moving target can be evaluated based on the light amount value captured by the camera 11. In the case of this method, the evaluation value is a light amount value captured by the camera 11 when a predetermined light source emits light having a predetermined intensity, or a value calculated from this light amount value.

例えば、解析装置10は、所定の光源、及び、カメラ11への外光の侵入を遮蔽する遮蔽機構を備えていてもよい。遮蔽機構は、開閉制御自在に構成されていてもよい。そして、汚れ検出部14は、評価値を評価する際、遮蔽機構を制御し、カメラ11への外光の侵入を遮蔽する。そして、光源を制御して、予め定められた所定の強さの光を発光させる。その後、汚れ検出部14は、カメラ11が取り込んだ光量値を取得する。汚れ検出部14は、この光量値を評価値としてもよいし、所定の基準値との比較値(例:差、割合等)等を評価値としてもよい。   For example, the analysis apparatus 10 may include a predetermined light source and a shielding mechanism that shields intrusion of external light into the camera 11. The shielding mechanism may be configured to be openable / closable. When the evaluation value is evaluated, the dirt detection unit 14 controls the shielding mechanism to shield the intrusion of external light into the camera 11. Then, the light source is controlled to emit light having a predetermined intensity. Thereafter, the dirt detection unit 14 acquires the light amount value captured by the camera 11. The dirt detection unit 14 may use the light amount value as an evaluation value, or may use a comparison value (eg, difference, ratio, etc.) with a predetermined reference value as an evaluation value.

(手法4)非移動対象の縦の長さ、及び/又は、横の長さ
本手法の場合、非移動対象の縦の長さ、及び/又は、横の長さが評価値となる。なお、非移動対象の形状は不規則なものとなりやすい。以下、非移動対象の縦及び横の長さの定義の一例について説明する。例えば、非移動対象の縦方向の広がりが最も大きい部分の長さを縦の長さとし、横方向の広がりが最も大きい部分の長さを横の長さとしてもよい。その他、非移動対象Aの上端点(図4のA3)から下端点(図4のA4)までの縦方向の長さを縦の長さとし、左端点(図4のA1)から右端点(図4のA2)までの横方向の長さを横の長さとしてもよい。長さは、例えば、ピクセル数で表現することができる。
(Method 4) Vertical length and / or horizontal length of non-moving target In the case of this method, the vertical length and / or horizontal length of the non-moving target is an evaluation value. Note that the shape of the non-moving target tends to be irregular. Hereinafter, an example of the definition of the vertical and horizontal lengths of the non-moving target will be described. For example, the length of the portion of the non-moving target that has the largest spread in the vertical direction may be the vertical length, and the length of the portion that has the largest spread in the horizontal direction may be the horizontal length. In addition, the vertical length from the upper end point (A3 in FIG. 4) to the lower end point (A4 in FIG. 4) of the non-moving object A is the vertical length, and the left end point (A1 in FIG. 4) to the right end point (see FIG. 4). The horizontal length up to A2) of 4 may be the horizontal length. The length can be expressed by the number of pixels, for example.

非移動対象検出部13が複数の非移動対象を検出している場合、それらすべての縦の長さの合計、及び/又は、横の長さの合計を評価値としてもよいし、または、非移動対象各々の縦の長さ、及び/又は、横の長さの統計値(例:最大値、平均値等)を評価値としてもよい。   When the non-moving object detection unit 13 detects a plurality of non-moving objects, the sum of all the vertical lengths and / or the total of the horizontal lengths may be used as the evaluation value, or A statistical value (eg, maximum value, average value, etc.) of the vertical length and / or horizontal length of each moving object may be used as the evaluation value.

汚れ検出部14は、例えば、以上のような手法で、評価値を算出することができる。なお、汚れ検出部14は、予め、汚れ有りの状態と判定する評価値の範囲を保持している。そして、汚れ検出部14は、上記手法で算出した評価値と、当該所定の範囲とを比較することで、評価値が所定の範囲内であるか否かを判定する。判定の結果、評価値が所定の範囲内である場合、汚れ検出部14は汚れ有りの状態を検出する。   The dirt detection unit 14 can calculate the evaluation value by the above-described method, for example. Note that the dirt detection unit 14 holds in advance a range of evaluation values that are determined to be dirty. Then, the dirt detection unit 14 determines whether or not the evaluation value is within the predetermined range by comparing the evaluation value calculated by the above method with the predetermined range. As a result of the determination, when the evaluation value is within a predetermined range, the dirt detection unit 14 detects a state with dirt.

なお、汚れ有りの状態と判定する評価値の範囲は、例えば、評価値と、各評価値の状態時の画像データに基づいて所定の処理(例:車線逸脱判定等)を実行した時の所定の処理の精度との関係を予め分析し、その分析結果に基づいて決定してもよい。   Note that the range of the evaluation value determined to be a dirty state is, for example, a predetermined value when a predetermined process (eg, lane departure determination) is executed based on the evaluation value and image data at the time of each evaluation value state. The relationship with the accuracy of the process may be analyzed in advance and determined based on the analysis result.

報知部15は、汚れ検出部14が汚れ有りの状態を検出すると、その旨を示す情報を出力する。出力手段は特段制限されず、警告ランプの点灯、スピーカを介した警告音の出力、解析装置10と繋がったディスプレイ(例:車載ディスプレイ)を介した情報の出力等が考えられるが、これらに限定されない。   When the dirt detection unit 14 detects a state with dirt, the notification unit 15 outputs information indicating that fact. The output means is not particularly limited, and lighting of a warning lamp, output of a warning sound via a speaker, output of information via a display connected to the analysis device 10 (for example, an in-vehicle display), and the like can be considered. Not.

次に、図5に示すフローチャートを用いて、本実施形態の解析方法の処理の流れの一例を説明する。   Next, an example of the processing flow of the analysis method of this embodiment will be described using the flowchart shown in FIG.

まず、非移動対象検出部13は、カメラ11が生成した画像データの中から、最初の第1のフレームデータを取得する(S101)。次に、非移動対象検出部13は、その第1のフレームデータが、移動体の移動中に生成されたものか否か判定する(S102)。ここでの判定の詳細は、上述の通りである。   First, the non-moving target detection unit 13 acquires first first frame data from image data generated by the camera 11 (S101). Next, the non-moving target detection unit 13 determines whether or not the first frame data is generated while the moving body is moving (S102). The details of the determination here are as described above.

第1のフレームデータが、移動体の移動中に生成されたものでない場合(S102のNo)、非移動対象検出部13は次のフレームデータを取得する(S103)。そして、そのフレームデータに対して、S102の処理を行う。   When the first frame data is not generated during the movement of the moving body (No in S102), the non-moving target detection unit 13 acquires the next frame data (S103). Then, the process of S102 is performed on the frame data.

S102の判定結果が、「移動体の移動中に生成されたもの」である場合(S102のYes)、非移動対象検出部13は、そのフレームに写っている対象を抽出する(S104)。そして、抽出した対象各々のフレーム内の位置情報、及び、その他の特徴(例:形状、大きさ等)を算出する(S105)。S104及びS105の処理の詳細は、上述の通りである。   When the determination result in S102 is “generated during movement of the moving object” (Yes in S102), the non-moving target detection unit 13 extracts a target shown in the frame (S104). Then, position information within the frame of each extracted object and other characteristics (eg, shape, size, etc.) are calculated (S105). The details of the processing of S104 and S105 are as described above.

次に、非移動対象検出部13は、S104で抽出した対象を、非移動対象候補として登録し、各対象に繰り返し数(繰り返しフレーム数)「1」を対応付ける(S106)。なお、非移動対象候補には、S105で算出した位置情報及びその他の特徴を対応付けておく。   Next, the non-moving target detection unit 13 registers the target extracted in S104 as a non-moving target candidate, and associates the number of repetitions (the number of repeated frames) “1” with each target (S106). The non-movement target candidate is associated with the position information calculated in S105 and other features.

その後、非移動対象検出部13は次のフレームデータを取得する(S107)。そして、そのフレームデータが、移動体の移動中に生成されたものか否か判定する(S108)。ここでの判定の詳細は、上述の通りである。   Thereafter, the non-moving target detection unit 13 acquires the next frame data (S107). Then, it is determined whether or not the frame data is generated while the moving body is moving (S108). The details of the determination here are as described above.

S107で取得したフレームデータが、移動体の移動中に生成されたものでない場合(S108のNo)、非移動対象検出部13は次のフレームデータを取得する(S107)。そして、そのフレームデータに対して、S108の処理を行う。   When the frame data acquired in S107 is not generated during the movement of the moving body (No in S108), the non-moving target detection unit 13 acquires the next frame data (S107). Then, the process of S108 is performed on the frame data.

S108の判定結果が、「移動体の移動中に生成されたもの」である場合(S108のYes)、非移動対象検出部13は、そのフレームに写っている対象を抽出する(S109)。そして、抽出した対象各々のフレーム内の位置情報、及び、その他の特徴(例:形状、大きさ等)を算出する(S110)。S109及びS110の処理の詳細は、上述の通りである。   When the determination result in S108 is “generated during movement of the moving object” (Yes in S108), the non-moving object detection unit 13 extracts an object shown in the frame (S109). Then, position information within the frame of each extracted object and other characteristics (eg, shape, size, etc.) are calculated (S110). The details of the processing of S109 and S110 are as described above.

次に、非移動対象検出部13は、S109で抽出した対象の中から、1つを処理対象として特定する(S111)。そして、S111で特定した対象を、その時点で登録されている非移動対象候補と比較する(S112)。具体的には、S111で特定した対象の位置情報及びその他の特徴(例:形状、大きさ等)と、非移動対象候補の位置情報及びその他の特徴とを比較し、S111で特定した対象とマッチングする(一致する、又は、その差が所定の範囲内である)非移動対象候補があるか判定する。   Next, the non-moving target detection unit 13 identifies one of the targets extracted in S109 as a processing target (S111). Then, the target specified in S111 is compared with the non-moving target candidate registered at that time (S112). Specifically, the positional information and other characteristics (eg, shape, size, etc.) of the target specified in S111 are compared with the positional information and other characteristics of the non-moving target candidate, and the target specified in S111 It is determined whether there is a non-moving target candidate that matches (matches or has a difference within a predetermined range).

マッチングする非移動対象候補がある場合(S113のYes)、非移動対象検出部13は、その非移動対象候補の繰り返し数を「1」増やす(S114)。その後、S116に進む。   When there is a matching non-moving target candidate (Yes in S113), the non-moving target detection unit 13 increases the number of repetitions of the non-moving target candidate by “1” (S114). Thereafter, the process proceeds to S116.

一方、マッチングする非移動対象候補がない場合(S113のNo)、非移動対象検出部13は、S111で特定した対象を、非移動対象候補として登録し、繰り返し数「1」を対応付ける(S115)。そして、当該非移動対象候補に、S110で算出した位置情報及びその他の特徴を対応付ける。その後、S116に進む。   On the other hand, when there is no matching non-moving target candidate (No in S113), the non-moving target detecting unit 13 registers the target specified in S111 as a non-moving target candidate and associates the repetition number “1” (S115). . Then, the position information calculated in S110 and other features are associated with the non-moving target candidates. Thereafter, the process proceeds to S116.

S116では、S109で抽出された対象の中に、処理対象として特定されていない対象が残っているか判断する。残っている場合(S116のYes)、非移動対象検出部13は、他の対象を特定し(S117)、S112以降の処理を繰り返す。一方、残っていない場合(S116のNo)、今回のフレームデータに対する処理で繰り返し数が増えていない非移動対象候補を特定し、非移動対象候補から消去する(S118)。   In S116, it is determined whether there is any target that is not specified as a processing target among the targets extracted in S109. When remaining (Yes in S116), the non-moving target detection unit 13 specifies another target (S117), and repeats the processes after S112. On the other hand, if it does not remain (No in S116), a non-moving target candidate whose number of repetitions has not increased in the process for the current frame data is identified and deleted from the non-moving target candidate (S118).

次に、非移動対象検出部13は、非移動対象候補の中に、繰り返し数が所定の値以上のものが存在するか判定する(S119)。ない場合(S119のNo)、S107に戻り、処理を繰り返す。一方、ある場合(S119のYes)、非移動対象検出部13は、その非移動対象候補を、非移動対象として特定する。そして、汚れ検出部14は、特定された非移動対象の大きさを用いて、視野状態を評価する(S120)。視野状態の評価の詳細は、上述の通りである。   Next, the non-moving target detection unit 13 determines whether there are non-moving target candidates having a repetition count equal to or greater than a predetermined value (S119). If not (No in S119), the process returns to S107 and the process is repeated. On the other hand, if there is (Yes in S119), the non-moving target detection unit 13 identifies the non-moving target candidate as a non-moving target. Then, the dirt detection unit 14 evaluates the visual field state using the specified size of the non-moving target (S120). The details of the visual field state evaluation are as described above.

S120の評価値が所定の範囲内である場合、汚れ検出部14は、汚れ有りの状態を検出する(S121のYes)。そして、報知部15は、その検出に応じて、汚れ有りの状態を検出したことを示す情報を出力する(S122)。その後、S107に戻り、処理を繰り返す。一方、S120の評価値が所定の範囲内でない場合、汚れ検出部14は、汚れ有りの状態を検出しない(S121のNo)。その後、S107に戻り、処理を繰り返す。以降、任意のタイミングで処理を終了する入力がなされるまで、上記処理を繰り返す。   When the evaluation value in S120 is within the predetermined range, the dirt detection unit 14 detects a state with dirt (Yes in S121). And the alerting | reporting part 15 outputs the information which shows having detected the state with dirt according to the detection (S122). Then, it returns to S107 and repeats a process. On the other hand, when the evaluation value in S120 is not within the predetermined range, the dirt detection unit 14 does not detect a state with dirt (No in S121). Then, it returns to S107 and repeats a process. Thereafter, the above process is repeated until an input for terminating the process at an arbitrary timing is made.

以上説明した本実施形態の解析装置10によれば、移動体が移動中にカメラ11が生成した画像データを解析し、その結果として、複数のフレームに亘ってフレーム内の同じ位置に写る非移動対象を検出することができる。そして、本実施形態の解析装置10によれば、検出した一つ以上の非移動対象の内の何れか一つ以上の大きさを用いて視野状態を評価し、評価値が所定の範囲となる汚れ有りの状態を検出することができる。   According to the analysis device 10 of the present embodiment described above, the image data generated by the camera 11 while the moving body is moving is analyzed, and as a result, the non-moving image that appears in the same position in the frame over a plurality of frames. The object can be detected. Then, according to the analysis device 10 of the present embodiment, the visual field state is evaluated using any one or more sizes of the detected one or more non-moving objects, and the evaluation value falls within a predetermined range. A dirty state can be detected.

このような本実施形態の解析装置10によれば、カメラ11や移動体に付着した汚れであって、カメラ11で生成した画像データを利用する所定の処理(例:車線逸脱判定等)に影響を与え得る汚れを検出し、ユーザに報知することができる。結果、ユーザは汚れの存在を認識できる。このため、ユーザは当該汚れを取り除く等の処置を実行できる。   According to the analysis apparatus 10 of the present embodiment as described above, it is dirt that adheres to the camera 11 and the moving body, and affects predetermined processing (eg, lane departure determination, etc.) that uses image data generated by the camera 11. It is possible to detect a stain that can give a notification to the user. As a result, the user can recognize the presence of dirt. For this reason, the user can execute measures such as removing the dirt.

<第2の実施形態>
本実施形態の解析装置10は、汚れ有りの状態を検出すると、カメラ11が生成した画像データを利用して行う所定の処理(例:車線逸脱判定等)を停止させる。このため、非移動対象が写ったフレームを利用して画像認識などの処理を行い、誤った認識結果に基づいて所定の処理を実行してしまうという不都合を回避することができる。
<Second Embodiment>
When the analysis apparatus 10 according to the present embodiment detects a dirt state, the analysis apparatus 10 stops predetermined processing (eg, lane departure determination) performed using the image data generated by the camera 11. For this reason, it is possible to avoid the inconvenience of performing processing such as image recognition using a frame in which a non-moving object is captured and executing predetermined processing based on an erroneous recognition result.

次に、本実施形態の構成について詳細に説明する。図6に、本実施形態の解析装置10の機能ブロック図の一例を示す。図示するように、解析装置10は、カメラ11と、判断部12と、非移動対象検出部13と、汚れ検出部14と、報知部15と、実行部16と、制御部17とを有する。カメラ11、判断部12、非移動対象検出部13、汚れ検出部14及び報知部15の構成は第1の実施形態と同様である。以下、実行部16及び制御部17の構成について説明する。   Next, the configuration of the present embodiment will be described in detail. FIG. 6 shows an example of a functional block diagram of the analysis apparatus 10 of the present embodiment. As illustrated, the analysis apparatus 10 includes a camera 11, a determination unit 12, a non-moving target detection unit 13, a dirt detection unit 14, a notification unit 15, an execution unit 16, and a control unit 17. The configurations of the camera 11, the determination unit 12, the non-moving target detection unit 13, the dirt detection unit 14, and the notification unit 15 are the same as those in the first embodiment. Hereinafter, configurations of the execution unit 16 and the control unit 17 will be described.

実行部16は、カメラ11が生成した画像データを解析し、移動体の周囲に存在する対象物を特定し、特定した結果に応じて所定の処理を実行する。実行部16による処理内容は特段制限されない。   The execution unit 16 analyzes the image data generated by the camera 11 and specifies an object existing around the moving body, and executes predetermined processing according to the specified result. The processing content by the execution unit 16 is not particularly limited.

例えば、実行部16は、画像データを解析して、道路上の白線や、路肩、前方車両、歩行者等の対象物を特定してもよい。そして実行部16は、特定した対象物と移動体との位置関係等に基づいて、車線逸脱の判断、車線逸脱の警告、車線内位置を維持するためのステアリング操作の制御、移動体と対象物との衝突可能性の判断、移動体の速度制御、移動体のブレーキ動作の制御等を実行してもよい。   For example, the execution unit 16 may analyze the image data and specify objects such as white lines on the road, road shoulders, vehicles ahead, and pedestrians. The execution unit 16 then determines the lane departure, the lane departure warning, the steering operation control for maintaining the position in the lane, the moving object and the object based on the positional relationship between the identified object and the moving object. May be performed, the speed control of the moving body, the control of the braking operation of the moving body, and the like may be executed.

制御部17は、汚れ検出部14が汚れ有りの状態を検出すると、上記所定の処理を実行しないように実行部16を制御する。   The control unit 17 controls the execution unit 16 so as not to execute the predetermined processing when the contamination detection unit 14 detects the presence of contamination.

また、制御部17は、汚れ検出部14による汚れ有りの状態の検出に応じて所定の処理を実行しないように実行部16を制御した後、汚れ検出部14により評価値が所定の範囲から外れたことを検出されると、評価値が所定の範囲から外れたことの検出に応じて、所定の処理を再開するよう実行部16を制御してもよい。   Further, the control unit 17 controls the execution unit 16 so as not to execute the predetermined process in response to the detection of the contamination state by the contamination detection unit 14, and then the evaluation value is out of the predetermined range by the contamination detection unit 14. If it is detected, the execution unit 16 may be controlled to resume the predetermined process in response to detecting that the evaluation value is out of the predetermined range.

例えば、汚れ検出部14は、図5に示すフローチャートにおけるS121のステップにおいて、評価値が所定の範囲に含まれており汚れ有りの状態を検出した場合、及び、評価値が所定の範囲に含まれておらず汚れ有りの状態を検出しなかった場合、いずれの場合も、その結果を制御部17に入力してもよい。そして、制御部17は、入力された結果に基づき最新の状態(汚れ有りの状態か否か)を管理し、管理している最新の状態に応じて、実行部16を制御してもよい。   For example, in the step of S121 in the flowchart shown in FIG. 5, the stain detection unit 14 detects that the evaluation value is included in a predetermined range and a state with contamination is detected, and the evaluation value is included in the predetermined range. In any case, the result may be input to the control unit 17 when the dirty state is not detected. And the control part 17 may manage the newest state (whether it is a state with a dirt) based on the input result, and may control the execution part 16 according to the newest state managed.

その他、上記処理に加えて又は代えて、制御部17は、汚れ検出部14による汚れ有りの状態の検出に応じて所定の処理を実行しないように実行部16を制御した後、非移動対象検出部13により検出した非移動対象がフレーム内から消えたことを検出されると、非移動対象がフレーム内から消えたことの検出に応じて、所定の処理を再開するよう実行部16を制御してもよい。   In addition to or instead of the above processing, the control unit 17 controls the execution unit 16 so as not to execute the predetermined processing in response to the detection of the presence of contamination by the contamination detection unit 14, and then detects the non-moving object. When it is detected that the non-moving target detected by the unit 13 has disappeared from the frame, the execution unit 16 is controlled to resume predetermined processing in response to the detection that the non-moving target has disappeared from the frame. May be.

例えば、非移動対象検出部13は、図5に示すフローチャートにおけるS119のステップにおいて、繰り返し数が所定の値以上のものがないと判定した場合(S119のNo)、その結果を制御部17に入力してもよい。そして、制御部17は、所定の処理を実行しないように実行部16を制御している時に、繰り返し数が所定の値以上のものがない(非移動対象がない)との入力を非移動対象検出部13から受付けると、それに応じて、所定の処理を再開するよう実行部16を制御してもよい。   For example, if the non-moving target detection unit 13 determines in step S119 in the flowchart illustrated in FIG. 5 that there is no repetition number equal to or greater than a predetermined value (No in S119), the result is input to the control unit 17. May be. Then, when the control unit 17 controls the execution unit 16 so as not to execute the predetermined process, an input indicating that there is no repetition number equal to or greater than the predetermined value (no non-moving target) is the non-moving target. If received from the detection unit 13, the execution unit 16 may be controlled to resume predetermined processing accordingly.

なお、解析装置10は、制御部17の制御により実行部16の処理が停止している間、その旨をユーザに向けて通知してもよい。また、解析装置10は、制御部17の制御により実行部16の処理が再開すると、その旨をユーザに向けて通知してもよい。通知の手段は特段制限されない。   Note that the analysis apparatus 10 may notify the user of the fact while the processing of the execution unit 16 is stopped under the control of the control unit 17. Further, when the processing of the execution unit 16 resumes under the control of the control unit 17, the analysis device 10 may notify the user of that fact. There are no particular restrictions on the means of notification.

以上説明した本実施形態によれば、第1の実施形態と同様の作用効果を実現することができる。また、本実施形態によれば、汚れ有りの状態を検出している間、実行部16による所定の処理を停止させることができる。   According to the present embodiment described above, the same function and effect as those of the first embodiment can be realized. Further, according to the present embodiment, it is possible to stop the predetermined processing by the execution unit 16 while detecting the state with the contamination.

カメラ11や移動体に付着した汚れであって、カメラ11で生成した画像データを利用する他の処理(例:車線逸脱判定等)に影響を与え得るほど大きい汚れに起因した非移動対象がフレーム内に写っている状態で、実行部16による所定の処理を実行すると、画像解析の精度の悪化に起因して、誤動作を行う恐れがある。例えば、非移動対象を移動体の周囲に存在する対象物と誤判定し、不要なタイミングでブレーキを掛けたり、誤って認識している対象物を回避するためステアリングを制御(例:左方向への移動等)したりする恐れがある。結果、後続車との衝突や、左右に位置する対象物(例:車など)との衝突等の他の事故を引き起こし得る。   Non-moving objects due to dirt that adheres to the camera 11 or the moving body and that is so large that it can affect other processes (eg, lane departure determination) that use image data generated by the camera 11 is a frame. If a predetermined process is executed by the execution unit 16 in a state that is reflected in the image, there is a risk of malfunction due to deterioration in accuracy of image analysis. For example, a non-moving object is erroneously determined as an object existing around the moving body, and the steering is controlled to avoid an object that is braked at an unnecessary timing or erroneously recognized (eg, leftward) Moving). As a result, other accidents such as a collision with a following vehicle and a collision with an object (eg, a car) located on the left and right can be caused.

本実施形態によれば、汚れ有りの状態を検出している間、実行部16による所定の処理を停止させることができるので、このような不都合を回避することができる。   According to the present embodiment, since the predetermined process by the execution unit 16 can be stopped while the dirty state is detected, such inconvenience can be avoided.

また、汚れ有りの状態でなくなったこと(評価値が所定の範囲から外れたこと)を検出すると、当該検出に応じて実行部16による処理を再開できる。このため、ユーザによる再開指示操作などを不要とした、ユーザフレンドリーな構成とすることができる。   Further, when it is detected that the state with the contamination is no longer present (the evaluation value is out of the predetermined range), the processing by the execution unit 16 can be resumed according to the detection. For this reason, it can be set as a user-friendly structure which does not require a restart instruction operation by the user.

<第3の実施形態>
本実施形態の移動体は、自動車である。本実施形態の解析装置10のカメラは、自動車のフロントガラス越しに自動車の外部を撮影するよう設置される。この場合、フロントガラスに付着した汚れも、非移動対象として検出される。そして、その汚れの度合いにより、汚れ有りの状態が検出される場合がある。
<Third Embodiment>
The moving body of this embodiment is an automobile. The camera of the analysis apparatus 10 of this embodiment is installed so that the exterior of a motor vehicle may be image | photographed through the windshield of a motor vehicle. In this case, dirt adhering to the windshield is also detected as a non-moving target. Depending on the degree of the contamination, a state with contamination may be detected.

本実施形態の解析装置10は、汚れ有りの状態を検出すると、自動車のフロントガラスに取り付けらえたワイパーを作動させる信号を出力する。このような本実施形態によれば、仮に汚れがフロントガラスに付着している場合、ユーザによる作業なしで、汚れ有りの状態を解消することができる。   When the analysis apparatus 10 according to the present embodiment detects a dirt state, it outputs a signal for operating a wiper attached to the windshield of the automobile. According to the present embodiment as described above, if dirt is attached to the windshield, it is possible to eliminate the dirt state without any work by the user.

次に、本実施形態の構成について詳細に説明する。図7に、本実施形態の解析装置10の機能ブロック図の一例を示す。図示するように、解析装置10は、カメラ11と、判断部12と、非移動対象検出部13と、汚れ検出部14と、報知部15と、作動信号出力部18とを有する。なお、本実施形態の解析装置10は、さらに、実行部16及び制御部17を有してもよい。カメラ11、判断部12、非移動対象検出部13、汚れ検出部14、報知部15、実行部16及び制御部17の構成は、第1及び第2の実施形態と同様である。以下、作動信号出力部18の構成について説明する。   Next, the configuration of the present embodiment will be described in detail. In FIG. 7, an example of the functional block diagram of the analyzer 10 of this embodiment is shown. As illustrated, the analysis device 10 includes a camera 11, a determination unit 12, a non-moving target detection unit 13, a dirt detection unit 14, a notification unit 15, and an operation signal output unit 18. Note that the analysis device 10 of the present embodiment may further include an execution unit 16 and a control unit 17. The configurations of the camera 11, the determination unit 12, the non-moving target detection unit 13, the dirt detection unit 14, the notification unit 15, the execution unit 16, and the control unit 17 are the same as those in the first and second embodiments. Hereinafter, the configuration of the operation signal output unit 18 will be described.

上述の通り、本実施形態の移動体は自動車である。そして、カメラ11は、自動車のフロントガラス越しに自動車の外部を撮影するよう設置される。図8に、カメラ11を有する解析装置10の設置例を示す。   As described above, the moving object of this embodiment is an automobile. And the camera 11 is installed so that the exterior of a motor vehicle may be image | photographed through the windshield of a motor vehicle. FIG. 8 shows an installation example of the analysis apparatus 10 having the camera 11.

図8は、自動車のフロントガラス20を前方から見た平面模式図である。解析装置10は、フロントガラス20の真ん中上方に取り付けられている。なお、当該設置例はあくまで一例であり、これに限定されない。   FIG. 8 is a schematic plan view of the windshield 20 of the automobile as viewed from the front. The analysis device 10 is attached to the upper middle of the windshield 20. The installation example is merely an example, and the present invention is not limited to this.

作動信号出力部18は、汚れ検出部14が汚れ有りの状態を検出すると、フロントガラスに取り付けられたワイパーを作動させる信号を出力する。当該信号は、自動車の所定の部位の動作を制御する制御装置に入力される。当該制御装置は、少なくとも、フロントガラスに取り付けられたワイパーの動作を制御(作動、停止の制御等)するよう構成されている。制御装置は、作動信号出力部18からワイパーを作動させる信号を入力されると、当該信号に応じて、ワイパーを作動させる。   The operation signal output unit 18 outputs a signal for operating the wiper attached to the windshield when the contamination detection unit 14 detects a state of contamination. The signal is input to a control device that controls the operation of a predetermined part of the automobile. The said control apparatus is comprised so that the operation | movement (control of an action | operation, a stop, etc.) of the wiper attached to the windshield may be controlled at least. When a signal for operating the wiper is input from the operation signal output unit 18, the control device operates the wiper according to the signal.

以上説明した本実施形態によれば、第1及び第2の実施形態と同様の作用効果を実現することができる。また、本実施形態によれば、汚れ有りの状態の検出に応じて、自動車(移動体)のフロントガラスに取り付けられたワイパーを作動させることができる。このため、ユーザによる作業なしで、汚れ有りの状態を解消することも可能となる。   According to the present embodiment described above, the same operational effects as those of the first and second embodiments can be realized. Further, according to the present embodiment, the wiper attached to the windshield of the automobile (moving body) can be operated in response to the detection of the dirty state. For this reason, it is also possible to eliminate the dirty state without any work by the user.

<第4の実施形態>
本実施形態の汚れ検出部14は、非移動対象の大きさに加えて、フレーム内の位置、及び/又は、フレーム内の分布を用いて視野状態を評価する点で、第1乃至第3の実施形態と異なる。
<Fourth Embodiment>
The dirt detection unit 14 of the present embodiment evaluates the visual field state using the position in the frame and / or the distribution in the frame in addition to the size of the non-moving target. Different from the embodiment.

本実施形態の機能ブロック図の一例は、第1乃至第3の実施形態と同様である。カメラ11、判断部12、非移動対象検出部13、報知部15、実行部16、制御部17及び作動信号出力部18の構成は、第1乃至第3の実施形態と同様である。以下、汚れ検出部14の構成について説明する。   An example of a functional block diagram of the present embodiment is the same as in the first to third embodiments. The configurations of the camera 11, the determination unit 12, the non-moving object detection unit 13, the notification unit 15, the execution unit 16, the control unit 17, and the operation signal output unit 18 are the same as those in the first to third embodiments. Hereinafter, the configuration of the dirt detection unit 14 will be described.

汚れ検出部14は、非移動対象の大きさに加えて、フレーム内の位置、及び/又は、フレーム内の分布(密集の程度)を用いて視野状態を評価し、評価値を算出する。   The dirt detection unit 14 evaluates the visual field state using the position in the frame and / or the distribution in the frame (degree of congestion) in addition to the size of the non-moving target, and calculates an evaluation value.

まず、フレーム内の位置を利用する例を説明する。フレーム内における非移動対象の大きさが同じであっても、非移動対象のフレーム内の位置が異なれば、カメラ11で生成した画像データを利用する他の処理(例:車線逸脱判定等)に与える影響は異なり得る。そこで、非移動対象の大きさのみならず、フレーム内の位置をも考慮して視野状態を評価することで、精度よく、カメラ11や移動体に付着した汚れであって、カメラ11で生成した画像データを利用する所定の処理(例:車線逸脱判定等)に影響を与え得る汚れを検出することができる。   First, an example in which a position in a frame is used will be described. Even if the size of the non-moving target in the frame is the same, if the position in the non-moving target frame is different, other processing using the image data generated by the camera 11 (eg, lane departure determination etc.) The impact can vary. Therefore, by evaluating the visual field state in consideration of not only the size of the non-moving object but also the position in the frame, it is a dirt that adheres to the camera 11 and the moving body with high accuracy and is generated by the camera 11. It is possible to detect dirt that may affect a predetermined process (eg, lane departure determination) using image data.

例えば、汚れ検出部14は、フレーム内を複数のエリアに分割し、各エリアに重み付け係数を定めた重み付け情報を保持しておいてもよい。エリアごとの重み付け係数は、上記所定の処理に与える影響に応じて決定される。   For example, the stain detection unit 14 may divide the frame into a plurality of areas and hold weighting information in which weighting coefficients are defined for each area. The weighting coefficient for each area is determined according to the influence on the predetermined processing.

そして、汚れ検出部14は、上記手法1乃至4のいずれかで算出した評価値に、非移動対象の位置に応じて決定された重み付け係数を掛けた値を評価値としてもよい。なお、非移動対象が複数のエリアに跨っている場合、最も大きい重み付け係数をその非移動対象に適用してもよい。また、複数の非移動対象が存在する場合、非移動対象各々の位置に応じて非移動対象ごとの重み付け係数を特定し、その中の最も大きい重み付け係数を採用してもよい。   And the dirt detection part 14 is good also considering the value which multiplied the weighting coefficient determined according to the position of a non-moving object to the evaluation value computed by either of the said methods 1 thru | or 4 as an evaluation value. In addition, when the non-moving target is straddling a plurality of areas, the largest weighting coefficient may be applied to the non-moving target. In addition, when there are a plurality of non-moving objects, a weighting coefficient for each non-moving object may be specified according to the position of each non-moving object, and the largest weighting coefficient among them may be adopted.

その他、汚れ検出部14は、例えば非移動対象ごとに上記手法1又は手法4で算出した評価値各々に、非移動対象各々の位置に応じて決定された非移動対象ごとの重み付け係数を掛けた値の合計を、評価値としてもよい。なお、非移動対象が複数のエリアに跨っている場合、最も大きい重み付け係数をその非移動対象に適用してもよい。   In addition, for example, the dirt detection unit 14 multiplies each evaluation value calculated by the method 1 or 4 for each non-moving target by a weighting coefficient for each non-moving target determined according to the position of each non-moving target. The sum of the values may be used as the evaluation value. In addition, when the non-moving target is straddling a plurality of areas, the largest weighting coefficient may be applied to the non-moving target.

次に、フレーム内の分布(密集の程度)を利用する例を説明する。非移動対象の大きさ(フレーム内の占有割合)が同じであっても、非移動対象が所定の箇所に密集している場合と、フレーム内にまんべんなく分散している場合とでは、カメラ11で生成した画像データを利用する他の処理(例:車線逸脱判定等)に与える影響は異なり得る。そこで、非移動対象の大きさのみならず、フレーム内の分布をも考慮して視野状態を評価することで、精度よく、カメラ11や移動体に付着した汚れであって、カメラ11で生成した画像データを利用する所定の処理(例:車線逸脱判定等)に影響を与え得る汚れを検出することができる。   Next, an example in which the distribution in the frame (the degree of congestion) is used will be described. Even if the size of the non-moving target (occupation ratio in the frame) is the same, the camera 11 is used when the non-moving target is densely located in a predetermined place and when the non-moving target is evenly distributed in the frame. The influence on other processing (eg, lane departure determination etc.) using the generated image data may be different. Therefore, by evaluating the field of view in consideration of not only the size of the non-moving object but also the distribution in the frame, it is a dirt that adheres to the camera 11 or the moving body with high accuracy and is generated by the camera 11. It is possible to detect dirt that may affect a predetermined process (eg, lane departure determination) using image data.

例えば、汚れ検出部14は、所定の大きさのウインドウを設定し、当該ウインドウをフレーム内で所定方向に所定の移動幅でスキャンさせながら、各ウインドウ位置でウインドウ内の非移動対象の占有割合を算出する。占有割合は、例えば、(ウインドウ内における非移動対象が占有するピクセル数)/(ウインドウに含まれるピクセル数)の式で算出することができる。そして、汚れ検出部14は、各ウインドウ位置で算出した占有割合の内、最も大きい値を代表値として特定する。代表値が大きいほど、非移動対象が所定の箇所に密集していることを示す。   For example, the dirt detection unit 14 sets a window having a predetermined size, scans the window with a predetermined movement width in a predetermined direction within the frame, and determines the occupation ratio of the non-moving target in the window at each window position. calculate. The occupation ratio can be calculated by, for example, an expression of (number of pixels occupied by a non-moving target in the window) / (number of pixels included in the window). And the dirt detection part 14 specifies the largest value as a representative value among the occupation ratio calculated in each window position. The larger the representative value, the denser the non-moving objects are at a predetermined location.

汚れ検出部14は、例えば、上記手法1乃至4のいずれかで算出した評価値が所定の範囲であり、かつ、上記手法で算出した分布の程度(代表値)が所定の範囲である場合に、汚れ有りの状態を検出してもよい。   For example, when the evaluation value calculated by any one of the above methods 1 to 4 is within a predetermined range and the degree of distribution (representative value) calculated by the above method is within the predetermined range, the dirt detection unit 14 The state with dirt may be detected.

以上説明した本実施形態によれば、第1乃至第3の実施形態と同様の作用効果を実現することができる。また、本実施形態によれば、非移動対象の大きさのみならず、フレーム内の位置や分布等にも基づいて汚れ有りの状態を検出できるので、精度よく、カメラ11や移動体に付着した汚れであって、カメラ11で生成した画像データを利用する所定の処理(例:車線逸脱判定等)に影響を与え得る汚れを検出することができる。   According to the present embodiment described above, the same function and effect as those of the first to third embodiments can be realized. In addition, according to the present embodiment, the state of contamination can be detected based not only on the size of the non-moving object but also on the position and distribution in the frame, so that the camera 11 and the moving body are attached with high accuracy. It is possible to detect dirt that may affect a predetermined process (eg, lane departure determination) using image data generated by the camera 11.

<第5の実施形態>
まず、本実施形態の概要について説明する。移動体と同じ速度で同じ方向に移動している対象が複数フレームに亘って写っている場合、解析装置10はこの対象を非移動対象として検出してしまう。そして、誤って汚れ有りの状態を検出してしまう虞がある。本実施形態は、このような不都合の発生を軽減するための手段を備える。
<Fifth Embodiment>
First, an outline of the present embodiment will be described. When a target moving in the same direction at the same speed as the moving object is shown over a plurality of frames, the analysis apparatus 10 detects this target as a non-moving target. In addition, there is a possibility that a state with dirt is erroneously detected. The present embodiment includes means for reducing the occurrence of such inconvenience.

次に、本実施形態の構成について詳細に説明する。図9に、本実施形態の解析装置10の機能ブロック図の一例を示す。図示するように、解析装置10は、カメラ11と、判断部12と、非移動対象検出部13と、汚れ検出部14と、報知部15と、属性判定部19とを有する。なお、本実施形態の解析装置10は、さらに、実行部16、制御部17及び作動信号出力部18の中の少なくとも1つを有してもよい。カメラ11、判断部12、非移動対象検出部13、汚れ検出部14、報知部15、実行部16、制御部17及び作動信号出力部18の構成は、第1乃至第4の実施形態と同様である。以下、属性判定部19の構成について説明する。   Next, the configuration of the present embodiment will be described in detail. FIG. 9 shows an example of a functional block diagram of the analysis apparatus 10 of the present embodiment. As illustrated, the analysis apparatus 10 includes a camera 11, a determination unit 12, a non-moving target detection unit 13, a dirt detection unit 14, a notification unit 15, and an attribute determination unit 19. Note that the analysis device 10 of this embodiment may further include at least one of the execution unit 16, the control unit 17, and the operation signal output unit 18. The configurations of the camera 11, the determination unit 12, the non-moving target detection unit 13, the dirt detection unit 14, the notification unit 15, the execution unit 16, the control unit 17, and the operation signal output unit 18 are the same as those in the first to fourth embodiments. It is. Hereinafter, the configuration of the attribute determination unit 19 will be described.

属性判定部19は、移動体の周囲に存在する対象物の属性を判定する。そして、属性判定部19は、カメラが設置される移動体と同等の速度で移動し得る属性を対象(フレームから抽出した対象)が有すると判定した場合には、汚れ検出部14の評価対象から当該対象を外す。   The attribute determination unit 19 determines an attribute of an object existing around the moving body. Then, when the attribute determination unit 19 determines that the target (target extracted from the frame) has an attribute that can move at the same speed as the moving object on which the camera is installed, the attribute determination unit 19 determines from the evaluation target of the dirt detection unit 14. Remove the subject.

その他、属性判定部19は、移動体に設置されたカメラ11が撮影したフレーム中に含まれる可能性があり、かつ、移動体と同じ速度で同じ方向に移動する可能性がある所定の対象物(例、自動車、人、自転車等)の画像を用いたパターンマッチングにより、フレームから抽出された対象ごとに属性(例、自動車、人、自転車等、対象の種類)を特定してもよい。そして、属性判定部19は、フレームから抽出された対象の内、上記所定の対象物と特定された対象を、非移動対象検出部13による非移動対象の検出処理、及び/又は、汚れ検出部14による汚れ有りの状態の検出処理から外してもよい。汚れに起因した非移動対象の形状が、このような所定の対象物と同じ形状になる可能性は低いからである。   In addition, the attribute determination unit 19 is a predetermined object that may be included in a frame captured by the camera 11 installed on the moving body and may move in the same direction at the same speed as the moving body. By pattern matching using an image (eg, car, person, bicycle, etc.), an attribute (eg, type of object, such as car, person, bike, etc.) may be specified for each object extracted from the frame. Then, the attribute determination unit 19 detects the non-moving target detection process by the non-moving target detection unit 13 and / or the dirt detection unit for the target identified as the predetermined target among the targets extracted from the frame. 14 may be excluded from the process of detecting a dirty state. This is because it is unlikely that the shape of the non-moving target due to the dirt will be the same shape as the predetermined target.

本実施形態によれば、移動体と同じ速度で同じ方向に移動している対象が複数フレームに亘って写っている場合であっても、その対象に基づき誤って汚れ有りの状態を検出する不都合を軽減できる。結果、汚れ有りの状態の検出精度を高めることができる。   According to the present embodiment, even when a target moving in the same direction at the same speed as the moving object is captured over a plurality of frames, the inconvenience of erroneously detecting a dirty state based on the target Can be reduced. As a result, it is possible to improve the detection accuracy of the dirty state.

以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成が採用されてもよい。   As mentioned above, although embodiment of this invention was described with reference to drawings, these are illustrations of this invention and various structures other than the above may be employ | adopted.

1A CPU
2A メモリ
3A 入出力I/F
4A 通信装置
5A カメラ
6A バス
10 解析装置
11 カメラ
12 判断部
13 非移動対象検出部
14 汚れ検出部
15 報知部
16 実行部
17 制御部
18 作動信号出力部
19 属性判定部
20 フロントガラス
101 前方車両
102−1乃至102−4 白線
103−1及び103−2 街路樹
200 非移動対象
1A CPU
2A Memory 3A I / O I / F
4A Communication device 5A Camera 6A Bus 10 Analysis device 11 Camera 12 Judgment unit 13 Non-moving target detection unit 14 Dirt detection unit 15 Notification unit 16 Execution unit 17 Control unit 18 Operation signal output unit 19 Attribute determination unit 20 Windshield 101 Front vehicle 102 -1 to 102-4 White line 103-1 and 103-2 Roadside tree 200 Non-moving object

Claims (9)

移動体に設置されるカメラと、
前記移動体が移動中か否かを判断する判断手段と、
前記移動体が移動中に前記カメラが生成した画像データを解析し、複数のフレームに亘ってフレーム内の同じ位置に写る非移動対象を検出する非移動対象検出手段と、
前記非移動対象検出手段が検出した一つ以上の前記非移動対象の内の何れか一つ以上の大きさを用いて視野状態を評価し、評価値が所定の範囲となる場合に、汚れ有りの状態を検出する汚れ検出手段と、
前記汚れ検出手段が汚れ有りの状態を検出すると、その旨を示す情報を出力する報知手段と、
を有する解析装置。
A camera installed on a moving object;
Determining means for determining whether or not the moving object is moving;
Non-moving object detection means for analyzing image data generated by the camera while the moving body is moving and detecting non-moving objects appearing at the same position in a frame over a plurality of frames;
The visual field state is evaluated using any one or more sizes of the one or more non-moving objects detected by the non-moving object detection means, and there is contamination when the evaluation value falls within a predetermined range. Dirt detection means for detecting the state of
When the dirt detection means detects a state with dirt, a notification means for outputting information indicating that,
Analyzing device.
請求項1に記載の解析装置において、
前記画像データを解析し、前記移動体の周囲に存在する対象物を特定し、特定した結果に応じて所定の処理を実行する実行手段と、
前記汚れ検出手段が汚れ有りの状態を検出すると、前記所定の処理を実行しないように前記実行手段を制御する制御手段と、
をさらに有する解析装置。
The analysis device according to claim 1,
Analysis means for analyzing the image data, specifying an object existing around the moving body, and executing predetermined processing according to the specified result;
A control means for controlling the execution means so as not to execute the predetermined process when the dirt detection means detects a dirty state;
An analysis device further comprising:
請求項2に記載の解析装置において、
前記制御手段は、前記汚れ検出手段による汚れ有りの状態の検出に応じて前記所定の処理を実行しないように前記実行手段を制御した後、前記汚れ検出手段により前記評価値が前記所定の範囲から外れたことを検出されると、前記評価値が前記所定の範囲から外れたことの検出に応じて、前記所定の処理を再開するよう前記実行手段を制御する解析装置。
The analysis device according to claim 2,
The control means controls the execution means so as not to execute the predetermined process in response to detection of a dirt state by the dirt detection means, and then the evaluation value is deviated from the predetermined range by the dirt detection means. An analysis device that controls the execution unit to resume the predetermined process in response to detection that the evaluation value is out of the predetermined range when it is detected that the evaluation value has deviated.
請求項2に記載の解析装置において、
前記制御手段は、前記汚れ検出手段による汚れ有りの状態の検出に応じて前記所定の処理を実行しないように前記実行手段を制御した後、前記非移動対象検出手段により検出した前記非移動対象がフレーム内から消えたことを検出されると、前記非移動対象がフレーム内から消えたことの検出に応じて、前記所定の処理を再開するよう前記実行手段を制御する解析装置。
The analysis device according to claim 2,
The control means controls the execution means so as not to execute the predetermined processing in response to detection of a dirt state by the dirt detection means, and then the non-moving target detected by the non-moving target detection means When it is detected that the non-moving object has disappeared from the frame, the analyzing apparatus controls the execution means to resume the predetermined processing in response to the detection that the non-moving object has disappeared from the frame.
請求項1から4のいずれか1項に記載の解析装置において、
前記移動体の周囲に存在する対象物の属性を判定する属性判定手段を更に有し、
前記属性判定手段は、前記カメラが設置される移動体と同等の速度で移動し得る属性を前記対象が有すると判定した場合には、前記汚れ検出手段の評価対象から当該対象を外す、
解析装置。
In the analysis device according to any one of claims 1 to 4,
Attribute determination means for determining an attribute of an object existing around the moving object;
When the attribute determination unit determines that the target has an attribute that can move at a speed equivalent to a moving object in which the camera is installed, the attribute determination unit removes the target from the evaluation target of the dirt detection unit.
Analysis device.
請求項1から5のいずれか1項に記載の解析装置において、
前記移動体は自動車であり、
前記カメラは、前記自動車のフロントガラス越しに前記自動車の外部を撮影するよう設置され、
前記汚れ検出手段が汚れ有りの状態を検出すると、前記フロントガラスに取り付けられたワイパーを作動させる信号を出力する作動信号出力手段をさらに有する解析装置。
In the analysis device according to any one of claims 1 to 5,
The moving body is an automobile;
The camera is installed so as to photograph the outside of the automobile through the windshield of the automobile,
An analysis apparatus further comprising an operation signal output means for outputting a signal for operating a wiper attached to the windshield when the dirt detection means detects a dirt state.
請求項1から6のいずれか1項に記載の解析装置において、
前記汚れ検出手段は、前記非移動対象の大きさに加え、フレーム内の位置及び分布の少なくとも一方を用いて前記視野状態を評価する解析装置。
In the analysis device according to any one of claims 1 to 6,
The said dirt detection means is an analyzer which evaluates the said visual field state using at least one of the position and distribution in a flame | frame in addition to the magnitude | size of the said non-moving object.
コンピュータが、
移動体が移動中か否かを判断する判断工程と、
前記移動体が移動中に前記移動体に設置されたカメラが生成した画像データを解析し、複数のフレームに亘ってフレーム内の同じ位置に写る非移動対象を検出する非移動対象検出工程と、
前記非移動対象検出工程で検出した一つ以上の前記非移動対象の内の何れか一つ以上の大きさを用いて視野状態を評価し、評価値が所定の範囲となる場合に、汚れ有りの状態を検出する汚れ検出工程と、
前記汚れ検出工程で汚れ有りの状態が検出されると、その旨を示す情報を出力する報知工程と、
を実行する解析方法。
Computer
A determination step of determining whether or not the moving object is moving;
A non-moving target detection step of analyzing image data generated by a camera installed on the moving body while the moving body is moving, and detecting a non-moving target that appears in the same position in the frame over a plurality of frames;
When the visual field state is evaluated using any one or more of the one or more non-moving objects detected in the non-moving object detection step, and the evaluation value falls within a predetermined range, there is contamination. A dirt detection step for detecting the state of
When a state with dirt is detected in the dirt detection step, a notification step for outputting information indicating that,
Analysis method to execute.
コンピュータを、
移動体が移動中か否かを判断する判断手段、
前記移動体が移動中に前記移動体に設置されたカメラが生成した画像データを解析し、複数のフレームに亘ってフレーム内の同じ位置に写る非移動対象を検出する非移動対象検出手段、
前記非移動対象検出手段が検出した一つ以上の前記非移動対象の内の何れか一つ以上の大きさを用いて視野状態を評価し、評価値が所定の範囲となる場合に、汚れ有りの状態を検出する汚れ検出手段、
前記汚れ検出手段が汚れ有りの状態を検出すると、その旨を示す情報を出力する報知手段、
として機能させるためのプログラム。
Computer
Determining means for determining whether or not the moving object is moving;
Non-moving object detection means for analyzing image data generated by a camera installed on the moving object while the moving object is moving, and detecting a non-moving object appearing at the same position in the frame over a plurality of frames;
The visual field state is evaluated using any one or more sizes of the one or more non-moving objects detected by the non-moving object detection means, and there is contamination when the evaluation value falls within a predetermined range. Dirt detection means for detecting the state of
When the dirt detection means detects a state with dirt, a notification means for outputting information indicating that,
Program to function as.
JP2014096253A 2014-05-07 2014-05-07 Analyzer, analysis method and program Pending JP2015215645A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014096253A JP2015215645A (en) 2014-05-07 2014-05-07 Analyzer, analysis method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014096253A JP2015215645A (en) 2014-05-07 2014-05-07 Analyzer, analysis method and program

Publications (1)

Publication Number Publication Date
JP2015215645A true JP2015215645A (en) 2015-12-03

Family

ID=54752515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014096253A Pending JP2015215645A (en) 2014-05-07 2014-05-07 Analyzer, analysis method and program

Country Status (1)

Country Link
JP (1) JP2015215645A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019004254A (en) * 2017-06-13 2019-01-10 株式会社デンソー Vehicle photographing device
JP2020092365A (en) * 2018-12-07 2020-06-11 三菱電機株式会社 In-vehicle camera device and in-vehicle camera dirt detection method
JP2021052234A (en) * 2019-09-20 2021-04-01 株式会社デンソーテン Deposit detection device and deposit detection method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019004254A (en) * 2017-06-13 2019-01-10 株式会社デンソー Vehicle photographing device
JP2020092365A (en) * 2018-12-07 2020-06-11 三菱電機株式会社 In-vehicle camera device and in-vehicle camera dirt detection method
JP2021052234A (en) * 2019-09-20 2021-04-01 株式会社デンソーテン Deposit detection device and deposit detection method
US11568547B2 (en) 2019-09-20 2023-01-31 Denso Ten Limited Deposit detection device and deposit detection method
JP7243546B2 (en) 2019-09-20 2023-03-22 株式会社デンソーテン Attached matter detection device and attached matter detection method

Similar Documents

Publication Publication Date Title
US9956941B2 (en) On-board device controlling accumulation removing units
JP6117634B2 (en) Lens adhesion detection apparatus, lens adhesion detection method, and vehicle system
CN110999273B (en) Attachment detection device and vehicle system having same
JP6126094B2 (en) In-vehicle image recognition device
JP5883732B2 (en) Environment recognition device
US20150294165A1 (en) System and method for periodic lane marker identification and tracking
US10220782B2 (en) Image analysis apparatus and image analysis method
WO2018029925A1 (en) Vehicle-mounted device
JP2014106703A (en) In-vehicle image processing device
JP5759950B2 (en) In-vehicle camera device
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
WO2016189777A1 (en) Road surface marking detection device, obstruction element detection device, traffic lane detection device, traffic lane detection method, and program
JP2015215645A (en) Analyzer, analysis method and program
JP2013258596A (en) Image pick-up device
JP7401630B2 (en) sensor array
JP4321410B2 (en) Object detection apparatus and method
JP2009193130A (en) Vehicle surrounding monitoring device, vehicle, program for vehicle surrounding monitoring and vehicle surrounding monitoring method
CN108885262A (en) For capturing the method for at least one object, the device of sensor device, sensor device and with the driver assistance system of at least one sensor device
JP5957315B2 (en) In-vehicle lane recognition system
JP2013101534A (en) Vehicle driving support system
JP2006317328A (en) On-vehicle object detection device and object detection method
JP6011110B2 (en) Three-dimensional object detection apparatus and three-dimensional object detection method
JP2013022989A (en) Method for detecting elbow point of headlight
JP5790867B2 (en) Three-dimensional object detection device
KR20230075847A (en) Method and apparatus for recognizing the lane state of a road surface using a pattern beam laser