JP2009217400A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2009217400A
JP2009217400A JP2008058630A JP2008058630A JP2009217400A JP 2009217400 A JP2009217400 A JP 2009217400A JP 2008058630 A JP2008058630 A JP 2008058630A JP 2008058630 A JP2008058630 A JP 2008058630A JP 2009217400 A JP2009217400 A JP 2009217400A
Authority
JP
Japan
Prior art keywords
difference
image
interval
input
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008058630A
Other languages
Japanese (ja)
Other versions
JP5470719B2 (en
Inventor
Satoru Nakajima
哲 中島
Masayoshi Shimizu
雅芳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008058630A priority Critical patent/JP5470719B2/en
Publication of JP2009217400A publication Critical patent/JP2009217400A/en
Application granted granted Critical
Publication of JP5470719B2 publication Critical patent/JP5470719B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To stably extract an inter-frame difference regardless of an environment when an image is picked up. <P>SOLUTION: This image processor is provided with: an image management DB for storing a past image picked up in the past by a camera, and configured to: acquire environment information when an input image is picked up by the camera; determine, when the input image is input, an interval for executing an inter-frame difference based on the input image or the acquired environment information; acquire a past image input in the past corresponding to the determined difference interval from the image management DB; execute the inter-frame difference from the acquired past image and the inputted input image; and extract the difference. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は、画像を撮像する撮像部により撮像されて入力された入力画像と、過去に撮像された過去画像とからフレーム間差分を実施して、差分を抽出する画像処理装置に関する。   The present invention relates to an image processing apparatus that extracts a difference by performing an inter-frame difference from an input image captured and input by an imaging unit that captures an image and a past image captured in the past.

従来より、動画像から移動体を検出する手法として、フレーム間差分が多く利用されている。このフレーム間差分は、最新のフレームと直前のフレーム間で差分を取ることで、移動領域を抽出するものであり、軽量な処理で実現できるため広く用いられている。そして、フレーム間差分ベースの移動体追跡技術などでは、撮影した画像から移動体を検出する検出能力を高めるために、フレーム間差分で用いる差分間隔の適切な設定が重要であり、この差分間隔を適切に算出する様々な技術が開示されている。   Conventionally, inter-frame differences are often used as a method for detecting a moving object from a moving image. The inter-frame difference is widely used because a moving area is extracted by taking a difference between the latest frame and the immediately preceding frame and can be realized by a lightweight process. In the inter-frame difference-based moving body tracking technology and the like, it is important to appropriately set the difference interval used in the inter-frame difference in order to increase the detection capability of detecting the moving body from the captured image. Various techniques for calculating appropriately are disclosed.

例えば、特許文献1(特開平8−241414号公報)では、入力された入力画像において、予め定めた領域から検出対象物の速度情報を取得し、画像内の領域ごとに当該速度情報を用いて差分を取る間隔を設定する。具体的に例を挙げると、特許文献1に係る画像処理装置(動体検出装置・追跡装置)は、入力された入力画像を複数の領域に分割し、分割したそれぞれの領域から速度情報を取得する。続いて、画像処理装置は、取得した領域ごとの速度情報から、フレーム間差分を行う間隔を決定する。そして、画像処理装置は、分割した複数の領域ごとに決定した間隔を用いて、複数の領域それぞれでフレーム間差分を実施する。   For example, in Patent Document 1 (Japanese Patent Laid-Open No. 8-241414), speed information of a detection target is acquired from a predetermined area in an input image that is input, and the speed information is used for each area in the image. Set the interval to take the difference. To give a specific example, the image processing device (moving object detection device / tracking device) according to Patent Document 1 divides the input image into a plurality of regions, and acquires speed information from each of the divided regions. . Subsequently, the image processing apparatus determines an interval for performing the inter-frame difference from the acquired speed information for each region. Then, the image processing apparatus performs inter-frame differences in each of the plurality of regions using the intervals determined for each of the plurality of divided regions.

特開平8−241414号公報JP-A-8-241414

しかしながら、上記した従来の技術では、画像を撮影した環境によっては、フレーム間差分間隔を正確に決定することができず、抽出したフレーム間差分が正確でないという課題があった。   However, the above-described conventional technique has a problem that the inter-frame difference interval cannot be determined accurately depending on the environment where the image is taken, and the extracted inter-frame difference is not accurate.

具体的には、例えば、日中と夜間では画像上の位置や動き量が異なって見えるなど、取得時の環境により画像が大きく変化する。また、例えば、様々な環境下で多数の移動体の正確な速度計測は一般に大変困難であり、適用できるシーンや効果は限定的である。   Specifically, for example, the image changes greatly depending on the environment at the time of acquisition, for example, the position on the image and the amount of movement look different during the day and at night. In addition, for example, accurate speed measurement of a large number of moving objects under various environments is generally very difficult, and applicable scenes and effects are limited.

そこで、この発明は、上述した従来技術の課題を解決するためになされたものであり、画像撮像時の環境によらず安定的にフレーム間差分を抽出することが可能である画像処理装置を提供することを目的とする。   Accordingly, the present invention has been made to solve the above-described problems of the prior art, and provides an image processing apparatus capable of stably extracting inter-frame differences regardless of the environment at the time of image capturing. The purpose is to do.

上述した課題を解決し、目的を達成するため、本装置は、画像を撮像する撮像部により撮像されて入力された入力画像と、過去に撮像された過去画像とからフレーム間差分を実施して、差分を抽出する画像処理装置であって、前記撮像部により過去に撮像された過去画像を記憶する画像記憶手段と、前記撮像部により入力画像が撮像された際の環境情報を取得する環境情報取得手段と、前記入力画像が入力された場合に、当該入力画像または前記環境情報取得手段により取得された環境情報に基づいて、前記フレーム間差分を実施する間隔を決定する差分間隔決定手段と、前記差分間隔決定手段により決定された差分間隔に対応する過去に入力された過去画像を前記画像記憶手段から取得し、取得した過去画像と入力された入力画像とからフレーム間差分を実施して、差分を抽出する差分抽出手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the present apparatus performs an inter-frame difference from an input image captured and input by an imaging unit that captures an image and a past image captured in the past. An image processing apparatus for extracting a difference, an image storage unit for storing past images captured in the past by the imaging unit, and environment information for acquiring environment information when an input image is captured by the imaging unit A difference interval determination unit that determines an interval for performing the interframe difference based on the input image or the environment information acquired by the environment information acquisition unit when the input image is input; A past image input in the past corresponding to the difference interval determined by the difference interval determination unit is acquired from the image storage unit, and a frame is obtained from the acquired past image and the input image input. By carrying out the difference between the over-time, characterized by comprising a differential extraction means for extracting difference, the.

本装置によれば、環境によらず安定的にフレーム間差分を抽出することが可能である。   According to this apparatus, it is possible to stably extract the interframe difference regardless of the environment.

以下に添付図面を参照して、この発明に係る画像処理装置の実施例を詳細に説明する。なお、以下では、本実施例で用いる主要な用語、本実施例に係る画像処理装置の概要および特徴、画像処理装置の構成および処理の流れを順に説明し、最後に本実施例に対する種々の変形例を説明する。   Embodiments of an image processing apparatus according to the present invention will be described below in detail with reference to the accompanying drawings. In the following, the main terms used in the present embodiment, the outline and features of the image processing apparatus according to the present embodiment, the configuration of the image processing apparatus and the flow of processing will be described in order, and finally various modifications to the present embodiment will be described. An example will be described.

[用語の説明]
まず最初に、本実施例で用いる主要な用語を説明する。本実施例で用いる「画像処理装置(特許請求の範囲に記載の「画像処理装置」に対応する。)」とは、画像を撮像するカメラ撮像部により撮像されて入力された入力画像と、過去に撮像された過去画像とからフレーム間差分を実施して、差分を抽出する装置のことである。また、画像を撮像して当該「画像処理装置」に入力する装置としては、上記したカメラに限定されることはなく、ビデオカメラやWebカメラなどでもよく、さらには、CDなどの記憶媒体から入力されてもよい。
[Explanation of terms]
First, main terms used in this embodiment will be described. An “image processing apparatus (corresponding to an“ image processing apparatus ”recited in the claims”) used in the present embodiment refers to an input image captured and input by a camera imaging unit that captures an image, This is a device that extracts a difference by performing an inter-frame difference from a past image captured in (1). In addition, the device that captures an image and inputs it to the “image processing device” is not limited to the above-described camera, and may be a video camera, a web camera, or the like, and further input from a storage medium such as a CD. May be.

また、本実施例で用いる「画像処理装置」は、説明上、自動車などが走る道路の信号機や標識に設置された場合について説明するが、本発明はこれに限定されるものではなく、飛行機や車両のなどの移動体に備えることもでき、信号機や標識、滑走路など固定的に設置することもできる。また、本実施例では、「画像処理装置」にカーナビゲーションシステムや自動車の制御システムなどに有線または無線で接続されており、カーナビゲーションシステムや自動車の制御システムは、当該「画像処理装置」から情報(抽出された差分)を受信すると、その情報に基づいて、ナビやブレーキ制御などを行うことができる。   In addition, the “image processing apparatus” used in the present embodiment will be described for the case where it is installed on a traffic signal or a sign on a road on which an automobile or the like runs. However, the present invention is not limited to this, and It can also be installed in a moving body such as a vehicle, and can be fixedly installed such as traffic lights, signs, and runways. In this embodiment, the “image processing apparatus” is connected to a car navigation system or a car control system by wire or wirelessly. The car navigation system or the car control system receives information from the “image processing apparatus”. When (extracted difference) is received, navigation and brake control can be performed based on the information.

[画像処理装置の概要および特徴]
次に、実施例1に係る画像処理装置の概要および特徴を説明する。この画像処理装置は、上記したように、画像を撮像する撮像部により撮像されて入力された入力画像と、過去に撮像された過去画像とからフレーム間差分を実施して、差分を抽出することを概要とするものであり、特に、環境によらず安定的にフレーム間差分を抽出することが可能であるに主たる特徴がある。
[Outline and Features of Image Processing Device]
Next, the outline and features of the image processing apparatus according to the first embodiment will be described. As described above, this image processing apparatus extracts a difference by performing an inter-frame difference from an input image captured and input by an imaging unit that captures an image and a past image captured in the past. In particular, the main feature is that the inter-frame difference can be stably extracted regardless of the environment.

具体的には、実施例1に係る画像処理装置は、カメラにより画像が撮像された環境として交通量、昼夜情報、信号機の状態、天候、移動体(被写体)の速度情報など様々な情報を取得する。そして、画像処理装置は、カメラにより撮像された入力画像が入力された場合に、当該入力画像または取得した環境情報に基づいて、フレーム間差分を実施する間隔を決定する。その後、画像処理装置は、決定した間隔を用いてフレーム間差分を実施し、差分(差分画像)を抽出する。   Specifically, the image processing apparatus according to the first embodiment acquires various information such as traffic volume, day / night information, traffic light status, weather, and speed information of a moving object (subject) as an environment in which an image is captured by a camera. To do. Then, when an input image captured by the camera is input, the image processing apparatus determines an interval for performing the inter-frame difference based on the input image or the acquired environment information. Thereafter, the image processing apparatus performs inter-frame difference using the determined interval, and extracts the difference (difference image).

このように、実施例1に係る画像処理装置は、移動体の速度情報だけでなく、様々な環境情報を取得してフレーム間差分間隔を決定し、決定した間隔でフレーム間差分を実施することができる結果、上記した主たる特徴のごとく、画像撮像時の環境によらず安定的にフレーム間差分を抽出することが可能である。   As described above, the image processing apparatus according to the first embodiment acquires not only the velocity information of the moving body but also various environment information to determine the interframe difference interval, and performs the interframe difference at the determined interval. As a result, as described above, it is possible to stably extract the inter-frame difference regardless of the environment at the time of image capturing as in the main feature.

[画像処理装置の構成]
次に、図1を用いて、画像処理装置の構成を説明する。図1は、実施例1に係る画像処理装置の構成を示すブロック図である。図1に示すように、この画像処理装置10は、入力画像受付部11と、外部センサ12と、画像管理DB20と、差分間隔DB21と、環境判定部30と、差分処理部31とから構成される。
[Configuration of image processing apparatus]
Next, the configuration of the image processing apparatus will be described with reference to FIG. FIG. 1 is a block diagram illustrating the configuration of the image processing apparatus according to the first embodiment. As shown in FIG. 1, the image processing apparatus 10 includes an input image receiving unit 11, an external sensor 12, an image management DB 20, a difference interval DB 21, an environment determination unit 30, and a difference processing unit 31. The

入力画像受付部11は、画像を撮像する撮像部により撮像されて入力された入力画像を受け付ける。具体的に例を挙げれば、入力画像受付部11は、カメラなどの撮影部により撮像された画像を受け付けて、接続される画像管理DB20に格納するとともに、当該受け付けた入力画像を環境判定部30に出力する。   The input image receiving unit 11 receives an input image that has been captured and input by an imaging unit that captures an image. To give a specific example, the input image receiving unit 11 receives an image captured by a shooting unit such as a camera, stores the image in the connected image management DB 20, and transmits the received input image to the environment determination unit 30. Output to.

外部センサ12は、撮像部により入力画像が撮像された際の環境情報を取得する。具体的に例を挙げれば、外部センサ12は、タイマ、温度センサ、視程計、雨量計、超音波などの交通量計測計などの各種センサを備え、撮像部により入力画像が撮像された際の環境情報として、時刻、日付、温度、天候、交通量などの情報を取得し、接続される環境判定部30に取得した情報を出力する。また、外部センサ12は、交差点の信号機などに接続されていてもよく、その場合は、信号機の点灯状態を取得して環境判定部30に出力する。   The external sensor 12 acquires environment information when an input image is captured by the imaging unit. For example, the external sensor 12 includes various sensors such as a timer, a temperature sensor, a visibility meter, a rain gauge, and a traffic meter such as an ultrasonic wave, and when the input image is captured by the imaging unit. Information such as time, date, temperature, weather, and traffic volume is acquired as environment information, and the acquired information is output to the connected environment determination unit 30. The external sensor 12 may be connected to an intersection traffic light or the like. In this case, the external sensor 12 acquires the lighting state of the traffic light and outputs it to the environment determination unit 30.

例えば、外部センサ12は、交通流計測が可能なセンサを用いて、道路上の車両の大まかな台数を把握したり、入力画像受付部11により受け付けられた入力画像の背景差分等に対して画像処理を行って台数を予測したりする。これによって、外部センサ12は、道路の交通量を判断し、その結果を後述する環境判定部30に出力する。また、外部センサ12は、タイマなどの時刻計測計から、撮像部により入力画像が撮像された際の時刻を取得し、当該時刻に基づいて「朝、昼、夜」などの環境情報を後述する環境判定部30に出力することもできる。   For example, the external sensor 12 uses a sensor capable of measuring traffic flow to grasp the approximate number of vehicles on the road, or to detect the background difference of the input image received by the input image receiving unit 11. Process and predict the number of units. Accordingly, the external sensor 12 determines the traffic volume on the road and outputs the result to the environment determination unit 30 described later. Further, the external sensor 12 acquires a time when the input image is captured by the imaging unit from a time measuring device such as a timer, and environmental information such as “morning, noon, night” is described later based on the time. It can also be output to the environment determination unit 30.

画像管理DB20は、撮像部により過去に撮像された過去画像を記憶する。具体的に例を挙げれば、画像管理DB20は、入力画像受付部11により受け付けられて、後述する差分処理部31によりフレーム間差分処理が実施された入力画像(現時点での処理対象フレーム)を記憶する。また、画像管理DB20は、差分処理部31により処理された入力画像を蓄積しておき、差分処理部31の指示操作により記憶する画像を出力する。   The image management DB 20 stores past images captured in the past by the imaging unit. For example, the image management DB 20 stores an input image (current processing target frame) received by the input image receiving unit 11 and subjected to inter-frame difference processing by a difference processing unit 31 described later. To do. Further, the image management DB 20 accumulates the input images processed by the difference processing unit 31, and outputs an image stored by an instruction operation of the difference processing unit 31.

差分間隔DB21は、外部センサ12により取得された環境情報に対応付けて、フレーム間差分を実施する間隔を記憶する。具体的に例を挙げれば、差分間隔DB21は、図2に示すように、『外部センサ12により取得された環境情報を示す「環境情報」、フレーム間差分を実施する間隔を示す「フレーム間差分間隔」』として「交通量大(渋滞)、10」や「交通量小、1」などと記憶する。また、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。なお、図2は、差分間隔DBに記憶される情報の例を示す図である。   The difference interval DB 21 stores an interval for performing the inter-frame difference in association with the environment information acquired by the external sensor 12. Specifically, as shown in FIG. 2, the difference interval DB 21 includes “environment information indicating environment information acquired by the external sensor 12” and “interframe difference indicating an interval for performing the interframe difference. As “interval” ”,“ large traffic volume (congestion), 10 ”,“ low traffic volume, 1 ”, etc. are stored. In addition, information including various data and parameters can be arbitrarily changed unless otherwise specified. FIG. 2 is a diagram illustrating an example of information stored in the difference interval DB.

環境判定部30は、入力画像が入力された場合に、当該入力画像または外部センサ12により取得された環境情報に基づいて、フレーム間差分を実施する間隔を決定する。上記した例で具体的に説明すると、環境判定部30は、外部センサ12により環境情報「交通量」が入力された場合、当該環境情報から交通量が「大(渋滞)」であるか「小(渋滞ではない)」であるかを判定する。そして、環境判定部30は、交通量が「大(渋滞)」であると判定した場合、差分間隔DB21から「交通量(大)」に対応する「差分間隔=10」を取得し、取得した差分間隔「10」を後述する差分処理部31に出力する。   When an input image is input, the environment determination unit 30 determines an interval for performing the inter-frame difference based on the input image or the environment information acquired by the external sensor 12. Specifically, in the above example, when the environmental information “traffic volume” is input from the external sensor 12, the environment determination unit 30 determines whether the traffic volume is “large (congested)” or “small” from the environmental information. (It is not a traffic jam). If the environment determination unit 30 determines that the traffic volume is “large (traffic jam)”, the environment determination unit 30 acquires “difference interval = 10” corresponding to “traffic volume (large)” from the difference interval DB 21 and acquires it. The difference interval “10” is output to the difference processor 31 described later.

また、環境判定部30は、外部センサ12から受け付けた環境情報だけでなく、入力画像受付部11から受け付けた入力画像から環境情報を判定することもできる。例えば、環境判定部30は、入力画像受付部11から受け付けた入力画像の平均輝度を算出し、算出した値が閾値以上であれば「昼」、閾値未満であれば「夜」などを判定することもできる。   The environment determination unit 30 can also determine the environment information from the input image received from the input image reception unit 11 as well as the environment information received from the external sensor 12. For example, the environment determination unit 30 calculates the average luminance of the input image received from the input image reception unit 11, and determines “day” if the calculated value is equal to or greater than the threshold, “night” if the calculated value is less than the threshold. You can also.

差分処理部31は、環境判定部30により決定された差分間隔に対応する過去に入力された過去画像を画像管理DB20から取得し、取得した過去画像と入力された入力画像とからフレーム間差分を実施して、差分を抽出する。上記した例で具体的に説明すると、差分処理部31は、環境判定部30により決定された差分間隔「1」を受信した場合、入力画像受付部11により受け付けられている現在フレーム(時刻t画像)の一つ前のフレーム(時刻t−1画像)を画像管理DB20から取得し、取得したフレームと入力された入力画像とからフレーム間差分を実施して、差分(差分画像)を抽出する。そして、差分処理部31は、当該画像処理装置10に接続されるカーナビゲーションシステムや車両制御システムなどに、抽出した差分(差分画像)を出力する。   The difference processing unit 31 acquires a past image input in the past corresponding to the difference interval determined by the environment determination unit 30 from the image management DB 20, and calculates an inter-frame difference from the acquired past image and the input image that has been input. Implement and extract the differences. Specifically, in the above example, when the difference processing unit 31 receives the difference interval “1” determined by the environment determination unit 30, the current frame (time t image) received by the input image reception unit 11. The previous frame (time t-1 image) is acquired from the image management DB 20, and an inter-frame difference is performed from the acquired frame and the input image that has been input to extract the difference (difference image). Then, the difference processing unit 31 outputs the extracted difference (difference image) to a car navigation system, a vehicle control system, or the like connected to the image processing apparatus 10.

また、例えば、差分処理部31は、環境判定部30により決定された差分間隔「10」を受信した場合、入力画像受付部11により受け付けられている現在フレーム(時刻t画像)の10個前のフレーム(時刻t−10画像)を画像管理DB20から取得し、取得したフレームと入力された入力画像とからフレーム間差分を実施して、差分(差分画像)を抽出する。そして、差分処理部31は、当該画像処理装置10に接続されるカーナビゲーションシステムや車両制御システムなどに、抽出した差分(差分画像)を出力する。   For example, when the difference processing unit 31 receives the difference interval “10” determined by the environment determination unit 30, the difference processing unit 31 is ten frames before the current frame (time t image) received by the input image receiving unit 11. A frame (time t-10 image) is acquired from the image management DB 20, and an inter-frame difference is performed from the acquired frame and the input image that has been input, and the difference (difference image) is extracted. Then, the difference processing unit 31 outputs the extracted difference (difference image) to a car navigation system, a vehicle control system, or the like connected to the image processing apparatus 10.

[画像処理装置による処理]
次に、図3を用いて、画像処理装置による差分抽出処理を説明する。図3は、実施例1に係る画像処理装置における差分抽出処理の流れを示すフローチャートである。
[Processing by image processing device]
Next, difference extraction processing by the image processing apparatus will be described with reference to FIG. FIG. 3 is a flowchart illustrating the flow of the difference extraction process in the image processing apparatus according to the first embodiment.

(差分抽出処理の流れ)
図3に示すように、画像処理装置10は、入力画像が入力されると(ステップS101肯定)、当該入力画像を画像管理DB20に格納するために、過去画像管理処理を実施する(ステップS102)。なお、過去画像管理処理は、後述する図5において、詳細に説明する。
(Difference extraction process flow)
As shown in FIG. 3, when an input image is input (Yes at Step S101), the image processing apparatus 10 performs past image management processing in order to store the input image in the image management DB 20 (Step S102). . The past image management process will be described in detail with reference to FIG.

そして、画像処理装置10は、外部センサ12から環境情報を取得し(ステップS103)、環境判定を行う(ステップS104)。具体的に例を挙げると、画像処理装置10は、外部センサ12から環境情報「交通量」を取得し、当該交通量が「大」であるか「小」であるかの環境判定を行う。なお、ここでは、画像処理装置10は、交通量が「大」であると判定する。   Then, the image processing apparatus 10 acquires environment information from the external sensor 12 (step S103) and performs environment determination (step S104). To give a specific example, the image processing apparatus 10 acquires environmental information “traffic volume” from the external sensor 12, and determines whether the traffic volume is “large” or “small”. Here, the image processing apparatus 10 determines that the traffic volume is “large”.

続いて、画像処理装置10は、判定した結果に基づいて差分間隔を差分間隔DB21から取得し(ステップS105)、取得した差分間隔に基づいて、フレーム間差分を実施して差分を抽出し(ステップS106)、抽出した結果を接続される各種装置に出力する(ステップS107)。このように、画像処理装置10は、入力された入力画像に対して、上記したステップS101〜ステップS107の処理を実行する。   Subsequently, the image processing apparatus 10 acquires a difference interval from the difference interval DB 21 based on the determined result (Step S105), and performs an inter-frame difference based on the acquired difference interval to extract the difference (Step S105). (S106), the extracted result is output to various devices connected (step S107). As described above, the image processing apparatus 10 performs the processes of steps S101 to S107 described above on the input image that has been input.

具体的に例を挙げると、画像処理装置10は、判定した結果「交通量大」に基づいて差分間隔「10」を差分間隔DB21から取得する。そして、画像処理装置は、入力画像受付部11により受け付けられている現在フレーム(時刻t画像)の10個前のフレーム(時刻t−10画像)を画像管理DB20から取得し、取得したフレームと入力された入力画像とからフレーム間差分を実施して、差分(差分画像)を抽出する。そして、画像処理装置10は、接続されるカーナビゲーションシステムや車両制御システムなどに、抽出した差分(差分画像)を出力する。   As a specific example, the image processing apparatus 10 acquires the difference interval “10” from the difference interval DB 21 based on the determined result “high traffic volume”. Then, the image processing apparatus acquires from the image management DB 20 a frame (time t-10 image) that is ten frames before the current frame (time t image) received by the input image receiving unit 11, and acquires the acquired frame and input. The difference between the frames is performed from the input image thus obtained, and the difference (difference image) is extracted. Then, the image processing apparatus 10 outputs the extracted difference (difference image) to a connected car navigation system, vehicle control system, or the like.

(過去画像管理処理の流れ)
次に、図4を用いて、画像処理装置による過去画像管理処理を説明する。図4は、実施例1に係る画像処理装置における過去画像管理処理の流れを示すフローチャートである。なお、ここで説明する過去画像管理処理は、図3のステップS102に該当する処理である。
(Past image management process flow)
Next, the past image management processing by the image processing apparatus will be described with reference to FIG. FIG. 4 is a flowchart illustrating the flow of past image management processing in the image processing apparatus according to the first embodiment. The past image management process described here is a process corresponding to step S102 in FIG.

図4に示すように、画像処理装置10は、入力画像が入力されると、画像管理DB20のリスト容量を取得し(ステップS201)、空き容量があるかないかを判定する(ステップS202)。   As shown in FIG. 4, when an input image is input, the image processing apparatus 10 acquires the list capacity of the image management DB 20 (step S201), and determines whether there is a free capacity (step S202).

そして、画像管理DB20に空き容量がある場合(ステップS202肯定)、画像処理装置は、入力画像受付部11により受け付けられた入力画像を画像管理DB20に登録する(ステップS203)。   If there is free space in the image management DB 20 (Yes in step S202), the image processing apparatus registers the input image received by the input image receiving unit 11 in the image management DB 20 (step S203).

一方、画像管理DB20に空き容量がない場合(ステップS202否定)、画像処理装置は、画像管理DB20に記憶される最も過去の画像を削除して空き容量を確保した後に(ステップS204)、入力画像受付部11により受け付けられた入力画像を画像管理DB20に登録する(ステップS203)。   On the other hand, when there is no free space in the image management DB 20 (No in step S202), the image processing apparatus deletes the most past image stored in the image management DB 20 to secure free space (step S204), and then the input image. The input image received by the receiving unit 11 is registered in the image management DB 20 (step S203).

[実施例1による効果]
このように、実施例1によれば、カメラにより過去に撮像された過去画像を記憶し、カメラにより入力画像が撮像された際の環境情報を取得し、入力画像が入力された場合に、当該入力画像または取得された環境情報に基づいて、フレーム間差分を実施する間隔を決定し、決定された差分間隔に対応する過去に入力された過去画像を取得し、取得した過去画像と入力された入力画像とからフレーム間差分を実施して、差分を抽出するので、移動体の速度情報だけでなく、様々な環境情報を取得してフレーム間差分間隔を決定し、決定した間隔でフレーム間差分を実施することができる結果、上記した主たる特徴のごとく、画像撮像時の環境によらず安定的にフレーム間差分を抽出することが可能である。
[Effects of Example 1]
As described above, according to the first embodiment, the past image captured by the camera is stored, the environment information when the input image is captured by the camera is acquired, and when the input image is input, Based on the input image or the acquired environment information, the interval for performing the inter-frame difference is determined, the past image input in the past corresponding to the determined difference interval is acquired, and the acquired past image is input Since the difference between frames is extracted from the input image and the difference is extracted, not only the velocity information of the moving body but also various environment information is acquired to determine the difference interval between frames, and the difference between frames is determined at the determined interval. As a result, it is possible to stably extract the inter-frame difference regardless of the environment at the time of image capturing as in the main feature described above.

また、実施例1によれば、検出対象を含めた環境情報に応じて差分を取る間隔を決定するので、どのような状況であっても、精度良く画像差分を検出することが可能になる。また、環境情報に応じて、差分をとるフレーム間隔を変更するだけなので、画像領域を分けて処理する方法と比較して、処理量が軽量で済む。   In addition, according to the first embodiment, since the interval at which the difference is taken is determined according to the environment information including the detection target, it is possible to detect the image difference with high accuracy in any situation. Further, since only the frame interval for obtaining the difference is changed according to the environment information, the processing amount is lighter compared with the method of processing the image area separately.

また、実施例1によれば、カメラにより入力画像が撮像された際の環境情報として交通量を取得し、取得された交通量が多い場合(渋滞している場合)のフレーム間差分の間隔を、交通量が少ない場合に比べて長い間隔として決定するので、カーナビゲーションシステムなど、自動車などの車両に対しても、容易に適用することが可能である。   Further, according to the first embodiment, the traffic volume is acquired as environment information when the input image is captured by the camera, and the difference between frames when the acquired traffic volume is large (when traffic is congested) is set. Since it is determined as a longer interval than when the traffic volume is small, it can be easily applied to a vehicle such as an automobile such as a car navigation system.

ところで、実施例1では、環境情報として交通量を用いて差分間隔を決定する場合について主に説明したが、本発明はこれに限定されるものではなく、他の様々な情報を用いて差分間隔を決定することができる。   By the way, in Example 1, although the case where the difference space | interval was mainly determined using traffic as environmental information was demonstrated, this invention is not limited to this, A difference space | interval using other various information Can be determined.

そこで、実施例2では、図5〜図7を用いて、交通量以外の情報を用いて差分間隔を決定する場合について説明する。なお、実施例2では、撮像時間帯、撮像時の信号点灯状態、撮像時間と信号点灯状態の3つの例について説明する。   Accordingly, in the second embodiment, a case where the difference interval is determined using information other than the traffic volume will be described with reference to FIGS. In the second embodiment, three examples of an imaging time zone, a signal lighting state during imaging, an imaging time and a signal lighting state will be described.

(撮像時間帯を用いて差分間隔を決定)
実施例2に係る画像処理装置10は、図5に示すように、『外部センサ12により取得された環境情報を示す「時間帯」、フレーム間差分を実施する間隔を示す「フレーム間差分間隔」』として「昼、1」や「夜、2」などと差分間隔DB21に記憶する。また、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。なお、図5は、実施例2に係る差分間隔DBに記憶される撮像時間帯の例を示す図である。
(Determine difference interval using imaging time zone)
As shown in FIG. 5, the image processing apparatus 10 according to the second embodiment has “a time zone indicating environmental information acquired by the external sensor 12” and “interframe difference interval” indicating an interval for performing an interframe difference. As “daytime, 1”, “nighttime, 2” and the like in the difference interval DB 21. In addition, information including various data and parameters can be arbitrarily changed unless otherwise specified. FIG. 5 is a diagram illustrating an example of the imaging time period stored in the difference interval DB according to the second embodiment.

このような状態において、画像処理装置は、外部センサ12から環境情報を取得し、環境判定を行って、フレーム差分間隔を決定する。上記した例で具体的に説明すると、画像処理装置10は、タイマなどの時刻計測計を用いて外部センサ12により、カメラにより入力画像が撮像された際の時刻を取得する。そして、画像処理装置10は、取得した時刻が所定の閾値(例えば、9:00〜16:00)の間であれば「昼」と判定し、判定した「昼」に対応付けて差分間隔DB21に記憶されるフレーム間差分間隔「1」を取得する。   In such a state, the image processing apparatus acquires environment information from the external sensor 12, performs environment determination, and determines a frame difference interval. Specifically, in the above example, the image processing apparatus 10 acquires the time when the input image is captured by the camera by the external sensor 12 using a time measuring device such as a timer. Then, the image processing apparatus 10 determines “daytime” if the acquired time is between a predetermined threshold value (for example, 9:00 to 16:00), and associates the determined “daytime” with the difference interval DB21. The inter-frame difference interval “1” stored in is acquired.

そして、画像処理装置10は、取得したフレーム間差分間隔「1」に基づいて、入力画像受付部11により受け付けられている現在フレーム(時刻t画像)の1つ前のフレーム(時刻t−1画像)を画像管理DB20から取得し、取得したフレームと入力された入力画像とからフレーム間差分を実施して、差分(差分画像)を抽出する。そして、画像処理装置10は、当該画像処理装置10に接続されるカーナビゲーションシステムや車両制御システムなどに、抽出した差分(差分画像)を出力する。   The image processing apparatus 10 then, based on the acquired inter-frame difference interval “1”, the previous frame (time t−1 image) of the current frame (time t image) received by the input image receiving unit 11. ) Is acquired from the image management DB 20, and the difference between frames is extracted from the acquired frame and the input image that has been input, and the difference (difference image) is extracted. Then, the image processing apparatus 10 outputs the extracted difference (difference image) to a car navigation system or a vehicle control system connected to the image processing apparatus 10.

また、例えば、画像処理装置10は、取得した時刻が所定の閾値(例えば、16:01〜8:59)の間であれば「夜」と判定し、判定した「夜」に対応付けて差分間隔DB21に記憶されるフレーム間差分間隔「2」を取得する。   Further, for example, the image processing apparatus 10 determines “night” if the acquired time is between a predetermined threshold (for example, 16:01 to 8:59), and the difference is associated with the determined “night”. The inter-frame difference interval “2” stored in the interval DB 21 is acquired.

そして、画像処理装置10は、取得したフレーム間差分間隔「2」に基づいて、入力画像受付部11により受け付けられている現在フレーム(時刻t画像)の2つ前のフレーム(時刻t−2画像)を画像管理DB20から取得し、取得したフレームと入力された入力画像とからフレーム間差分を実施して、差分(差分画像)を抽出する。そして、画像処理装置10は、当該画像処理装置10に接続されるカーナビゲーションシステムや車両制御システムなどに、抽出した差分(差分画像)を出力する。   Then, the image processing apparatus 10, based on the acquired inter-frame difference interval “2”, the frame (time t−2 image) immediately before the current frame (time t image) received by the input image receiving unit 11. ) Is acquired from the image management DB 20, and the difference between frames is extracted from the acquired frame and the input image that has been input, and the difference (difference image) is extracted. Then, the image processing apparatus 10 outputs the extracted difference (difference image) to a car navigation system or a vehicle control system connected to the image processing apparatus 10.

このように、画像処理装置10は、カメラにより入力画像が撮像された際の環境情報として昼夜情報を取得し、取得された昼夜情報が夜である場合のフレーム間差分の間隔を、昼夜情報が昼である場合に比べて長い間隔として決定する、すなわち画像上で対象物を判別しにくい場合にフレーム間差分の間隔をより長くするように決定するので、交通量ではなく、撮像された時刻を用いた場合でも、安定的にフレーム間差分を抽出することが可能である。   In this way, the image processing apparatus 10 acquires day / night information as environment information when an input image is captured by the camera, and the day / night information indicates the interval between frame differences when the acquired day / night information is night. Since it is determined as a longer interval than in the case of noon, that is, when it is difficult to discriminate the object on the image, the interval between frames is determined to be longer. Even when it is used, it is possible to stably extract the inter-frame difference.

(撮像時の信号点灯状態を用いて差分間隔を決定)
実施例2に係る画像処理装置10は、図6に示すように、『外部センサ12により取得された環境情報を示す「信号」、フレーム間差分を実施する間隔を示す「フレーム間差分間隔」』として「青、1」、「黄、2」、「赤、10」などと差分間隔DB21に記憶する。また、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。なお、図6は、実施例2に係る差分間隔DBに記憶される撮像時の信号点灯状態の例を示す図である。
(The difference interval is determined using the signal lighting state at the time of imaging.)
The image processing apparatus 10 according to the second embodiment, as shown in FIG. 6, “a signal indicating environmental information acquired by the external sensor 12 and an“ interframe difference interval ”indicating an interval for performing an interframe difference”. Are stored in the difference interval DB 21 as “blue, 1”, “yellow, 2”, “red, 10” and the like. In addition, information including various data and parameters can be arbitrarily changed unless otherwise specified. FIG. 6 is a diagram illustrating an example of a signal lighting state at the time of imaging stored in the difference interval DB according to the second embodiment.

このような状態において、画像処理装置は、信号機に接続される外部センサ12から環境情報を取得し、環境判定を行って、フレーム差分間隔を決定する。上記した例で具体的に説明すると、画像処理装置10は、接続される信号機から信号状態を受信した外部センサ12により、カメラにより入力画像が撮像された際の信号状態を取得する。そして、画像処理装置10は、取得した信号状態が「赤」であれば、「赤」に対応付けて差分間隔DB21に記憶されるフレーム間差分間隔「10」を取得する。   In such a state, the image processing apparatus acquires environment information from the external sensor 12 connected to the traffic light, performs environment determination, and determines a frame difference interval. Specifically, in the above example, the image processing apparatus 10 acquires the signal state when the input image is captured by the camera by the external sensor 12 that has received the signal state from the connected traffic signal. If the acquired signal state is “red”, the image processing apparatus 10 acquires the inter-frame difference interval “10” stored in the difference interval DB 21 in association with “red”.

そして、画像処理装置10は、取得したフレーム間差分間隔「10」に基づいて、入力画像受付部11により受け付けられている現在フレーム(時刻t画像)の10個前のフレーム(時刻t−10画像)を画像管理DB20から取得し、取得したフレームと入力された入力画像とからフレーム間差分を実施して、差分(差分画像)を抽出する。そして、画像処理装置10は、当該画像処理装置10に接続されるカーナビゲーションシステムや車両制御システムなどに、抽出した差分(差分画像)を出力する。   Then, the image processing apparatus 10, based on the acquired inter-frame difference interval “10”, the 10 frames before the current frame (time t image) received by the input image receiving unit 11 (time t-10 image). ) Is acquired from the image management DB 20, and the difference between frames is extracted from the acquired frame and the input image that has been input, and the difference (difference image) is extracted. Then, the image processing apparatus 10 outputs the extracted difference (difference image) to a car navigation system or a vehicle control system connected to the image processing apparatus 10.

また、例えば、画像処理装置10は、信号状態が「青」または「黄」であっても、上記した例と同様に、フレーム間差分間隔を決定して、差分を抽出することができる。このように、画像処理装置10は、カメラにより入力画像が撮像された際の環境情報として信号機状態を取得し、取得された信号機状態が黄色または赤色である場合のフレーム間差分の間隔を、信号機状態が青色である場合に比べて長い間隔として決定し、また、取得された信号機状態が赤色である場合のフレーム間差分の間隔を、信号機状態が黄色である場合に比べて長い間隔として決定する、すなわち画像上で対象物の移動速度が遅い場合にフレーム間差分の間隔をより長くするように決定するので、交通量ではなく、撮像時の信号機の状態を用いた場合でも、安定的にフレーム間差分を抽出することが可能である。   Further, for example, even when the signal state is “blue” or “yellow”, the image processing apparatus 10 can determine the inter-frame difference interval and extract the difference similarly to the above-described example. As described above, the image processing apparatus 10 acquires the traffic signal state as environment information when the input image is captured by the camera, and determines the interval of the inter-frame difference when the acquired traffic signal state is yellow or red. The interval is determined as a longer interval than when the state is blue, and the difference between frames when the acquired traffic light state is red is determined as a longer interval than when the traffic light state is yellow. In other words, when the moving speed of the object is slow on the image, it is determined to increase the difference between frames, so even if the traffic light state is used instead of the traffic volume, the frame can be stably displayed. It is possible to extract the difference between the two.

(撮像時間と信号点灯状態を用いて差分間隔を決定)
実施例2に係る画像処理装置10は、外部センサ12により取得された環境情報を示す「信号」と「時間帯」とに対応付けて、フレーム間差分を実施する間隔を示す「フレーム間差分間隔」を記憶する差分間隔DB22を備える。例えば、画像処理装置10は、図7に示すように、「青、昼、1」、「赤、夜、15」などを差分間隔DB22に記憶する。また、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。なお、図7は、実施例2に係る差分間隔DBに記憶される撮像時間と信号点灯状態の例を示す図である。
(Difference interval is determined using imaging time and signal lighting state)
The image processing apparatus 10 according to the second embodiment includes an “interframe difference interval” indicating an interval for performing an interframe difference in association with a “signal” indicating the environment information acquired by the external sensor 12 and a “time zone”. The difference interval DB 22 is stored. For example, as illustrated in FIG. 7, the image processing apparatus 10 stores “blue, daytime, 1”, “red, night, 15”, and the like in the difference interval DB 22. In addition, information including various data and parameters can be arbitrarily changed unless otherwise specified. FIG. 7 is a diagram illustrating an example of an imaging time and a signal lighting state stored in the difference interval DB according to the second embodiment.

このような状態において、画像処理装置は、タイマなどの時刻計測計を備え、信号機に接続される外部センサ12から環境情報を取得し、環境判定を行って、フレーム差分間隔を決定する。上記した例で具体的に説明すると、画像処理装置10は、タイマなどの時刻計測計を用いて外部センサ12により、カメラにより入力画像が撮像された際の時刻を取得する。同時に、画像処理装置10は、接続される信号機から信号状態を受信した外部センサ12により、カメラにより入力画像が撮像された際の信号状態を取得する。   In such a state, the image processing apparatus includes a time counter such as a timer, acquires environment information from the external sensor 12 connected to the traffic light, performs environment determination, and determines a frame difference interval. Specifically, in the above example, the image processing apparatus 10 acquires the time when the input image is captured by the camera by the external sensor 12 using a time measuring device such as a timer. At the same time, the image processing apparatus 10 acquires the signal state when the input image is captured by the camera by the external sensor 12 that has received the signal state from the connected traffic signal.

そして、画像処理装置10は、信号状態が「赤」であり、撮像された時間帯が所定の閾値(例えば、16:01〜8:59)の間であれば「夜」と判定し、「赤、夜」に対応付けて差分間隔DB22に記憶されるフレーム間差分間隔「15」を取得する。   Then, the image processing apparatus 10 determines “night” if the signal state is “red” and the captured time zone is within a predetermined threshold (for example, 16:01 to 8:59), and “ The inter-frame difference interval “15” stored in the difference interval DB 22 in association with “red, night” is acquired.

そして、画像処理装置10は、取得した差分間隔「15」に基づいて、入力画像受付部11により受け付けられている現在フレーム(時刻t画像)の15個前のフレーム(時刻t−15画像)を画像管理DB20から取得し、取得したフレームと入力された入力画像とからフレーム間差分を実施して、差分(差分画像)を抽出する。そして、画像処理装置10は、当該画像処理装置10に接続されるカーナビゲーションシステムや車両制御システムなどに、抽出した差分(差分画像)を出力する。   Then, the image processing apparatus 10 determines the 15 frames (time t-15 image) before the current frame (time t image) received by the input image receiving unit 11 based on the acquired difference interval “15”. An inter-frame difference is acquired from the acquired image management DB 20 and the acquired frame and the input image are input, and a difference (difference image) is extracted. Then, the image processing apparatus 10 outputs the extracted difference (difference image) to a car navigation system or a vehicle control system connected to the image processing apparatus 10.

このように、画像処理装置10は、撮像された時刻と信号機の状態との両方を用いることにより、より安定的かつより正確なフレーム間差分を抽出することが可能である。   As described above, the image processing apparatus 10 can extract a more stable and more accurate inter-frame difference by using both the imaged time and the traffic light state.

ところで、実施例1と2では、決定した差分間隔に対応する過去画像全体と入力画像全体とについてフレーム間差分を実施して、差分を抽出する例について説明したが、本発明はこれに限定されるものではなく、入力画像を複数の領域に分割して、分割した領域ごとに差分間隔を決定し、領域ごとにフレーム間差分を実施して差分を抽出することもできる。   By the way, in the first and second embodiments, the example in which the inter-frame difference is performed on the entire past image and the entire input image corresponding to the determined difference interval and the difference is extracted has been described, but the present invention is limited to this. Instead, the input image may be divided into a plurality of regions, a difference interval may be determined for each divided region, and a difference between the frames may be extracted for each region.

そこで、実施例3では、図8を用いて、入力画像を複数の領域に分割して、分割した領域ごとに差分間隔を決定し、領域ごとにフレーム間差分を実施して差分を抽出する例について説明する。図8は、実施例3に係る画像処理装置の処理を説明するための図である。   Therefore, in the third embodiment, an example in which an input image is divided into a plurality of regions, a difference interval is determined for each divided region, and a difference between frames is extracted for each region by using FIG. Will be described. FIG. 8 is a diagram for explaining processing of the image processing apparatus according to the third embodiment.

実施例3に係る画像処理装置は、入力画像に撮像されている物体までの距離と撮像された環境の状態(例えば、信号機の状態、交通量、天候、時間帯など)に対応付けて、フレーム間差分間隔を記憶する差分間隔DBを備える。例えば、画像処理装置は、「距離=20m、信号状態=青、交通量=小、間隔=3」などと記憶する差分間隔DBを備える。   The image processing apparatus according to the third embodiment includes a frame in association with a distance to an object captured in an input image and an environment state (for example, traffic light state, traffic volume, weather, time zone). A difference interval DB for storing the difference interval is provided. For example, the image processing apparatus includes a difference interval DB that stores “distance = 20 m, signal state = blue, traffic volume = small, interval = 3”, and the like.

このような状態において、図8に示すように、画像処理装置は、入力された入力画像を複数の領域((1)〜(n))に分割し、分割したそれぞれの領域に撮像されている物体(例えば、自動車などの移動体や看板など)までの距離を算出する。また、画像処理装置は、これと同時に、実施例1〜2と同様の環境情報を取得する。ここで、物体までの距離を算出する手法としては、例えば、当該物体の画素値から算出したり、物体の大きさから距離を算出したりするなど様々な公知の手法を用いることができる。   In such a state, as shown in FIG. 8, the image processing apparatus divides the input image into a plurality of regions ((1) to (n)), and is captured in each of the divided regions. A distance to an object (for example, a moving body such as an automobile or a signboard) is calculated. At the same time, the image processing apparatus acquires the same environment information as in the first and second embodiments. Here, as a method for calculating the distance to the object, for example, various known methods such as calculating from the pixel value of the object or calculating the distance from the size of the object can be used.

そして、画像処理装置は、分割した入力画像の各領域ごとに、物体までの距離と環境情報とに基づいて、フレーム間差分間隔を差分間隔DBから取得する。そして、画像処理装置は、分割した入力画像の各領域ごとに取得した差分間隔に基づいて、領域ごとに過去画像を取得し、それらを合成した比較画像を生成する。   Then, the image processing apparatus acquires the inter-frame difference interval from the difference interval DB based on the distance to the object and the environment information for each area of the divided input image. Then, the image processing apparatus acquires a past image for each area based on the difference interval acquired for each area of the divided input image, and generates a comparison image obtained by synthesizing them.

例えば、画像処理装置は、図8に示すように、領域(1)については差分間隔「1」、領域(2)については差分間隔「2」、領域(3)については差分間隔「3」、領域(n)については差分間隔「n」を取得する。そして、画像処理装置は、領域(1)については「時刻t−1画像」、領域(2)については「時刻t−2画像」、領域(3)については「時刻t−3画像」、領域(n)については「時刻t−n画像」を取得して、これらを合成した比較画像を生成する。なお、ここでは、現在入力されている画像(フレーム)を「時刻t画像」として説明している。つまり、「時刻t−1画像」とは、現在の入力画像の一つ前の画像を示している。   For example, as shown in FIG. 8, the image processing apparatus has a difference interval “1” for the region (1), a difference interval “2” for the region (2), a difference interval “3” for the region (3), For the region (n), the difference interval “n” is acquired. Then, the image processing apparatus displays “time t-1 image” for area (1), “time t-2 image” for area (2), and “time t-3 image” for area (3). For (n), a “time t−n image” is acquired, and a comparison image obtained by combining these is generated. Here, the currently input image (frame) is described as “time t image”. That is, “time t−1 image” indicates an image immediately before the current input image.

その後、画像処理装置は、生成した比較画像と現在入力されている画像(フレーム)を「時刻t画像」とのフレーム間差分処理を実施して、差分を抽出する。   Thereafter, the image processing apparatus performs inter-frame difference processing between the generated comparison image and the currently input image (frame) between the “time t image” and extracts the difference.

このように、実施例3によれば、カメラにより入力画像を複数の領域に分割して、それぞれの領域ごとに撮像された際の環境情報を取得し、取得された複数の領域毎の環境情報に基づいて、複数の領域毎にフレーム間差分を実施する間隔を決定し、決定された複数の領域毎の差分間隔に対応する過去に入力された過去画像を取得して、複数の領域毎にフレーム間差分を実施して、差分を抽出するので、画像全体でフレーム間差分間隔を決定する場合に比べて、より環境情報を考慮したフレーム間差分間隔を決定することができる結果、どのような環境であっても、より精度の高い差分を得ることが可能である。   As described above, according to the third embodiment, the input image is divided into a plurality of areas by the camera, the environment information obtained when each of the areas is captured is acquired, and the acquired environment information for each of the plurality of areas is acquired. Based on the above, determine the interval for performing the inter-frame difference for each of the plurality of regions, obtain the past image input in the past corresponding to the determined difference interval for each of the plurality of regions, for each of the plurality of regions Since the difference is extracted by performing the inter-frame difference, the inter-frame difference interval can be determined more in consideration of the environment information than when determining the inter-frame difference interval in the entire image. Even in an environment, it is possible to obtain a difference with higher accuracy.

ところで、実施例3では、入力画像を複数の領域に分割して、分割した領域ごとに差分間隔を決定し、領域ごとにフレーム間差分を実施して差分を抽出する例について説明したが、本発明はこれに限定されるものではなく、入力画像の各画素ごとに差分間隔を決定し、領域ごとにフレーム間差分を実施して差分を抽出することもできる。   In the third embodiment, an example is described in which an input image is divided into a plurality of regions, a difference interval is determined for each divided region, and an inter-frame difference is performed for each region to extract the difference. The invention is not limited to this, and a difference interval may be determined for each pixel of the input image, and the difference may be extracted by performing the inter-frame difference for each region.

そこで、実施例4では、図9を用いて、入力画像の各画素ごとに差分間隔を決定し、領域ごとにフレーム間差分を実施して差分を抽出する場合の処理の流れについて説明する。図9は、実施例4に係る画像処理装置の処理を説明するためのフローチャートである。   Therefore, in the fourth embodiment, a flow of processing when a difference interval is determined for each pixel of the input image and an inter-frame difference is performed for each region to extract the difference will be described with reference to FIG. FIG. 9 is a flowchart for explaining processing of the image processing apparatus according to the fourth embodiment.

図9に示すように、実施例4に係る画像処理装置は、入力画像が入力されると、フレーム間差分の比較対象となる比較画像を生成するための領域である画像バッファを生成(確保)する(ステップS301)。   As illustrated in FIG. 9, when an input image is input, the image processing apparatus according to the fourth embodiment generates (reserves) an image buffer that is an area for generating a comparison image to be compared for inter-frame differences. (Step S301).

そして、画像処理装置は、入力画像の横軸X座標=0、縦軸Y座標=0として、左上の画素(X=1、Y=1)と、変数XとYとを初期化する(ステップS302)。なお、入力画像の右下の画素の座標を「X=n、Y=n」とする。   Then, the image processing apparatus initializes the upper left pixel (X = 1, Y = 1) and the variables X and Y with the horizontal axis X coordinate = 0 and the vertical axis Y coordinate = 0 of the input image (step) S302). Note that the coordinates of the lower right pixel of the input image are “X = n, Y = n”.

その後、画像処理装置は、入力画像の左上画素「X=1、Y=1」から入力画像の右下画素「X=n、Y=n」の全ての画素に対して、対象画素の距離を計算し(ステップS303およびステップS304)、対象画素の差分間隔を差分間隔DBから取得し(ステップS305)、取得した差分間隔に対応する過去画像を画像管理DBから取得し(ステップS306)、取得した過去画像から処理対象画素の位置(例えば、「X=1、Y=1」)に対応する画素値を取得して、画像バッファの「X=1、Y=1」に当該画素値を代入する(ステップS307)。   Thereafter, the image processing apparatus sets the distance of the target pixel to all the pixels from the upper left pixel “X = 1, Y = 1” of the input image to the lower right pixel “X = n, Y = n” of the input image. Calculate (step S303 and step S304), obtain the difference interval of the target pixel from the difference interval DB (step S305), obtain the past image corresponding to the obtained difference interval from the image management DB (step S306), and obtain A pixel value corresponding to the position of the processing target pixel (for example, “X = 1, Y = 1”) is acquired from the past image, and the pixel value is substituted into “X = 1, Y = 1” of the image buffer. (Step S307).

そして、画像処理装置は、入力画像の左上画素「X=1、Y=1」から入力画像の右下画素「X=n、Y=n」の全ての画素に対して、上記したステップS304〜ステップS307の処理を行うと(ステップS308肯定)、生成された画像バッファを比較画像として、入力画像と比較画像とのフレーム間差分を実施して、差分を抽出する。   The image processing apparatus then performs steps S304 to S304 described above for all the pixels from the upper left pixel “X = 1, Y = 1” of the input image to the lower right pixel “X = n, Y = n” of the input image. When the processing in step S307 is performed (Yes in step S308), the difference between the input image and the comparison image is extracted by using the generated image buffer as the comparison image, and the difference is extracted.

このように、実施例4によれば、カメラにより入力画像の各画素毎に、撮像された際の環境情報を取得し、取得された各画素毎の環境情報に基づいて、各画素毎にフレーム間差分を実施する間隔を決定し決定された各画素毎の差分間隔に対応する過去に入力された過去画像を取得し、各画素毎にフレーム間差分を実施して、差分を抽出するので、画像全体でフレーム間差分間隔を決定する場合や画像を分割した領域ごとにフレーム間差分を決定する場合に比べて、より環境情報を考慮したフレーム間差分間隔を決定することができる結果、どのような環境であっても、より精度の高い差分を得ることが可能である。   As described above, according to the fourth embodiment, the environment information at the time of imaging is obtained for each pixel of the input image by the camera, and the frame is obtained for each pixel based on the obtained environment information for each pixel. Since the past image input in the past corresponding to the determined difference interval for each pixel is determined and the inter-frame difference is performed for each pixel, and the difference is extracted. Compared to the case where the interframe difference interval is determined for the entire image or the case where the interframe difference is determined for each divided area of the image, the interframe difference interval can be determined in consideration of environmental information. Even in a difficult environment, it is possible to obtain a difference with higher accuracy.

ところで、実施例1〜4では、取得した環境情報に基づいて、予め記憶する差分間隔を取得する例について説明したが、本発明はこれに限定されるものではなく、取得した環境情報に基づいて、差分間隔を算出することもできる。   By the way, although Example 1-4 demonstrated the example which acquires the difference space | interval memorize | stored beforehand based on the acquired environmental information, this invention is not limited to this, Based on the acquired environmental information The difference interval can also be calculated.

そこで、実施例5では、図10〜図12を用いて、取得した環境情報に基づいて、差分間隔を算出する様々な例について説明する。   Accordingly, in the fifth embodiment, various examples of calculating the difference interval based on the acquired environment information will be described with reference to FIGS.

(交通量から差分間隔を算出する例)
まず、図10を用いて、交通量から差分間隔を算出する例について説明する。図10の(1)に示すように、画像処理装置は、差分間隔算出式のパラメータとして「車両の長さ=5m、車両間=2.5m、入力画像から車両を特定する範囲を示す観察範囲=0〜100m」が予め設定されている。なお、上記した数値はあくまで例であり、これに限定されるものではない。また、図10は、交通量から差分間隔を算出するための算出式の例を示す図である。
(Example of calculating the difference interval from traffic volume)
First, an example of calculating the difference interval from the traffic volume will be described with reference to FIG. As shown in (1) of FIG. 10, the image processing apparatus uses “the length of the vehicle = 5 m, the distance between the vehicles = 2.5 m, and an observation range indicating a range for identifying the vehicle from the input image as parameters of the difference interval calculation formula. = 0 to 100 m "is preset. In addition, the above-mentioned numerical value is an example to the last, and is not limited to this. FIG. 10 is a diagram illustrating an example of a calculation formula for calculating the difference interval from the traffic volume.

このような状態において、画像処理装置は、例えば、入力画像に5台の車両が撮像されていた場合、図10の(2)に示す算出式を用いて、「フレーム間隔=100/(5/13)=4・・・」となり、「フレーム差分間隔=4」と決定する。   In such a state, for example, when five vehicles are captured in the input image, the image processing apparatus uses the calculation formula shown in (2) of FIG. 10 to calculate “frame interval = 100 / (5 / 13) = 4... ”And“ frame difference interval = 4 ”is determined.

また、例えば、画像処理装置は、入力画像に12台の車両が撮像されていた場合、図10の(2)に示す算出式を用いて、「フレーム間隔=100/(12/13)=9・・・」となり、「フレーム差分間隔=9」と決定する。その後の過去画像を取得してフレーム間差分を実施する処理は、実施例1と同じであるので、ここでは省略する。   Further, for example, when 12 vehicles are captured in the input image, the image processing apparatus uses the calculation formula shown in (2) of FIG. 10 to calculate “frame interval = 100 / (12/13) = 9. ... ”And“ frame difference interval = 9 ”is determined. The subsequent process of acquiring the past image and performing the inter-frame difference is the same as that in the first embodiment, and is therefore omitted here.

(時間帯から差分間隔を算出する例)
次に、図11を用いて、時間帯から差分間隔を算出する例について説明する。図11に示すように、画像処理装置は、撮像された時間帯および月に応じて、差分間隔算出式が予め設定されている。なお、図11は、時間帯から差分間隔を算出するための算出式の例を示す図である。
(Example of calculating the difference interval from the time zone)
Next, an example of calculating the difference interval from the time zone will be described with reference to FIG. As shown in FIG. 11, in the image processing apparatus, a difference interval calculation formula is set in advance according to the time zone and the month when the image is taken. FIG. 11 is a diagram illustrating an example of a calculation formula for calculating the difference interval from the time zone.

図11に示された算出式は、撮像された時間帯が「7:00〜17:00」の間かつ撮像された月が「11月、12月、1月」であれば、「フレーム差分間隔=1」と決定され、撮像された時間帯が「6:00〜18:00」の間かつ撮像された月が「4月または9月」であれば、「フレーム差分間隔=1」と決定され、撮像された時間帯が「5:00〜19:00」の間かつ撮像された月が「5月、6月、7月」であれば、「フレーム差分間隔=1」と決定され、それ以外の時間帯と月の組み合わせは、「フレーム差分間隔=2」と決定される。   The calculation formula shown in FIG. 11 is “frame difference” when the imaged time zone is “7:00 to 17:00” and the imaged month is “November, December, January”. If the interval is determined to be “1”, the captured time zone is “6: 0 to 18:00”, and the captured month is “April or September”, “frame difference interval = 1”. If it is determined that the imaged time zone is between “5: 00-19: 00” and the imaged month is “May, June, July”, “frame difference interval = 1” is determined. The other combinations of time zone and month are determined as “frame difference interval = 2”.

画像処理装置は、環境情報を受け付けた場合に、当該環境情報が上記したどのパターンに含まれかにより、フレーム間差分を決定する。その後の過去画像を取得してフレーム間差分を実施する処理は、実施例1と同じであるので、ここでは省略する。なお、上記した時間帯と月とのパターンはあくまで例であり、これに限定されるものではない。   When receiving the environment information, the image processing apparatus determines an inter-frame difference depending on which pattern the environment information is included in. The subsequent process of acquiring the past image and performing the inter-frame difference is the same as that in the first embodiment, and is therefore omitted here. In addition, the pattern of the above-mentioned time slot | zone and the month is an example to the last, and is not limited to this.

(天候から差分間隔を算出する例)
次に、図12を用いて、天候から差分間隔を算出する例について説明する。図12に示すように、画像処理装置は、撮像された天候に応じて、差分間隔算出式が予め設定されている。なお、図12に示した数値はあくまで例であり、これに限定されるものではない。また、図12は、天候から差分間隔を算出するための算出式の例を示す図である。
(Example of calculating the difference interval from the weather)
Next, an example of calculating the difference interval from the weather will be described with reference to FIG. As shown in FIG. 12, in the image processing apparatus, a difference interval calculation formula is set in advance according to the captured weather. In addition, the numerical value shown in FIG. 12 is an example to the last, and is not limited to this. FIG. 12 is a diagram illustrating an example of a calculation formula for calculating the difference interval from the weather.

具体的には、画像処理装置には、図12に示すように、「平均輝度=フレーム(入力画像)内の画素値の合計/フレーム(入力画像)内画素の総数」と、「C1:閾値(昼・夜の明るさ判定)、C2:閾値(昼の曇り、晴れの明るさ判定)」とがパラメータとして予め設定されている。   Specifically, as shown in FIG. 12, the image processing apparatus includes “average luminance = total pixel value in frame (input image) / total number of pixels in frame (input image)” and “C1: threshold value. (Day / Night Brightness Determination), C2: Threshold (Daytime Cloudiness, Sunny Brightness Determination) "are preset as parameters.

このような状態において、例えば、「C1=30、C2=100」、「算出した入力画像の平均輝度=120」であった場合、画像処理装置は、図12の(2)に基づいて、C2よりも大きいため、「天候=昼、晴れ」、「フレーム間差分間隔=5」と決定する。また、例えば、「算出した入力画像の平均輝度=20」であった場合、画像処理装置は、図12の(2)に基づいて、C1よりも小さいため、「天候=夜」、「フレーム間差分間隔=1」と決定し、「算出した入力画像の平均輝度=70」であった場合、図12の(2)に基づいて、C1よりも大きくC2よりも小さいため、「天候=昼、曇り」、「フレーム間差分間隔=2」と決定する。その後の過去画像を取得してフレーム間差分を実施する処理は、実施例1と同じであるので、ここでは省略する。   In such a state, for example, when “C1 = 30, C2 = 100” and “average brightness of the calculated input image = 120”, the image processing apparatus performs C2 based on (2) of FIG. Therefore, “weather = daytime, sunny” and “interframe difference interval = 5” are determined. Further, for example, when “the calculated average brightness of the input image = 20”, the image processing apparatus is smaller than C1 based on (2) of FIG. 12, and therefore “weather = night”, “inter-frame” When “difference interval = 1” is determined, and “average brightness of calculated input image = 70”, since it is larger than C1 and smaller than C2 based on (2) of FIG. 12, “weather = daytime, “Cloudy” and “interframe difference interval = 2”. The subsequent process of acquiring the past image and performing the inter-frame difference is the same as that in the first embodiment, and is therefore omitted here.

(実施例5による効果)
このように、実施例5によれば、入力画像または環境情報に基づく算出式を用いて、フレーム間差分を実施する間隔を決定する、具体的には画像上で対象物の移動速度が遅い場合もしくは対象物を判別しにくい場合に、フレーム間差分の間隔をより長くするように決定するので、画像撮像時の環境の変化に柔軟に対応することができる結果、安定的にフレーム間差分を抽出することが可能である。
(Effects of Example 5)
As described above, according to the fifth embodiment, the calculation interval based on the input image or the environment information is used to determine the interval for performing the inter-frame difference. Specifically, the moving speed of the object is slow on the image. Alternatively, when it is difficult to identify the object, it is determined to increase the interval between frames, so that it is possible to flexibly respond to changes in the environment during image capture, so that the difference between frames can be extracted stably. Is possible.

さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下に示すように、(1)適用例、(2)環境情報、(3)移動体検出、(4)環境情報の取得契機、(5)システム構成等、(6)プログラム、にそれぞれ区分けして異なる実施例を説明する。   Although the embodiments of the present invention have been described so far, the present invention may be implemented in various different forms other than the embodiments described above. Therefore, as shown below, (1) application examples, (2) environmental information, (3) mobile object detection, (4) environmental information acquisition opportunity, (5) system configuration, etc. Different embodiments will be described.

(1)適用例
例えば、実施例1〜5では、本発明を自動車などが走る道路の信号機や標識に設置された場合について説明したが、本発明はこれに限定されるものではなく、飛行機や車両のなどの移動体に備えることもでき、信号機や標識、滑走路など固定的に設置することもできる。
(1) Application Examples For example, in the first to fifth embodiments, the present invention has been described with respect to a case where the present invention is installed on a traffic signal or a sign on a road on which an automobile or the like runs. However, the present invention is not limited to this, It can also be installed in a moving body such as a vehicle, and can be fixedly installed such as traffic lights, signs, and runways.

(2)環境情報
また、実施例1〜5では、環境情報として「交通量、信号機状態、天候、時刻」などを用いた場合を説明したが、本発明はこれに限定されるものではなく、視程計、雨量計などを備えた外部センサを使用することで、例えば、霧や雨などの天候の細かな情報を用いることもできる。
(2) Environmental information Moreover, in Examples 1-5, although the case where "traffic volume, traffic light state, weather, time" etc. were used as environmental information was described, this invention is not limited to this, By using an external sensor equipped with a visibility meter, a rain gauge, etc., it is also possible to use detailed information on weather such as fog and rain.

また、本画像処理装置は、外部情報である環境情報を用いることなく、カメラにより入力画像が撮像された際の環境情報として、カメラからの入力画像に含まれる物体までの距離を取得し、取得された距離が短いほど、もしくは、物体が入力画像の下方にあるほど、フレーム間差分を実施する間隔を短く決定することもできる。その結果、検出対象を含めた環境情報に応じて差分を取る間隔を決定するので、どのような状況であっても、精度良く画像差分を検出することが可能になる。   In addition, the image processing apparatus acquires and acquires the distance to the object included in the input image from the camera as the environmental information when the input image is captured by the camera without using the environmental information that is external information. It is also possible to determine a shorter interval for performing the inter-frame difference as the distance is shorter or as the object is below the input image. As a result, the interval at which the difference is taken is determined according to the environment information including the detection target, so that it is possible to detect the image difference with high accuracy in any situation.

(3)移動体検出
また、実施例1〜5では、決定したフレーム間差分間隔に基づいて、フレーム間差分処理を実施して、差分(差分画像)を得る場合を説明したが、本発明はこれに限定されるものではなく、算出した差分から移動体を検出することもできる。その結果、車載装置など移動体に搭載されている車載制御システムなどへの適用も非常に有効である。例えば、抽出された差分画像から移動体が近い位置(差分画像には大きく撮像される)に存在する場合に、ブレーキを制御したりすることが可能である。なお、フレーム間差分間隔を長くしすぎると、画像中の移動体検出が困難になる場合があるので、上記実施例中で述べた差分間隔の求め方に限らず、実際の検出対象に応じて、差分間隔の上限値や下限値を定めたり、差分間隔の決定方法を変化させても構わない。
(3) Moving object detection Moreover, although Example 1-5 demonstrated the case where a difference (difference image) was obtained by implementing the inter-frame difference process based on the determined inter-frame difference interval, the present invention However, the present invention is not limited to this, and the moving object can be detected from the calculated difference. As a result, application to a vehicle-mounted control system mounted on a moving body such as a vehicle-mounted device is very effective. For example, it is possible to control the brake when the moving body is present at a position close to the extracted difference image (largely captured in the difference image). Note that if the inter-frame difference interval is too long, it may be difficult to detect a moving object in the image. Therefore, not only the method for obtaining the difference interval described in the above embodiment, but also depending on the actual detection target. The upper limit value and the lower limit value of the difference interval may be set, or the difference interval determination method may be changed.

(4)環境情報の取得契機
また、実施例1〜5では、画像が入力される度に、取得した環境情報に基づいてフレーム間差分間隔を決定する場合について説明したが、本発明はこれに限定されるものではなく、取得した環境情報が変化した場合にのみ、取得した環境情報に基づいてフレーム間差分間隔を決定することもできる。その結果、環境の変化に迅速に対応することが可能である。また、画像が入力される度にフレーム間差分間隔を決定する場合に比べて、処理負荷を軽減することが可能である。
(4) Environment Information Acquisition Trigger In the first to fifth embodiments, the case where the inter-frame difference interval is determined based on the acquired environment information every time an image is input has been described. The present invention is not limited, and the inter-frame difference interval can be determined based on the acquired environment information only when the acquired environment information has changed. As a result, it is possible to quickly respond to changes in the environment. In addition, the processing load can be reduced as compared with the case where the inter-frame difference interval is determined each time an image is input.

(5)システム構成等
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合(例えば、外部センサと環境判定部とを統合するなど)して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
(5) System Configuration The components of the illustrated devices are functionally conceptual and do not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. It can be configured by integrating (for example, integrating an external sensor and an environment determination unit). Further, all or any part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.

また、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理(例えば、撮像処理など)の全部または一部を手動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報(例えば、図2、図5〜図7、図10〜図12)については、特記する場合を除いて任意に変更することができる。   In addition, among the processes described in the present embodiment, all or a part of the processes described as being automatically performed (for example, the imaging process) may be manually performed. In addition, the processing procedures, control procedures, specific names, and information including various data and parameters (for example, FIG. 2, FIG. 5 to FIG. 7, FIG. 10 to FIG. 12) It can be changed arbitrarily unless otherwise specified.

(6)プログラム
ところで、上記の実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することができる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータシステムを他の実施例として説明する。
(6) Program By the way, the various processes described in the above embodiments can be realized by executing a program prepared in advance on a computer system such as a personal computer or a workstation. Therefore, hereinafter, a computer system that executes a program having the same function as that of the above embodiment will be described as another embodiment.

図13は、画像処理プログラムを実行するコンピュータシステムの例を示す図である。図13に示すように、コンピュータシステム100は、RAM101と、HDD102と、ROM103と、CPU104とから構成される。ここで、ROM103には、上記の実施例と同様の機能を発揮するプログラム、つまり、図13に示すように、入力画像受付プログラム103aと、環境情報取得プログラム103bと、環境判定プログラム103cと、差分処理プログラム103dとがあらかじめ記憶されている。   FIG. 13 is a diagram illustrating an example of a computer system that executes an image processing program. As illustrated in FIG. 13, the computer system 100 includes a RAM 101, an HDD 102, a ROM 103, and a CPU 104. Here, the ROM 103 stores a program that exhibits the same function as the above-described embodiment, that is, as shown in FIG. 13, an input image reception program 103a, an environment information acquisition program 103b, and an environment determination program 103c. The processing program 103d is stored in advance.

そして、CPU104には、これらのプログラム103a〜103dを読み出して実行することで、図13に示すように、入力画像受付プロセス104aと、環境情報取得プロセス104bと、環境判定プロセス104cと、差分処理プロセス104dとなる。なお、力画像受付プロセス104aは、図1に示した、入力画像受付部11に対応し、同様に、環境情報取得プロセス104bは、外部センサ12に対応し、環境判定プロセス104cは、環境判定部30に対応し、差分処理プロセス104dは、差分処理部31に対応する。   Then, the CPU 104 reads and executes these programs 103a to 103d, and as shown in FIG. 13, an input image reception process 104a, an environment information acquisition process 104b, an environment determination process 104c, and a difference processing process. 104d. The force image reception process 104a corresponds to the input image reception unit 11 shown in FIG. 1, and similarly, the environment information acquisition process 104b corresponds to the external sensor 12, and the environment determination process 104c corresponds to the environment determination unit. 30, the difference processing process 104 d corresponds to the difference processing unit 31.

また、HDD102には、撮像部により過去に撮像された過去画像を記憶する画像管理テーブル102aと、取得された環境情報に対応付けて、フレーム間差分を実施する間隔を記憶する差分間隔テーブル102bとが設けられる。なお、画像管理テーブル102aは、図1に示した、画像管理DB20に対応し、差分間隔テーブル102bは、差分間隔DB21に対応する。   The HDD 102 also includes an image management table 102a that stores past images captured in the past by the imaging unit, and a difference interval table 102b that stores intervals for performing inter-frame differences in association with acquired environment information. Is provided. The image management table 102a corresponds to the image management DB 20 shown in FIG. 1, and the difference interval table 102b corresponds to the difference interval DB 21.

ところで、上記したプログラム103a〜103dは、必ずしもROM103に記憶させておく必要はなく、例えば、コンピュータシステム100に挿入されるフレキシブルディスク(FD)、CD−ROM、MOディスク、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」の他に、コンピュータシステム100の内外に備えられるハードディスクドライブ(HDD)などの「固定用の物理媒体」、さらに、公衆回線、インターネット、LAN、WANなどを介してコンピュータシステム100に接続される「他のコンピュータシステム」に記憶させておき、コンピュータシステム100がこれらからプログラムを読み出して実行するようにしてもよい。   By the way, the above-described programs 103a to 103d are not necessarily stored in the ROM 103. For example, a flexible disk (FD), a CD-ROM, an MO disk, a DVD disk, a magneto-optical disk inserted into the computer system 100, In addition to “portable physical media” such as IC cards, “fixed physical media” such as hard disk drives (HDDs) provided inside and outside the computer system 100, public lines, the Internet, LAN, WAN, etc. The program may be stored in “another computer system” connected to the computer system 100 via the computer system 100 so that the computer system 100 reads and executes the program.

以上の実施例1〜6を含む実施形態に関し、更に以下の付記を開示する。   Regarding the embodiment including the above Examples 1 to 6, the following additional notes are disclosed.

(付記1)画像を撮像する撮像部により撮像されて入力された入力画像と、過去に撮像された過去画像とからフレーム間差分を実施して、差分を抽出する画像処理装置であって、
前記撮像部により過去に撮像された過去画像を記憶する画像記憶手段と、
前記撮像部により入力画像が撮像された際の環境情報を取得する環境情報取得手段と、
前記入力画像が入力された場合に、当該入力画像または前記環境情報取得手段により取得された環境情報に基づいて、前記フレーム間差分を実施する間隔を決定する差分間隔決定手段と、
前記差分間隔決定手段により決定された差分間隔に対応する過去に入力された過去画像を前記画像記憶手段から取得し、取得した過去画像と入力された入力画像とからフレーム間差分を実施して、差分を抽出する差分抽出手段と、
を備えたことを特徴とする画像処理装置。
(Supplementary Note 1) An image processing apparatus that extracts a difference by performing an inter-frame difference from an input image captured and input by an imaging unit that captures an image and a past image captured in the past,
Image storage means for storing past images captured in the past by the imaging unit;
Environmental information acquisition means for acquiring environmental information when an input image is captured by the imaging unit;
When the input image is input, based on the input image or the environment information acquired by the environment information acquisition unit, a difference interval determination unit that determines an interval for performing the inter-frame difference;
The past image input in the past corresponding to the difference interval determined by the difference interval determination unit is acquired from the image storage unit, and the inter-frame difference is performed from the acquired past image and the input image input, Difference extraction means for extracting the difference;
An image processing apparatus comprising:

(付記2)前記差分抽出手段により抽出された過去入力画像と入力画像との差分から、移動体を検出する移動体検出手段をさらに備えたことを特徴とする付記1に記載の画像処理装置。 (Supplementary note 2) The image processing apparatus according to supplementary note 1, further comprising a moving body detection unit that detects a moving body from a difference between the past input image and the input image extracted by the difference extraction unit.

(付記3)前記差分間隔決定手段は、前記入力画像または環境情報に基づく算出式を用いて、前記フレーム間差分を実施する間隔を決定することを特徴とする付記1に記載の画像処理装置。 (Additional remark 3) The said difference space | interval determination means determines the space | interval which implements the said inter-frame difference using the calculation formula based on the said input image or environmental information, The image processing apparatus of Additional remark 1 characterized by the above-mentioned.

(付記4)前記環境情報取得手段は、前記撮像部により入力画像が撮像された際の環境情報として交通量を取得し、
前記差分間隔決定手段は、前記環境情報取得手段により取得された交通量が多い場合のフレーム間差分の間隔を、前記交通量が少ない場合に比べて長い間隔として決定することを特徴とする付記1に記載の画像処理装置。
(Additional remark 4) The said environmental information acquisition means acquires traffic as environmental information at the time of an input image being imaged by the said imaging part,
The difference interval determination unit determines the interval of the interframe difference when the traffic volume acquired by the environment information acquisition unit is large as a longer interval than when the traffic volume is low. An image processing apparatus according to 1.

(付記5)前記環境情報取得手段は、前記撮像部により入力画像が撮像された際の環境情報として昼夜情報を取得し、
前記差分間隔決定手段は、前記環境情報取得手段により取得された昼夜情報が夜である場合のフレーム間差分の間隔を、前記昼夜情報が昼である場合に比べて長い間隔として決定することを特徴とする付記1に記載の画像処理装置。
(Additional remark 5) The said environment information acquisition means acquires day and night information as environment information at the time of an input image being imaged by the said imaging part,
The difference interval determining means determines an interval between frame differences when the day / night information acquired by the environment information acquiring means is night as a longer interval than when the day / night information is daytime. The image processing apparatus according to appendix 1.

(付記6)前記環境情報取得手段は、前記撮像部により入力画像が撮像された際の環境情報として信号機状態を取得し、
前記差分間隔決定手段は、前記環境情報取得手段により取得された信号機状態が黄色または赤色である場合のフレーム間差分の間隔を、前記信号機状態が青色である場合に比べて長い間隔として決定し、また、前記環境情報取得手段により取得された信号機状態が赤色である場合のフレーム間差分の間隔を、前記信号機状態が黄色である場合に比べて長い間隔として決定することを特徴とする付記1に記載の画像処理装置。
(Additional remark 6) The said environment information acquisition means acquires a traffic light state as environment information at the time of an input image being imaged by the said imaging part,
The difference interval determination means determines an interval between frame differences when the traffic light state acquired by the environment information acquisition means is yellow or red as a longer interval than when the traffic light state is blue, Also, the interval of the inter-frame difference when the traffic light state acquired by the environmental information acquisition unit is red is determined as a longer interval than when the traffic light state is yellow. The image processing apparatus described.

(付記7)前記環境情報取得手段は、前記撮像部により入力画像が撮像された際の環境情報として、前記撮像部からの入力画像に含まれる物体までの距離を取得し、
前記差分間隔決定手段は、前記環境情報取得手段により取得された距離が短いほど、もしくは、前記物体が入力画像の下方にあるほど、前記フレーム間差分を実施する間隔を短く決定することを特徴とする付記1に記載の画像処理装置。
(Appendix 7) The environment information acquisition unit acquires a distance to an object included in the input image from the imaging unit as environment information when the input image is captured by the imaging unit,
The difference interval determination means determines the interval for performing the inter-frame difference to be shorter as the distance acquired by the environment information acquisition means is shorter or as the object is located below the input image. The image processing apparatus according to appendix 1.

(付記8)前記環境情報取得手段は、前記撮像部により入力画像を複数の領域に分割して、それぞれの領域ごとに撮像された際の環境情報を取得し、
前記差分間隔決定手段は、前記環境情報取得手段により取得された複数の領域毎の環境情報に基づいて、前記複数の領域毎にフレーム間差分を実施する間隔を決定し
前記差分抽出手段は、前記差分間隔決定手段により決定された複数の領域毎の差分間隔に対応する過去に入力された過去画像を前記画像記憶手段から取得し、前記複数の領域毎にフレーム間差分を実施して、差分を抽出することを特徴とする付記1に記載の画像処理装置。
(Supplementary note 8) The environment information acquisition unit divides an input image into a plurality of areas by the imaging unit, acquires environment information when each area is captured,
The difference interval determining means determines an interval for performing an inter-frame difference for each of the plurality of areas based on the environment information for each of the plurality of areas acquired by the environment information acquiring means. A past image input in the past corresponding to the difference interval for each of the plurality of regions determined by the difference interval determining unit is acquired from the image storage unit, and an inter-frame difference is performed for each of the plurality of regions, and the difference is calculated. The image processing apparatus according to appendix 1, wherein the image processing apparatus is extracted.

(付記9)前記環境情報取得手段は、前記撮像部により入力画像の各画素毎に、撮像された際の環境情報を取得し、
前記差分間隔決定手段は、前記環境情報取得手段により取得された各画素毎の環境情報に基づいて、前記各画素毎にフレーム間差分を実施する間隔を決定し
前記差分抽出手段は、前記差分間隔決定手段により決定された各画素毎の差分間隔に対応する過去に入力された過去画像を前記画像記憶手段から取得し、前記各画素毎にフレーム間差分を実施して、差分を抽出することを特徴とする付記1に記載の画像処理装置。
(Supplementary Note 9) The environment information acquisition unit acquires environment information at the time of imaging for each pixel of the input image by the imaging unit,
The difference interval determining means determines an interval for performing an inter-frame difference for each pixel based on the environment information for each pixel acquired by the environment information acquiring means, and the difference extracting means determines the difference interval. Obtaining a past image input in the past corresponding to the difference interval for each pixel determined by the determination unit from the image storage unit, performing inter-frame difference for each pixel, and extracting the difference. The image processing apparatus according to appendix 1, which is characterized.

(付記10)前記差分間隔決定手段は、前記環境情報取得手段により取得された環境情報が、前回取得した環境情報から変化している場合に、当該環境情報に基づいて、前記フレーム間差分を実施する間隔を決定することを特徴とする画像処理装置。 (Supplementary Note 10) When the environmental information acquired by the environmental information acquisition unit has changed from the previously acquired environmental information, the difference interval determination unit performs the inter-frame difference based on the environmental information. An image processing apparatus characterized by determining an interval to be performed.

(付記11)画像を撮像する撮像部により撮像されて入力された入力画像と、過去に撮像された過去画像とからフレーム間差分を実施して、差分を抽出することに適した画像処理方法であって、
前記撮像部により過去に撮像された過去画像を記憶する画像記憶手段と、
前記撮像部により入力画像が撮像された際の環境情報を取得する環境情報取得工程と、
前記入力画像が入力された場合に、当該入力画像または前記環境情報取得工程により取得された環境情報に基づいて、前記フレーム間差分を実施する間隔を決定する差分間隔決定工程と、
前記差分間隔決定工程により決定された差分間隔に対応する過去に入力された過去画像を前記画像記憶手段から取得し、取得した過去画像と入力された入力画像とからフレーム間差分を実施して、差分を抽出する差分抽出工程と、
を含んだことを特徴とする画像処理方法。
(Supplementary Note 11) An image processing method suitable for extracting a difference by performing an inter-frame difference from an input image captured and input by an imaging unit that captures an image and a past image captured in the past. There,
Image storage means for storing past images captured in the past by the imaging unit;
An environment information acquisition step of acquiring environment information when an input image is captured by the imaging unit;
When the input image is input, based on the input image or the environment information acquired by the environment information acquisition step, a difference interval determination step for determining an interval for performing the inter-frame difference;
The past image input in the past corresponding to the difference interval determined by the difference interval determination step is acquired from the image storage means, and the inter-frame difference is performed from the acquired past image and the input image input, A difference extraction step for extracting the difference;
An image processing method comprising:

(付記12)画像を撮像する撮像部により撮像されて入力された入力画像と、過去に撮像された過去画像とからフレーム間差分を実施して、差分を抽出することをコンピュータに実行させる画像処理プログラムであって、
前記撮像部により過去に撮像された過去画像を記憶する画像記憶手段と、
前記撮像部により入力画像が撮像された際の環境情報を取得する環境情報取得手順と、
前記入力画像が入力された場合に、当該入力画像または前記環境情報取得手順により取得された環境情報に基づいて、前記フレーム間差分を実施する間隔を決定する差分間隔決定手順と、
前記差分間隔決定手順により決定された差分間隔に対応する過去に入力された過去画像を前記画像記憶手段から取得し、取得した過去画像と入力された入力画像とからフレーム間差分を実施して、差分を抽出する差分抽出手順と、
をコンピュータに実行させることを特徴とする画像処理プログラム。
(Supplementary Note 12) Image processing that causes a computer to execute inter-frame difference from an input image captured and input by an imaging unit that captures an image and a past image captured in the past and extract the difference A program,
Image storage means for storing past images captured in the past by the imaging unit;
Environmental information acquisition procedure for acquiring environmental information when an input image is captured by the imaging unit;
A difference interval determination procedure for determining an interval for performing the inter-frame difference based on the input image or the environment information acquired by the environment information acquisition procedure when the input image is input;
The past image input in the past corresponding to the difference interval determined by the difference interval determination procedure is acquired from the image storage means, and the inter-frame difference is performed from the acquired past image and the input image input, A difference extraction procedure for extracting differences;
An image processing program for causing a computer to execute.

実施例1に係る画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment. 差分間隔DBに記憶される情報の例を示す図である。It is a figure which shows the example of the information memorize | stored in difference space | interval DB. 実施例1に係る画像処理装置における差分抽出処理の流れを示すフローチャートである。3 is a flowchart illustrating a flow of difference extraction processing in the image processing apparatus according to the first embodiment. 実施例1に係る画像処理装置における過去画像管理処理の流れを示すフローチャートである。6 is a flowchart illustrating a flow of past image management processing in the image processing apparatus according to the first embodiment. 実施例2に係る差分間隔DBに記憶される撮像時間帯の例を示す図である。It is a figure which shows the example of the imaging time slot memorize | stored in difference space | interval DB which concerns on Example 2. FIG. 実施例2に係る差分間隔DBに記憶される撮像時の信号点灯状態の例を示す図である。It is a figure which shows the example of the signal lighting state at the time of the imaging memorize | stored in difference space | interval DB which concerns on Example 2. FIG. 実施例2に係る差分間隔DBに記憶される撮像時間と信号点灯状態の例を示す図である。It is a figure which shows the example of the imaging time memorize | stored in difference space | interval DB which concerns on Example 2, and a signal lighting state. 実施例3に係る画像処理装置の処理を説明するための図である。FIG. 10 is a diagram for explaining processing of the image processing apparatus according to the third embodiment. 実施例4に係る画像処理装置の処理を説明するためのフローチャートである。10 is a flowchart for explaining processing of an image processing apparatus according to a fourth embodiment. 交通量から差分間隔を算出するための算出式の例を示す図である。It is a figure which shows the example of the calculation formula for calculating a difference space | interval from traffic volume. 時間帯から差分間隔を算出するための算出式の例を示す図である。It is a figure which shows the example of the calculation formula for calculating a difference space | interval from a time slot | zone. 天候から差分間隔を算出するための算出式の例を示す図である。It is a figure which shows the example of the calculation formula for calculating a difference space | interval from the weather. 画像処理プログラムを実行するコンピュータシステムの例を示す図である。It is a figure which shows the example of the computer system which performs an image processing program.

符号の説明Explanation of symbols

10 画像処理装置
11 入力画像受付部
12 外部センサ
20 画像管理DB
21 差分間隔DB
30 環境判定部
31 差分処理部
100 コンピュータシステム
101 RAM
102 HDD
102a 画像管理テーブル
102b 差分間隔テーブル
103 ROM
103a 入力画像受付プログラム
103b 環境情報取得プログラム
103c 環境判定プログラム
103d 差分処理プログラム
104 CPU
104a 入力画像受付プロセス
104b 環境情報取得プロセス
104c 環境判定プロセス
104d 差分処理プロセス
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 11 Input image reception part 12 External sensor 20 Image management DB
21 Difference interval DB
30 Environment Determination Unit 31 Difference Processing Unit 100 Computer System 101 RAM
102 HDD
102a Image management table 102b Difference interval table 103 ROM
103a Input image reception program 103b Environment information acquisition program 103c Environment determination program 103d Difference processing program 104 CPU
104a Input image reception process 104b Environment information acquisition process 104c Environment determination process 104d Difference processing process

Claims (5)

画像を撮像する撮像部により撮像されて入力された入力画像と、過去に撮像された過去画像とからフレーム間差分を実施して、差分を抽出する画像処理装置であって、
前記撮像部により過去に撮像された過去画像を記憶する画像記憶手段と、
前記撮像部により入力画像が撮像された際の環境情報を取得する環境情報取得手段と、
前記入力画像が入力された場合に、当該入力画像または前記環境情報取得手段により取得された環境情報に基づいて、前記フレーム間差分を実施する間隔を決定する差分間隔決定手段と、
前記差分間隔決定手段により決定された差分間隔に対応する過去に入力された過去画像を前記画像記憶手段から取得し、取得した過去画像と入力された入力画像とからフレーム間差分を実施して、差分を抽出する差分抽出手段と、
を備えたことを特徴とする画像処理装置。
An image processing apparatus that performs an inter-frame difference from an input image captured and input by an imaging unit that captures an image and a past image captured in the past, and extracts the difference,
Image storage means for storing past images captured in the past by the imaging unit;
Environmental information acquisition means for acquiring environmental information when an input image is captured by the imaging unit;
When the input image is input, based on the input image or the environment information acquired by the environment information acquisition unit, a difference interval determination unit that determines an interval for performing the inter-frame difference;
The past image input in the past corresponding to the difference interval determined by the difference interval determination unit is acquired from the image storage unit, and the inter-frame difference is performed from the acquired past image and the input image input, Difference extraction means for extracting the difference;
An image processing apparatus comprising:
前記差分間隔決定手段は、前記入力画像または環境情報に基づく算出式を用いて、前記フレーム間差分を実施する間隔を決定することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the difference interval determination unit determines an interval for performing the interframe difference using a calculation formula based on the input image or environment information. 前記環境情報取得手段は、前記撮像部により入力画像が撮像された際の環境情報として交通量を取得し、
前記差分間隔決定手段は、前記環境情報取得手段により取得された交通量が多い場合のフレーム間差分の間隔を、前記交通量が少ない場合に比べて長い間隔として決定することを特徴とする請求項1に記載の画像処理装置。
The environmental information acquisition means acquires traffic volume as environmental information when an input image is captured by the imaging unit,
The difference interval determination unit determines an interval between frame differences when the traffic volume acquired by the environment information acquisition unit is large as a longer interval than when the traffic volume is low. The image processing apparatus according to 1.
前記環境情報取得手段は、前記撮像部により入力画像が撮像された際の環境情報として昼夜情報を取得し、
前記差分間隔決定手段は、前記環境情報取得手段により取得された昼夜情報が夜である場合のフレーム間差分の間隔を、前記昼夜情報が昼である場合に比べて長い間隔として決
定することを特徴とする請求項1に記載の画像処理装置。
The environment information acquisition means acquires day and night information as environment information when an input image is captured by the imaging unit,
The difference interval determining means determines an interval between frame differences when the day / night information acquired by the environment information acquiring means is night as a longer interval than when the day / night information is daytime. The image processing apparatus according to claim 1.
前記環境情報取得手段は、前記撮像部により入力画像が撮像された際の環境情報として信号機状態を取得し、
前記差分間隔決定手段は、前記環境情報取得手段により取得された信号機状態が黄色または赤色である場合のフレーム間差分の間隔を、前記信号機状態が青色である場合に比べて長い間隔として決定し、また、前記環境情報取得手段により取得された信号機状態が赤色である場合のフレーム間差分の間隔を、前記信号機状態が黄色である場合に比べて長い間隔として決定することを特徴とする請求項1に記載の画像処理装置。
The environment information acquisition unit acquires a traffic light state as environment information when an input image is captured by the imaging unit,
The difference interval determination means determines an interval between frame differences when the traffic light state acquired by the environment information acquisition means is yellow or red as a longer interval than when the traffic light state is blue, The interval of the inter-frame difference when the traffic light state acquired by the environment information acquisition unit is red is determined as a longer interval than when the traffic light state is yellow. An image processing apparatus according to 1.
JP2008058630A 2008-03-07 2008-03-07 Image processing device Expired - Fee Related JP5470719B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008058630A JP5470719B2 (en) 2008-03-07 2008-03-07 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008058630A JP5470719B2 (en) 2008-03-07 2008-03-07 Image processing device

Publications (2)

Publication Number Publication Date
JP2009217400A true JP2009217400A (en) 2009-09-24
JP5470719B2 JP5470719B2 (en) 2014-04-16

Family

ID=41189206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008058630A Expired - Fee Related JP5470719B2 (en) 2008-03-07 2008-03-07 Image processing device

Country Status (1)

Country Link
JP (1) JP5470719B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019192209A (en) * 2018-04-19 2019-10-31 クラウドワークス インコーポレイテッドCrowdWorks, Inc. Learning target image packaging device and method for artificial intelligence of video movie

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091893A (en) * 1996-09-17 1998-04-10 Toyota Motor Corp Road monitoring device
JP2001167282A (en) * 1999-12-10 2001-06-22 Toshiba Corp Device and method for extracting moving object
JP2001285695A (en) * 2000-03-30 2001-10-12 Nec Corp Mobile body tracking method and device therefor
JP2004007089A (en) * 2002-05-30 2004-01-08 Nippon Advantage Corp Condition change determining device
JP2005228041A (en) * 2004-02-13 2005-08-25 Matsushita Electric Ind Co Ltd Vehicle detection device and vehicle detection method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091893A (en) * 1996-09-17 1998-04-10 Toyota Motor Corp Road monitoring device
JP2001167282A (en) * 1999-12-10 2001-06-22 Toshiba Corp Device and method for extracting moving object
JP2001285695A (en) * 2000-03-30 2001-10-12 Nec Corp Mobile body tracking method and device therefor
JP2004007089A (en) * 2002-05-30 2004-01-08 Nippon Advantage Corp Condition change determining device
JP2005228041A (en) * 2004-02-13 2005-08-25 Matsushita Electric Ind Co Ltd Vehicle detection device and vehicle detection method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019192209A (en) * 2018-04-19 2019-10-31 クラウドワークス インコーポレイテッドCrowdWorks, Inc. Learning target image packaging device and method for artificial intelligence of video movie

Also Published As

Publication number Publication date
JP5470719B2 (en) 2014-04-16

Similar Documents

Publication Publication Date Title
JP2020052694A (en) Object detection apparatus, object detection method, and computer program for object detection
JP4733756B2 (en) Vehicle periphery monitoring device
JP7355151B2 (en) Information processing device, information processing method, program
JP5576937B2 (en) Vehicle periphery monitoring device
CN104427255A (en) Image processing method of vehicle camera and image processing apparatus using the same
JP4988781B2 (en) Vehicle periphery monitoring device
JP2007310574A (en) Collision risk decision system and warning system
WO2016147899A1 (en) Device for hanger detection by image processing
JP2007026300A (en) Traffic flow abnormality detector and traffic flow abnormality detection method
JP2007026301A (en) Stopping/low-speed vehicle detector and stopping/low-speed vehicle detection method
JP2010224670A (en) Periphery monitoring device for vehicle
JP2015090679A (en) Vehicle trajectory extraction method, vehicle region extraction method, vehicle speed estimation method, vehicle trajectory extraction program, vehicle region extraction program, vehicle speed estimation program, vehicle trajectory extraction system, vehicle region extraction system, and vehicle speed estimation system
JP2009110185A (en) Passerby behavior analyzer, passerby behavior analysis method, and its program
JPWO2012066751A1 (en) Vehicle periphery monitoring device
JP4972116B2 (en) Vehicle periphery monitoring device
CN115761668A (en) Camera stain recognition method and device, vehicle and storage medium
JP2004086417A (en) Method and device for detecting pedestrian on zebra crossing
JP3995671B2 (en) Image processing device
JP2009146153A (en) Moving object detection device, moving object detection method and moving object detection program
JP2008269218A (en) Image processor, image processing method, and image processing program
JP2010191888A (en) Image processing apparatus and traffic monitoring device
JP2002367077A (en) Device and method for deciding traffic congestion
JP5470719B2 (en) Image processing device
JP5276032B2 (en) Device for calculating the position of an object
JP6087240B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120403

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130924

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees