JP5505936B2 - Image processing unit and image processing program - Google Patents

Image processing unit and image processing program Download PDF

Info

Publication number
JP5505936B2
JP5505936B2 JP2010248834A JP2010248834A JP5505936B2 JP 5505936 B2 JP5505936 B2 JP 5505936B2 JP 2010248834 A JP2010248834 A JP 2010248834A JP 2010248834 A JP2010248834 A JP 2010248834A JP 5505936 B2 JP5505936 B2 JP 5505936B2
Authority
JP
Japan
Prior art keywords
pixel
model
background
prediction model
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010248834A
Other languages
Japanese (ja)
Other versions
JP2012104872A (en
Inventor
浩一郎 梶谷
丈嗣 内藤
敬士 島田
倫一郎 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu University NUC
Omron Corp
Original Assignee
Kyushu University NUC
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu University NUC, Omron Corp filed Critical Kyushu University NUC
Priority to JP2010248834A priority Critical patent/JP5505936B2/en
Publication of JP2012104872A publication Critical patent/JP2012104872A/en
Application granted granted Critical
Publication of JP5505936B2 publication Critical patent/JP5505936B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

この発明は、ビデオカメラ等の撮像装置が撮像している撮像エリアのフレーム画像を処理して、このフレーム画像に撮像されている物体を検出する画像処理ユニット、および画像処理プログラムに関する。   The present invention relates to an image processing unit that processes a frame image of an imaging area captured by an imaging device such as a video camera and detects an object captured in the frame image, and an image processing program.

従来、ビデオカメラ等の撮像装置を利用して、不審者の侵入や、不審物の放置を監視する監視システムが実用化されている。この種の監視システムでは、撮像装置の撮像エリアを、不審者の侵入や、不審物の放置を監視する監視対象エリアに合わせている。また、撮像装置で撮像している監視対象エリアのフレーム画像を処理し、撮像されている物体(不審者や不審物等)を検出する画像処理ユニットを備えている。上位装置は、画像処理ユニットにおける物体の検出結果に応じて、係員に対して物体の検出を通知する報知や、検出した物体が撮像されているフレーム画像を表示器に表示する等の処理を行う。   2. Description of the Related Art Conventionally, a monitoring system for monitoring the intrusion of a suspicious person or leaving a suspicious object using an imaging device such as a video camera has been put into practical use. In this type of monitoring system, the imaging area of the imaging device is matched with the monitoring target area for monitoring the intrusion of a suspicious person or the leaving of a suspicious object. In addition, an image processing unit that processes a frame image of the monitoring target area imaged by the imaging device and detects an imaged object (suspicious person, suspicious object, or the like) is provided. The host device performs processing such as notifying the staff of object detection and displaying a frame image in which the detected object is imaged on the display unit according to the object detection result in the image processing unit. .

画像処理ユニットは、入力されたフレーム画像の画素毎に、背景モデルを用いて、背景が撮像されている背景画素、または背景でない物体が撮像されている前景画素のいずれであるかを判定する。また、この判定結果に基づいて、背景が撮像されている背景領域と、物体が撮像されている前景領域と、で区別した2値化画像を生成する。この2値化画像における前景領域が、物体が撮像されている領域であり、その大きさや形状から物体の種別等を推定することも行われている。   For each pixel of the input frame image, the image processing unit uses the background model to determine whether it is a background pixel in which a background is imaged or a foreground pixel in which an object that is not a background is imaged. Further, based on this determination result, a binarized image is generated by distinguishing between a background area where the background is imaged and a foreground area where the object is imaged. The foreground region in the binarized image is a region where an object is imaged, and the type of the object is estimated from its size and shape.

画像処理ユニットは、上述した2値化画像の生成に用いる背景モデルを、監視対象エリア内の明るさの変化等の環境変化に対応させるために、撮像装置が撮像しているフレーム画像を用いて更新している。このため、フレーム画像に物体が撮像されていると、この物体が撮像されている前景領域に位置する画素ついては、撮像されている物体の影響を受けた背景モデルに更新される。その結果、物体を背景として誤検出したり、反対に、背景を物体として誤検出することになる。   The image processing unit uses the frame image captured by the imaging device in order to make the background model used for generating the binarized image described above correspond to environmental changes such as changes in brightness in the monitoring target area. It has been updated. For this reason, when an object is imaged in the frame image, pixels located in the foreground area where the object is imaged are updated to a background model affected by the imaged object. As a result, the object is erroneously detected as the background, and conversely, the background is erroneously detected as the object.

そこで、フレーム画像において、物体が静止する可能性が高い画像領域については、作成する背景モデルに与える影響を小さくするために、他の画像領域よりも学習率を小さくする(更新頻度を小さくする)方法、学習率の異なる2つの背景モデルを利用する方法等が提案されている(非特許文献1、2等参照)。   Therefore, in the frame image, for the image region where the object is highly likely to be stationary, the learning rate is made smaller than other image regions (the update frequency is reduced) in order to reduce the influence on the background model to be created. A method, a method using two background models having different learning rates, and the like have been proposed (see Non-Patent Documents 1 and 2).

Arslan Basharat, Alexei Gritai, Mubarak Shah.Learning object motion patterns for anomaly detection and improved object detection. Computer Vision and Pattern Recognition,pp1-8,2008.Arslan Basharat, Alexei Gritai, Mubarak Shah.Learning object motion patterns for anomaly detection and improved object detection.Computer Vision and Pattern Recognition, pp1-8,2008. Fatih Porikli, Yuri Ivanov, Tetsugi Haga. Robust adandoned object detection using durl foregrounds.EURASIP Journal on Advances in Signal Processing,2008.Fatih Porikli, Yuri Ivanov, Tetsugi Haga. Robust adandoned object detection using durl foregrounds. EURASIP Journal on Advances in Signal Processing, 2008.

しかしながら、非特許文献1、2等で提案されている従来の手法は、フレーム画像に撮像されている背景でない物体が静止している場合、この物体を背景としてみなした背景モデルに更新されるまでの時間を延ばしているにすぎない。したがって、この物体が静止している時間が、この物体を背景としてみなした背景モデルに更新されるまでの時間よりも長くなると、撮像されている物体の影響を受けた背景モデルに更新される。   However, in the conventional methods proposed in Non-Patent Documents 1 and 2, etc., when an object that is not a background captured in a frame image is stationary, it is updated to a background model that regards this object as a background. Is just extending the time. Therefore, when the time during which the object is stationary becomes longer than the time until the object is updated to the background model that regards the object as the background, the object is updated to the background model affected by the object being imaged.

また、フレーム画像において、物体が撮像されている領域については、背景モデルの更新を行わないように制限することも考えられる。しかし、この場合には、静止している物体が撮像されている間、この領域については背景モデルが更新されない。したがって、この間における監視対象エリア内の明るさの変化等の環境変化に対応することができず、物体が移動したときに、背景が撮像されているにもかかわらず、新たな物体が撮像されていると誤検出することがある。   In addition, in the frame image, it may be possible to limit the area where the object is captured so that the background model is not updated. However, in this case, the background model is not updated for this area while a stationary object is being imaged. Therefore, it is impossible to cope with environmental changes such as brightness changes in the monitoring target area during this period, and when the object moves, a new object is imaged even though the background is imaged. May be falsely detected.

この発明の目的は、入力されているフレーム画像に撮像されている物体の影響を抑え、且つ撮像エリア内の明るさの変化等の環境変化に応じたモデルの更新を適性に行うことで、フレーム画像に撮像されている物体の検出精度の向上を図った画像処理ユニット、および画像処理プログラムを提供することにある。   An object of the present invention is to suppress the influence of an imaged object on an input frame image, and to appropriately update a model according to environmental changes such as a change in brightness in an imaging area. An object of the present invention is to provide an image processing unit and an image processing program that improve the detection accuracy of an object captured in an image.

この発明の画像処理ユニットは、上記課題を解決し、その目的を達するために以下のように構成している。   The image processing unit of the present invention is configured as follows in order to solve the above problems and achieve the object.

画像入力部には、ビデオカメラ等の撮像装置で撮像している撮像エリアのフレーム画像が入力される。確率モデル記憶部は、フレーム画像の画素毎に、過去における、その画素の画素値の頻度をモデル化した確率モデルを記憶する。この確率モデルは、例えば、ガウス分布の密度関数である。また、予測モデル記憶部は、フレーム画像の画素毎に、その画素の画素値の時系列推移をモデル化した予測モデルを記憶する。この予測モデルは、例えば、指数平滑法によるモデルである。   A frame image of an imaging area captured by an imaging device such as a video camera is input to the image input unit. The probability model storage unit stores, for each pixel of the frame image, a probability model obtained by modeling the frequency of the pixel value of the pixel in the past. This probability model is, for example, a Gaussian density function. Further, the prediction model storage unit stores, for each pixel of the frame image, a prediction model obtained by modeling a time series transition of the pixel value of the pixel. This prediction model is, for example, a model based on the exponential smoothing method.

また、2値化画像生成部は、画像入力部に入力されたフレーム画像の画素毎に、確率モデル記憶部に記憶している該当する画素の確率モデルなどに基づいて、背景が撮像されている背景画素、または背景でない物体が撮像されている前景画素のいずれであるかを判定し、その判定結果を割り当てた2値化画像を生成する。物体検出部は、2値化画像生成部が生成した2値化画像から撮像エリア内に位置する物体を検出する。   The binarized image generation unit captures the background for each pixel of the frame image input to the image input unit based on the probability model of the corresponding pixel stored in the probability model storage unit. It is determined whether it is a background pixel or a foreground pixel in which an object that is not a background is imaged, and a binarized image to which the determination result is assigned is generated. The object detection unit detects an object located in the imaging area from the binarized image generated by the binarized image generation unit.

さらに、モデル更新部は、2値化画像生成部が背景画素であると判定した画素については、その画素の画素値を用いて、当該画素にかかる確率モデル、および予測モデルを更新する。したがって、背景画素については、確率モデル、および予測モデルの更新が適性に行える。また、モデル更新部は、2値化画像生成部が前景画素であると判定した画素については、その画素と確率モデル、および予測モデルが類似し、且つ2値化画像生成部が背景画素であると判定した画素の画素値を用いて、当該画素にかかる確率モデル、および予測モデルを更新する。したがって、フレーム画像において物体が撮像されている前景領域の画素についても、監視対象エリア内の明るさの変化等の環境変化に対応した確率モデル、および予測モデルの更新が行える。これにより、フレーム画像に撮像されている物体の検出精度の向上が図れる。   Further, for the pixel determined by the binarized image generation unit as the background pixel, the model update unit updates the probability model and the prediction model for the pixel using the pixel value of the pixel. Therefore, for the background pixel, the probability model and the prediction model can be updated appropriately. In addition, for the pixel determined by the binarized image generation unit to be the foreground pixel, the model update unit is similar to the pixel, the probability model, and the prediction model, and the binarized image generation unit is the background pixel. Using the pixel value of the pixel determined to be, the probability model and the prediction model related to the pixel are updated. Therefore, the probabilistic model and the prediction model corresponding to the environmental change such as the brightness change in the monitoring target area can also be updated for the pixels in the foreground area where the object is captured in the frame image. Thereby, the detection accuracy of the object imaged in the frame image can be improved.

また、2値化画像生成部は、画像入力部に入力されたフレーム画像の画素毎に、確率モデル記憶部に記憶している該当する画素の確率モデル、および予測モデル記憶部に記憶している該当する画素の予測モデルに基づいて、背景画素または前景画素のいずれであるかを判定する構成としてもよい。この場合には、例えば、2値化画像生成部は、フレーム画像の画素毎に、確率モデル記憶部に記憶している該当する画素の確率モデルに基づいて背景画素である第1の尤度を算出し、且つ予測モデル記憶部に記憶している該当する画素の予測モデルに基づいて背景画素である第2の尤度を算出し、算出した第1の尤度、および第2の尤度を統合して、背景画素または前景画素のいずれであるかを判定する構成とすればよい。   The binarized image generation unit stores, for each pixel of the frame image input to the image input unit, the probability model of the corresponding pixel stored in the probability model storage unit and the prediction model storage unit. A configuration may be adopted in which it is determined whether the pixel is a background pixel or a foreground pixel based on a prediction model of the corresponding pixel. In this case, for example, the binarized image generation unit obtains the first likelihood that is the background pixel based on the probability model of the corresponding pixel stored in the probability model storage unit for each pixel of the frame image. The second likelihood which is the background pixel is calculated based on the prediction model of the corresponding pixel which is calculated and stored in the prediction model storage unit, and the calculated first likelihood and second likelihood are calculated. What is necessary is just to make it the structure which integrates and determines whether it is a background pixel or a foreground pixel.

この発明によれば、入力されているフレーム画像に撮像されている物体の影響を抑え、且つ撮像エリア内の明るさの変化等の環境変化に応じたモデルの更新が適性に行えるので、フレーム画像に撮像されている物体の検出精度を向上できる。   According to the present invention, the influence of the object being captured on the input frame image is suppressed, and the model can be updated appropriately according to environmental changes such as changes in brightness within the imaging area. It is possible to improve the detection accuracy of an object being imaged.

画像処理ユニットの主要部の構成を示すブロック図である。It is a block diagram which shows the structure of the principal part of an image processing unit. 画像処理ユニットの動作を示すフローチャートである。It is a flowchart which shows operation | movement of an image processing unit. フレーム画像の各画素を示す画素番号を説明する図である。It is a figure explaining the pixel number which shows each pixel of a frame image. 前景領域を確定する手法を説明する図である。It is a figure explaining the method of determining a foreground area | region. フレーム画像の各画素にかかる確率モデル、および予測モデルの更新を説明する図である。It is a figure explaining the update of the probability model concerning each pixel of a frame image, and a prediction model.

以下、この発明の実施形態である画像処理ユニットについて説明する。   Hereinafter, an image processing unit according to an embodiment of the present invention will be described.

図1は、この画像処理ユニットの主要部の構成を示すブロック図である。画像処理ユニット1は、制御部2と、画像入力部3と、画像処理部4と、入出力部5と、を備えている。   FIG. 1 is a block diagram showing the configuration of the main part of the image processing unit. The image processing unit 1 includes a control unit 2, an image input unit 3, an image processing unit 4, and an input / output unit 5.

制御部2は、画像処理ユニット1本体各部の動作を制御する。   The control unit 2 controls the operation of each part of the main body of the image processing unit 1.

画像入力部3は、ビデオカメラ10が撮像しているフレーム画像が入力される。ビデオカメラ10は、例えばフレーム画像を1秒間に30フレーム出力する。ビデオカメラ10は、不審者の侵入や、不審物の放置等を監視する監視対象エリアが撮像エリア内に収まるように設置している。   The image input unit 3 receives a frame image captured by the video camera 10. For example, the video camera 10 outputs 30 frame images per second. The video camera 10 is installed so that a monitoring target area for monitoring the intrusion of a suspicious person, the leaving of a suspicious object, or the like is within the imaging area.

画像処理部4は、画像入力部3に入力されたフレーム画像を処理し、このフレーム画像に撮像されている物体(背景でない物体)を検出する。また、この画像処理部4は、画像入力部3に入力されたフレーム画像を用いて、後述する確率モデル、および予測モデルを更新するモデル更新処理を行う。画像処理部4は、確率モデル、および予測モデルを記憶するメモリ4aを有している。このメモリ4aが、この発明で言う確率モデル記憶部、および予測モデル記憶部に相当する。   The image processing unit 4 processes the frame image input to the image input unit 3 and detects an object (non-background object) captured in the frame image. In addition, the image processing unit 4 performs model update processing for updating a probability model and a prediction model described later using the frame image input to the image input unit 3. The image processing unit 4 includes a memory 4a that stores a probability model and a prediction model. The memory 4a corresponds to the probability model storage unit and the prediction model storage unit referred to in the present invention.

なお、画像処理部4は、画像入力部3に入力されたフレーム画像に対する画像処理等を実行するマイコンを備えている。この発明にかかる画像処理プログラムは、このマイコンを動作させるプログラムであり、予め画像処理部4にインストールしている。   The image processing unit 4 includes a microcomputer that executes image processing on the frame image input to the image input unit 3. The image processing program according to the present invention is a program for operating this microcomputer and is installed in the image processing unit 4 in advance.

入出力部5は、図示していない上位装置との間におけるデータの入出力を制御する。入出力部5は、画像処理部4で物体が検出されたときに、その旨を上位装置(不図示)に通知する信号を出力する。入出力部5は、物体の検出を通知する信号を出力する構成であってもよいし、物体を検出したフレーム画像とともに、物体の検出を通知する信号を出力する構成であってもよい。   The input / output unit 5 controls data input / output with a host device (not shown). When the image processing unit 4 detects an object, the input / output unit 5 outputs a signal for notifying a higher-level device (not shown) to that effect. The input / output unit 5 may be configured to output a signal notifying the detection of the object, or may be configured to output a signal notifying the detection of the object together with the frame image in which the object is detected.

なお、上位装置は、画像処理ユニット1の入出力部5から出力された信号によって、監視対象エリア内に位置する物体の検出が通知されたときに、その旨を音声等で出力して、周辺にいる係員等に通知する構成であってもよいし、さらには、物体を検出したフレーム画像が送信されてきている場合に、そのフレーム画像を表示器に表示する構成であってもよい。   When the host device is notified of the detection of an object located in the monitoring target area by a signal output from the input / output unit 5 of the image processing unit 1, the host device outputs a message to that effect and It may be configured to notify a staff member or the like in the office, or may be configured to display the frame image on a display when a frame image in which an object is detected is transmitted.

次に、この画像処理ユニット1の動作について説明する。図2は、画像処理ユニットの動作を示すフローチャートである。まず、画像処理ユニットの動作の概略を説明し、その後、各動作について詳細に説明する。   Next, the operation of the image processing unit 1 will be described. FIG. 2 is a flowchart showing the operation of the image processing unit. First, an outline of the operation of the image processing unit will be described, and then each operation will be described in detail.

画像処理ユニット1はビデオカメラ10が撮像したフレーム画像が画像入力部3に入力されると(s1)、画像処理部4が入力されたフレーム画像を取り込む。画像処理部4は、フレーム画像の画素毎に、メモリ4aに記憶している確率モデルで背景尤度(この発明で言う第1の尤度)を算出する(s2)。また、画像処理部4は、今回入力されたフレーム画像の画素毎に、メモリ4aに記憶している予測モデルで背景尤度(この発明で言う第2の尤度)を算出する(s3)。   When the frame image captured by the video camera 10 is input to the image input unit 3 (s1), the image processing unit 1 captures the input frame image. The image processing unit 4 calculates the background likelihood (first likelihood referred to in the present invention) with the probability model stored in the memory 4a for each pixel of the frame image (s2). Further, the image processing unit 4 calculates the background likelihood (second likelihood referred to in the present invention) with the prediction model stored in the memory 4a for each pixel of the frame image input this time (s3).

確率モデルは、フレーム画像の画素毎に、過去に入力されたフレーム画像における画素値の発生頻度を、混合ガウス分布を利用してモデル化したものである。また、予測モデルは、フレーム画像の画素毎に、過去に入力されたフレーム画像における画素値の時系列推移をモデル化したものである。したがって、予測モデルは、次に入力されるフレーム画像における画素値の推定に利用できる。   The probability model is obtained by modeling the occurrence frequency of pixel values in a frame image input in the past using a mixed Gaussian distribution for each pixel of the frame image. The prediction model models a time-series transition of pixel values in a frame image input in the past for each pixel of the frame image. Therefore, the prediction model can be used for estimating the pixel value in the next input frame image.

画像処理部4は、今回入力されたフレーム画像について、画素毎にs2で算出した確率モデルでの背景尤度と、s3で算出した予測モデルでの背景尤度とを用いて、背景が撮像されている画素(以下、背景画素と言う。)であるか、または、背景でない物体が撮像されている画素(以下、前景画素と言う。)であるかを決定する(s4)。s4では、マルコフ確率場に基づくエネルギー関数を定義し、その最小化問題を、グラフカットを利用して解くことで、背景画素、または前景画素のいずれであるかを判定し、決定する。このs4にかかる処理により、フレーム画像において、背景が撮像されている背景領域と、前景(物体)が撮像されている前景領域とを区分した2値化画像を生成する。画像処理部4は、この2値化画像における前景領域の大きさや形状から、撮像されている物体の種別等を推定する物体検出処理を行う(s5)。   The image processing unit 4 captures the background of the frame image input this time using the background likelihood in the probability model calculated in s2 for each pixel and the background likelihood in the prediction model calculated in s3. It is determined whether it is a pixel (hereinafter referred to as background pixel) or a pixel in which an object that is not the background is imaged (hereinafter referred to as foreground pixel) (s4). In s4, an energy function based on a Markov random field is defined, and the minimization problem is solved using a graph cut to determine and determine whether the pixel is a background pixel or a foreground pixel. By the processing according to s4, a binary image is generated by dividing a background area where the background is imaged and a foreground area where the foreground (object) is imaged in the frame image. The image processing unit 4 performs an object detection process for estimating the type or the like of the imaged object from the size and shape of the foreground area in the binarized image (s5).

さらに、画像処理部4は、フレーム画像の画素毎に、確率モデル、および予測モデルを更新するための画素を選定する(s6)。画像処理部4は、フレーム画像の画素毎に、s6で選定した画素の画素値を利用して、その画素についてメモリ4aに記憶している確率モデル、および予測モデルを更新する(s7)。s6では、背景と判定した画素については、その画素を選定する。前景と判定した画素については、その画素の周辺画素の中から、今回、背景画素と判定された画素であって、確率モデルおよび予測モデルが類似する画素を選定する。 Further, the image processing unit 4 selects a pixel for updating the probability model and the prediction model for each pixel of the frame image (s6). For each pixel of the frame image, the image processing unit 4 uses the pixel value of the pixel selected in s6 to update the probability model and the prediction model stored in the memory 4a for that pixel (s7). In s6, for the pixel determined to be the background, that pixel is selected. For a pixel determined to be a foreground, a pixel that is determined to be a background pixel this time and that has a similar probability model and prediction model is selected from the peripheral pixels of the pixel.

一般に、背景画素の画素値は、草木の揺れなどにともなって周期的に変化する。また、日照変化等による明るさは、急激に変化せず、徐々に変化する。   In general, the pixel value of the background pixel changes periodically with the shaking of the plant. Also, the brightness due to changes in sunshine or the like does not change rapidly but changes gradually.

以下、上述したs2〜s7の動作について詳細に説明する。   Hereinafter, the operation of s2 to s7 described above will be described in detail.

ここでは、画像入力部3に入力されるフレーム画像を、図3に示すように主走査方向(図3における左右方向)にn画素、副走査方向(図3における上下方向)にm画素の画像として説明する。また、主走査方向にN番目、副走査方向にM番目である画素の画素番号iを、
i=n×(M−1)+N
とする。また、時刻tにおいて、画像入力部3に入力されたフレーム画像の各画素iの画素値をxitで表す。
Here, the frame image input to the image input unit 3 is an image of n pixels in the main scanning direction (left-right direction in FIG. 3) and m pixels in the sub-scanning direction (up-down direction in FIG. 3) as shown in FIG. Will be described. Also, the pixel number i of the pixel that is Nth in the main scanning direction and Mth in the subscanning direction is
i = n × (M−1) + N
And Further, at time t, the pixel value of each pixel i of the frame image input to the image input unit 3 is represented by x i t .

なお、以下の説明では、任意の画素について説明するときには、添え字iを省略することもある。   In the following description, when describing an arbitrary pixel, the subscript i may be omitted.

画素iについて、時刻tにおけるk番目のガウス分布が持つ重みwkt、平均値μkt、分散共分散行列Σktとした場合、確率モデルによる背景尤度は For pixel i, when the k-th Gaussian distribution at time t has weight wk t , mean value μk t , and variance-covariance matrix Σk t , the background likelihood by the probability model is

Figure 0005505936
Figure 0005505936

で算出する。ここでηは、 Calculate with Where η is

Figure 0005505936
Figure 0005505936

で表されるガウス分布の密度関数である。 It is a density function of Gaussian distribution expressed by

確率モデルの更新は、画素値xtに対して、K個の分布の中からマッチする分布を探す。画素値xtが各分布の平均値γδ以内であれば、その分布にマッチしていると判定する。δは、この分布の標準偏差であり、γは、例えばγ=2.5に設定すればよい。 Update of the probabilistic model, the pixel value x t, look for a matching distribution from the K distribution. If the pixel value x t is within the average value γδ of each distribution, it is determined that the distribution matches. δ is a standard deviation of this distribution, and γ may be set to γ = 2.5, for example.

また、K個のガウス分布の重みをwktは、 Also, wk t is the weight of K Gaussian distributions.

Figure 0005505936
Figure 0005505936

で更新する。(3)式において、αは学習率であり、この値が大きいと新たな観測画素値xtにマッチする分布の重みがすぐに大きくなる。すなわち、新たな確率モデルが比較的早い段階で構築される。 Update with. In the equation (3), α is a learning rate, and when this value is large, the weight of the distribution that matches the new observed pixel value x t immediately increases. That is, a new probability model is constructed at a relatively early stage.

また、Mktは、マッチした分布については1、それ以外の分布を0にする。画像処理部4は、各分布の重みを更新した後、重みの総和が1になるように正規化する。 In addition, Mk t is, for the matched distribution 1, to any other distribution to 0. After updating the weight of each distribution, the image processing unit 4 normalizes the sum of the weights to be 1.

マッチする分布が見つかった場合、その分布の平均値μtを、 If a matching distribution is found, the average μ t of the distribution is

Figure 0005505936
Figure 0005505936

で更新するとともに、分散値δtを、 And the variance value δ t

Figure 0005505936
Figure 0005505936

で更新する。(4)式、(5)式におけるρは、学習率であり、 Update with. Ρ in the equations (4) and (5) is a learning rate,

Figure 0005505936
Figure 0005505936

で表される。 It is represented by

また、ytは、確率モデルを更新するための画素値であり、後述するように、前景と判定した画素と、背景と判定した画素で異なるため、ここではxtと区別した表記にしている。 Further, y t is the pixel value to update the probabilistic model, as described below, the pixels determined as the foreground, since different pixels determined as the background, here in the notation distinguished from x t .

また、画像処理部4は、マッチする分布がみつからなかった場合、新たにガウス分布ηk+1を作成する。ここで、   Further, when no matching distribution is found, the image processing unit 4 newly creates a Gaussian distribution ηk + 1. here,

Figure 0005505936
Figure 0005505936

とする。また、Wは、新たな分布に対して予め設定しておく重みである。 And W is a weight set in advance for a new distribution.

さらに、画像処理部4は、ガウス分布の照合度w/δを計算し、その照合度が最小であるガウス分布の重みが、予め定めた閾値以下であれば、その分布を削除し、残りの分布が持つ重みの総和が1になるように、正規化する。   Further, the image processing unit 4 calculates the matching degree w / δ of the Gaussian distribution. If the weight of the Gaussian distribution having the smallest matching degree is equal to or less than a predetermined threshold, the image processing unit 4 deletes the distribution, and the remaining Normalization is performed so that the sum of weights of the distribution is 1.

次に、予測モデルについて説明する。画像入力部3に入力されたフレーム画像の各画素の観測画素値の予測モデルは、指数平滑法により更新する。指数平滑法は、公知のように、時系列データから将来値を予測するのに利用される、時系列分析手法である。ここでは、過去の観測画素値の傾向をモデル化するためと、次時刻での観測画素値を予測するのに用いる。   Next, the prediction model will be described. The prediction model of the observed pixel value of each pixel of the frame image input to the image input unit 3 is updated by an exponential smoothing method. As is well known, the exponential smoothing method is a time series analysis technique used to predict future values from time series data. Here, it is used to model the trend of past observed pixel values and to predict the observed pixel value at the next time.

時刻tにおける、移動平均値mt、観測値ytを用いて、時系列データを逐次的に平滑化する定数型モデルは、 A constant model that sequentially smoothes time-series data using the moving average value m t and the observed value yt at time t is:

Figure 0005505936
Figure 0005505936

で表される。ここで、β(0<β<1)は、平滑化係数であり、βが1に近いほど、直前値を重視した予測になる。 It is represented by Here, β (0 <β <1) is a smoothing coefficient, and the closer the β is to 1, the more important the prediction is the previous value.

時系列データに傾向がない定数型モデルの場合は、以下に示す(9)式において、mtが時刻t+1での有効な予測値となるが、データに上昇、あるいは下降傾向がある場合、その傾向を予測することはできない。ここでは、このような傾向も考慮し、直線型傾向モデルを利用している。この直線型モデルは、時刻tにおける傾向の推定値rtが導入されており、直線型傾向モデルの予測値ztは、 If the case of a constant model is not prone to time-series data, the following are shown (9), but m t is the effective prediction value at time t + 1, which increases the data, or there is a downward trend, the The trend cannot be predicted. Here, in consideration of such a tendency, a linear trend model is used. The linear model is introduced estimate r t trend in time t, the predicted value z t of linear trend model,

Figure 0005505936
Figure 0005505936

Figure 0005505936
Figure 0005505936

により、予測することができる。 Can be predicted.

上記の予測モデルを利用した背景尤度評価について説明する。上記の予測モデルを画素単位で利用した場合、予測誤りが生じる可能性が高いので、ここでは、注目画素(予測対象の画素)と、この注目画素の周辺に位置する複数の画素を用い、空間的な情報を考慮して、背景尤度を算出する。   The background likelihood evaluation using the above prediction model will be described. When the above prediction model is used in units of pixels, there is a high possibility that a prediction error will occur. Here, a target pixel (prediction target pixel) and a plurality of pixels located around the target pixel are used, and a space is used. The background likelihood is calculated in consideration of typical information.

具体的には、注目画素iと、4近傍画素の集合をRとし、背景尤度Q(xt)を、 Specifically, let R be a set of the target pixel i and four neighboring pixels, and the background likelihood Q (x t )

Figure 0005505936
Figure 0005505936

により算出する。ここで、φ(xt,zt)は、予測誤差を許容する閾値thにより、 Calculated by Here, φ (x t , z t ) is a threshold th that allows a prediction error,

Figure 0005505936
Figure 0005505936

で定義している。 Defined in

また、予測モデルは、観測値ytにより更新が行われる。ここでは、確率モデル更新と同様に、画素が前景、または背景のどちらに判定されたかによって、利用する画素値を異ならせている。詳細については後述する。 In addition, the prediction model, the update is carried out by the observed value y t. Here, similar to the probability model update, the pixel value to be used is varied depending on whether the pixel is determined to be the foreground or the background. Details will be described later.

確率モデルで算出した背景尤度、および予測モデルで算出した背景尤度を統合し、最終的な物体領域を確定する。具体的には、マルコフ確率場に基づくエネルギー関数を定義し、その最小化問題を解くことにより、各画素に対する2値のラベルの最適な割り当てを決定する。2値のラベルベクトルをL(l1〜lN)とすると、エネルギー関数E(L)は、   The final likelihood is determined by integrating the background likelihood calculated with the probability model and the background likelihood calculated with the prediction model. Specifically, by defining an energy function based on a Markov random field and solving the minimization problem, the optimal assignment of binary labels to each pixel is determined. Assuming that the binary label vector is L (l1 to lN), the energy function E (L) is

Figure 0005505936
Figure 0005505936

で表すことができる。 Can be expressed as

ここで、νは全画素の集合であり、ν,εは近傍画素の集合である。また、G(li)はペナルティ項であり、H(li,lj)は平滑項であり、   Here, ν is a set of all pixels, and ν and ε are sets of neighboring pixels. G (li) is a penalty term, H (li, lj) is a smooth term,

Figure 0005505936
Figure 0005505936

Figure 0005505936
Figure 0005505936

により算出される。 Is calculated by

ここでは、このエネルギー関数E(L)を最小化するためにグラフカットを利用する。具体的には、図4に示す、画像の各画素に対応するノードSource(s)と、特別なノードSink(t)を作成する。ここでは、ノードsを前景、ノードtを背景としている。ノード間は、エッジで接続し、各エッジには次のようなコストu(i,j)を与える。   Here, a graph cut is used to minimize the energy function E (L). Specifically, a node Source (s) corresponding to each pixel of the image and a special node Sink (t) shown in FIG. 4 are created. Here, the node s is the foreground and the node t is the background. The nodes are connected by edges, and the following cost u (i, j) is given to each edge.

Figure 0005505936
Figure 0005505936

Figure 0005505936
Figure 0005505936

Figure 0005505936
Figure 0005505936

画像処理部4が上述の処理で前景画素と判定した画素については、その観測画素値で確率モデル、および予測モデルを更新すると、物体が静止した際に、その物体による画素値を徐々に背景として学習する。この画像処理ユニット1は、このような画素の学習率を小さくするのではなく、全く学習しないようにすることで、静止した物体が背景に溶け込むのを防止する。   For the pixels that the image processing unit 4 determines to be foreground pixels in the above-described processing, when the probability model and the prediction model are updated with the observed pixel values, when the object is stationary, the pixel values based on the object are gradually used as the background. learn. The image processing unit 1 does not reduce the learning rate of such pixels, but prevents learning at all, thereby preventing a stationary object from blending into the background.

また、物体静止中に生じた明るさ等の周辺環境の変化を、静止物体周辺の画素については確率モデル、および予測モデルの変化を学習し更新しているが、静止物体に遮蔽された画素については、確率モデル、および予測モデルの更新がされないと、この静止物体が移動したときに、背景を物体として誤検出する可能性が高くなる。そこで、画像処理部4は、背景画素と判定された画素の情報を利用して、前景画素と判定された画素の確率モデル、および予測モデルの更新を行う。   Also, changes in the surrounding environment, such as brightness, that occurred while the object was stationary, learned and updated changes in the probabilistic model and prediction model for pixels around the stationary object. If the probability model and the prediction model are not updated, there is a high possibility that the background is erroneously detected as an object when the stationary object moves. Therefore, the image processing unit 4 updates the probability model and the prediction model of the pixel determined as the foreground pixel by using the information of the pixel determined as the background pixel.

具体的には、前景画素と判定された画素の集合をF、背景と判定された画素の集合をBとし、確率モデルの更新のために用いる時刻tでの画素iの画素値yitは、 Specifically, F a set of pixels determined as a foreground pixel, a set of pixels determined as the background and is B, the pixel value yi t of the pixel i at time t used to update the probabilistic model,

Figure 0005505936
Figure 0005505936

で算出される。ここでcは集合Bに属し、背景画素と判定された画素の中から、   Is calculated by Here, c belongs to the set B, and among the pixels determined as the background pixels,

Figure 0005505936
Figure 0005505936

を満足する画素を探索する。 Search for pixels that satisfy.

Θは、各画素の確率モデルと、予測モデルから構成されるパラメータ集合であり、ここでは
Θ=(μ1t,mt,rt
とした。
Θ is a parameter set composed of a probability model of each pixel and a prediction model, where Θ = (μ1 t , m t , r t )
It was.

これらは、確率分布の内、これまでに観測された画素値の分布を表す分布の平均値μ1tと、予測モデルの移動平均値と、傾向の推定値である。画像処理部4は、前景画素と判定された画素iについて、この画素iの確率モデルおよび予測モデルのそれぞれに対して、それらと類似した確率モデル、および予測モデルを持つ背景画素と判定された画素を探索する。そして、探索した画素を利用することで、物体により遮蔽された背景領域のモデルの更新を行う。モデルが類似しているかどうかは、f(Θi,Θj)により評価すればよい。 These are the average value μ1 t of the distribution representing the distribution of the pixel values observed so far, the moving average value of the prediction model, and the estimated value of the trend in the probability distribution. For the pixel i determined as the foreground pixel, the image processing unit 4 determines, for each of the probability model and the prediction model of the pixel i, a pixel determined as a background pixel having a probability model similar to them and a prediction model. Explore. Then, by using the searched pixel, the model of the background area shielded by the object is updated. Whether the models are similar may be evaluated by f (Θi, Θj).

このように、確率モデル、および予測モデルの更新処理では、前景画素と判定された画素については、その画素の画素値を直接利用するのではなく、背景画素と判定された画素の中で、類似した確率モデル、および予測モデルを持つ画素の画素値を利用して更新する。例えば、画像入力部3に入力されたフレーム画像が、図5(A)に示す背景画像であれば、画像処理部4は、フレーム画像の各画素について、その画素の画素値により、確率モデル、および予測モデルを算出し、更新する。一方、画像入力部3に入力されたフレーム画像が、図5(B)に示す物体(車両)を撮像している画像であれば、画像処理部4は、背景が撮像されている領域に位置する画素については、その画素の画素値により、確率モデル、および予測モデルを算出し、更新する。一方、画像処理部4は、車両が撮像されている領域に位置する画素については、背景領域に位置する画素であって、且つ、その画素と確率モデル、および予測モデルが類似する画素の画素値を用いて、確率モデル、および予測モデルを更新する。   As described above, in the update process of the probabilistic model and the prediction model, for the pixel determined to be the foreground pixel, the pixel value of the pixel is not directly used, but is similar among the pixels determined to be the background pixel. The pixel value of the pixel having the probability model and the prediction model is updated. For example, if the frame image input to the image input unit 3 is the background image shown in FIG. 5A, the image processing unit 4 uses a probability model, And calculate and update the prediction model. On the other hand, if the frame image input to the image input unit 3 is an image capturing the object (vehicle) shown in FIG. 5B, the image processing unit 4 is positioned in the region where the background is captured. For a pixel to be processed, a probability model and a prediction model are calculated and updated based on the pixel value of the pixel. On the other hand, for the pixels located in the area where the vehicle is imaged, the image processing unit 4 is a pixel located in the background area, and the pixel value of the pixel similar to the pixel, the probability model, and the prediction model Is used to update the probability model and the prediction model.

したがって、入力されているフレーム画像に撮像されている物体の影響を抑え、且つ撮像エリア内の明るさの変化等の環境変化に応じたモデル(確率モデル、および予測モデル)の更新が適性に行える。これにより、フレーム画像に撮像されている物体の検出精度の向上が図れる。   Therefore, it is possible to appropriately update models (probability models and prediction models) according to environmental changes such as changes in brightness in the imaging area while suppressing the influence of the imaged object on the input frame image. . Thereby, the detection accuracy of the object imaged in the frame image can be improved.

1…画像処理ユニット
2…制御部
3…画像入力部
4…画像処理部
4a…メモリ
5…入出力部
10…ビデオカメラ
DESCRIPTION OF SYMBOLS 1 ... Image processing unit 2 ... Control part 3 ... Image input part 4 ... Image processing part 4a ... Memory 5 ... Input / output part 10 ... Video camera

Claims (6)

撮像装置が撮像している撮像エリアのフレーム画像を入力する画像入力部と、
前記フレーム画像の画素毎に、過去における、その画素の画素値の頻度をモデル化した確率モデルを記憶する確率モデル記憶部と、
前記フレーム画像の画素毎に、その画素の画素値の時系列推移をモデル化した予測モデルを記憶する予測モデル記憶部と、
前記画像入力部に入力された前記フレーム画像の画素毎に、前記確率モデル記憶部に記憶している該当する画素の確率モデルに基づいて、背景が撮像されている背景画素、または背景でない物体が撮像されている前景画素のいずれであるかを判定し、その判定結果を割り当てた2値化画像を生成する2値化画像生成部と、
前記2値化画像生成部が生成した2値化画像から前記撮像エリア内に位置する物体を検出する物体検出部と、
前記2値化画像生成部が背景画素であると判定した画素については、その画素の画素値を用いて、当該画素にかかる確率モデル、および予測モデルを更新し、前記2値化画像生成部が前景画素であると判定した画素については、その画素と前記確率モデル、および前記予測モデルが類似し、且つ前記2値化画像生成部が背景画素であると判定した画素の画素値を用いて、当該画素にかかる確率モデル、および予測モデルを更新するモデル更新部と、を備えている画像処理ユニット。
An image input unit for inputting a frame image of an imaging area captured by the imaging device;
For each pixel of the frame image, a probability model storage unit that stores a probability model that models the frequency of the pixel value of the pixel in the past;
For each pixel of the frame image, a prediction model storage unit that stores a prediction model that models the time-series transition of the pixel value of the pixel;
For each pixel of the frame image input to the image input unit, based on the probability model of the corresponding pixel stored in the probability model storage unit, a background pixel whose background is imaged or an object that is not a background A binarized image generation unit that determines which of the foreground pixels being imaged and generates a binarized image to which the determination result is assigned;
An object detection unit for detecting an object located in the imaging area from the binarized image generated by the binarized image generation unit;
For the pixel determined by the binarized image generation unit as a background pixel, the pixel value of the pixel is used to update the probability model and the prediction model for the pixel, and the binarized image generation unit For a pixel that is determined to be a foreground pixel, the pixel value of the pixel that is similar to the probability model and the prediction model and that the binarized image generation unit determines to be a background pixel is used. An image processing unit comprising: a probability model related to the pixel; and a model update unit that updates a prediction model.
前記2値化画像生成部は、前記画像入力部に入力された前記フレーム画像の画素毎に、前記確率モデル記憶部に記憶している該当する画素の確率モデル、および前記予測モデル記憶部に記憶している該当する画素の予測モデルに基づいて、背景画素または前景画素のいずれであるかを判定する、請求項1に記載の画像処理ユニット。   The binarized image generation unit stores the probability model of the corresponding pixel stored in the probability model storage unit and the prediction model storage unit for each pixel of the frame image input to the image input unit. The image processing unit according to claim 1, wherein the image processing unit determines whether the pixel is a background pixel or a foreground pixel based on a prediction model of the corresponding pixel. 前記2値化画像生成部は、前記画像入力部に入力された前記フレーム画像の画素毎に、前記確率モデル記憶部に記憶している該当する画素の確率モデルに基づいて背景画素である第1の尤度を算出し、且つ前記予測モデル記憶部に記憶している該当する画素の予測モデルに基づいて背景画素である第2の尤度を算出し、算出した前記第1の尤度、および前記第2の尤度を統合して、背景画素または前景画素のいずれであるかを判定する、請求項2に記載の画像処理ユニット。   The binarized image generation unit is a background pixel based on a probability model of a corresponding pixel stored in the probability model storage unit for each pixel of the frame image input to the image input unit. The second likelihood of a background pixel is calculated based on the prediction model of the corresponding pixel stored in the prediction model storage unit, and the calculated first likelihood, and The image processing unit according to claim 2, wherein the second likelihood is integrated to determine whether the pixel is a background pixel or a foreground pixel. 前記確率モデルは、ガウス分布の密度関数である、請求項1〜3のいずれかに記載の画像処理ユニット。   The image processing unit according to claim 1, wherein the probability model is a density function having a Gaussian distribution. 前記予測モデルは、指数平滑法によるモデルである、請求項1〜4のいずれかに記載の画像処理ユニット。   The image processing unit according to claim 1, wherein the prediction model is a model based on an exponential smoothing method. 画像入力部に入力される、撮像装置が撮像している撮像エリアのフレーム画像について、確率モデル記憶部が前記フレーム画像の画素毎に、過去における、その画素の画素値の頻度をモデル化した確率モデルを記憶し、且つ、予測モデル記憶部が、前記フレーム画像の画素毎に、その画素の画素値の時系列推移をモデル化した予測モデルを記憶しておき、
前記画像入力部に入力された前記フレーム画像の画素毎に、前記確率モデル記憶部に記憶している該当する画素の確率モデルに基づいて、背景が撮像されている背景画素、または背景でない物体が撮像されている前景画素のいずれであるかを判定し、その判定結果を割り当てた2値化画像を生成する2値化画像生成ステップと、
前記2値化画像生成ステップで生成した2値化画像から前記撮像エリア内に位置する物体を検出する物体検出ステップと、
前記2値化画像生成ステップで背景画素であると判定した画素については、その画素の画素値を用いて、当該画素にかかる確率モデル、および予測モデルを更新し、前記2値化画像生成ステップで前景画素であると判定した画素については、その画素と前記確率モデル、および前記予測モデルが類似し、且つ前記2値化画像生成ステップで背景画素であると判定した画素の画素値を用いて、当該画素にかかる確率モデル、および予測モデルを更新するモデル更新ステップと、をコンピュータに実行させる画像処理プログラム。
Probability that the probability model storage unit models the frequency of the pixel value of the pixel in the past for each pixel of the frame image with respect to the frame image of the imaging area captured by the imaging device that is input to the image input unit Storing the model, and the prediction model storage unit stores, for each pixel of the frame image, a prediction model obtained by modeling a time-series transition of the pixel value of the pixel,
For each pixel of the frame image input to the image input unit, based on the probability model of the corresponding pixel stored in the probability model storage unit, a background pixel whose background is imaged or an object that is not a background A binarized image generation step of determining which of the foreground pixels being imaged and generating a binarized image to which the determination result is assigned;
An object detection step of detecting an object located in the imaging area from the binarized image generated in the binarized image generation step;
For a pixel determined to be a background pixel in the binarized image generation step, the probability model and prediction model for the pixel are updated using the pixel value of the pixel, and in the binarized image generation step For the pixel determined to be a foreground pixel, the pixel value of the pixel that is similar to the probability model and the prediction model and determined to be a background pixel in the binarized image generation step is used. An image processing program for causing a computer to execute a probability update model for the pixel and a model update step for updating a prediction model.
JP2010248834A 2010-11-05 2010-11-05 Image processing unit and image processing program Active JP5505936B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010248834A JP5505936B2 (en) 2010-11-05 2010-11-05 Image processing unit and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010248834A JP5505936B2 (en) 2010-11-05 2010-11-05 Image processing unit and image processing program

Publications (2)

Publication Number Publication Date
JP2012104872A JP2012104872A (en) 2012-05-31
JP5505936B2 true JP5505936B2 (en) 2014-05-28

Family

ID=46394830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010248834A Active JP5505936B2 (en) 2010-11-05 2010-11-05 Image processing unit and image processing program

Country Status (1)

Country Link
JP (1) JP5505936B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5904069B2 (en) * 2012-09-13 2016-04-13 オムロン株式会社 Image processing apparatus, object detection method, and object detection program
WO2015186341A1 (en) 2014-06-03 2015-12-10 日本電気株式会社 Image processing system, image processing method, and program storage medium
CN105469604A (en) * 2015-12-09 2016-04-06 大连海事大学 An in-tunnel vehicle detection method based on monitored images

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4664838B2 (en) * 2006-03-02 2011-04-06 日本放送協会 Video object tracking device and video object tracking program
US8311281B2 (en) * 2008-04-09 2012-11-13 Nec Corporation Object detection apparatus
JP2010003177A (en) * 2008-06-20 2010-01-07 Secom Co Ltd Image processor

Also Published As

Publication number Publication date
JP2012104872A (en) 2012-05-31

Similar Documents

Publication Publication Date Title
McHugh et al. Foreground-adaptive background subtraction
JP4215781B2 (en) Abnormal operation detection device and abnormal operation detection method
CN104966304B (en) Multi-target detection tracking based on Kalman filtering and nonparametric background model
JP5102410B2 (en) Moving body detection apparatus and moving body detection method
KR101747216B1 (en) Apparatus and method for extracting target, and the recording media storing the program for performing the said method
JP2012526311A (en) Moving locus calculating method and apparatus, and region dividing method
JP2018142097A (en) Information processing device, information processing method, and program
JP6565600B2 (en) Attention detection device and attention detection method
EP2352128A1 (en) Mobile body detection method and mobile body detection apparatus
JP2011060167A (en) Moving object tracking device
JP2005509983A (en) Computer vision method and system for blob-based analysis using a probabilistic framework
CN111783665A (en) Action recognition method and device, storage medium and electronic equipment
JP2011210054A (en) Object detection device and learning device for the same
JP2017102865A (en) Information processing device, information processing method and program
JP5505936B2 (en) Image processing unit and image processing program
JP7446060B2 (en) Information processing device, program and information processing method
Yang et al. Improved visual background extractor with adaptive range change
JP2020170252A (en) Image processing device, image processing method, and program
JP7078295B2 (en) Deformity detection device, deformation detection method, and program
CN111460917B (en) Airport abnormal behavior detection system and method based on multi-mode information fusion
JP7472471B2 (en) Estimation system, estimation device, and estimation method
JP2016224821A (en) Learning device, control method of learning device, and program
JP2012181710A (en) Object tracking device, method and program
JPWO2018037479A1 (en) Image processing apparatus, stereo camera apparatus, and image processing method
CN113450385B (en) Night work engineering machine vision tracking method, device and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140312

R150 Certificate of patent or registration of utility model

Ref document number: 5505936

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250