JP4710562B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP4710562B2
JP4710562B2 JP2005331682A JP2005331682A JP4710562B2 JP 4710562 B2 JP4710562 B2 JP 4710562B2 JP 2005331682 A JP2005331682 A JP 2005331682A JP 2005331682 A JP2005331682 A JP 2005331682A JP 4710562 B2 JP4710562 B2 JP 4710562B2
Authority
JP
Japan
Prior art keywords
speed
frames
traceable
calculated
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005331682A
Other languages
Japanese (ja)
Other versions
JP2007140763A (en
Inventor
省吾 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2005331682A priority Critical patent/JP4710562B2/en
Publication of JP2007140763A publication Critical patent/JP2007140763A/en
Application granted granted Critical
Publication of JP4710562B2 publication Critical patent/JP4710562B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、カメラで撮像した画像を処理する画像処理装置、および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for processing an image captured by a camera.

次のような車両周辺監視装置が特許文献1によって知られている。この車両周辺監視装置は、前回のフレーム撮影時の画像における所望点の輝度値と、今回のフレーム撮影時の画像における所望点に対応する点での輝度値に基づいて、移動物体の速度変化が滑らかであることを条件にして作成されるエネルギー汎関数を用いてオプティカルフローを算出する。そして、算出したオプティカルフローに基づいて、画像内に存在する物体の部位を検出し、検出した物体の部位をフレーム間で追跡して車両周囲の状況を監視する。   The following vehicle periphery monitoring device is known from Patent Document 1. The vehicle periphery monitoring device detects a change in speed of a moving object based on a luminance value of a desired point in an image at the previous frame shooting and a luminance value at a point corresponding to the desired point in the image at the current frame shooting. The optical flow is calculated using an energy functional created on the condition that it is smooth. Then, based on the calculated optical flow, the part of the object present in the image is detected, and the detected part of the object is traced between frames to monitor the situation around the vehicle.

特開2003−67752号公報Japanese Patent Laid-Open No. 2003-67752

しかしながら、従来の車両周辺監視装置においては、算出したオプティカルフローに基づいて画像内に存在する物体の部位を検出し、検出した物体の部位をフレーム間で追跡することによって画像周囲の状況を監視していた。このため、オプティカルフローに基づいて画像内に存在する物体の部位を検出した場合には、その部位が単一の物体で構成されているのか、あるいは複数の物体で構成されているのかを特定することができなかった。このため、その部位が複数物体で構成されている場合には当該部位のフレーム間での動きを正確に追跡できない可能性があるという問題が生じていた。   However, in the conventional vehicle periphery monitoring device, the area around the image is monitored by detecting the part of the object present in the image based on the calculated optical flow and tracking the detected part of the object between frames. It was. For this reason, when a part of an object existing in an image is detected based on the optical flow, it is specified whether the part is composed of a single object or a plurality of objects. I couldn't. For this reason, when the site | part is comprised with multiple objects, the problem that the movement between the frames of the said site | part may not be tracked correctly has arisen.

本発明は、撮像手段で撮像される画像内に存在するフレーム間での追跡が可能な部位(追跡可能部位)を検出し、検出した前記追跡可能部位のフレーム間での移動速度を算出し、各フレームの画像内で追跡可能部位と関連する部位を注目部位として抽出し、注目部位のフレーム間での移動速度を算出し、算出した注目部位のフレーム間での移動速度の誤差を推定し、誤差を加味した注目部位のフレーム間での移動速度を推定し、算出した追跡可能部位のフレーム間での移動速度、および推定した誤差を加味した注目部位のフレーム間での移動速度の差分と所定の閾値とを比較することにより、算出した注目部位のフレーム間での移動速度の補正が必要か否かを判定し、差分が前記所定の閾値より小さい場合に、算出した注目部位のフレーム間での移動速度を補正することを特徴とする。
The present invention detects a part (traceable part) that can be traced between frames existing in an image captured by the imaging means, calculates a movement speed between the detected frames of the traceable part, the site associated with trackable site within images of each frame is extracted as a target site, and calculates the moving velocity between the attention site frame, to estimate the error of the moving speed between frames of the calculated area of interest The movement speed between the frames of the target region taking into account the error is estimated, and the difference between the movement speeds between the frames of the calculated target region in consideration of the estimated error by comparing with a predetermined threshold value, whether or not it is necessary to correct the moving speed between frames of the calculated area of interest is determined, if the difference is smaller than the predetermined threshold value, between the frames of the calculated area of interest And correcting the moving speed of the.

本発明によれば、注目部位のフレーム間での移動速度の補正が必要か否かを判定し、その判定結果に基づいて注目部位のフレーム間での移動速度を補正するようにした。これによって、注目部位が複数物体で構成されている場合であっても、その注目部位の正確な移動速度を算出することができ、注目部位のフレーム間での動きを正確に追跡することができる。   According to the present invention, it is determined whether or not it is necessary to correct the movement speed between frames of the site of interest, and the movement speed between frames of the site of interest is corrected based on the determination result. As a result, even when the attention site is composed of a plurality of objects, the accurate movement speed of the attention site can be calculated, and the movement of the attention site between frames can be accurately tracked. .

図1は、本実施の形態における画像処理装置の一実施の形態の構成を示すブロック図である。画像処理装置100は、カメラ101と、制御装置102とを備えている。カメラ101は、例えばCCDやCMOSなどの撮像素子を備え、レンズを通して入力される被写体像を連続して撮像し、撮像した画像データを制御装置102へ出力する。   FIG. 1 is a block diagram showing a configuration of an embodiment of an image processing apparatus according to the present embodiment. The image processing apparatus 100 includes a camera 101 and a control device 102. The camera 101 includes, for example, an image sensor such as a CCD or a CMOS, continuously captures a subject image input through a lens, and outputs the captured image data to the control device 102.

制御装置102は、CPUやその他周辺回路で構成され、撮像素子101から連続して入力される各フレームの画像データを処理して、画像内に存在する物体のフレーム間での動きを追跡する。このために、制御装置102は、追跡可能部位検出部102aと、速度算出部102bと、速度誤差推定部102cと、速度推定部102dと、速度補正部102eとを機能的に有している。   The control device 102 includes a CPU and other peripheral circuits, processes image data of each frame continuously input from the image sensor 101, and tracks the movement of an object existing in the image between frames. For this purpose, the control device 102 functionally includes a traceable part detection unit 102a, a speed calculation unit 102b, a speed error estimation unit 102c, a speed estimation unit 102d, and a speed correction unit 102e.

追跡可能部位検出部102aは、画像内に存在する物体のフレーム間での動きを追跡するための対象となる物体の部位(追跡可能部位)を検出する。この処理は、画像中の正確な二次元の移動量および移動速度を算出するために必要となる。   The traceable part detection unit 102a detects a part (traceable part) of an object that is a target for tracking movement between frames of an object present in the image. This process is necessary to calculate an accurate two-dimensional movement amount and movement speed in the image.

例えば、公知の手法である連続するフレーム間における局所領域のブロック間マッチング、または濃度勾配法を使用した場合には、濃度値が均一な部位のフレーム間における追跡はできない。また、1次元方向にしか濃度勾配を持たない領域の追跡は、連続するフレーム間での対応関係が走査する順番に大きく依存するため、フレーム間で誤対応を生じる可能性があるために正確な移動量や速度が算出されない可能性がある。そこで、連続する画像間における正確な移動量および移動速度を計測するためには、各注目対象(注目部位)について、少なくとも二次元以上の方向に濃度勾配を有し、画像中の正確な速度が計測できる部位を追跡可能部位として特定する必要がある。   For example, when the matching between local blocks between consecutive frames or the density gradient method, which is a well-known method, is used, tracking between frames of a part having a uniform density value cannot be performed. In addition, tracking of a region having a density gradient only in a one-dimensional direction depends on the order in which the correspondence between consecutive frames greatly scans. Movement amount and speed may not be calculated. Therefore, in order to measure an accurate movement amount and movement speed between successive images, each target object (target site) has a density gradient in at least two dimensions, and the accurate speed in the image is It is necessary to specify a part that can be measured as a traceable part.

追跡可能部位検出部102aは、カメラ101から入力される画像に対して、公知のSUSANオペレータを利用して画像内に存在するコーナーエッジを抽出し、抽出したコーナーエッジを追跡可能部位として検出する。具体的には、次のように処理する。   The traceable part detection unit 102a extracts a corner edge existing in the image using a known SUSAN operator from the image input from the camera 101, and detects the extracted corner edge as a traceable part. Specifically, the process is as follows.

まず、図2(a)に示すような、画像内に設定したマスク2a内における濃度分布とマスク2aの中心の濃度との類似度を計算する。マスク2aの移動可能範囲はあらかじめ指定した領域のみに制限するようにする。例えば、追跡可能部位検出部102aは、マスク2aの中心 (x0,y0) の色とマスク内(x,y) の濃度分布との類似度cを濃度空間における距離dを用いて次式(1)により算出する。なお、次式(1)において、thは色が類似しているか判別するための閾値である。

Figure 0004710562
First, as shown in FIG. 2A, the similarity between the density distribution in the mask 2a set in the image and the density at the center of the mask 2a is calculated. The movable range of the mask 2a is limited to a predetermined area. For example, the traceable part detection unit 102a uses the distance d in the density space to calculate the similarity c between the color of the center (x0, y0) of the mask 2a and the density distribution in the mask (x, y) as follows: ). In the following equation (1), th is a threshold value for determining whether the colors are similar.
Figure 0004710562

次に、次式(2)により、マスク内で類似度の総和をとることによってマスク中心のコーナーエッジらしさsを算出する。

Figure 0004710562
Next, the corner edge likelihood s of the mask center is calculated by taking the sum of the similarities in the mask according to the following equation (2).
Figure 0004710562

式(2)によって算出されるマスク中心のコーナーエッジらしさsは、マスク中心 (x0,y0) がコーナーエッジから離れるにしたがって大きな値をとるため、次式(3)により反転処理を行う。次式(3)において、gはコーナーエッジ付近とそれ以外との差を強調するために設定するパラメータである。

Figure 0004710562
Since the corner edge likelihood s of the mask center calculated by the equation (2) takes a larger value as the mask center (x0, y0) moves away from the corner edge, inversion processing is performed by the following equation (3). In the following equation (3), g is a parameter that is set to emphasize the difference between the vicinity of the corner edge and the others.
Figure 0004710562

これによって、図2(a)に示すように画像内のコーナーエッジ付近においては、コーナーエッジらしさRが大きく算出され、図2(b)に示すように、画像内のコーナーエッジから離れた点では、コーナーエッジらしさRは小さく算出されることになる。次に、この式(3)によって算出される反転後のコーナーエッジらしさRを用いて画像を2値化することによって、画像内に存在するコーナーエッジを抽出することができる。そして、追跡可能部位検出部102aは、抽出したコーナーエッジを追跡可能部位として検出する。   As a result, the corner edge likelihood R is greatly calculated in the vicinity of the corner edge in the image as shown in FIG. 2 (a), and at a point away from the corner edge in the image as shown in FIG. 2 (b). The corner edge likelihood R is calculated to be small. Next, the corner edge existing in the image can be extracted by binarizing the image by using the inverted corner edge likelihood R calculated by the equation (3). Then, the traceable part detection unit 102a detects the extracted corner edge as a traceable part.

速度算出部102bは、追跡可能部位検出部102aで検出した追跡可能部位の連続するフレーム間での対応関係を特定し、追跡可能部位のフレーム間での移動量を算出する。そして算出した移動量と、フレーム間の時間間隔とに基づいて、追跡可能部位のフレーム間での移動速度(追跡可能部位の移動速度)を算出する。具体的には、連続するフレームの画像に対して公知のオプティカルフロー算出処理を行って、オプティカルフローを算出することにより追跡可能部位の移動速度を算出する。例えば、速度算出部102bは、図3に示すように、追跡可能部位検出部102aで追跡可能部位として検出したコーナーエッジ51のx方向(横方向)の移動速度51aとy方向(縦方向)の移動速度51bを算出する。   The speed calculation unit 102b specifies a correspondence relationship between successive frames of the traceable part detected by the traceable part detection unit 102a, and calculates a movement amount of the traceable part between frames. Then, based on the calculated movement amount and the time interval between frames, the movement speed of the traceable part between frames (movement speed of the traceable part) is calculated. Specifically, the movement speed of the traceable part is calculated by performing a known optical flow calculation process on the images of successive frames and calculating the optical flow. For example, as shown in FIG. 3, the speed calculation unit 102 b moves the corner edge 51 detected as a traceable part by the traceable part detection unit 102 a in the x direction (horizontal direction) and the y direction (vertical direction). The moving speed 51b is calculated.

さらに、速度算出部102bは、追跡可能部位検出部102aで追跡可能部位として検出したコーナーエッジと濃度勾配とが連続している点を画像内から抽出し、抽出した点を注目部位として設定する。これによって、二次元の速度を計測できる追跡可能部位と連続して動く注目部位を画像内から検出することができる。   Furthermore, the speed calculation unit 102b extracts a point where the corner edge detected as the traceable part by the traceable part detection unit 102a and the density gradient are continuous from the image, and sets the extracted point as a target part. This makes it possible to detect from the image a site of interest that moves continuously with a traceable site capable of measuring a two-dimensional velocity.

そして、設定した注目部位を対象として、公知のオプティカルフロー算出処理を用いて、連続するフレーム間での対応関係を特定し、当該注目部位のフレーム間での移動量を算出する。そして算出したフレーム間での移動量と、フレーム間の時間間隔とに基づいて、注目部位のフレーム間での特定方向の移動速度(注目部位の移動速度)を算出する。例えば,図3に示すように、注目部位52におけるx方向の速度52aを算出する。
Then, using a known optical flow calculation process for the set attention site, the correspondence between consecutive frames is specified, and the movement amount of the attention site between frames is calculated. Based on the calculated amount of movement between frames and the time interval between frames, a moving speed in a specific direction between the frames of the attention site (movement speed of the attention site) is calculated. For example, as shown in FIG. 3, the velocity 52a in the x direction at the site of interest 52 is calculated.

速度誤差推定部102cは、速度算出部102bで算出された注目部位の特定方向の移動速度の誤差を推定する。なお、本実施の形態では、注目部位のx方向の移動速度の誤差を推定する方法について説明するが、y方向の移動速度の誤差についても同様に推定できる。   The speed error estimation unit 102c estimates an error in the movement speed in a specific direction of the site of interest calculated by the speed calculation unit 102b. In the present embodiment, a method for estimating the error in the moving speed in the x direction of the region of interest will be described. However, the error in the moving speed in the y direction can be similarly estimated.

ここで注目部位の移動速度の誤差について説明する。例えば、図3に示すエッジe(t)とエッジe(t+1)とが連続するフレーム間で対応している場合に、注目部位52を含むエッジと追跡可能部位51を含むエッジとの連続性から両点が同じエッジを形成する部位であると判断されたものとする。このとき、時刻tにおけるエッジe(t)が時刻t+1においてe(t+1)に移動した際(エッジが斜め下に動いたとき)に、注目部位52のx方向速度52aを算出した場合について考える。この場合、上述したように、1次元方向にしか濃度勾配を持たない領域の追跡は、連続するフレーム間での対応関係が走査する順番に大きく依存し、フレーム間で誤対応を生じる可能性があるため、注目部位52のx方向速度52aは誤差を含んで算出されることになる。   Here, an error in the movement speed of the target region will be described. For example, when the edge e (t) and the edge e (t + 1) shown in FIG. 3 correspond between successive frames, the continuity between the edge including the target region 52 and the edge including the traceable region 51 is obtained. It is assumed that both points are determined to be portions that form the same edge. At this time, consider the case where the x-direction velocity 52a of the site of interest 52 is calculated when the edge e (t) at time t moves to e (t + 1) at time t + 1 (when the edge moves diagonally downward). In this case, as described above, tracking of a region having a density gradient only in the one-dimensional direction largely depends on the scanning order of correspondence between consecutive frames, and there is a possibility that miscorrespondence occurs between frames. For this reason, the x-direction velocity 52a of the target region 52 is calculated including an error.

速度誤差推定部102cは、この算出された注目部位52のx方向速度52aに含まれる誤差を推定するために、次のように処理を行う。まず、速度誤差推定部102cは、注目部位52の傾きを算出する。注目部位52の傾きは,例えば、Sobelフィルタなどのエッジ検出フィルタを用いて注目部位52を含むエッジを検出し、その縦エッジの強度Iv、および横エッジの強度Ihをそれぞれ算出する。そして、算出した縦エッジの強度Ivと横エッジの強度Ihとに基づいて、縦横エッジの強度比Iv/Iを算出し、次式(4)によりエッジの傾きθを算出する。なお、次式(4)においては、ここで,エッジがx軸に平行な場合にθ=0となるものとする。

Figure 0004710562
The speed error estimating unit 102c performs the following process in order to estimate the error included in the calculated x-direction speed 52a of the target region 52. First, the speed error estimation unit 102c calculates the inclination of the attention site 52. For the inclination of the attention area 52, for example, an edge including the attention area 52 is detected using an edge detection filter such as a Sobel filter, and the intensity Iv of the vertical edge and the intensity Ih of the horizontal edge are calculated. Based on the calculated vertical edge intensity Iv and horizontal edge intensity Ih, the vertical / horizontal edge intensity ratio Iv / I is calculated, and the edge inclination θ is calculated by the following equation (4). In the following equation (4), it is assumed that θ = 0 when the edge is parallel to the x-axis.
Figure 0004710562

次に、速度誤差推定部102cは、注目部位52を含むエッジの縦方向移動量に起因するエッジの横方向移動誤差を算出する。具体的には、式(4)で算出したエッジの角度に基づいて、エッジが縦方向に移動成分を有した場合のその縦方向移動量および移動速度が横方向移動量および移動速度に与える影響(誤差)を算出する。すなわち、図3に示すように、追跡可能部位51の縦方向移動速度51bおよび注目部位52の傾きに基づいて、エッジが縦方向に移動することにより注目部位52に生じる速度誤差53を算出する。   Next, the speed error estimating unit 102c calculates an edge lateral movement error caused by the amount of vertical movement of the edge including the target region 52. Specifically, based on the angle of the edge calculated by Equation (4), the influence of the vertical movement amount and movement speed on the horizontal movement amount and movement speed when the edge has a movement component in the vertical direction. (Error) is calculated. That is, as shown in FIG. 3, based on the vertical movement speed 51b of the traceable part 51 and the inclination of the target part 52, the speed error 53 generated in the target part 52 due to the edge moving in the vertical direction is calculated.

速度推定部102dは、速度算出部102bで算出された注目部位52のx方向速度52aから、速度誤差推定部102cで算出(推定)した注目部位52に生じる速度誤差53を引くことによって、注目部位52のx方向速度54を推定する。   The speed estimation unit 102d subtracts the speed error 53 generated in the target part 52 calculated (estimated) by the speed error estimation unit 102c from the x-direction speed 52a of the target part 52 calculated by the speed calculation unit 102b, thereby obtaining the target part. 52 x-direction velocity 54 is estimated.

以上の説明においては、注目部位52は、濃度変化の連続性より追跡可能部位51と同じエッジe(t)およびe(t+1)に属すると仮定して処理を行ってきた。この場合、追跡可能部位51と注目部位52とが同一対象の輪郭を形成する部位であれば、両部位のx方向速度51aおよび54はほぼ同じとなる。しかし、背景と手前の対象のエッジが重なる場合、例えば図4に示すように背景の壁から検出されるエッジと人物から検出されるエッジが重なる場合には、注目部位52の推定されたx方向速度54は追跡可能部位のx方向速度51aと異なる速度が推定されることになる。   In the above description, the processing has been performed on the assumption that the attention site 52 belongs to the same edges e (t) and e (t + 1) as the traceable site 51 due to the continuity of density change. In this case, if the traceable portion 51 and the target portion 52 form a contour of the same target, the x-direction velocities 51a and 54 of both portions are substantially the same. However, when the background and the target edge in front overlap, for example, as shown in FIG. 4, when the edge detected from the background wall and the edge detected from the person overlap, the estimated x direction of the target region 52 is estimated. The speed 54 is estimated to be different from the x-direction speed 51a of the traceable part.

そこで速度補正部102eは、正確な移動量および速度が観測されている追跡可能部位51の横方向速度51aと注目部位の推定速度54とを用いて、注目部位52が追跡可能部位51と同じ対象に属する部位か否かを判定し、その判定結果に基づいて、注目部位52のx方向速度52aの補正を行う。   Therefore, the speed correction unit 102e uses the lateral speed 51a of the traceable part 51 where the accurate movement amount and speed are observed and the estimated speed 54 of the target part, and the target part 52 is the same target as the traceable part 51. It is determined whether or not the region belongs to the region, and the x-direction speed 52a of the region of interest 52 is corrected based on the determination result.

速度補正部102eは、まず、追跡可能部位51の横方向速度51aと注目部位の推定速度54との差分の絶対値と、所定の閾値Thとを比較する。そして、追跡可能部位51の横方向速度51aと注目部位の推定速度54との差分の絶対値が所定の閾値Th以下である場合には、注目部位52は追跡可能部位51と同じ対象に属する部位であると判定し、注目部位52のx方向速度52aを追跡可能部位51の横方向速度51aに置き換えて補正する。   The speed correction unit 102e first compares the absolute value of the difference between the lateral speed 51a of the traceable part 51 and the estimated speed 54 of the target part with a predetermined threshold Th. When the absolute value of the difference between the lateral speed 51a of the traceable part 51 and the estimated speed 54 of the target part is equal to or less than a predetermined threshold Th, the target part 52 belongs to the same target as the traceable part 51 And the x-direction speed 52a of the site of interest 52 is replaced with the lateral speed 51a of the traceable part 51 and corrected.

これに対して、追跡可能部位51の横方向速度51aと注目部位の推定速度54との差分の絶対値が所定の閾値Thより大きい場合には、注目部位52は追跡可能部位51と同じ対象に属さない部位であると判定し、注目部位52をコーナーエッジ、すなわち追跡可能部位として設定し、再度上述した処理を実行する。   On the other hand, when the absolute value of the difference between the lateral velocity 51a of the traceable part 51 and the estimated speed 54 of the target part is larger than a predetermined threshold Th, the target part 52 is set to the same target as the traceable part 51. It determines with it being a site | part which does not belong, sets the attention site | part 52 as a corner edge, ie, a traceable site | part, and performs the process mentioned above again.

このように、追跡可能部位検出部102aによって二次元の速度を計測できる部位を追跡可能部位として特定し、その追跡可能部位の速度を算出し、その算出された結果から追跡可能部位に連続する注目部位の速度を推定して、追跡可能部位と注目部位との速度の整合性を判定するようにした。これによって、追跡可能部位と注目部位とが同一の対象に属する部位か、あるいは異なる対象に属する部位かを精度高く判定することができる。また、整合性の判定結果に基づいて、注目部位の速度を補正するようにしたため、複数対象から構成される部位においても、その正確な速度を算出することができる。   In this way, the part capable of measuring the two-dimensional velocity by the traceable part detection unit 102a is identified as the traceable part, the speed of the traceable part is calculated, and the attention that is continuous to the traceable part is calculated from the calculated result. The speed of the part was estimated, and the consistency of speed between the traceable part and the target part was determined. This makes it possible to determine with high accuracy whether the traceable part and the target part belong to the same target or different parts. In addition, since the speed of the target region is corrected based on the result of the consistency determination, the accurate speed can be calculated even for a site composed of a plurality of objects.

図5は、本実施の形態における画像処理装置の処理を示すフローチャートである。図5に示す処理は、カメラ101から画像の入力が開始されると起動するプログラムとして、制御装置102により実行される。   FIG. 5 is a flowchart showing processing of the image processing apparatus according to the present embodiment. The processing shown in FIG. 5 is executed by the control device 102 as a program that starts when image input from the camera 101 is started.

ステップS10において、追跡可能部位検出部102aは、上述したように、画像内にマスクを設定し、マスク中心のコーナーエッジらしさsを算出することによって、コーナーエッジを検出し、検出したコーナーエッジを追跡可能部位として設定する。その後ステップS20へ進み、速度算出部102bは、追跡可能部位検出部102aで検出した追跡可能部位の連続するフレーム間での速度を算出して、ステップS30へ進む。   In step S10, as described above, the traceable part detection unit 102a sets a mask in the image, calculates the corner edge likelihood s of the mask center, detects the corner edge, and tracks the detected corner edge. Set as possible part. Thereafter, the process proceeds to step S20, and the speed calculation unit 102b calculates the speed between consecutive frames of the traceable part detected by the traceable part detection unit 102a, and proceeds to step S30.

ステップS30では、速度算出部102bは、追跡可能部位検出部102aで追跡可能部位として検出したコーナーエッジと濃度勾配とが連続している点を画像内から抽出できたか否かを判断する。抽出できないと判断した場合には、後述するステップS110へ進む。これに対して抽出できたと判断した場合には、ステップS40へ進む。ステップS40では、抽出した点を注目部位として設定して、ステップS50へ進む。   In step S30, the speed calculation unit 102b determines whether or not a point where the corner edge detected as the traceable part by the traceable part detection unit 102a and the density gradient are continuous can be extracted from the image. If it is determined that it cannot be extracted, the process proceeds to step S110 described later. On the other hand, if it is determined that the extraction has been completed, the process proceeds to step S40. In step S40, the extracted point is set as a site of interest, and the process proceeds to step S50.

ステップS50では、速度算出部102bは、設定した注目部位の連続するフレーム間での速度を算出する。その後、ステップS60へ進み、注目部位を含むエッジの傾きを算出して、ステップS70へ進む。ステップS70では、速度誤差推定部102cは、上述したように、注目部位を含むエッジの移動誤差を算出する。その後、ステップS80へ進み、速度推定部102dは、速度算出部102bで算出された注目部位の速度から、速度誤差推定部102cで推定した注目部位に生じる速度誤差を引くことによって、注目部位の速度を推定する。その後、ステップS90へ進む。   In step S50, the speed calculation unit 102b calculates the speed between successive frames of the set target region. Thereafter, the process proceeds to step S60, the inclination of the edge including the target region is calculated, and the process proceeds to step S70. In step S70, the speed error estimating unit 102c calculates the movement error of the edge including the site of interest as described above. Thereafter, the process proceeds to step S80, and the speed estimation unit 102d subtracts the speed error generated in the target site estimated by the speed error estimation unit 102c from the speed of the target site calculated by the speed calculation unit 102b, thereby obtaining the speed of the target site. Is estimated. Thereafter, the process proceeds to step S90.

ステップS90では、速度補正部102eは、上述したように、正確な移動量および速度が観測されている追跡可能部位の速度と注目部位の推定速度とを用いて、注目部位が追跡可能部位と同じ対象に属する部位か否かを判定して、注目部位の速度を補正する必要があるか否かを判断する。補正の必要があると判断した場合には、ステップS100へ進む。ステップS100では、速度補正部102eは、注目部位の速度を追跡可能部位の速度に置き換えて補正する。その後、ステップS110へ進む。   In step S90, as described above, the speed correction unit 102e uses the speed of the traceable part where the accurate movement amount and speed are observed and the estimated speed of the target part as described above, and the target part is the same as the traceable part. It is determined whether or not the part belongs to the target, and it is determined whether or not the speed of the target part needs to be corrected. If it is determined that correction is necessary, the process proceeds to step S100. In step S100, the speed correction unit 102e corrects the speed of the site of interest by replacing it with the speed of the traceable site. Then, it progresses to step S110.

これに対して、補正の必要がないと判断した場合には、ステップS130へ進む。ステップS130では、速度補正部102eは、注目部位52を追跡可能部位として設定して、ステップS50へ戻る。   On the other hand, if it is determined that no correction is necessary, the process proceeds to step S130. In step S130, the speed correction unit 102e sets the attention site 52 as a traceable site, and returns to step S50.

ステップS110では、カメラ101から入力されてくる画像が停止したか否かを判断する。画像の入力が停止されていないと判断した場合には、ステップS120へ進む。ステップS120では、カメラ101から入力されてくる次フレームの画像を処理対象として設定して、ステップS10へ戻る。これに対して、画像の入力が停止したと判断した場合には、処理を終了する。   In step S110, it is determined whether the image input from the camera 101 has stopped. If it is determined that the image input is not stopped, the process proceeds to step S120. In step S120, the next frame image input from the camera 101 is set as a processing target, and the process returns to step S10. On the other hand, if it is determined that the input of the image has been stopped, the process is terminated.

以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)追跡可能部位検出部102aによって二次元の速度を計測できる部位を追跡可能部位として特定し、その追跡可能部位の速度を算出し、その算出された結果から追跡可能部位に連続して動く注目部位の速度を推定して、追跡可能部位と注目部位との速度の整合性を判定するようにした。これによって、追跡可能部位と注目部位とが同一の対象に属する部位か、あるいは異なる対象に属する部位かを精度高く判定することができる。
According to the present embodiment described above, the following operational effects can be obtained.
(1) A part where a two-dimensional velocity can be measured by the traceable part detection unit 102a is specified as a traceable part, the speed of the traceable part is calculated, and the traceable part moves continuously from the calculated result. The speed of the region of interest was estimated, and the consistency of the speed between the traceable region and the region of interest was determined. This makes it possible to determine with high accuracy whether the traceable part and the target part belong to the same target or different parts.

(2)また、整合性の判定結果に基づいて、注目部位の速度を補正するようにしたため、複数対象から構成される部位においても、その正確な速度を算出することができる。 (2) Moreover, since the speed of the region of interest is corrected based on the consistency determination result, the accurate speed can be calculated even in a region composed of a plurality of objects.

(3)追跡可能部位検出部102aは、カメラ101から入力される画像に対して、公知のSUSANオペレータを利用して、画像内に存在するコーナーエッジを抽出するようにした。これによって、従来の技術を活用して、精度高く画像内に存在するコーナーエッジを抽出することができる。 (3) The traceable part detection unit 102a extracts a corner edge existing in the image by using a known SUSAN operator for the image input from the camera 101. This makes it possible to extract corner edges that exist in the image with high accuracy by utilizing conventional techniques.

―変形例―
なお、上述した実施の形態の画像処理装置は、以下のように変形することもできる。
(1)上述した実施の形態では、追跡可能部位検出部102aは、カメラ101から入力される画像に対して、公知のSUSANオペレータを利用して、画像内に存在するコーナーエッジを抽出し、抽出したコーナーエッジを追跡可能部位として検出する例について説明した。しかしこれに限定されず、その他の方法によって追跡可能部位を検出してもよい。例えば、次のような処理を行って、画像内に存在する追跡可能部位を検出してもよい。
-Modification-
The image processing apparatus according to the above-described embodiment can be modified as follows.
(1) In the above-described embodiment, the traceable part detecting unit 102a extracts a corner edge existing in the image by using a known SUSAN operator from the image input from the camera 101, and extracts it. An example in which the corner edge is detected as a traceable part has been described. However, the present invention is not limited to this, and the traceable part may be detected by other methods. For example, the following process may be performed to detect a traceable part present in the image.

まず、追跡可能部位検出部102aは、カメラ101から入力される画像全体を所定の面積を有する領域に分割する。例えば、画像全体を5×5ピクセルの領域に分割する。そして、分割した各領域に対してエッジ抽出処理を行い、各領域内に存在するエッジを抽出する。その後、それぞれの領域内で抽出した各エッジの角度を算出し、それぞれの領域に含まれる各エッジの角度の分散を算出する。そして、各領域で算出したエッジの角度分散と、あらかじめ設定された所定の閾値とを比較して、エッジの角度分散が閾値以上の大きさを有する領域を追跡可能部位として抽出する。   First, the traceable part detection unit 102a divides the entire image input from the camera 101 into regions having a predetermined area. For example, the entire image is divided into 5 × 5 pixel regions. Then, edge extraction processing is performed on each divided area, and edges existing in each area are extracted. Thereafter, the angle of each edge extracted in each region is calculated, and the variance of the angle of each edge included in each region is calculated. Then, the edge angle variance calculated in each region is compared with a predetermined threshold value, and a region having an edge angle variance greater than or equal to the threshold value is extracted as a traceable part.

これによって、エッジの角度の分散が閾値以上の大きさを有する領域は、少なくとも二次元以上の濃度勾配方向がその領域内に含まれることを意味しており、この領域においてはフレーム間の対応関係を特定することができるため、フレーム間での物体の追跡が可能となることを加味して、追跡可能部位を精度高く検出することができる。   As a result, an area having an edge angle variance greater than or equal to a threshold means that the density gradient direction of at least two dimensions is included in the area, and in this area, the correspondence between frames Therefore, the traceable part can be detected with high accuracy, considering that the object can be tracked between frames.

(2)上述した実施の形態では、注目部位の速度を算出するために、公知のオプティカルフロー算出処理を用いて、連続するフレーム間での対応関係を特定し、当該注目部位のフレーム間での移動量を算出する例について説明した。しかしこれに限定されず、注目部位が濃度勾配を有し、かつ注目部位位置からエッジが検出される場合は、そのエッジが注目部位に滞留する時間を計測することによって注目部位の速度を算出してもよい。 (2) In the above-described embodiment, in order to calculate the speed of the attention site, a known optical flow calculation process is used to identify the correspondence between successive frames, and An example of calculating the movement amount has been described. However, the present invention is not limited to this, and when the site of interest has a concentration gradient and an edge is detected from the site of interest, the speed of the site of interest is calculated by measuring the time that the edge stays in the site of interest. May be.

(3)上述した実施の形態では、速度補正部102eは、追跡可能部位の速度と注目部位の推定速度との差分の絶対値と、所定の閾値Thとを比較し、その比較結果に応じて注目部位の速度の補正を行う例について説明した。しかしこれに限定されず、追跡可能部位の速度と注目部位の推定速度との差分の絶対値と、所定の閾値Thとを比較するに当たって、追跡可能部位および注目部位を微小な領域に限定し、微小な領域同士で追跡可能部位の速度と注目部位の推定速度との差分の絶対値を算出するようにしてもよい。これによって、追跡可能部位と注目部位の少なくとも一方が、濃度勾配方向が一様ではない部位、すなわち曲線的に濃度勾配を有する部位である場合でも、各微小領域における濃度勾配方向を直線近似することができるので、正確な速度検証を行うことができる。 (3) In the above-described embodiment, the speed correction unit 102e compares the absolute value of the difference between the speed of the traceable part and the estimated speed of the target part with a predetermined threshold Th, and according to the comparison result. An example in which the speed of the attention site is corrected has been described. However, the present invention is not limited to this. In comparing the absolute value of the difference between the speed of the traceable part and the estimated speed of the target part and the predetermined threshold Th, the traceable part and the target part are limited to a minute region, You may make it calculate the absolute value of the difference of the speed | velocity | rate of the site | part which can be tracked between micro area | regions, and the estimation speed | rate of an attention site | part. As a result, even if at least one of the traceable part and the target part is a part where the concentration gradient direction is not uniform, that is, a part having a concentration gradient in a curved line, the concentration gradient direction in each minute region is linearly approximated. Therefore, accurate speed verification can be performed.

なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。   Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired.

特許請求の範囲の構成要素と実施の形態との対応関係について説明する。カメラ101は撮像手段に、追跡可能部位検出部102aは追跡可能部位検出手段に、速度算出部102bは追跡可能部位速度算出手段、注目部位抽出手段、および注目部位速度算出手段に相当する。速度誤差推定部102c、および速度推定部102dは移動速度推定手段に、速度補正部102eは判定手段、および補正手段に相当する。なお、以上の説明はあくまでも一例であり、発明を解釈する際、上記の実施形態の記載事項と特許請求の範囲の記載事項の対応関係に何ら限定も拘束もされない。   The correspondence between the constituent elements of the claims and the embodiment will be described. The camera 101 corresponds to an imaging unit, the traceable part detection unit 102a corresponds to a traceable part detection unit, and the speed calculation unit 102b corresponds to a traceable part speed calculation unit, a target part extraction unit, and a target part speed calculation unit. The speed error estimation unit 102c and the speed estimation unit 102d correspond to a moving speed estimation unit, and the speed correction unit 102e corresponds to a determination unit and a correction unit. The above description is merely an example, and when interpreting the invention, there is no limitation or restriction on the correspondence between the items described in the above embodiment and the items described in the claims.

画像処理装置の一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of an image processing apparatus. コーナーエッジの算出についての具体例を示す図である。It is a figure which shows the specific example about calculation of a corner edge. 注目部位の速度補正原理を示す図である。It is a figure which shows the speed correction principle of an attention site | part. 背景と手前の対象のエッジが重なる場合の具体例を示す図である。It is a figure which shows the specific example in case a background and the edge of the front object overlap. 画像処理装置の処理を示すフローチャート図である。It is a flowchart figure which shows the process of an image processing apparatus.

符号の説明Explanation of symbols

100 画像処理装置
101 カメラ
102 制御装置
102a 追跡可能部位検出部
102b 速度算出部
102c 速度誤差推定部
102d 速度推定部
102e 速度補正部
DESCRIPTION OF SYMBOLS 100 Image processing apparatus 101 Camera 102 Control apparatus 102a Traceable part detection part 102b Speed calculation part 102c Speed error estimation part 102d Speed estimation part 102e Speed correction part

Claims (6)

撮像手段で撮像される画像内に存在するフレーム間での追跡が可能な部位(追跡可能部位)を検出する追跡可能部位検出手段と、
前記追跡可能部位検出手段で検出した前記追跡可能部位のフレーム間での移動速度を算出する追跡可能部位速度算出手段と、
各フレームの画像内で前記追跡可能部位と関連する部位を注目部位として抽出する注目部位抽出手段と、
前記注目部位のフレーム間での移動速度を算出する注目部位速度算出手段と、
前記注目部位速度算出手段で算出した注目部位のフレーム間での移動速度の誤差を推定し、誤差を加味した前記注目部位のフレーム間での移動速度を推定する移動速度推定手段と、
前記追跡可能部位速度算出手段で算出した前記追跡可能部位のフレーム間での移動速度、および前記移動速度推定手段で推定した誤差を加味した前記注目部位のフレーム間での移動速度の差分と所定の閾値とを比較することにより、前記注目部位速度算出手段で算出した注目部位のフレーム間での移動速度の補正が必要か否かを判定する判定手段と、
前記判定手段において、前記差分が前記所定の閾値より小さい場合に、前記注目部位速度算出手段で算出した注目部位のフレーム間での移動速度を補正する補正手段とを備えることを特徴とする画像処理装置。
A traceable part detecting means for detecting a part (traceable part) that can be traced between frames existing in an image imaged by the imaging means;
A traceable part speed calculating means for calculating a moving speed between frames of the traceable part detected by the traceable part detecting means;
And attention site extracting means for extracting a region as a target site associated with said trackable site within images of each frame,
Attention site speed calculating means for calculating a moving speed between frames of the attention site;
A movement speed estimation unit that estimates an error of a movement speed between frames of the attention part calculated by the attention part speed calculation unit, and estimates a movement speed between frames of the attention part in consideration of the error;
A difference between a movement speed between frames of the traceable part calculated by the traceable part speed calculation unit and a movement speed between frames of the target part in consideration of an error estimated by the movement speed estimation unit A determination unit that determines whether or not it is necessary to correct the movement speed between frames of the target region calculated by the target region speed calculation unit by comparing with a threshold ;
Oite said determining means, when the difference is smaller than the predetermined threshold value, characterized in that it comprises a correcting means for correcting the moving speed between the attention area speed calculation region of interest calculated by means frame Image processing device.
請求項1に記載の画像処理装置において、
前記追跡可能部位検出手段は、画像中に設定した所定領域内に含まれるエッジの角度を算出し、当該所定領域内におけるエッジの角度の分散に基づいて、前記追跡可能部位を検出することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The traceable part detecting means calculates an angle of an edge included in a predetermined area set in the image, and detects the traceable part based on variance of the angle of the edge in the predetermined area. An image processing apparatus.
請求項1に記載の画像処理装置において、
前記追跡可能部位検出手段は、画像内から抽出したコーナーエッジを前記追跡可能部位として検出することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The traceable part detecting means detects a corner edge extracted from an image as the traceable part.
請求項1〜3のいずれか一項に記載の画像処理装置において、
前記判定手段が、前記差分が前記所定の閾値より小さい場合に、同じ対象に属する部位であると判定することを特徴とする画像処理装置。
In the image processing device according to any one of claims 1 to 3,
The image processing apparatus , wherein the determination unit determines that the parts belong to the same target when the difference is smaller than the predetermined threshold .
請求項1〜4のいずれか一項に記載の画像処理装置において、
前記判定手段は、前記追跡可能部位および前記注目部位を微小な範囲に限定し、微小な範囲に限定した追跡可能部位のフレーム間での移動速度、および微小な範囲に限定した注目部位のフレーム間での移動速度に基づいて、前記注目部位速度算出手段で算出された注目部位のフレーム間での移動速度の補正が必要か否かを判定することを特徴とする画像処理装置。
In the image processing device according to any one of claims 1 to 4,
The determination unit limits the traceable part and the attention part to a minute range, the movement speed between frames of the traceable part limited to the minute range, and the frames of the attention part limited to the minute range. An image processing apparatus that determines whether or not it is necessary to correct the moving speed between frames of the target region calculated by the target region speed calculating unit based on the moving speed at the point.
撮像手段で撮像した画像内に存在する物体を検出し、検出した物体の移動を追跡する、画像処理手段が実行する画像処理方法であって、An image processing method executed by an image processing unit that detects an object present in an image captured by an imaging unit and tracks the movement of the detected object,
撮像された画像内に存在するフレーム間での追跡が可能な部位(追跡可能部位)を検出するステップと、Detecting a part (traceable part) that can be traced between frames existing in the captured image;
検出した前記追跡可能部位のフレーム間での移動速度を算出するステップと、Calculating a moving speed between frames of the detected traceable part;
各フレームの画像内で前記追跡可能部位と関連する部位を注目部位として抽出するステップと、Extracting a part related to the traceable part in the image of each frame as a target part;
前記注目部位のフレーム間での移動速度を算出するステップと、Calculating a moving speed between frames of the site of interest;
算出した注目部位のフレーム間での移動速度の誤差を推定し、誤差を加味した前記注目部位のフレーム間での移動速度を推定するステップと、Estimating the movement speed error between frames of the calculated target region, and estimating the movement speed between frames of the target region taking into account the error;
算出した前記追跡可能部位のフレーム間での移動速度、および推定した誤差を加味した前記注目部位のフレーム間での移動速度の差分と所定の閾値とを比較することにより、算出した注目部位のフレーム間での移動速度の補正が必要か否かを判定するステップと、By comparing the calculated movement speed between frames of the traceable part and the difference in movement speed between frames of the part of interest in consideration of the estimated error with a predetermined threshold, the calculated frame of the part of interest Determining whether or not the movement speed needs to be corrected between,
前記差分が前記所定の閾値より小さい場合に、算出した注目部位のフレーム間での移動速度を補正するステップとを有することを特徴とする画像処理方法。And a step of correcting the calculated movement speed of the target region between frames when the difference is smaller than the predetermined threshold value.
JP2005331682A 2005-11-16 2005-11-16 Image processing apparatus and image processing method Expired - Fee Related JP4710562B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005331682A JP4710562B2 (en) 2005-11-16 2005-11-16 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005331682A JP4710562B2 (en) 2005-11-16 2005-11-16 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2007140763A JP2007140763A (en) 2007-06-07
JP4710562B2 true JP4710562B2 (en) 2011-06-29

Family

ID=38203555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005331682A Expired - Fee Related JP4710562B2 (en) 2005-11-16 2005-11-16 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4710562B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017462A (en) * 2007-07-09 2009-01-22 Sanyo Electric Co Ltd Driving support system and vehicle
KR101046935B1 (en) 2010-07-05 2011-07-07 (주)베라시스 Apparatus and method for measuring driving speed of a vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096947A (en) * 1995-06-23 1997-01-10 Toyota Central Res & Dev Lab Inc Object tracking device
JP2001141425A (en) * 1999-11-12 2001-05-25 Laboratories Of Image Information Science & Technology Three-dimensional shape measuring device
JP2002027480A (en) * 2000-07-10 2002-01-25 Fujitsu Ltd Dynamic image processing method and apparatus thereof
JP2003067752A (en) * 2001-08-28 2003-03-07 Yazaki Corp Vehicle periphery monitoring device
JP2003306102A (en) * 2002-04-11 2003-10-28 Toshiba Corp Passing vehicle detection device, and rear side alarm device for drive supporting system
JP2005250910A (en) * 2004-03-04 2005-09-15 Keio Gijuku Mobile object detection method and mobile object detection system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096947A (en) * 1995-06-23 1997-01-10 Toyota Central Res & Dev Lab Inc Object tracking device
JP2001141425A (en) * 1999-11-12 2001-05-25 Laboratories Of Image Information Science & Technology Three-dimensional shape measuring device
JP2002027480A (en) * 2000-07-10 2002-01-25 Fujitsu Ltd Dynamic image processing method and apparatus thereof
JP2003067752A (en) * 2001-08-28 2003-03-07 Yazaki Corp Vehicle periphery monitoring device
JP2003306102A (en) * 2002-04-11 2003-10-28 Toshiba Corp Passing vehicle detection device, and rear side alarm device for drive supporting system
JP2005250910A (en) * 2004-03-04 2005-09-15 Keio Gijuku Mobile object detection method and mobile object detection system

Also Published As

Publication number Publication date
JP2007140763A (en) 2007-06-07

Similar Documents

Publication Publication Date Title
JP6458734B2 (en) Passenger number measuring device, passenger number measuring method, and passenger number measuring program
JP5075672B2 (en) Object detection apparatus and method
JP6700752B2 (en) Position detecting device, position detecting method and program
KR101618814B1 (en) Method and Apparatus for Monitoring Video for Estimating Gradient of Single Object
JP5885398B2 (en) Image processing apparatus and image processing method
KR100355125B1 (en) Face-image processing apparatus
JP2005128619A (en) Object measurement apparatus, object measurement method, and program
US11210773B2 (en) Information processing apparatus, information processing method, and storage medium for defect inspection and detection
JP2015206798A (en) distance calculation device
JP2014009975A (en) Stereo camera
KR20060064504A (en) System for detecting targets and method thereof
CN108369739B (en) Object detection device and object detection method
KR101469099B1 (en) Auto-Camera Calibration Method Based on Human Object Tracking
JP2018205870A (en) Object tracking method and device
JP3988574B2 (en) Image processing device
JP2010122078A (en) Height detection system, and automatic ticket gate using the same
KR101290517B1 (en) Photographing apparatus for tracking object and method thereof
JP4710562B2 (en) Image processing apparatus and image processing method
US9478032B2 (en) Image monitoring apparatus for estimating size of singleton, and method therefor
JP2010003253A (en) Motion estimation device
JP6165513B2 (en) Hand gesture tracking system
JP4356140B2 (en) Image motion vector measuring method and apparatus
JP2012221043A (en) Image processing method and monitoring device
JP2004295416A (en) Image processing apparatus
KR102453392B1 (en) Method and Apparatus for Video Denoising Considering Moving Object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110307

R150 Certificate of patent or registration of utility model

Ref document number: 4710562

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees