JP2006202047A - Moving-object detection device and method - Google Patents
Moving-object detection device and method Download PDFInfo
- Publication number
- JP2006202047A JP2006202047A JP2005013084A JP2005013084A JP2006202047A JP 2006202047 A JP2006202047 A JP 2006202047A JP 2005013084 A JP2005013084 A JP 2005013084A JP 2005013084 A JP2005013084 A JP 2005013084A JP 2006202047 A JP2006202047 A JP 2006202047A
- Authority
- JP
- Japan
- Prior art keywords
- pedestrian
- moving object
- detected
- image
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、撮像画像から移動物体を検出し、検出した移動物体を追跡する移動物体検出装置及び移動物体検出方法に関する。 The present invention relates to a moving object detection apparatus and a moving object detection method for detecting a moving object from a captured image and tracking the detected moving object.
近年、運転支援や安全性向上などを目的として、車両前方に存在する歩行者を検出する装置が提案されている(特許文献1参照)。特許文献1に記載されている歩行者検出装置では、一定時間毎に撮像される各撮像画像から歩行者の中心線の中心点を順次求め、連続する撮像画像間の各中心点から歩行者の移動ベクトルを求め、移動ベクトルを利用して歩行者を追跡する。この移動ベクトルは、歩行者の過去の移動してきた方向の向きと大きさを示すものであり、歩行者の移動していく方向の予測に利用される。
従来の移動ベクトルに基づく歩行者の追跡では、過去の歩行者の移動方向だけを用いて未来の移動方向を予測している。しかし、歩行者は、一定方向に向かって移動しているだけではなく、歩道から横断歩道を渡るときなど急に移動方向を変える場合がある。このように歩行者が過去と異なる方向に移動する場合、過去の情報から求められる移動ベクトルにはその移動方向を変える情報が含まれていない。そのため、この移動ベクトルに基づいて未来の撮像画像で歩行者の追跡を行うと、その移動ベクトルの方向から歩行者が外れるので、追跡を失敗する可能性が高い。特に、歩行者の移動が速い場合、連続する撮像画像間での歩行者の移動量が増えるので、失敗する確率が高くなる。 In the pedestrian tracking based on the conventional movement vector, the future movement direction is predicted using only the movement direction of the past pedestrian. However, pedestrians are not only moving in a certain direction, but may suddenly change the direction of movement, such as when crossing a pedestrian crossing from a sidewalk. When the pedestrian moves in a direction different from the past as described above, the movement vector obtained from the past information does not include information for changing the moving direction. For this reason, if a pedestrian is tracked with a future captured image based on this movement vector, the pedestrian moves away from the direction of the movement vector, so there is a high possibility that tracking will fail. In particular, when the movement of the pedestrian is fast, the amount of movement of the pedestrian between successive captured images increases, so the probability of failure increases.
そこで、本発明は、移動物体を高精度に追跡可能な移動物体検出装置及び移動物体検出方法を提供することを課題とする。 Therefore, an object of the present invention is to provide a moving object detection apparatus and a moving object detection method that can track a moving object with high accuracy.
本発明に係る移動物体検出装置は、撮像手段と、撮像手段で撮像した撮像画像から移動物体を検出する移動物体検出手段と、移動物体検出手段で検出した移動物体の向きを検出する向き検出手段と、撮像手段で異なる時間に撮像した各撮像画像から各々検出された移動物体の位置から移動物体の動きを検出する動き検出手段と、向き検出手段で検出した移動物体の向きと動き検出手段で検出した移動物体の動きに基づいて撮像画像における移動物体の存在する領域を予測する領域予測手段とを備え、領域予測手段で予測した領域内から移動物体を検出する。 A moving object detection device according to the present invention includes an imaging unit, a moving object detection unit that detects a moving object from an image captured by the imaging unit, and a direction detection unit that detects the direction of the moving object detected by the moving object detection unit. A motion detection means for detecting the movement of the moving object from the position of the moving object detected from each captured image captured at different times by the imaging means, and a direction and motion detection means for the moving object detected by the direction detection means. An area predicting unit that predicts an area where the moving object exists in the captured image based on the detected movement of the moving object, and detects the moving object from the area predicted by the area predicting unit.
この移動物体検出装置では、撮像手段により撮像し、移動物体検出手段によりその撮像画像から移動物体(例えば、歩行者、自転車、動物)を検出する。そして、移動物体検出手段では、向き検出手段により現時点の撮像画像から移動物体の向いている方向を検出する。この移動物体の向きにより、移動物体が現時点で向かおうとしている方向が判り、未来の移動しようとしている方向を推測できる。また、移動物体検出手段では、動き検出手段により現時点以前の異なる時間の各撮像画像からそれぞれ検出された移動物体の位置から移動物体の動きを検出する。この移動物体の動きにより、移動物体が現時点にいたるまでに移動してきた方向が判る。したがって、移動物体の向きと動きとが同様の方向となっている場合には、移動物体は現時点以降も過去と同様の方向に移動しようとしていると推測できる。一方、移動物体の向きと動きとが明らかに異なった方向となっている場合には、移動物体は未来においては過去と異なる方向に移動しようとしていると推測できる。そこで、移動物体検出装置では、領域予測手段により、この移動物体の向きと動きに基づいて、未来の撮像画像において移動物体が存在する領域を予測する。そして、移動物体検出装置では、この予測した領域から移動物体を検出することにより、既に検出されている移動物体を追跡していく。このように、移動物体検出装置では、移動物体が一定方向に移動している場合でもあるいは移動する方向を変える場合でも、未来の撮像画像における移動物体の存在する領域を高精度に予測することができる。その結果、移動物体を高精度に追跡していくことができる。 In this moving object detection device, an image is picked up by an image pickup means, and a moving object (for example, a pedestrian, bicycle, animal) is detected from the picked-up image by the moving object detection means. Then, in the moving object detection means, the direction detection means detects the direction in which the moving object is facing from the current captured image. From the direction of the moving object, the direction in which the moving object is going at the present time is known, and the direction in which the moving object is going to be moved can be estimated. The moving object detection unit detects the movement of the moving object from the position of the moving object detected from each captured image at different times before the current time by the movement detection unit. By the movement of the moving object, the direction in which the moving object has moved up to the present time can be determined. Therefore, when the direction and movement of the moving object are in the same direction, it can be estimated that the moving object is going to move in the same direction as in the past after the current time. On the other hand, when the direction and movement of the moving object are clearly different directions, it can be estimated that the moving object is moving in a different direction from the past in the future. Therefore, in the moving object detection device, an area in which a moving object is present in a future captured image is predicted by the area predicting unit based on the direction and movement of the moving object. Then, the moving object detection device tracks the already detected moving object by detecting the moving object from the predicted region. As described above, the moving object detection apparatus can predict the region where the moving object exists in the future captured image with high accuracy even when the moving object is moving in a certain direction or when the moving direction is changed. it can. As a result, it is possible to track a moving object with high accuracy.
本発明に係る移動物体検出方法は、撮像ステップと、撮像ステップで撮像した撮像画像から移動物体を検出する移動物体検出ステップと、移動物体検出ステップで検出した移動物体の向きを検出する向き検出ステップと、撮像ステップで異なる時間に撮像した各撮像画像から各々検出された移動物体の位置から移動物体の動きを検出する動き検出ステップと、向き検出ステップで検出した移動物体の向きと動き検出ステップで検出した移動物体の動きに基づいて撮像画像における移動物体の存在する領域を予測する領域予測ステップとを含み、領域予測ステップで予測した領域内から移動物体を検出することを特徴とする。なお、この移動物体検出方法は、上記移動物体検出装置と同様の作用効果を有している。 The moving object detection method according to the present invention includes an imaging step, a moving object detection step that detects a moving object from the captured image captured in the imaging step, and a direction detection step that detects the direction of the moving object detected in the moving object detection step. And a motion detection step for detecting the motion of the moving object from the position of the moving object detected from each captured image captured at different times in the imaging step, and a direction and motion detection step of the moving object detected in the orientation detection step. A region prediction step of predicting a region where the moving object is present in the captured image based on the detected movement of the moving object, and detecting the moving object from within the region predicted in the region prediction step. This moving object detection method has the same effects as the moving object detection apparatus.
本発明によれば、移動物体を高精度に追跡することができる。 According to the present invention, a moving object can be tracked with high accuracy.
以下、図面を参照して、本発明に係る移動物体検出装置及び移動物体検出方法の実施の形態を説明する。 Hereinafter, embodiments of a moving object detection device and a moving object detection method according to the present invention will be described with reference to the drawings.
本実施の形態では、本発明を、車両に搭載される歩行者検出装置に適用する。本実施の形態に係る歩行者検出装置は、車両前方に存在する歩行者を検出し、その検出した歩行者の情報を運転者に提供する。特に、本実施の形態に係る歩行者検出装置では、一度検出した歩行者については次フレームに存在する領域を予測し、その予測領域を用いて歩行者を形跡していく。 In the present embodiment, the present invention is applied to a pedestrian detection device mounted on a vehicle. The pedestrian detection device according to the present embodiment detects a pedestrian existing in front of the vehicle and provides the driver with information on the detected pedestrian. In particular, in the pedestrian detection device according to the present embodiment, for a pedestrian that has been detected once, an area existing in the next frame is predicted, and the pedestrian is traced using the predicted area.
図1〜図3を参照して、歩行者検出装置1について説明する。図1は、本実施の形態に係る歩行者検出装置の構成図である。図2は、図1の歩行者検出装置における追跡処理の基本的な流れを示す画像であり、(a)があるフレームで新しい歩行者を検出した画像であり、(b)が次のフレームにおける追跡中歩行者が存在する予測領域を示す画像であり、(c)が次のフレームで追跡中歩行者を検出した画像であり、(d)が次の次のフレームにおける追跡中歩行者が存在する予測領域を示す画像であり、(e)が次の次のフレームで追跡中歩行者を検出した画像であり、(f)が次の次の次のフレームにおける追跡中歩行者が存在する予測領域と追跡中歩行者を検出した画像である。図3は、歩行者の動きの向き及び大きさの算出方法の説明図である。
With reference to FIGS. 1-3, the
歩行者検出装置1は、車両の前方を撮像し、その撮像画像から歩行者を検出する。この際、歩行者検出装置1では、撮像画像全体から歩行者を検出し、新たに検出した歩行者を順次追跡対象としてその追跡中歩行者の存在する領域を予測しながら、予測領域から追跡中歩行者を検出することにより歩行者を追跡していく。特に、歩行者検出装置1では、歩行者を高精度に追跡するために、領域を予測する際に歩行者の向きと歩行者の動きの情報を利用する。そのために、歩行者検出装置1は、カメラ2、モニタ3及び画像ECU[Electronic Control Unit]4を備えており、画像ECU4に検出結果保存メモリ10、予測領域保存メモリ11、画像入力部12、歩行者検出部13、追跡検出部14、向き算出部15、動き算出部16、領域予測部17、結果表示部18が構成される。
The
なお、本実施の形態では、カメラ2が特許請求の範囲に記載する撮像手段に相当し、歩行者検出部13が特許請求の範囲に記載する移動物体検出手段に相当し、向き算出部15が特許請求の範囲に記載する向き検出手段に相当し、動き算出部16が特許請求の範囲に記載する動き検出手段に相当し、領域予測部17が特許請求の範囲に記載する領域予測手段に相当する。
In the present embodiment, the
カメラ2は、歩行者検出装置1を搭載する車両の前方に取り付けられ、車両の前方を撮像する。この撮像画像は、カラー画像でも、白黒画像でもよい。カメラ2では、その撮像画像のデータを画像ECU4に送信する。カメラ2は、左右方向に撮像範囲が広く、車道の外側に設けられる歩道、路側帯などまで撮像可能である。
The
モニタ3は、車室内の前方で、運転者が視認可能な位置に取り付けられる。モニタ3では、画像ECU4から画像信号が送信され、その画像信号に応じた画像を画面表示する。
The
画像ECU4は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]などからなり、各処理部や各メモリが構成される。画像ECU4では、カメラ2から撮像画像のデータを取り入れ、その撮像画像から車両前方の歩行者を検出し、検出した歩行者の情報をモニタ3に表示させる。
The image ECU 4 includes a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], and the like, and each processing unit and each memory are configured. The image ECU 4 takes captured image data from the
検出結果保存メモリ10は、RAMに構成され、歩行者検出部13で検出された歩行者に関する情報及び追跡検出部14で検出された追跡中の歩行者に関する情報を保存するためのメモリである。歩行者検出部13で検出された歩行者に関する情報は、現フレームにおいて検出された歩行者の情報であり、その歩行者の画像中の位置及び領域である。追跡中の歩行者の情報は、現在追跡中の歩行者の情報であり、その追跡中歩行者の画像中の位置、領域、向き、動き(向きと大きさ)である。
The detection
予測領域保存メモリ11は、RAMに構成され、領域予測部17で求められた予測領域を保存するためのメモリである。予測領域は、現在追跡中の歩行者が次フレームで存在する可能性の高い領域として予測された領域である。
The prediction
画像入力部12では、カメラ2から撮像画像のデータを取り入れ、その撮像画像のデータを所定の保存領域(RAM)に保存する。
The image input unit 12 takes captured image data from the
歩行者検出部13では、カメラ2から撮像画像のデータが入力される毎に、その現フレームの撮像画像全体からテンプレートによるパターンマッチングによって歩行者を検出する。この際、検出される歩行者は、テンプレートの画像(矩形領域の画像)に対応して、歩行者全体を含む矩形領域WAで切り出される(図2(a)参照)。そして、歩行者検出部13では、切り出された矩形領域WAの中心位置を歩行者の位置WPとする(図2(a)参照)。さらに、歩行者検出部13では、撮像画像全体から歩行者を検出できた場合、検出した全ての歩行者の位置WP(画像上の座標)及び矩形領域WA(4つの端部の画像上の座標)を検出結果保存メモリ10に保存する。なお、検出される歩行者には、現フレームから新たに検出された歩行者(新しい歩行者)NW(図2(a)参照)と過去のフレームから追跡されている歩行者(追跡中歩行者)CW(図2(c)、(e)、(f)参照)が含まれる。
Each time captured image data is input from the
追跡検出部14では、追跡中歩行者が存在する場合(検出結果保存メモリ10に追跡中歩行者の情報が保存されている場合)、予測領域保存メモリ11から対応する追跡中歩行者の予測領域PAを抽出する。そして、追跡検出部14では、撮像画像からその抽出した予測領域PAの画像を切り出し、その予測領域PAの画像からテンプレートによるパターンマッチングによって追跡中歩行者CWを検出する(図2(c)、(e)、(f)参照)。この際、検出される追跡中歩行者CWは、テンプレートの画像(矩形領域の画像)に対応して、歩行者全体を含む矩形領域WAで切り出される(図2(c)等参照)。そして、追跡検出部14では、予測領域PAから追跡中歩行者を検出できた場合、切り出された矩形領域WAの中心位置を追跡中歩行者の位置WPとし(図2(c)等参照)、検出した追跡中歩行者の位置WP及び矩形領域WAを追跡中歩行者の情報として検出結果保存メモリ10に保存する。一方、追跡検出部14では、予測領域PAから追跡中歩行者を検出できない場合、その追跡中歩行者の情報を予測領域保存メモリ11から削除する。ちなみに、追跡検出部14では、予測領域保存メモリ11に保存されている全ての追跡中歩行者に対して上記の処理を行う。
In the
また、追跡検出部14では、現フレームの撮像画像から検出された歩行者の中(つまり、検出結果保存メモリ10に保存されている歩行者検出部13で検出した歩行者の中)に予測領域PAから検出できた追跡中歩行者と同一の歩行者が存在する場合、検出結果保存メモリ10からその同一の歩行者の情報を削除する。したがって、追跡検出部14で全ての追跡中歩行者に対する追跡が終了すると、検出結果保存メモリ10には、歩行者検出部13で検出した歩行者の情報としては現フレームから新たに検出された新しい歩行者の情報のみが保存されることになる。
Further, in the
向き算出部15では、新しい歩行者及び追跡中歩行者の現フレームにおいて向いている方向FDを算出する(図2(b)、(c)、(e)参照)。そして、向き算出部15では、その算出した方向FDの情報を歩行者に対応付けして検出結果保存メモリ10に保存する。この向きの情報は、現フレームの画像から求められるので、過去の歩行者の移動に関係なく、現時点において歩行者が向かおうとしている方向が判る。
The
向きの算出手法としては、検出した歩行者の矩形領域WAの画像と向いている方向の異なる歩行者のテンプレートの画像とのマッチングをとり、最も相関度が高いテンプレートの向いている方向から歩行者の向きFDを求める。このテンプレートは、360°にわたって所定角度毎にそれぞれ向きを変えた歩行者のテンプレートである。この所定角度を大きくするほど処理負荷が軽減し、所定角度を小さくするほど精度が向上する。隣り合う角度の2つのテンプレートに対する相関度が高い場合には、その2つのテンプレートの向いている方向から補間して歩行者の向きを求める。なお、この向きを求める手法としては、例えば、H.Shimizu and T.Poggio,"Direction Estimation of Pedestrian from Multiple Still Images",IEEE Intelligent Vehicles Symposium,2004,Parma,Italyに記載されている。 As a method for calculating the direction, a matching is performed between the detected image of the rectangular area WA of the pedestrian and the template image of the pedestrian having a different direction, and the pedestrian is determined from the direction in which the template having the highest degree of correlation is directed. The direction FD is obtained. This template is a template for pedestrians whose directions are changed at predetermined angles over 360 °. The processing load is reduced as the predetermined angle is increased, and the accuracy is improved as the predetermined angle is decreased. When the degree of correlation between two templates at adjacent angles is high, the direction of the pedestrian is obtained by interpolation from the direction in which the two templates are facing. The method for obtaining this direction is described in, for example, H. Shimizu and T. Poggio, “Direction Estimation of Pedestrian from Multiple Still Images”, IEEE Intelligent Vehicles Symposium, 2004, Parma, Italy.
動き算出部16では、追跡中歩行者の現フレームと前フレームの各位置WPから歩行者の動きの向きMDと大きさを算出する(図2(c)、(e)参照)。そして、動き算出部16では、その算出した動きの方向MDと大きさの情報を追跡中歩行者に対応付けして検出結果保存メモリ10に保存する。この動きの情報は、現フレームを含む過去のフレームの情報から求められるので、歩行者の過去の移動してきた方向や移動量が判る。また、この動きの情報は、複数のフレームの情報から求められるので、精度の高い情報が得られる。
The
動きの算出手法としては、現フレームでの追跡中歩行者CW1の位置WP1を終点とし、前フレームでの追跡中歩行者CW2の位置WP2を始点とするベクトルを求め、そのベクトルの角度を動きの向きMDとし、そのベクトルの長さを動きの大きさとする(図3参照)。 As a motion calculation method, a vector starting from the position WP1 of the tracking pedestrian CW1 in the current frame as an end point and starting from the position WP2 of the tracking pedestrian CW2 in the previous frame is obtained, and the angle of the vector is determined as the motion angle. The direction is MD, and the length of the vector is the magnitude of motion (see FIG. 3).
領域予測部17では、歩行者の向きFD及び追跡中歩行者の動きの向きMDと大きさから次のフレームにおいて追跡中歩行者が存在する領域PAを予測する(図2(b)、(d)、(f)参照)。そして、領域予測部17では、その予測した予測領域PAを追跡中歩行者に対応付けして予測領域保存メモリ11に保存する。この領域の予測手法については、以下に、新しい歩行者の場合と追跡中歩行者の場合に分けて説明する。
The
新しい歩行者の場合について説明する。新しい歩行者NWの場合、現フレームから新たに検出された歩行者なので、動きの情報がない。したがって、向きFDだけを用いて予測領域PAを求める。予測領域PAとしては、歩行者NWの矩形領域WAを端部に含み、向きFDの方向に沿ってその矩形領域WAの横方向の長さ及び縦方の長さをそれぞれ所定倍に延ばした領域とする(図2(a)→(b)参照)。所定倍としては、画像全体に対する矩形領域の大きさ、連続するフレームの時間間隔や歩行者の最大速度などを考慮し、例えば、縦方向で1.5倍、横方向で2倍程度とする。この所定倍は、固定値でもよいが、歩行者の奥行き方向の位置などを考慮して可変値としてもよい。なお、向きFDが画像において水平方向の場合には横方向の長さだけを所定倍に延ばした予測領域PAとし、向きFDが画像において鉛直方向の場合には縦方向の長さだけを所定倍に延ばした予測領域PAとする。 The case of a new pedestrian will be described. In the case of a new pedestrian NW, there is no movement information because it is a pedestrian newly detected from the current frame. Therefore, the prediction area PA is obtained using only the direction FD. As the prediction area PA, a rectangular area WA of the pedestrian NW is included at the end, and the horizontal length and the vertical length of the rectangular area WA are each extended by a predetermined amount along the direction FD. (See FIG. 2 (a) → (b)). The predetermined magnification is, for example, about 1.5 times in the vertical direction and about twice in the horizontal direction in consideration of the size of the rectangular area with respect to the entire image, the time interval between successive frames, the maximum speed of the pedestrian, and the like. This predetermined multiple may be a fixed value or may be a variable value in consideration of the position of the pedestrian in the depth direction. When the orientation FD is horizontal in the image, the prediction area PA is obtained by extending only the horizontal length by a predetermined multiple. When the orientation FD is vertical in the image, only the vertical length is multiplied by a predetermined multiple. The prediction area PA is extended to.
追跡中歩行者の場合について説明する。歩行者が一定の方向に移動している場合には、向きFDと動きの向きMDとが一致かあるいは略一致する(図2(c)参照)。この場合、複数のフレームの情報を用いている歩行者の動きの情報を用いて予測領域PAを求める。一方、歩道を歩いていた歩行者が横断歩道を渡るときなど移動方向を変える場合、向きFDと動きの向きMDとが明らかに異なる(図2(e)参照)。この場合、過去の動きの情報は利用できないので、歩行者の向きFDを用いて予測領域PAを求める。 The case of a pedestrian during tracking will be described. When the pedestrian is moving in a certain direction, the direction FD and the direction MD of movement match or substantially match (see FIG. 2C). In this case, the prediction area PA is obtained using the information on the movement of the pedestrian using the information of a plurality of frames. On the other hand, when the moving direction is changed, for example, when a pedestrian walking on the sidewalk crosses a pedestrian crossing, the direction FD and the direction MD of movement are clearly different (see FIG. 2E). In this case, since past movement information cannot be used, the prediction area PA is obtained using the pedestrian orientation FD.
そこで、まず、向きFDと動きの向きMDとの差の絶対値を求め、その絶対値が閾値より大きいか否かを判定する。閾値以下の場合には歩行者の動きの情報を用いて予測領域PAを求め、閾値より大きい場合には歩行者の向きFDを用いて予測領域PAを求める。閾値は、歩行者が移動している方向を変えたか否かを判定するための角度であり、向きFDや動きの向きMDの精度などを考慮して設定され、例えば、45°である。閾値以下の場合、予測領域PAとしては、追跡中歩行者CWの矩形領域WAを端部に含み、動きMDの方向に沿ってその矩形領域WAの横方向の長さ及び縦方の長さを動きの大きさの分延ばした領域とする(図2(c)→(d)参照)。一方、閾値より大きい場合、予測領域PAとしては、追跡中歩行者CWの矩形領域WAを端部に含み、向きFDの方向に沿ってその矩形領域WAの横方向の長さ及び縦方の長さをそれぞれ所定倍に延ばした領域とする(図2(e)→(f)参照)。 Therefore, first, an absolute value of a difference between the direction FD and the motion direction MD is obtained, and it is determined whether or not the absolute value is larger than a threshold value. When the value is equal to or smaller than the threshold value, the prediction area PA is obtained using the information on the movement of the pedestrian, and when larger than the threshold value, the prediction area PA is obtained using the direction FD of the pedestrian. The threshold is an angle for determining whether or not the direction in which the pedestrian is moving has been changed, and is set in consideration of the accuracy of the direction FD and the direction MD of the movement, and is, for example, 45 °. In the case of the threshold value or less, the prediction area PA includes the rectangular area WA of the pedestrian CW being tracked at the end, and the horizontal length and the vertical length of the rectangular area WA along the direction of the motion MD. It is set as the area | region extended by the magnitude | size of the movement (refer FIG.2 (c)-> (d)). On the other hand, when larger than the threshold value, the prediction area PA includes the rectangular area WA of the pedestrian CW being tracked at the end, and the horizontal length and the vertical length of the rectangular area WA along the direction FD. It is assumed that each of the areas is a predetermined multiple (see FIG. 2 (e) → (f)).
結果表示部18では、現フレームの撮像画像中に歩行者が存在する場合(つまり、検出結果保存メモリ10に新しい歩行者の情報又は/及び追跡中歩行者の情報が保存されている場合)、現フレームの撮像画像全体に各歩行者の矩形領域WAを示す線を加えた画像のデータを画像信号としてモニタ3に送信する。この際、車両から所定距離以内の歩行者のみの矩形領域WAを示す線を追加した画像としてもよいし、あるいは、横断歩道上などの車道に存在する歩行者のみの矩形領域WAを示す線を追加した画像としてもよい。また、現フレームの撮像画像全体の画像を無くして、歩行者のみを示した画像としてもよい。
In the
図1を参照して、歩行者検出装置1の動作について説明する。特に、画像ECU4における処理については図4に示すフローチャートに沿って説明する。図4は、図1の歩行者検出装置の画像ECUにおける処理の流れを示すフローチャートである。
With reference to FIG. 1, operation | movement of the
カメラ2では、一定時間毎に、自車両の前方を撮像し、その撮像画像のデータを画像ECU4に送信する。そして、画像ECU4では、一定時間毎に、その撮像画像のデータを取り入れ、所定のメモリ領域に保存する(S1)。
The
画像ECU4では、パターンマッチングによって、現フレームの撮像画像に存在する歩行者を検出し、歩行者を検出できた場合にはその歩行者の位置や矩形領域を検出結果保存メモリ10に保存する(S2)。そして、画像ECU4では、現フレームの撮像画像から歩行者を検出できたか否かを判定する(S3)。 The image ECU 4 detects a pedestrian existing in the captured image of the current frame by pattern matching. If the pedestrian can be detected, the position and the rectangular area of the pedestrian are stored in the detection result storage memory 10 (S2). ). Then, the image ECU 4 determines whether or not a pedestrian has been detected from the captured image of the current frame (S3).
S3にて歩行者を検出できたと判定した場合、画像ECU4では、現フレームの撮像画像で検出した歩行者の中に検出結果保存メモリ10に保存されている追跡中歩行者と一致する歩行者が存在するか否かを判定する(S4)。S4にて追跡中歩行者と一致する歩行者が存在しないと判定した場合、現フレームで検出した歩行者は全て現フレームで初めて検出された新しい歩行者なので、画像ECU4では、S11の処理に移行し、テンプレートによるマッチングによってその全ての新しい歩行者の向きをそれぞれ算出し、その向きの情報を各歩行者に対応付けて検出結果保存メモリ10にそれぞれ保存する(S11)。
When it is determined in S3 that the pedestrian has been detected, the image ECU 4 includes a pedestrian that matches the pedestrian being tracked stored in the detection
一方、S3にて歩行者を検出できなかったと判定した場合、画像ECU4では、検出結果保存メモリ10に保存されている追跡中歩行者が存在するか否かを判定し、保存されている追跡中歩行者が存在する場合にはその全ての追跡中歩行者について追跡処理などが終了したか否かを判定する(S5)。
On the other hand, if it is determined in S3 that the pedestrian cannot be detected, the image ECU 4 determines whether or not there is a tracking pedestrian stored in the detection
S4にて追跡中歩行者と一致する歩行者が存在すると判定した場合又はS5にて全ての追跡中歩行者について処理が終了していないと判定した場合、画像ECU4では、検出結果保存メモリ10に保存されている追跡中歩行者を一人づつ選択し、予測領域保存メモリ11からその選択した追跡中歩行者の予測領域を抽出する。そして、画像ECU4では、現フレームの撮像画像からその抽出した予測領域を切り出する。さらに、画像ECU4では、パターンマッチングによってその予測領域の画像から追跡中歩行者を検出し、追跡中歩行者を検出できた場合にはその追跡中歩行者の位置や矩形領域を検出結果保存メモリ10に保存する(S6)。そして、画像ECU4では、その予測領域の画像から追跡中歩行者を検出できたか否かを判定する(S7)。
If it is determined in S4 that there is a pedestrian that matches the pedestrian being tracked, or if it is determined in S5 that processing has not been completed for all the pedestrians being tracked, the image ECU 4 stores the detected result in the detection
S7にて追跡中歩行者を検出できなかったと判定した場合、前フレームまで追跡していた歩行者は現フレームではカメラ2の撮像範囲外に出たと推測でき、画像ECU4では、その追跡中歩行者の情報を、検出結果保存メモリ10及び予測領域保存メモリ11から削除する。さらに、画像ECU4では、現フレームで検出した歩行者の中に現フレームで初めて検出された新しい歩行者が存在するか否かを判定する(S8)。S8にて新しい歩行者が存在すると判定した場合、画像ECU4では、S11の処理に移行し、テンプレートによるマッチングによってその全ての新しい歩行者の向きをそれぞれ算出し、その向きの情報を歩行者に対応付けて検出結果保存メモリ10にそれぞれ保存する(S11)。一方、S8にて新しい歩行者が存在しないと判定した場合、画像ECU4では、S5の処理に戻り、検出結果保存メモリ10に保存されている全ての追跡中歩行者について処理が終了したか否かを判定する(S5)。
If it is determined in S7 that the tracking pedestrian cannot be detected, it can be assumed that the pedestrian who has been tracking up to the previous frame has gone out of the imaging range of the
S7にて追跡中歩行者を検出できたと判定した場合、画像ECU4では、現フレームで検出した歩行者の中にその検出できた追跡中歩行者と同一の歩行者が存在するか否かを判定する(S9)。S9にて同一の歩行者が存在すると判定した場合、画像ECU4では、検出結果保存メモリ10に保存されている現フレームで検出した歩行者の情報の中からその同一と判定された歩行者の情報を削除する(S10)。したがって、検出結果保存メモリ10には、最終的に、現フレームで検出した歩行者の情報としては現フレームで初めて検出された新しい歩行者の情報のみが残る。
If it is determined in S7 that the pedestrian being tracked can be detected, the image ECU 4 determines whether or not the same pedestrian as the detected pedestrian exists in the pedestrians detected in the current frame. (S9). When it is determined in S9 that the same pedestrian exists, the image ECU 4 determines the same pedestrian information from the pedestrian information detected in the current frame stored in the detection
S9にて同一の歩行者が存在すると判定した場合及びS10の処理が終了すると、画像ECU4では、テンプレートによるマッチングによって、その検出した追跡中歩行者の向きを算出し、その向きの情報を歩行者に対応付けて検出結果保存メモリ10に保存する(S11)。この向きの情報により、歩行者がこれから移動しようとしている方向を予測できる。さらに、画像ECU4では、その検出した追跡中歩行者の前フレームでの位置と現フレームでの位置の差から追跡中歩行者の動きの向きと大きさを算出し、その動きの情報を追跡中歩行者に対応付けて検出結果保存メモリ10に保存する(S12)。この動きの情報により、追跡中歩行者がこれまでに移動してきた方向や移動量が判る。 When it is determined in S9 that the same pedestrian exists, and when the process of S10 ends, the image ECU 4 calculates the detected direction of the pedestrian being tracked by matching with the template, and uses the information on the direction as the pedestrian. And stored in the detection result storage memory 10 (S11). With this direction information, the direction in which the pedestrian is about to move can be predicted. Further, the image ECU 4 calculates the direction and size of the movement of the tracking pedestrian from the difference between the detected position of the pedestrian in the previous frame and the position in the current frame, and is tracking the movement information. Corresponding to the pedestrian, it is stored in the detection result storage memory 10 (S12). From this movement information, the direction and amount of movement of the tracking pedestrian so far can be known.
さらに、画像ECU4では、検出した歩行者に対して、新しい歩行者の場合には向きの情報から次フレームの撮像画像での予測領域を算出し、追跡中歩行者の場合には向きの情報及び動きの情報から次フレームの撮像画像での予測領域を算出し、その予測領域を追跡中歩行者に対応付けて予測領域保存メモリ11に保存する(S13)。この際、新しい歩行者については、現フレームでの向きの情報のみが用いられるので、この向きの情報によりこれから移動しようとしている領域を予測できる。一方、追跡中歩行者については、向きのと動きの向きとが一致している場合には信頼性の高い動きの情報からこれから移動しようとしている領域を予測でき、向きのと動きの向きとが異なっている場合には向きの情報からこれから移動しようとしている領域を予測できる。
Further, the image ECU 4 calculates a prediction area in the captured image of the next frame from the orientation information in the case of a new pedestrian for the detected pedestrian, and the orientation information and A predicted area in the captured image of the next frame is calculated from the motion information, and the predicted area is stored in the predicted
領域を予測すると、画像ECU4では、S5の処理に戻り、検出結果保存メモリ10に保存されている全ての追跡中歩行者について処理を終了したか否かを判定する(S5)。S5にて全ての追跡中歩行者について処理が終了したと判定した場合、画像ECU4では、現フレームで新しい歩行者及び/又は追跡中歩行者が検出されている場合、現フレームの撮像画像全体に各歩行者の矩形領域を示す線を加えた画像のデータを画像信号としてモニタ3に送信する(S14)。この画像信号を受信すると、モニタ3では、現フレームの撮像画像に歩行者の存在する領域を強調した画像を表示する。さらに、画像ECU4では、検出結果保存メモリ10に新しい歩行者の情報が存在する場合、検出結果保存メモリ10にその新しい歩行者の情報を追跡中歩行者の情報として新たに追加して保存するとともに、その新しい歩行者の情報を削除する。現フレームにおける全ての処理が終了すると、画像ECU4では、S1の処理に戻って、次フレームの撮像画像を取得する(S1)。
When the region is predicted, the image ECU 4 returns to the process of S5, and determines whether or not the process has been completed for all the tracking pedestrians stored in the detection result storage memory 10 (S5). When it is determined in S5 that the processing has been completed for all the pedestrians being tracked, the image ECU 4 displays the entire captured image of the current frame when a new pedestrian and / or a pedestrian being tracked is detected in the current frame. Data of an image to which a line indicating the rectangular area of each pedestrian is added is transmitted as an image signal to the monitor 3 (S14). When this image signal is received, the
この歩行者検出装置1によれば、過去の歩行者の動きのみならず、現時点での歩行者そのものの向きも利用することにより、次フレームで追跡中歩行者が存在する領域を高精度に予測でき、追跡性能が向上する。特に、歩行者検出装置1では、歩行者が急に移動方向を変えた場合でも、歩行者の現時点からの移動方向を推測できる向きを利用しているので、追跡が可能である。
According to this
以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。 As mentioned above, although embodiment which concerns on this invention was described, this invention is implemented in various forms, without being limited to the said embodiment.
例えば、本実施の形態では車両に搭載される歩行者を検出する歩行者検出装置に適用したが、歩行者以外の自転車、動物などの他の移動物体を検出する装置に適用してもよいし、インフラ側に移動物体検出装置を設け、インフラ側で検出した情報を車両側に送信する構成に適用してもよいし、あるいは、人間などの移動物体を追跡する機能を有するロボットなどに適用してもよい。 For example, in this embodiment, the present invention is applied to a pedestrian detection device that detects a pedestrian mounted on a vehicle, but may be applied to a device that detects other moving objects such as bicycles and animals other than pedestrians. It may be applied to a configuration in which a moving object detection device is provided on the infrastructure side and information detected on the infrastructure side is transmitted to the vehicle side, or to a robot having a function of tracking a moving object such as a human. May be.
また、本実施の形態では検出した歩行者の情報をモニタに表示する構成としたが、車線(白線)、車道と歩道、横断歩道なども検出している場合にはそれらの情報もモニタに表示する構成としてもよいし、さらに、車線内に歩行者が侵入したか否かを検知し、侵入した場合には警報などを出力する構成としてもよいし、あるいは、モニタに表示せずに、歩行者の存在を音声やブザーなどで知らせる構成としてもよい。 Also, in this embodiment, the detected pedestrian information is displayed on the monitor. However, when lanes (white lines), roadways and sidewalks, and pedestrian crossings are also detected, such information is also displayed on the monitor. Further, it may be configured to detect whether or not a pedestrian has entered the lane and output an alarm or the like when the pedestrian has entered, or may be configured to walk without displaying on the monitor. The presence of the person may be notified by voice or buzzer.
また、本実施の形態では各処理部を各プログラムがCPUで実行されることによって形成されるソフトウエアで構成したが、各処理部をハードウエアで構成してもよい。 Further, in the present embodiment, each processing unit is configured by software formed by executing each program by the CPU, but each processing unit may be configured by hardware.
また、本実施の形態では歩行者の向きをテンプレートとのマッチングにより求め、歩行者の動きをフレーム間の歩行者の位置から求める構成としたが、歩行者の向きや歩行者の動きを求める手法についてはこれらに限定するものではなく、他の手法でもよい。 In the present embodiment, the pedestrian orientation is obtained by matching with the template, and the pedestrian movement is obtained from the position of the pedestrian between the frames. However, the pedestrian orientation and the pedestrian movement are obtained. Is not limited to these, and other methods may be used.
また、本実施の形態では動きを求めるときに現フレームと前フレームの各歩行者の位置から求める構成としたが、前フレーム以前の過去のフレームにおける歩行者の各位置も用いて求める構成としてもよい。 In this embodiment, the movement is obtained from the position of each pedestrian in the current frame and the previous frame. However, the movement may be obtained by using the positions of pedestrians in the previous frame before the previous frame. Good.
1…歩行者検出装置、2…カメラ、3…モニタ、4…画像ECU、10…検出結果保存メモリ、11…予測領域保存メモリ、12…画像入力部、13…歩行者検出部、14…追跡検出部、15…向き算出部、16…動き算出部、17…領域予測部、18…結果表示部
DESCRIPTION OF
Claims (2)
前記撮像手段で撮像した撮像画像から移動物体を検出する移動物体検出手段と、
前記移動物体検出手段で検出した移動物体の向きを検出する向き検出手段と、
前記撮像手段で異なる時間に撮像した各撮像画像から各々検出された移動物体の位置から移動物体の動きを検出する動き検出手段と、
前記向き検出手段で検出した移動物体の向きと前記動き検出手段で検出した移動物体の動きに基づいて撮像画像における移動物体の存在する領域を予測する領域予測手段と
を備え、
前記領域予測手段で予測した領域内から移動物体を検出することを特徴とする移動物体検出装置。 Imaging means;
Moving object detection means for detecting a moving object from a captured image captured by the imaging means;
Direction detecting means for detecting the direction of the moving object detected by the moving object detecting means;
Motion detection means for detecting the movement of the moving object from the position of the moving object detected from each captured image captured at different times by the imaging means;
A region prediction unit that predicts a region where a moving object exists in a captured image based on the direction of the moving object detected by the direction detection unit and the movement of the moving object detected by the motion detection unit;
A moving object detection apparatus for detecting a moving object from within an area predicted by the area prediction means.
前記撮像ステップで撮像した撮像画像から移動物体を検出する移動物体検出ステップと、
前記移動物体検出ステップで検出した移動物体の向きを検出する向き検出ステップと、
前記撮像ステップで異なる時間に撮像した各撮像画像から各々検出された移動物体の位置から移動物体の動きを検出する動き検出ステップと、
前記向き検出ステップで検出した移動物体の向きと前記動き検出ステップで検出した移動物体の動きに基づいて撮像画像における移動物体の存在する領域を予測する領域予測ステップと
を含み、
前記領域予測ステップで予測した領域内から移動物体を検出することを特徴とする移動物体検出方法。 Imaging step;
A moving object detection step of detecting a moving object from the captured image captured in the imaging step;
A direction detecting step for detecting a direction of the moving object detected in the moving object detecting step;
A motion detection step of detecting the motion of the moving object from the position of the moving object detected from each captured image captured at different times in the imaging step;
A region prediction step of predicting a region where a moving object exists in a captured image based on the direction of the moving object detected in the direction detection step and the movement of the moving object detected in the motion detection step;
A moving object detection method, comprising: detecting a moving object from the area predicted in the area prediction step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005013084A JP4609076B2 (en) | 2005-01-20 | 2005-01-20 | Moving object detection apparatus and moving object detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005013084A JP4609076B2 (en) | 2005-01-20 | 2005-01-20 | Moving object detection apparatus and moving object detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006202047A true JP2006202047A (en) | 2006-08-03 |
JP4609076B2 JP4609076B2 (en) | 2011-01-12 |
Family
ID=36959987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005013084A Expired - Fee Related JP4609076B2 (en) | 2005-01-20 | 2005-01-20 | Moving object detection apparatus and moving object detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4609076B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008152672A (en) * | 2006-12-19 | 2008-07-03 | Fujitsu Ten Ltd | Image recognition apparatus, image recognition method and electronic control apparatus |
JP2009217448A (en) * | 2008-03-10 | 2009-09-24 | Mitsubishi Electric Corp | Human tracking system using image information |
JP2010183601A (en) * | 2010-03-12 | 2010-08-19 | Casio Computer Co Ltd | Image capturing apparatus and its program |
JP2010257414A (en) * | 2009-04-28 | 2010-11-11 | Toyota Central R&D Labs Inc | Two-wheeled vehicle detection device and program |
JP2011077772A (en) * | 2009-09-30 | 2011-04-14 | Hitachi Automotive Systems Ltd | Apparatus for assisting checking of surroundings |
US8411997B2 (en) | 2008-01-31 | 2013-04-02 | Casio Computer Co., Ltd. | Image capture device and program storage medium |
JP2015132969A (en) * | 2014-01-14 | 2015-07-23 | 株式会社デンソー | Movable body detector and movable body detection method |
JPWO2015182135A1 (en) * | 2014-05-30 | 2017-04-20 | パナソニックIpマネジメント株式会社 | Sensing system and driving support system |
US10664705B2 (en) | 2014-09-26 | 2020-05-26 | Nec Corporation | Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium |
JP2021516817A (en) * | 2018-03-23 | 2021-07-08 | センスタイム グループ リミテッド | Methods, vehicle control methods and devices for predicting the direction of motion of a target object |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06231252A (en) * | 1993-02-04 | 1994-08-19 | Toshiba Corp | Method for tracking moving object on monitoring picture |
JP2004210213A (en) * | 2003-01-08 | 2004-07-29 | Toyota Central Res & Dev Lab Inc | Information providing device |
JP2004268829A (en) * | 2003-03-11 | 2004-09-30 | Denso Corp | Pedestrian collision risk determining device for vehicle |
JP2004341953A (en) * | 2003-05-16 | 2004-12-02 | Nissan Motor Co Ltd | Face portion tracking device |
-
2005
- 2005-01-20 JP JP2005013084A patent/JP4609076B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06231252A (en) * | 1993-02-04 | 1994-08-19 | Toshiba Corp | Method for tracking moving object on monitoring picture |
JP2004210213A (en) * | 2003-01-08 | 2004-07-29 | Toyota Central Res & Dev Lab Inc | Information providing device |
JP2004268829A (en) * | 2003-03-11 | 2004-09-30 | Denso Corp | Pedestrian collision risk determining device for vehicle |
JP2004341953A (en) * | 2003-05-16 | 2004-12-02 | Nissan Motor Co Ltd | Face portion tracking device |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008152672A (en) * | 2006-12-19 | 2008-07-03 | Fujitsu Ten Ltd | Image recognition apparatus, image recognition method and electronic control apparatus |
US8090147B2 (en) | 2006-12-19 | 2012-01-03 | Fujitsu Ten Limited | Matching object and reference pattern images using search window size widths and heights to predict object collision |
US8411997B2 (en) | 2008-01-31 | 2013-04-02 | Casio Computer Co., Ltd. | Image capture device and program storage medium |
JP2009217448A (en) * | 2008-03-10 | 2009-09-24 | Mitsubishi Electric Corp | Human tracking system using image information |
JP2010257414A (en) * | 2009-04-28 | 2010-11-11 | Toyota Central R&D Labs Inc | Two-wheeled vehicle detection device and program |
JP2011077772A (en) * | 2009-09-30 | 2011-04-14 | Hitachi Automotive Systems Ltd | Apparatus for assisting checking of surroundings |
JP2010183601A (en) * | 2010-03-12 | 2010-08-19 | Casio Computer Co Ltd | Image capturing apparatus and its program |
WO2015107877A1 (en) * | 2014-01-14 | 2015-07-23 | 株式会社デンソー | Moving object detection device and moving object detection method |
JP2015132969A (en) * | 2014-01-14 | 2015-07-23 | 株式会社デンソー | Movable body detector and movable body detection method |
JPWO2015182135A1 (en) * | 2014-05-30 | 2017-04-20 | パナソニックIpマネジメント株式会社 | Sensing system and driving support system |
US11397248B2 (en) | 2014-05-30 | 2022-07-26 | Nuvoton Technology Corporation Japan | Sensing system and driving support system |
US10664705B2 (en) | 2014-09-26 | 2020-05-26 | Nec Corporation | Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium |
US11113538B2 (en) | 2014-09-26 | 2021-09-07 | Nec Corporation | Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium |
US11676388B2 (en) | 2014-09-26 | 2023-06-13 | Nec Corporation | Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium |
JP2021516817A (en) * | 2018-03-23 | 2021-07-08 | センスタイム グループ リミテッド | Methods, vehicle control methods and devices for predicting the direction of motion of a target object |
JP7101255B2 (en) | 2018-03-23 | 2022-07-14 | センスタイム グループ リミテッド | Methods, vehicle control methods and devices for predicting the direction of motion of a target object |
US11710243B2 (en) | 2018-03-23 | 2023-07-25 | Sensetime Group Limited | Method for predicting direction of movement of target object, vehicle control method, and device |
Also Published As
Publication number | Publication date |
---|---|
JP4609076B2 (en) | 2011-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4609076B2 (en) | Moving object detection apparatus and moving object detection method | |
US11741696B2 (en) | Advanced path prediction | |
EP2463843B1 (en) | Method and system for forward collision warning | |
JP4173901B2 (en) | Vehicle periphery monitoring device | |
JP4203512B2 (en) | Vehicle periphery monitoring device | |
US8175331B2 (en) | Vehicle surroundings monitoring apparatus, method, and program | |
JP4173902B2 (en) | Vehicle periphery monitoring device | |
JP5904925B2 (en) | Vehicle periphery monitoring device | |
WO2010125833A1 (en) | Device for monitoring area around vehicle | |
JP5535816B2 (en) | Moving object prediction apparatus and program | |
JP2011257984A (en) | Object detection device and program | |
JP2013225295A5 (en) | ||
JP2011180982A (en) | Lane marker detecting apparatus | |
US20130010112A1 (en) | Object detection apparatus and storage medium storing object detection program | |
JP2013225295A (en) | Collision warning system taking azimuth information into consideration | |
JP4631036B2 (en) | Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof | |
JP6520740B2 (en) | Object detection method, object detection device, and program | |
JP4937844B2 (en) | Pedestrian detection device | |
JP2009053818A (en) | Image processor and method thereof | |
JP2008282067A (en) | Approach object detection device and approaching object detection program | |
Chen et al. | Vision-based road bump detection using a front-mounted car camcorder | |
JP6822571B2 (en) | Terminal device, risk prediction method, program | |
JP4742695B2 (en) | Gaze recognition apparatus and gaze recognition method | |
JP2008066953A (en) | Image monitoring apparatus | |
JP4075879B2 (en) | Vehicle collision warning device and vehicle collision warning method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100604 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100816 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100914 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100927 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131022 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4609076 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131022 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |