JP2007334859A - Object detector - Google Patents
Object detector Download PDFInfo
- Publication number
- JP2007334859A JP2007334859A JP2007069488A JP2007069488A JP2007334859A JP 2007334859 A JP2007334859 A JP 2007334859A JP 2007069488 A JP2007069488 A JP 2007069488A JP 2007069488 A JP2007069488 A JP 2007069488A JP 2007334859 A JP2007334859 A JP 2007334859A
- Authority
- JP
- Japan
- Prior art keywords
- flow
- object detection
- point
- optical
- imaging means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、車両、移動ロボット、人などの移動体に搭載された撮像手段により撮像された画像に基づいて物体を検出する物体検出装置に関する。 The present invention relates to an object detection apparatus that detects an object based on an image captured by an imaging unit mounted on a moving body such as a vehicle, a mobile robot, or a person.
移動体では、それ自体の安全確保のために認識するべき状況として移動基準面の状況が重要である。移動基準面の状況としては、面の形状、他の移動体の存在の有無、静止物体などの存在の有無が挙げられる。また、自動車などの車両は、それ自体の安全確保のために認識するべき状況として道路状況が重要である。道路状況としては、カーブなどの道路形状、他の移動車両や歩行者などの移動物体の存在の有無、停止車両などの静止物体などの存在の有無が挙げられる。 In the mobile body, the situation of the movement reference plane is important as a situation to be recognized for ensuring its own safety. The situation of the movement reference plane includes the shape of the plane, the presence / absence of another moving body, and the presence / absence of a stationary object. In addition, road conditions are important for vehicles such as automobiles as situations to be recognized for ensuring their own safety. Examples of the road situation include a road shape such as a curve, the presence or absence of a moving object such as another moving vehicle or a pedestrian, and the presence or absence of a stationary object such as a stopped vehicle.
物体検出の方法として、距離情報を用いるものと動き情報を用いるものが考えられる。距離情報を用いるものには、距離センサを利用する方法(下記の非特許文献1)や、ステレオ視を利用する方法(下記の非特許文献2)がある。動き情報を用いるものには、オプティカルフローとFOE(Focus of Expansion;消失点)を利用する方法(下記の非特許文献3)が従来研究されている。また、画面上の移動ベクトルであるオプティカルフローを求める従来例としては、下記の非特許文献4、5が公知である。なお、非特許文献5はKLT(Kanade-Lucas-Tomasi)法と呼ばれている。
距離センサを用いる方法では、センサから物体までの距離や位置などを知ることができ、対象物までの距離を高い精度で得ることができるため、衝突を警告するなどの実用化もなされている。しかし、走行中は対象物によって危険度や回避行動を判断する必要があり、検出した物体が何であるかまで認識できることが望ましい。 In the method using the distance sensor, the distance and position from the sensor to the object can be known, and the distance to the object can be obtained with high accuracy. Therefore, practical use such as warning of a collision has been made. However, it is necessary to determine the degree of danger and avoidance behavior according to the target object while traveling, and it is desirable that the detected object can be recognized.
映像から距離情報を求める方法にステレオ視を利用する方法は、風景中の物体認識などに用いられている。しかし、この方法はある程度の間隔で配置された2つのカメラ画像の重複部分でしか処理が行えず、視野が狭くなる。そのためカメラに近い部分は共通視野ができないため処理ができず、例えば移動ロボットに搭載した場合には、衝突する危険のある接近した物体に対して、1台のカメラで処理ができる方法が適切であると考えられる。 A method of using stereo vision as a method for obtaining distance information from an image is used for object recognition in a landscape. However, this method can perform processing only at an overlapping portion of two camera images arranged at a certain interval, and the field of view is narrowed. For this reason, a portion near the camera cannot be processed because it cannot have a common field of view. For example, when mounted on a mobile robot, a method that can handle a close object that may collide with a single camera is appropriate. It is believed that there is.
映像としての情報から動き情報を用いる方法に、オプティカルフローとFOEを利用するものがある。このFOEの違いを調べることによって背景と違う運動をする移動物体の検出に使われている。しかし、静止物体は背景と同じFOEを持つため、静止物体を正確に検出できないという問題点がある。 As a method of using motion information from information as a video, there is a method using optical flow and FOE. It is used to detect moving objects that move differently from the background by examining the difference in FOE. However, since the stationary object has the same FOE as the background, there is a problem that the stationary object cannot be accurately detected.
本発明は上記従来例の問題点を踏まえ、静止物体を正確に検出することができる物体検出装置を提供することを目的とする。 An object of the present invention is to provide an object detection device that can accurately detect a stationary object in light of the problems of the conventional example.
本発明は上記目的を達成するために、移動体に設置された撮像手段により撮像された画像に基づいて物体を検出する物体検出装置において、
前記移動体に設置された前記撮像手段の設置状態と前記移動体の移動状態に基づいて、物体が存在しない標準的な環境で想定される画面の第1のオプティカルフローを生成する第1のオプティカルフロー生成手段と、
前記撮像手段により撮像された画像に基づいて第2のオプティカルフローを生成する第2のオプティカルフロー生成手段と、
前記生成された第1及び第2のオプティカルフローの差異に基づいて物体を検出する物体検出手段とを、
備えたことを特徴とする。
この構成により、物体を含まない仮想画像の第1のオプティカルフローと、撮像された実画像の第2のオプティカルフローの差異に基づいて物体を検出するので、静止物体を正確に検出することができる。
In order to achieve the above object, the present invention provides an object detection apparatus for detecting an object based on an image captured by an imaging unit installed on a moving body.
A first optical for generating a first optical flow of a screen assumed in a standard environment where no object exists, based on an installation state of the imaging unit installed on the mobile body and a movement state of the mobile body Flow generation means;
Second optical flow generation means for generating a second optical flow based on an image captured by the imaging means;
Object detection means for detecting an object based on the difference between the generated first and second optical flows;
It is characterized by having.
With this configuration, since the object is detected based on the difference between the first optical flow of the virtual image not including the object and the second optical flow of the captured real image, the stationary object can be accurately detected. .
また、前記第1のオプティカルフロー生成手段は、
前記撮像手段の基準面からの高さと、前記撮像手段の焦点距離と、前記撮像手段の水平面に対する傾きとをパラメータとして設定することにより、仮想空間上の基準面に特徴点を配置し、
前記撮像手段の移動速度、回転角速度を所定間隔で取得して前記特徴点の座標を変更し、前回の特徴点と今回の特徴点をそれぞれ前記第1のオプティカルフローの始点と終点として生成することを特徴とする。
また、前記移動体は車両であって、
前記第1のオプティカルフロー生成手段は、
前記撮像手段の路面からの高さと、前記撮像手段の焦点距離と、前記撮像手段の水平面に対する傾きと、前記車両の前輪と後輪の間隔と、前記車両の右の車輪と左の車輪の間隔の5つの固定パラメータを設定することにより仮想空間上の路面に特徴点を配置し、
前記車両の移動速度及び前輪の車体の長手方向に対する傾斜角を所定時間ごとに変数パラメータとして受け取って前記特徴点の座標を変更し、前回の特徴点と今回の特徴点をそれぞれ前記第1のオプティカルフローの始点と終点として生成することを特徴とする。
この構成により、物体を含まない仮想画像の第1のオプティカルフローを正確に検出することができる。
The first optical flow generation means includes
By setting the height from the reference plane of the imaging means, the focal length of the imaging means, and the inclination of the imaging means with respect to the horizontal plane as parameters, the feature points are arranged on the reference plane in the virtual space,
Acquiring the moving speed and rotational angular velocity of the imaging means at predetermined intervals, changing the coordinates of the feature points, and generating the previous feature point and the current feature point as the start point and end point of the first optical flow, respectively; It is characterized by.
The moving body is a vehicle,
The first optical flow generation means includes:
The height of the imaging means from the road surface, the focal length of the imaging means, the inclination of the imaging means with respect to the horizontal plane, the distance between the front and rear wheels of the vehicle, and the distance between the right and left wheels of the vehicle. By setting the five fixed parameters, feature points are placed on the road surface in the virtual space,
The moving speed of the vehicle and the inclination angle of the front wheel with respect to the longitudinal direction of the vehicle body are received as variable parameters at predetermined time intervals, the coordinates of the feature points are changed, and the previous feature point and the current feature point are respectively changed to the first optical point. It is generated as a start point and an end point of a flow.
With this configuration, it is possible to accurately detect the first optical flow of a virtual image that does not include an object.
また、前記物体検出手段は、前記撮像手段により撮像された画面を領域ごとに分割して各領域ごとに前記第1のオプティカルフローの代表フローを設定し、前記生成した第2のオプティカルフローのうち、前記代表フローより大きいフローを物体と判定することを特徴とする。
また、前記物体検出手段は、前記撮像手段により撮像された画面と、前記第1のオプティカルフローの生成時に得られるオプティカルフローの始点と終点の情報を利用して前記分割領域を設定することを特徴とする。
この構成により、ノイズによる誤検出を防止することができる。
In addition, the object detection unit divides the screen imaged by the imaging unit into regions, sets a representative flow of the first optical flow for each region, and includes the generated second optical flow. A flow larger than the representative flow is determined as an object.
Further, the object detection means sets the divided areas by using the screen imaged by the imaging means and information on the start point and end point of the optical flow obtained when the first optical flow is generated. And
With this configuration, it is possible to prevent erroneous detection due to noise.
また、前記物体検出手段は、前記物体と判定したフローの数が閾値を超えるブロックを物体ブロックと判定することを特徴とする。
この構成により、ノイズによる誤検出を防止することができる。
Further, the object detection means determines that a block in which the number of flows determined to be the object exceeds a threshold is an object block.
With this configuration, it is possible to prevent erroneous detection due to noise.
本発明によれば、物体を含まない仮想画像の第1のオプティカルフローと、撮像された実画像の第2のオプティカルフローの差異に基づいて物体を検出するので、静止物体を正確に検出することができる。 According to the present invention, the object is detected based on the difference between the first optical flow of the virtual image that does not include the object and the second optical flow of the captured real image, so that the stationary object is accurately detected. Can do.
以下、図面を参照して本発明の実施の形態について説明する。図1は本発明に係る物体検出装置の一実施形態を示すブロック図、図2は図1の物体検出装置の処理を説明するためのフローチャートである。 Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of an object detection apparatus according to the present invention, and FIG. 2 is a flowchart for explaining processing of the object detection apparatus of FIG.
本発明では、移動状態で静止物体を検出するために、従来の方法に代わる方法として「規範フロー」という概念を提案する。すなわち、標準的な環境、標準的な移動状態から予測される、画像中の各場所におけるオプティカルフローを計算により求め、これを規範フロー(第1のオプティカルフロー)とする。そして、動画像処理により得られた実際の画像のオプティカルフロー(第2のオプティカルフロー、観測フロー)との差異を検出することにより、物体の検出を行う。 In the present invention, in order to detect a stationary object in a moving state, a concept of “normative flow” is proposed as an alternative method to the conventional method. That is, the optical flow at each location in the image predicted from the standard environment and the standard moving state is obtained by calculation, and this is used as the reference flow (first optical flow). Then, an object is detected by detecting a difference from an optical flow (second optical flow, observation flow) of an actual image obtained by moving image processing.
図1は、搭載する移動体の一例として車両に搭載する物体検出装置を示す。図1において、移動情報取得手段である車両情報取得手段1は、画像撮像手段3が設置された車両の走行情報を取得し、規範フロー生成手段(第1のオプティカルフロー生成手段)2は、画像撮像手段3の設置状態と車両情報取得手段1からの車両の走行情報に基づいて、物体が存在しない標準的な環境で想定される画面の規範フロー(第1のオプティカルフロー)を生成する。観測フロー生成手段(第2のオプティカルフロー生成手段)4は、画像撮像手段3からの画像に基づいて観測フロー(第2のオプティカルフロー)を生成し、比較照合部(物体検出手段)5は規範フローと観測フローの差異に基づいて物体を検出する。ここで、車両情報取得手段1から比較照合部5までのブロックが本発明に係る物体検出装置の一実施形態を構成している。周辺物体情報構成手段6は比較照合部5により物体として検出された表示領域をユーザが物体と認識できる画像処理を施し、画像撮像手段3からの画像と合成して表示部7に出力する。
FIG. 1 shows an object detection device mounted on a vehicle as an example of a moving body to be mounted. In FIG. 1, vehicle information acquisition means 1 that is movement information acquisition means acquires travel information of a vehicle in which an image imaging means 3 is installed, and normative flow generation means (first optical flow generation means) 2 Based on the installation state of the image pickup means 3 and the vehicle travel information from the vehicle information acquisition means 1, a reference flow (first optical flow) of a screen assumed in a standard environment where no object exists is generated. The observation flow generation means (second optical flow generation means) 4 generates an observation flow (second optical flow) based on the image from the image capturing means 3, and the comparison / collation unit (object detection means) 5 is a norm. An object is detected based on the difference between the flow and the observation flow. Here, the block from the vehicle information acquisition means 1 to the
図2を参照して処理を詳しく説明する。
ステップS1:まず、画像撮像手段3の移動速度や回転角速度などの情報として、自動車の速度やハンドルの切り角などの情報を受け取り、仮想空間上の路面に配置した特徴点の座標を移動させて、その動きを画面に投影したオプティカルフローを生成する、規範フロー生成処理を行う。この規範フロー生成処理により生成されるオプティカルフローを規範フローとする。
ステップS2:次に非特許文献4、5などにおけるKLT法により実画像のフロー(観測フロー)を抽出する。
ステップS3:次に画面をブロックに分けて各ブロックに規範フローの長さや向きを設定し、実画像のフローの長さと向きを調べて、そのフローの入っているブロックにおいて規範フローとの差異がないかを照合する。
ステップS4:最後に差異があると判断したフローがブロックの中にあった場合、そのブロックに物体が存在するとして検出する。
以下各処理について、(1)規範フローの生成、(2)入力画像中の特徴点抽出とフロー検出、(3)規範フローと実フローの照合、(4)物体の検出、の順に具体的に説明する。
The process will be described in detail with reference to FIG.
Step S1: First, information such as the speed of the automobile and the turning angle of the steering wheel is received as information such as the moving speed and rotational angular speed of the image pickup means 3, and the coordinates of the feature points arranged on the road surface in the virtual space are moved. Then, a normative flow generation process is performed to generate an optical flow in which the movement is projected on the screen. The optical flow generated by this standard flow generation process is defined as a standard flow.
Step S2: Next, the flow (observation flow) of the real image is extracted by the KLT method in
Step S3: Next, the screen is divided into blocks, the length and direction of the reference flow are set for each block, the length and direction of the flow of the actual image are checked, and there is a difference from the reference flow in the block containing the flow. Check for any.
Step S4: If there is a flow in the block that is finally determined to have a difference, it is detected that an object exists in the block.
For each process, (1) generation of the normative flow, (2) feature point extraction and flow detection in the input image, (3) collation between the normative flow and the actual flow, and (4) object detection are specifically described in this order. explain.
(1)規範フローの生成
本発明の基本となる規範フロー生成処理について述べる。まず、規範フローを生成するための固定パラメータとして、画像撮像手段3のカメラの路面からの高さ、カメラの焦点距離、水平に対するカメラの傾き、車両の前輪と後輪の間隔、車両の右の車輪と左の車輪の間隔の5つのパラメータを設定することにより、仮想空間上の路面に特徴点を配置する。
次に規範フローを生成するための変数パラメータとして、車両の現在の移動速度、前輪の車体の長手方向に対する傾斜角を所定時間ごとに受け取り、車両の走行状態に合わせて特徴点の座標を変更する。特徴点の位置を、初めに設定した固定パラメータの情報から計算し、カメラ画像のどこに投影されるかを算出して、前状態と現状態をそれぞれ規範フローの始点と終点として出力する。
なお、搭載する移動体が車両でない場合には、画像撮像手段3のカメラの移動基準面からの高さと、カメラの焦点距離と、水平に対するカメラの傾きの3つのパラメータを設定することにより、仮想空間上の基準面に特徴点を配置する。次に規範フローを生成するための変数パラメータとして、撮像手段の現在の移動速度、回転角速度を所定時間ごとに受け取り、撮像手段の移動状態に合わせて特徴点の座標を変更する。特徴点の位置を、初めに設定した固定パラメータの情報から計算し、カメラ画像のどこに投影されるかを算出して、前状態と現状態をそれぞれ規範フローの始点と終点として出力する。
(1) Generation of normative flow The normative flow generation process that is the basis of the present invention will be described. First, as fixed parameters for generating the normative flow, the height of the image pickup means 3 from the road surface of the camera, the focal length of the camera, the tilt of the camera with respect to the horizontal, the distance between the front and rear wheels of the vehicle, the right side of the vehicle By setting five parameters of the distance between the wheel and the left wheel, feature points are arranged on the road surface in the virtual space.
Next, as the variable parameters for generating the normative flow, the current moving speed of the vehicle and the inclination angle of the front wheels with respect to the longitudinal direction of the vehicle body are received every predetermined time, and the coordinates of the feature points are changed according to the running state of the vehicle. . The position of the feature point is calculated from the information of the fixed parameter set at the beginning, and where it is projected on the camera image is calculated, and the previous state and the current state are output as the start point and end point of the reference flow, respectively.
If the moving body to be mounted is not a vehicle, the virtual image can be obtained by setting three parameters: the height of the image pickup means 3 from the camera movement reference plane, the focal length of the camera, and the tilt of the camera with respect to the horizontal. Feature points are placed on a reference plane in space. Next, as the variable parameters for generating the reference flow, the current moving speed and rotational angular velocity of the imaging unit are received every predetermined time, and the coordinates of the feature points are changed according to the moving state of the imaging unit. The position of the feature point is calculated from the information of the fixed parameter set at the beginning, and where it is projected on the camera image is calculated, and the previous state and the current state are output as the start point and end point of the reference flow, respectively.
<画面投影の計算について>
規範フロー生成処理の空間と画像撮像装置により得られた画面上の位置をピンホールカメラに近似させ、図3に示すように視点を原点とし、x軸を撮像面及び画面の幅方向、y軸を奥行きとした空間をx−y平面で考えたとき、カメラの焦点距離をfとすると、撮像面から画面までの距離は
y=f …(1)
となる直線である。また、画面の範囲は撮像面の中心をy軸とする撮像面の幅になる。画面に投影される点は、この直線と、特徴点の座標と原点を結ぶ直線の交点になる。
<Calculation of screen projection>
The space on the reference flow generation process and the position on the screen obtained by the image pickup device are approximated to a pinhole camera, the viewpoint is the origin as shown in FIG. 3, the x axis is the imaging plane and the width direction of the screen, and the y axis When the space with depth is considered on the xy plane, if the focal length of the camera is f, the distance from the imaging surface to the screen is y = f (1)
Is a straight line. The range of the screen is the width of the imaging surface with the center of the imaging surface as the y axis. The point projected on the screen is the intersection of this straight line and the straight line connecting the coordinates of the feature point and the origin.
また、図3において、実際の点である特徴点の座標を(Ox,Oy)、投影点の座標を (Dx,Dy)とすると、Dy=fより、Dxは次の式(2)で求めることができる。
Dx=(Ox/Oy)*f …(2)
またy−z平面で同じ計算をすることにより、投影点のz座標を求めることができる。この計算により画面の中心を原点としたz−x平面に投影点をあらわすことができる。その後、撮像面の大きさを、実際の入力画像の大きさに変換することにより入力画像に応じた規範フローを求めることができる。
Further, in FIG. 3, assuming that the coordinates of the feature points that are actual points are (Ox, Oy) and the coordinates of the projection points are (Dx, Dy), Dx is obtained by the following equation (2) from Dy = f. be able to.
Dx = (Ox / Oy) * f (2)
Further, by performing the same calculation on the yz plane, the z coordinate of the projection point can be obtained. By this calculation, a projection point can be represented on the zx plane with the center of the screen as the origin. Thereafter, the standard flow corresponding to the input image can be obtained by converting the size of the imaging surface into the size of the actual input image.
<カメラの傾きを考えない特徴点の配置と移動>
カメラの水平面に対する傾きが0度の場合、初めに設定したカメラの高さを反映して路面の高さに配置されたy軸と平行な直線上に特徴点を配置し、その点はy軸と平行に移動する。模式図を図4に示す。図4中の環境点と書かれた点がこのときの特徴点である。環境点については後に述べる。
<Arrangement and movement of feature points without considering camera tilt>
When the tilt of the camera with respect to the horizontal plane is 0 degree, the feature point is placed on a straight line parallel to the y-axis placed at the height of the road surface reflecting the height of the camera set at the beginning. Move in parallel. A schematic diagram is shown in FIG. A point written as an environmental point in FIG. 4 is a feature point at this time. The environmental point will be described later.
<カメラの傾きを考えた特徴点の配置>
カメラの水平面に対する傾きがφの場合、y軸に対しφだけ傾いた平面上に点を配置し、その平面に沿って移動する。模式図を図5に示す。図5中の投影点と書かれた点がこのときの特徴点である。投影点については後に述べる。しかし、傾けての移動は、カーブやカメラの傾きなどの状態変化の繰り返しによる誤差の蓄積が想定される。そこで、カメラの傾きが0度で直進状態にある、誤差の生じにくい基準となる環境に配置した特徴点を「環境点」と呼ぶことにする。また、そこからカーブやカメラの傾きによって座標位置を変換した特徴点を「投影点」と呼ぶことにする。
<Arrangement of feature points considering camera tilt>
When the tilt of the camera with respect to the horizontal plane is φ, a point is placed on a plane tilted by φ with respect to the y-axis and moved along the plane. A schematic diagram is shown in FIG. A point written as a projected point in FIG. 5 is a feature point at this time. The projection point will be described later. However, tilting movement is assumed to accumulate errors due to repeated state changes such as curves and camera tilt. Therefore, feature points arranged in a reference environment in which the camera tilt is 0 degrees and the vehicle is in a straight traveling state and is less likely to cause an error are referred to as “environment points”. A feature point obtained by converting a coordinate position by a curve or camera tilt is referred to as a “projection point”.
環境点は図5に示すように、z軸方向への変化が無く、カメラを傾けることによるz軸方向へ移動に関する誤差の蓄積を防ぐことができる。また、y軸方向への移動だけに依存するため、毎回の移動による誤差も防ぐことができる。投影点は環境点の位置から算出されて、環境点の座標は保持したまま投影点を画面上に投影する。カメラの傾きが与えられると、図5に示すように、環境点の位置はそのまま、カメラの傾きの分だけ斜めになった状態に配置される。 As shown in FIG. 5, the environmental point does not change in the z-axis direction, and accumulation of errors related to movement in the z-axis direction caused by tilting the camera can be prevented. Moreover, since it depends only on the movement in the y-axis direction, errors due to the movement every time can be prevented. The projection point is calculated from the position of the environment point, and the projection point is projected on the screen while maintaining the coordinates of the environment point. When the tilt of the camera is given, as shown in FIG. 5, the position of the environmental point is arranged in a state where it is inclined as much as the tilt of the camera.
<旋回時の投影点>
ハンドルを切ったときにカメラが回転するときも環境点はそのままの状態で動作する。ハンドル操作により車体の長手方向に対して前輪の角度が変化するときのように、カメラが回転すると、その角度に応じた回転半径、回転の中心位置が計算される。この値と環境点を基に、投影点はカーブの位置に配置される。投影点の配置の模式図を図6に示す。このときの点の配置の計算については後述する。
<回転半径の算出>
車両の回転半径は以下の式(3)で求めることができる。
r=Hcosθ+W/sinθ …(3)
なお、この式でrは回転半径、Hはトレッド(左右の車輪の間隔)、Wはホイールベース(
前輪と後輪の間隔)、そしてθは前輪の車体の長手方向に対する傾斜角とする。この式(
3)を示したものが図7である。
なお、搭載する移動体が車両でない場合には、カメラの回転半径は以下の式(3)’で求めることができる。
r=v/Δθ …(3)’
なお、この式でrは回転半径、vは移動速度、Δθは回転角速度とする。
<Projection point when turning>
Even when the camera rotates when the handle is turned off, the environmental point operates as it is. As the angle of the front wheel changes with respect to the longitudinal direction of the vehicle body by operating the steering wheel, when the camera rotates, the rotation radius and the center position of rotation corresponding to the angle are calculated. Based on this value and the environment point, the projection point is placed at the position of the curve. A schematic diagram of the arrangement of projection points is shown in FIG. The calculation of the arrangement of points at this time will be described later.
<Calculation of turning radius>
The turning radius of the vehicle can be obtained by the following equation (3).
r = Hcos θ + W / sin θ (3)
In this equation, r is the radius of rotation, H is the tread (the distance between the left and right wheels), W is the wheelbase (
The distance between the front wheel and the rear wheel), and θ is the inclination angle of the front wheel with respect to the longitudinal direction of the vehicle body. This formula (
FIG. 7 shows 3).
If the mobile body to be mounted is not a vehicle, the turning radius of the camera can be obtained by the following equation (3) ′.
r = v / Δθ (3) ′
In this equation, r is a rotation radius, v is a moving speed, and Δθ is a rotation angular speed.
<カーブ時の投影点の配置>
まずカメラから環境点までのy軸方向の距離を弧の長さに対応させて、中心角を計算する。回転の中心からカメラまでの距離を半径とする円において、カメラの位置から、計算で求めた中心角だけ移動した点が、環境点に対応する投影点の座標となる。これを図8に示す。図8中の記号で、sはカメラから環境点までの距離、rは回転半径、θは中心角、pは環境点の位置、p’は投影点の位置を表す。図8より中心角θの 値は次の式で求めることができる。
θ=(s/2πr)*2π
=s/r
<Placement of projection points during curve>
First, the center angle is calculated by making the distance in the y-axis direction from the camera to the environment point correspond to the length of the arc. In a circle whose radius is the distance from the center of rotation to the camera, the point moved from the camera position by the calculated central angle is the coordinate of the projection point corresponding to the environmental point. This is shown in FIG. In FIG. 8, s is a distance from the camera to the environment point, r is a radius of rotation, θ is a central angle, p is a position of the environment point, and p ′ is a position of the projection point. From FIG. 8, the value of the central angle θ can be obtained by the following equation.
θ = (s / 2πr) * 2π
= S / r
<規範フローの生成>
カメラ画像上の投影点の座標は前状態を保存してあり、前状態をフローの始点とし、現在の座標位置をフローの終点として描画することでベクトルを生成する。図9は生成した規範フローの例を示し、この例では、車両が直進している場合の規範フローOF1を示す。ここで、図9におけるFOEは規範フローOF1のFOEを示す。
<Generation of normative flow>
The coordinates of the projection points on the camera image store the previous state, and a vector is generated by drawing the previous state as the flow start point and the current coordinate position as the flow end point. FIG. 9 shows an example of the generated normative flow. In this example, the normative flow OF1 when the vehicle is traveling straight is shown. Here, FOE in FIG. 9 indicates the FOE of the normative flow OF1.
(2)入力画像中の特徴点抽出とフロー検出
オプティカルフローの検出は、連続する2枚の入力画像の対応点を見つけることにより行われる。まず、1枚目の画像に対して非特許文献4に基づき特徴点抽出を行う。そして2枚目の画像との対応点を見つけてオプティカルフローを検出する。この対応点の決定方法は、例えば非特許文献5を用いて検出を行う。図10は実画像から生成したフローの例を示し、この例では、規範フローOF1のほかに、物体から生成したフローOF2を含む。
(2) Feature Point Extraction and Flow Detection in Input Image Optical flow detection is performed by finding corresponding points between two consecutive input images. First, feature point extraction is performed on the first image based on
(3)規範フローと実フローの照合
<規範フロー場の位置補正>
規範フロー生成処理により生成された規範フローと実際の撮像手段により獲得された画像から検出されたオプティカルフローを照合する際に、その位置のズレを補正する必要がある。ズレの補正は例えば、実際の入力画像から検出したフローの情報からFOE(図9参照)を算出し、規範フローの情報からのFOEとの位置を合わせることによってズレを補正することが可能である。
<画面の分割と規範フローの設定>
本提案では各場所における規範フローと、撮像手段により獲得された画像のオプティカルフローを比較して物体の検出を行うため、場所と規範フローの関連付けを行う。フローの比較方法として、以下では画面をブロックに分割し、ブロックごとに代表となる規範フローを設定する方法について説明する。
(3) Verification of normative flow and actual flow <Position flow field position correction>
When the reference flow generated by the reference flow generation process is compared with the optical flow detected from the image acquired by the actual imaging means, it is necessary to correct the positional deviation. For example, the deviation can be corrected by calculating the FOE (see FIG. 9) from the flow information detected from the actual input image and aligning the position with the FOE from the reference flow information. .
<Screen division and normative flow settings>
In this proposal, in order to detect an object by comparing the normative flow at each location and the optical flow of the image acquired by the imaging means, the location is associated with the normative flow. As a flow comparison method, a method for dividing a screen into blocks and setting a representative normative flow for each block will be described below.
<代表となる規範フローの設定>
直進状態において、通常、路面などの移動基準面よりも高さのある静止物体は、車両などに設置されたカメラからの距離が、移動基準面に比べて近くなるため、画面内におけるフローは大きくなる。規範フローは移動基準面上に出るフローを計算により求めたものであるから、物体のフローは規範フローよりもフロー長が大きくなるはずである。よって規範フローよりも大きなフローを物体のフローであると考えることにする。このとき、各ブロック内で複数の規範フローが含まれる場合、一番大きなベクトルを持つ規範フローを代表とする。仮に小さいベクトルを選択した場合、それよりも大きな規範フローがブロック内に存在するということになり、物体のない移動基準面のフローでも、代表のベクトルを超えてしまうことがある。移動基準面上に現れる規範フローは、局所領域では、ほぼ同じベクトルになると考えられ、近隣領域では滑らかな変化をしていると考えられる。このことから、ブロック内に規範フローが含まれない場合、近傍のブロックからベクトルの値をとることにする。
<Representative normative flow settings>
In a straight-ahead state, a stationary object that is usually higher than the movement reference plane such as a road surface has a large flow in the screen because the distance from the camera installed on the vehicle is closer than the movement reference plane. Become. Since the normative flow is obtained by calculating the flow on the movement reference plane, the flow of the object should have a larger flow length than the normative flow. Therefore, the flow larger than the reference flow is considered as the flow of the object. At this time, when a plurality of normative flows are included in each block, the normative flow having the largest vector is represented. If a small vector is selected, a larger reference flow exists in the block, and even the flow of the moving reference plane without an object may exceed the representative vector. The normative flow appearing on the movement reference plane is considered to be almost the same vector in the local region, and is considered to be smoothly changing in the neighboring region. From this, when the reference flow is not included in the block, the vector value is taken from the neighboring block.
(4)物体の検出
<物体フローの判断>
撮像手段により獲得された画像中のオプティカルフロー全てについて、そのフローの存在するブロックの代表規範フローの値と比較する。比較は、例えば、規範フローと比べて、縦成分と横成分の向きが同じで、ベクトル長の長いものを物体のフローとして検出するとしてもよい。
<物体領域の検出>
ただし、このまま物体のフローを含むブロックを物体領域だと判断すると、ノイズも物体のフローだと判断してしまう場合が考えられるため、以下のような処理を行う。特徴点はテクスチャのある物体領域に集中して抽出される。すなわち物体を含むブロック内に多数の物体のフローが含まれると考えられる。これに対してノイズの場合は、ある領域に集中して出るわけではないため、ブロック内には物体のフローだと判断されたノイズが少数含まれると考えられる。このことからブロック内に含まれる物体のフローの数に対して閾値処理を施し、ブロック内の物体フローの数が閾値を超えた場合のみ、物体が含まれると判断する。物体が含まれると判断されたブロックは、図11に示すように例えば色を変えるなどして表示部7に表示してもよい。
(4) Object detection <Determination of object flow>
All the optical flows in the image acquired by the imaging means are compared with the value of the representative standard flow of the block in which the flow exists. The comparison may be, for example, detecting an object flow having the same direction of the vertical component and the horizontal component and a long vector length as compared to the reference flow.
<Detection of object area>
However, if it is determined that a block including an object flow is an object region as it is, it may be determined that noise is also an object flow. Therefore, the following processing is performed. The feature points are extracted in a concentrated manner in the textured object region. That is, it is considered that the flow of a large number of objects is included in the block including the objects. On the other hand, in the case of noise, since it does not concentrate in a certain area, it is considered that a small number of noises determined to be an object flow are included in the block. Therefore, threshold processing is performed on the number of flows of objects included in the block, and it is determined that an object is included only when the number of object flows in the block exceeds the threshold. The block determined to contain the object may be displayed on the
<別の画面分割方法>
また、領域の分割にあたって、規範フローは撮像系のFOEより上部には生成されないことを利用する。また規範フローと物体フローの比較を行うことから、例えば規範フローが生成される場所にブロックを配置して、比較を行う。規範フローの生成される部分にブロックを配置するときに、規範フローを求める時に得られる始点・終点の位置がブロックの上端、下端となるように配置する。図12は均等な領域分割の例を示し、これに対し、図13では、規範フローの始点と終点がブロックの対角の位置になるように配置されている。ただし、撮像系が直進運動を行う場合には規範フローの水平方向成分の値が小さくなりブロックが小さくなってしまうことがある。これを防ぐために図14に示すように、水平方向の幅は固定幅(定数)とし、ブロックの重心が規範フローの中点と重なるように配置しても良い。
<Another screen division method>
Further, in dividing the area, it is used that the normative flow is not generated above the FOE of the imaging system. Further, since the normative flow and the object flow are compared, for example, a block is arranged at a place where the normative flow is generated and the comparison is performed. When a block is arranged in a part where the reference flow is generated, the start point and the end point obtained when the reference flow is obtained are arranged so as to be the upper end and the lower end of the block. FIG. 12 shows an example of equal area division. On the other hand, in FIG. 13, the reference flow is arranged so that the start point and the end point are diagonal positions of the block. However, when the imaging system performs a straight movement, the value of the horizontal component of the normative flow may be small and the block may be small. In order to prevent this, as shown in FIG. 14, the horizontal width may be a fixed width (constant), and the center of gravity of the block may be arranged so as to overlap the midpoint of the reference flow.
本発明は、静止物体を正確に検出することができるという効果を有し、車両のみならず、移動ロボット、人などの各種の移動体に搭載する場合に利用することができる。 The present invention has an effect that a stationary object can be accurately detected, and can be used when mounted not only on a vehicle but also on various moving bodies such as a mobile robot and a person.
1 車両情報取得手段
2 規範フロー生成手段(第1のオプティカルフロー生成手段)
3 画像撮像手段
4 観測フロー生成手段(第2のオプティカルフロー生成手段)
5 比較照合部(物体検出手段)
6 周辺物体情報構成手段
7 表示部
DESCRIPTION OF
3 Image capturing means 4 Observation flow generating means (second optical flow generating means)
5 comparison verification unit (object detection means)
6 Peripheral object information constituent means 7 Display section
Claims (6)
前記移動体に設置された前記撮像手段の設置状態と前記移動体の移動状態に基づいて、物体が存在しない標準的な環境で想定される画面の第1のオプティカルフローを生成する第1のオプティカルフロー生成手段と、
前記撮像手段により撮像された画像に基づいて第2のオプティカルフローを生成する第2のオプティカルフロー生成手段と、
前記生成された第1及び第2のオプティカルフローの差異に基づいて物体を検出する物体検出手段とを、
備えたことを特徴とする物体検出装置。 In an object detection apparatus for detecting an object based on an image captured by an imaging means installed on a moving body,
A first optical for generating a first optical flow of a screen assumed in a standard environment where no object exists based on an installation state of the imaging unit installed on the mobile body and a movement state of the mobile body Flow generation means;
Second optical flow generation means for generating a second optical flow based on an image captured by the imaging means;
Object detection means for detecting an object based on the difference between the generated first and second optical flows;
An object detection apparatus characterized by comprising.
前記撮像手段の基準面からの高さと、前記撮像手段の焦点距離と、前記撮像手段の水平面に対する傾きとをパラメータとして設定することにより、仮想空間上の基準面に特徴点を配置し、
前記撮像手段の移動速度、回転角速度を所定間隔で取得して前記特徴点の座標を変更し、前回の特徴点と今回の特徴点をそれぞれ前記第1のオプティカルフローの始点と終点として生成することを特徴とする請求項1に記載の物体検出装置。 The first optical flow generation means includes:
By setting the height from the reference plane of the imaging means, the focal length of the imaging means, and the inclination of the imaging means with respect to the horizontal plane as parameters, the feature points are arranged on the reference plane in the virtual space,
Acquiring the moving speed and rotational angular velocity of the imaging means at predetermined intervals, changing the coordinates of the feature points, and generating the previous feature point and the current feature point as the start point and end point of the first optical flow, respectively; The object detection apparatus according to claim 1.
前記第1のオプティカルフロー生成手段は、
前記撮像手段の路面からの高さと、前記撮像手段の焦点距離と、前記撮像手段の水平面に対する傾きと、前記車両の前輪と後輪の間隔と、前記車両の右の車輪と左の車輪の間隔の5つの固定パラメータを設定することにより仮想空間上の路面に特徴点を配置し、
前記車両の移動速度及び前輪の車体の長手方向に対する傾斜角を所定時間ごとに変数パラメータとして受け取って前記特徴点の座標を変更し、前回の特徴点と今回の特徴点をそれぞれ前記第1のオプティカルフローの始点と終点として生成することを特徴とする請求項1に記載の物体検出装置。 The moving body is a vehicle,
The first optical flow generation means includes:
The height of the imaging means from the road surface, the focal length of the imaging means, the inclination of the imaging means with respect to the horizontal plane, the distance between the front and rear wheels of the vehicle, and the distance between the right and left wheels of the vehicle. By setting the five fixed parameters, feature points are placed on the road surface in the virtual space,
The moving speed of the vehicle and the inclination angle of the front wheel with respect to the longitudinal direction of the vehicle body are received as variable parameters at predetermined time intervals, the coordinates of the feature points are changed, and the previous feature point and the current feature point are respectively changed to the first optical point. The object detection device according to claim 1, wherein the object detection device is generated as a start point and an end point of a flow.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007069488A JP4958279B2 (en) | 2006-05-17 | 2007-03-16 | Object detection device |
PCT/JP2007/060077 WO2007132902A1 (en) | 2006-05-17 | 2007-05-16 | Object detector |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006137894 | 2006-05-17 | ||
JP2006137894 | 2006-05-17 | ||
JP2007069488A JP4958279B2 (en) | 2006-05-17 | 2007-03-16 | Object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007334859A true JP2007334859A (en) | 2007-12-27 |
JP4958279B2 JP4958279B2 (en) | 2012-06-20 |
Family
ID=38693991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007069488A Expired - Fee Related JP4958279B2 (en) | 2006-05-17 | 2007-03-16 | Object detection device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4958279B2 (en) |
WO (1) | WO2007132902A1 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010132053A (en) * | 2008-12-03 | 2010-06-17 | Koito Mfg Co Ltd | Headlight control device |
JP2011233763A (en) * | 2010-04-28 | 2011-11-17 | Denso Corp | On-vehicle imaging apparatus and in-vehicle image processing apparatus |
JP2013201958A (en) * | 2012-03-28 | 2013-10-07 | National Agriculture & Food Research Organization | Travel control apparatus |
JP2014526104A (en) * | 2011-08-05 | 2014-10-02 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング | Driving lane recognition method using a camera |
JP2014194618A (en) * | 2013-03-28 | 2014-10-09 | Fuji Heavy Ind Ltd | Outside environment recognition device and outside environment recognition method |
US9734416B2 (en) | 2015-03-23 | 2017-08-15 | Fujitsu Limited | Object detection method, information processing device, and storage medium |
DE112016007131T5 (en) | 2016-09-15 | 2019-05-09 | Mitsubishi Electric Corporation | Object detection device and object determination method |
WO2019135544A1 (en) * | 2018-01-08 | 2019-07-11 | 삼성전자주식회사 | Electronic device and method for providing image of surroundings of vehicle |
JP2020034995A (en) * | 2018-08-27 | 2020-03-05 | 株式会社デンソー | Image recognition device |
KR20220126963A (en) | 2021-03-10 | 2022-09-19 | 현대자동차주식회사 | Periphery monitoring system using event based sensor of vehicle |
KR20220131682A (en) | 2021-03-22 | 2022-09-29 | 현대자동차주식회사 | Intelligent front lighting system using event based sensor of vehicle |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4872943B2 (en) * | 2008-02-20 | 2012-02-08 | コニカミノルタホールディングス株式会社 | Analysis device |
JP4660569B2 (en) * | 2008-03-21 | 2011-03-30 | 株式会社東芝 | Object detection apparatus and object detection method |
CN108108670B (en) | 2017-12-04 | 2018-10-26 | 交通运输部规划研究院 | A kind of method of the remote sensing images extraction Port Warehouses of stratification screening |
JP7391117B2 (en) * | 2022-01-07 | 2023-12-04 | 三菱電機株式会社 | Vehicle image processing device and vehicle image processing method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09161071A (en) * | 1995-12-12 | 1997-06-20 | Sony Corp | Device and method for making areas correspond to each other |
JP2004056763A (en) * | 2002-05-09 | 2004-02-19 | Matsushita Electric Ind Co Ltd | Monitoring apparatus, monitoring method, and program for monitor |
-
2007
- 2007-03-16 JP JP2007069488A patent/JP4958279B2/en not_active Expired - Fee Related
- 2007-05-16 WO PCT/JP2007/060077 patent/WO2007132902A1/en active Search and Examination
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09161071A (en) * | 1995-12-12 | 1997-06-20 | Sony Corp | Device and method for making areas correspond to each other |
JP2004056763A (en) * | 2002-05-09 | 2004-02-19 | Matsushita Electric Ind Co Ltd | Monitoring apparatus, monitoring method, and program for monitor |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8115394B2 (en) | 2008-12-03 | 2012-02-14 | Koito Manufacturing Co., Ltd. | Headlamp controller |
JP2010132053A (en) * | 2008-12-03 | 2010-06-17 | Koito Mfg Co Ltd | Headlight control device |
JP2011233763A (en) * | 2010-04-28 | 2011-11-17 | Denso Corp | On-vehicle imaging apparatus and in-vehicle image processing apparatus |
JP2014526104A (en) * | 2011-08-05 | 2014-10-02 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング | Driving lane recognition method using a camera |
JP2013201958A (en) * | 2012-03-28 | 2013-10-07 | National Agriculture & Food Research Organization | Travel control apparatus |
JP2014194618A (en) * | 2013-03-28 | 2014-10-09 | Fuji Heavy Ind Ltd | Outside environment recognition device and outside environment recognition method |
US9734416B2 (en) | 2015-03-23 | 2017-08-15 | Fujitsu Limited | Object detection method, information processing device, and storage medium |
US10943141B2 (en) | 2016-09-15 | 2021-03-09 | Mitsubishi Electric Corporation | Object detection device and object detection method |
DE112016007131T5 (en) | 2016-09-15 | 2019-05-09 | Mitsubishi Electric Corporation | Object detection device and object determination method |
WO2019135544A1 (en) * | 2018-01-08 | 2019-07-11 | 삼성전자주식회사 | Electronic device and method for providing image of surroundings of vehicle |
KR20190084463A (en) * | 2018-01-08 | 2019-07-17 | 삼성전자주식회사 | Electronic apparatus and method for providing image regarding surroundings of vehicle |
US11245858B2 (en) | 2018-01-08 | 2022-02-08 | Samsung Electronics Co., Ltd | Electronic device and method for providing image of surroundings of vehicle |
KR102479492B1 (en) * | 2018-01-08 | 2022-12-20 | 삼성전자주식회사 | Electronic apparatus and method for providing image regarding surroundings of vehicle |
JP2020034995A (en) * | 2018-08-27 | 2020-03-05 | 株式会社デンソー | Image recognition device |
JP7067370B2 (en) | 2018-08-27 | 2022-05-16 | 株式会社デンソー | Image recognition device |
KR20220126963A (en) | 2021-03-10 | 2022-09-19 | 현대자동차주식회사 | Periphery monitoring system using event based sensor of vehicle |
KR20220131682A (en) | 2021-03-22 | 2022-09-29 | 현대자동차주식회사 | Intelligent front lighting system using event based sensor of vehicle |
Also Published As
Publication number | Publication date |
---|---|
WO2007132902A1 (en) | 2007-11-22 |
JP4958279B2 (en) | 2012-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4958279B2 (en) | Object detection device | |
JP4676373B2 (en) | Peripheral recognition device, peripheral recognition method, and program | |
JP3719095B2 (en) | Behavior detection apparatus and gradient detection method | |
WO2016117200A1 (en) | Outside environment recognition device for vehicles and vehicle behavior control device using same | |
US11887336B2 (en) | Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle | |
JP4893212B2 (en) | Perimeter monitoring device | |
JP2007129560A (en) | Object detector | |
JP2005209019A (en) | Apparatus, method and program for obstacle detection | |
JP6032034B2 (en) | Object detection device | |
JP2010193428A (en) | Roll angle correction method and device | |
JP2019511780A (en) | Method for detecting an object near a road of a motor vehicle, computer device, driver assistance system, and motor vehicle | |
WO2019031137A1 (en) | Roadside object detection device, roadside object detection method, and roadside object detection system | |
WO2017047282A1 (en) | Image processing device, object recognition device, device control system, image processing method, and program | |
JP2004120661A (en) | Moving object periphery monitoring apparatus | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
JP2020056717A (en) | Position detection device | |
JP2007280387A (en) | Method and device for detecting object movement | |
JP6838225B2 (en) | Stereo camera | |
JP7303064B2 (en) | Image processing device and image processing method | |
WO2017188158A1 (en) | Device for detecting road surface state | |
JP2005170290A (en) | Obstacle detecting device | |
JP5832850B2 (en) | Lane monitoring system and lane monitoring method | |
JP6886136B2 (en) | Alignment device, alignment method and computer program for alignment | |
JP4106163B2 (en) | Obstacle detection apparatus and method | |
JP6072508B2 (en) | Road surface step detection method, road surface step detection device, and vehicle equipped with road surface step detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20080516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20080516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080711 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20090406 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20090608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20090608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120221 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120316 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150330 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150330 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |