JP2008085710A - Driving support system - Google Patents

Driving support system Download PDF

Info

Publication number
JP2008085710A
JP2008085710A JP2006263931A JP2006263931A JP2008085710A JP 2008085710 A JP2008085710 A JP 2008085710A JP 2006263931 A JP2006263931 A JP 2006263931A JP 2006263931 A JP2006263931 A JP 2006263931A JP 2008085710 A JP2008085710 A JP 2008085710A
Authority
JP
Japan
Prior art keywords
bird
eye view
image
vehicle
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006263931A
Other languages
Japanese (ja)
Inventor
Nagateru Yo
長輝 楊
Hitoshi Hongo
仁志 本郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2006263931A priority Critical patent/JP2008085710A/en
Publication of JP2008085710A publication Critical patent/JP2008085710A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a driving support system for eliminating conventional defects so as to achieve highly reliable obstacle detection. <P>SOLUTION: The driving support system comprises: an indicator mounted in a vehicle; two image pickup devices which are provided with a space in the vehicle so that imaging areas mutually include a common region, and photograph images in the vicinity of the vehicle; a bird's-eye view image generating means for converting each of two images photographed by each of the image pickup devices into a bird's eye-view image of the same bird's eye-view coordinate system; an obstacle region extracting means for extracting a high obstacle region by taking a difference between the two bird's eye view images generated by the bird's eye image generating means; and a display means for displaying one of the two bird's eye view images in the indicator, and for displaying the obstacle region extracted by the obstacle region extracting means among the bird's eye-view images in the indicator in a way that it can be identified from other parts. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、運転支援システムに関する。   The present invention relates to a driving support system.

駐車を行なう場合の運転支援システムとして、車両の後方を監視する車載カメラによって撮像された映像を鳥瞰図画像に変換する機能を備え、異なる2地点において得られた鳥瞰図画像から障害物を検出し、検出した障害物をモニタに表示するシステムが既に開発されている(特許第3301421号公報参照)。   As a driving support system for parking, it has a function to convert the image captured by the in-vehicle camera that monitors the back of the vehicle into a bird's-eye view image, and detects and detects obstacles from the bird's-eye view images obtained at two different points A system for displaying the obstacle on the monitor has already been developed (see Japanese Patent No. 3301421).

しかしながら、この従来システムでは、障害物を検出するためには、車両が静止状態でないことが必要であるとともに、車速センサ、舵角センサ等を用いて車両の移動量と移動角度をリアルタイムに正確に計測することが必要となる。   However, in this conventional system, in order to detect an obstacle, it is necessary that the vehicle is not in a stationary state, and the movement amount and movement angle of the vehicle are accurately determined in real time using a vehicle speed sensor, a steering angle sensor, or the like. It is necessary to measure.

また、ステレオカメラを用いて障害物を検出する技術も既に開発されている。しかしながら、ステレオカメラを用いて障害物を検出するには、両カメラで撮像された画像間のマッチングが必要となるため、計算量が莫大となる。
特許第3301421号公報
In addition, a technique for detecting an obstacle using a stereo camera has already been developed. However, in order to detect an obstacle using a stereo camera, matching between images picked up by both cameras is required, and the amount of calculation becomes enormous.
Japanese Patent No. 3301421

この発明は、従来の欠点を解消でき、信頼性の高い障害物検出が行えるようになる運転支援システムを提供することを目的とする。   An object of this invention is to provide the driving assistance system which can eliminate the conventional fault and can perform highly reliable obstacle detection.

請求項1に記載の発明は、車両に搭載された表示器、互いの撮像範囲に共通領域が含まれるように車両に間隔をおいて設けられかつ車両周辺の画像を撮像する2台の撮像装置、各撮像装置によって撮像された2つの画像のそれぞれを、同一鳥瞰図座標系の鳥瞰図画像に変換する鳥瞰図画像生成手段、鳥瞰図画像生成手段によって生成された2つの鳥瞰図画像の差分をとることにより、高さのある障害物領域を抽出する障害物領域抽出手段、ならびに2つの鳥瞰図画像のうち一方の鳥瞰図画像を表示器に表示するとともに、その鳥瞰図画像のうち障害物領域抽出手段によって抽出された障害物領域を他の部分と識別できるように表示器に表示させる表示手段を備えていることを特徴とする。   According to the first aspect of the present invention, there are provided a display device mounted on a vehicle, and two image pickup devices which are provided at intervals in the vehicle so as to include a common area in the image pickup range of each other and pick up images around the vehicle By taking the difference between the two bird's-eye view images generated by the bird's-eye view image generating means and the bird's-eye view image generating means for converting each of the two images taken by each imaging device into a bird's-eye view image in the same bird's-eye view coordinate system, Obstacle area extracting means for extracting a certain obstacle area, and one of the two bird's-eye view images is displayed on the display, and the obstacle extracted from the bird's-eye view image by the obstacle area extracting means A display means for displaying the area on the display so that the area can be distinguished from other parts is provided.

請求項2に記載の発明は、請求項1に記載の発明において、車両から障害物領域抽出手段によって抽出された障害物領域までの距離を算出する距離算出手段を備えており、表示手段は距離算出手段によって算出された車両から障害物領域までの距離を表示させる手段を備えていることを特徴とする。   The invention according to claim 2 includes distance calculation means for calculating a distance from the vehicle to the obstacle area extracted by the obstacle area extraction means in the invention according to claim 1, wherein the display means is a distance. A means for displaying the distance from the vehicle to the obstacle area calculated by the calculating means is provided.

請求項3に記載の発明は、請求項1乃至2に記載の発明において、各撮像装置はそれぞれ、地面に水平な同一の仮想軸または地面に水平でかつ互いに平行な2つの仮想軸に対して、撮像装置の光軸が直交する状態で取り付けられている。   According to a third aspect of the present invention, in the first or second aspect of the present invention, each of the imaging devices may be configured with respect to the same virtual axis that is horizontal to the ground or two virtual axes that are horizontal to the ground and parallel to each other. The image pickup apparatus is attached in a state where the optical axes thereof are orthogonal to each other.

この発明によれば、障害物検知が容易に行えるようになる。また、この発明によれば、車両から離れた領域においても高い視認性が得られるようになる。   According to the present invention, obstacle detection can be easily performed. Moreover, according to this invention, high visibility comes to be obtained also in the area | region away from the vehicle.

以下、図面を参照して、この発明の実施例について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

〔1〕本願発明の基本的な考え方についての説明 [1] Explanation of basic concept of the present invention

図1は、本願発明の処理の流れを示している。   FIG. 1 shows a processing flow of the present invention.

本発明では、例えば、車両の後部には、2台のカメラが互いの撮像範囲に共通領域が含まれるように間隔をおいて取り付けられている。各カメラは、後方斜め下向きに取り付けられている。ただし、各カメラはそれぞれ、地面に水平でかつ車両の横方向に平行な同一または異なる2つの仮想軸に対して、カメラの光軸が直交する状態で取り付けられている。
各カメラの地面からの高さ位置の情報、各カメラの取り付け角度の情報および各カメラの水平方向距離(相対位置情報)が予め設定されている。
In the present invention, for example, at the rear of the vehicle, two cameras are attached at an interval so that a common area is included in the mutual imaging range. Each camera is attached rearward and obliquely downward. However, each camera is attached in a state where the optical axis of the camera is orthogonal to two identical or different virtual axes that are horizontal to the ground and parallel to the lateral direction of the vehicle.
Information on the height position of each camera from the ground, information on the mounting angle of each camera, and the horizontal distance (relative position information) of each camera are set in advance.

この2台のカメラによって撮像された映像を入力する。そして、各入力映像から、同一鳥瞰図座標系の2つの鳥瞰図画像を生成する。得られた2つの鳥瞰図画像の差分を取る。得られた差分画像から障害物領域を特定するとともに車両から障害物領域までの距離を算出する。ここで、障害物とは高さのある物体を言う。そして、一方の鳥瞰図画像に、その画像内の障害物領域を他の部分から識別できるような表示と、車両から障害物領域までの距離データを付加した画像をモニタに表示する。   Video captured by the two cameras is input. Then, two bird's-eye view images in the same bird's-eye view coordinate system are generated from each input video. The difference between the two obtained bird's-eye view images is taken. The obstacle area is specified from the obtained difference image, and the distance from the vehicle to the obstacle area is calculated. Here, the obstacle means an object having a height. Then, on the one bird's-eye view image, an image in which the obstacle area in the image can be identified from other parts and an image in which the distance data from the vehicle to the obstacle area is added is displayed on the monitor.

図2の(a)、(b)、(c)は、2台のカメラ1、2の取り付け態様を示している。   2A, 2B, and 2C show how the two cameras 1 and 2 are attached.

広範囲で障害物を検出するためには、両カメラの撮像範囲の共通領域が広いことが好ましいが、両カメラの設置位置が近すぎると、両カメラの撮像画像間の相違点が少なくなるので、障害物の検出精度が悪くなる可能性がある。つまり、障害物の検出範囲を広くすることと、障害物の検出精度を高くすることは、トレードオフの関係にある。そこで、このトレードオフの関係を考慮して、2台のカメラの取り付け位置を設定する必要がある。この実施例では、図2に(a)、(b)、(c)で示す3つの取り付け方法を提案する。   In order to detect obstacles in a wide range, it is preferable that the common area of the imaging range of both cameras is wide, but if the installation positions of both cameras are too close, the difference between the captured images of both cameras will be reduced. Obstacle detection accuracy may be degraded. That is, widening the obstacle detection range and increasing the obstacle detection accuracy are in a trade-off relationship. Therefore, it is necessary to set the mounting positions of the two cameras in consideration of this trade-off relationship. In this embodiment, three attachment methods indicated by (a), (b), and (c) in FIG. 2 are proposed.

図2(a)は、2台のカメラ1、2を垂直方向に所定距離隔てて配置した例を示し、図2(b)は、2台のカメラ1、2を水平方向に所定距離隔てて配置した例を示し、図2(c)は、2台のカメラ1、2を斜め方向に所定距離隔てて配置した例を示している。   FIG. 2A shows an example in which two cameras 1 and 2 are arranged at a predetermined distance in the vertical direction, and FIG. 2B shows two cameras 1 and 2 at a predetermined distance in the horizontal direction. FIG. 2C shows an example in which two cameras 1 and 2 are arranged at a predetermined distance in an oblique direction.

カメラ1は、図3に示すように、地面に水平でかつ車両の横方向に平行な仮想軸に対して、カメラの光軸が直交する状態で取り付けられている。カメラ2も図示しないが、同様に、地面に水平でかつ車両の横方向に平行な仮想軸に対して、カメラの光軸が直交する状態で取り付けられている。   As shown in FIG. 3, the camera 1 is attached in a state where the optical axis of the camera is orthogonal to a virtual axis that is horizontal to the ground and parallel to the lateral direction of the vehicle. Although not shown, the camera 2 is similarly attached in a state where the optical axis of the camera is orthogonal to a virtual axis that is horizontal to the ground and parallel to the lateral direction of the vehicle.

水平面とカメラ1(カメラ2)の光軸とのなす角には、図3に示すように、αで表される角度と、βで表される角度の2種類がある。αは、一般的には見下ろし角または俯角と呼ばれている。この明細書では、角度βを水平面に対するカメラの傾き角度(取り付け角度)θということにする。カメラ1の取り付け角度βとカメラ2の取り付け角度βとは、一致していても、一致してないくてもよい。   As shown in FIG. 3, there are two types of angles formed by the horizontal plane and the optical axis of the camera 1 (camera 2): an angle represented by α and an angle represented by β. α is generally called a look-down angle or depression angle. In this specification, the angle β is referred to as a camera tilt angle (attachment angle) θ with respect to a horizontal plane. The mounting angle β of the camera 1 and the mounting angle β of the camera 2 may or may not match.

図4は、図2(c)のように車両に取り付けられた2台のカメラ1、2による撮像シーンを示している。図4において、200が地面上に存在する三角錐状の障害物であり、201、202は地面上に描かれた白線である。   FIG. 4 shows an imaging scene by two cameras 1 and 2 attached to the vehicle as shown in FIG. In FIG. 4, reference numeral 200 denotes a triangular pyramid-shaped obstacle existing on the ground, and 201 and 202 are white lines drawn on the ground.

図5は、図4に示すような撮像シーンにおいて、各カメラ1、2によって撮像された撮像画像を示している。図5において、101はカメラ1の撮像画像であり、102はカメラ2の撮像画像である。同じシーンに対する撮影であるが、各カメラ1、2の位置が異なるため、各カメラ1、2の撮像画像は若干異なっている。   FIG. 5 shows captured images captured by the cameras 1 and 2 in the imaging scene shown in FIG. In FIG. 5, 101 is a captured image of the camera 1, and 102 is a captured image of the camera 2. Although the shooting is for the same scene, the captured images of the cameras 1 and 2 are slightly different because the positions of the cameras 1 and 2 are different.

図5に示す各撮像画像101、102を、同一鳥瞰図座標系の鳥瞰図画像に変換すると、図6に示すような2つの鳥瞰図画像が得られる。図6において、111は撮像画像101から生成された鳥瞰図画像であり、112は撮像画像102から生成された鳥瞰図画像である。両鳥瞰図画像111、112の間においては、路面上の平面画像領域は一致するが、高さを有する障害物200の領域Q1、Q2においては不一致部分が発生する。   When the captured images 101 and 102 shown in FIG. 5 are converted into bird's-eye view images of the same bird's-eye view coordinate system, two bird's-eye view images as shown in FIG. 6 are obtained. In FIG. 6, 111 is a bird's eye view image generated from the captured image 101, and 112 is a bird's eye view image generated from the captured image 102. Between the two bird's-eye view images 111 and 112, the planar image regions on the road surface coincide with each other, but inconsistent portions occur in the regions Q1 and Q2 of the obstacle 200 having a height.

図6に示す両鳥瞰図画像111、112の差分を取ると、図7に示すような差分画像が得られる。この差分画像では、両鳥瞰図画像111、112における障害物200の画像Q1、Q2の不一致部分Q1’、Q2’が抽出される。したがって、この不一致部分Q1’、Q2’を障害物領域として特定することができる。障害物領域が特定されると、車両から障害物までの距離Dを計算することができる。   When the difference between the two bird's-eye view images 111 and 112 shown in FIG. 6 is taken, a difference image as shown in FIG. 7 is obtained. In this difference image, unmatched portions Q1 'and Q2' of the images 200 and 112 of the obstacle 200 in the two bird's eye view images 111 and 112 are extracted. Therefore, the inconsistent portions Q1 'and Q2' can be specified as an obstacle region. When the obstacle area is specified, the distance D from the vehicle to the obstacle can be calculated.

なお、図2の(a)、(b)、(c)のカメラ配置のうち、図2の(c)のカメラ配置が好ましい。以下、この理由について説明する。   Of the camera arrangements shown in FIGS. 2A, 2B, and 2C, the camera arrangement shown in FIG. 2C is preferable. Hereinafter, this reason will be described.

カメラ1、2の配置が図2(a)である場合において、図8に示すような垂直棒(障害物)310が存在するような撮像シーンを想定する。この垂直棒310は、両カメラ1、2を含みかつ車両の後方に伸びた鉛直面300内に存在している。この場合、垂直棒310は、両カメラ1、2の撮像画像の左右中央に現れるため、カメラ1、2の撮像画像に対応する同一鳥瞰図座標系の鳥瞰図画像は、図9に311、312で示すような画像となり、それらの差分画像は図10に示すような画像となる。差分画像では、垂直棒310の上端部しか抽出できない。   In the case where the arrangement of the cameras 1 and 2 is FIG. 2A, an imaging scene is assumed in which a vertical bar (obstacle) 310 as shown in FIG. 8 exists. This vertical bar 310 is present in a vertical plane 300 that includes both cameras 1 and 2 and extends rearward of the vehicle. In this case, since the vertical bar 310 appears in the left and right center of the captured images of the cameras 1 and 2, the bird's-eye view images of the same bird's-eye view coordinate system corresponding to the captured images of the cameras 1 and 2 are indicated by 311 and 312 in FIG. Such a difference image becomes such an image as shown in FIG. In the difference image, only the upper end portion of the vertical bar 310 can be extracted.

カメラ1、2の配置が図2(b)である場合において、図11に示すようなカードレール410が存在するような撮像シーンを想定する。このカードレール410は、両カメラ1、2の中間を通りかつ車両の後方に伸びた鉛直面に対して、左右対称な形状である。この場合、カードレール410は各カメラ1、2に対して同じ距離にあるため、カメラ1、2の撮像画像に対応する同一鳥瞰図座標系の鳥瞰図画像は、図12に411、412で示すような画像となり、それらの差分画像は図13に示すような画像となる。差分画像では、カードレール410の両端部分しか抽出できない。   In the case where the cameras 1 and 2 are arranged as shown in FIG. 2B, an imaging scene in which a card rail 410 as shown in FIG. 11 is present is assumed. The card rail 410 has a symmetrical shape with respect to a vertical plane that passes between the cameras 1 and 2 and extends rearward of the vehicle. In this case, since the card rail 410 is at the same distance from the cameras 1 and 2, the bird's-eye view images of the same bird's-eye view coordinate system corresponding to the captured images of the cameras 1 and 2 are as shown by 411 and 412 in FIG. These images become images, and the difference images are as shown in FIG. In the difference image, only both end portions of the card rail 410 can be extracted.

〔2〕運転支援システムの構成についての説明 [2] Explanation of the configuration of the driving support system

図14は、自動車に設けられた運転支援システムの構成を示している。   FIG. 14 shows a configuration of a driving support system provided in the automobile.

運転支援システムは、車両の後部に後方斜め下向きに配置された2台のカメラ(撮像装置)1、2と、車両内に設けられかつカメラ1、2によって撮像された画像を同一鳥瞰図座標系の鳥瞰図画像に変換し、得られた両鳥瞰図画像に基づいて障害物を検出する等の処理を行なう画像処理ユニット3と、車両内のダッシュボードに配置されかつ画像処理ユニット3によって得られた一方の鳥瞰図画像にその画像内の障害物領域を他の部分から識別できるような表示等を付加した画像を表示するモニタ(表示器)4とを備えている。   The driving support system includes two cameras (imaging devices) 1 and 2 that are disposed rearward and obliquely downward at the rear of the vehicle, and images that are provided in the vehicle and captured by the cameras 1 and 2 in the same bird's-eye view coordinate system. An image processing unit 3 that performs processing such as conversion to a bird's-eye view image and detects an obstacle based on the obtained both bird's-eye view images, and one of the image processing units 3 that is disposed on the dashboard in the vehicle and obtained by the image processing unit 3 A monitor (display) 4 is provided that displays an image in which a bird's eye view image is added with a display or the like that can identify an obstacle region in the image from other parts.

カメラ1、2の配置としては、図2の(c)のカメラ配置が採用されている。カメラ1、2としては、例えば、CCDカメラが用いられる。画像処理ユニット3としては、例えば、マイクロコンピュータが用いられる。モニタ4としては、例えば、ナビゲーションシステムのモニタが用いられる。   As the arrangement of the cameras 1 and 2, the camera arrangement shown in FIG. As the cameras 1 and 2, for example, CCD cameras are used. As the image processing unit 3, for example, a microcomputer is used. As the monitor 4, for example, a monitor of a navigation system is used.

〔2〕画像処理ユニット3による処理手順の説明 [2] Explanation of processing procedure by the image processing unit 3

図15は、画像処理ユニット3による処理手順を示している。   FIG. 15 shows a processing procedure by the image processing unit 3.

カメラ1、2の地面からの高さh、水平面に対するカメラ1の傾き角度θ、両カメラ1、2の水平方向距離(相対位置情報)L(図17(c)参照)、カメラ1、2のレンズ焦点距離f等のパラメータは、予め設定されているものとする。そして、これらの情報に基づいて、カメラ1、2の撮像画像を、同一鳥瞰図座標系の鳥瞰図画像に変換するための座標変換テーブル(ルックアップテーブルLUT1、LUT2)が予め生成されて、保存されているものとする。LUT1、LUT2の作成方法については、後述する。   The height h of the cameras 1 and 2 from the ground, the tilt angle θ of the camera 1 with respect to the horizontal plane, the horizontal distance (relative position information) L between the cameras 1 and 2 (see FIG. 17C), It is assumed that parameters such as the lens focal length f are set in advance. Based on such information, a coordinate conversion table (look-up tables LUT1, LUT2) for converting the captured images of the cameras 1 and 2 into a bird's-eye view image in the same bird's-eye view coordinate system is generated and stored in advance. It shall be. A method of creating LUT1 and LUT2 will be described later.

この例では、LUT1とカメラ1の撮像画像とに基づいて、基準となる鳥瞰図画像を生成し、LUT2とカメラの撮像画像とに基づいて、上記基準となる鳥瞰図画像と同一鳥瞰図座標系の鳥瞰図画像を生成するものとする。LUT1は、カメラ1の撮像画像を、基準となる鳥瞰図画像(第1の鳥瞰図画像)に変換するためのルックアップテーブルである。LUT2は、カメラ2の撮像画像を、第1の鳥瞰図画像と同一鳥瞰図座標系の鳥瞰図画像(第2の鳥瞰図画像)に変換するためのルックアップテーブルである。   In this example, a reference bird's-eye view image is generated based on the LUT 1 and the captured image of the camera 1, and based on the LUT 2 and the captured image of the camera, the bird's-eye view image in the same bird's-eye view coordinate system as the reference bird's-eye view image. Is generated. The LUT 1 is a lookup table for converting a captured image of the camera 1 into a reference bird's-eye view image (first bird's-eye view image). The LUT 2 is a lookup table for converting a captured image of the camera 2 into a bird's eye view image (second bird's eye view image) in the same bird's eye view coordinate system as the first bird's eye view image.

まず、カメラ1の撮像画像(第1の入力画像I1 )を読み込むとともにカメラ2の撮像画像(第2の入力画像I2 )を読み込む(ステップS1)。 First, the captured image (first input image I 1 ) of the camera 1 is read and the captured image (second input image I 2 ) of the camera 2 is read (step S1).

そして、第1の入力画像I1 をルックアップテーブルLUT1を用いて鳥瞰図画像(第1の鳥瞰図画像)に変換するとともに、第2の入力画像I2 をルックアップテーブルLUT2を用いて鳥瞰図画像(第2の鳥瞰図画像)に変換する(ステップS2)。 Then, the first input image I 1 is converted into a bird's-eye view image (first bird's-eye view image) using the lookup table LUT1, and the second input image I 2 is converted into a bird's-eye view image (first view) using the lookup table LUT2. 2) (step S2).

次に、第1の鳥瞰図画像と第2の鳥瞰図画像との差分を取る(ステップS3)。そして、得られた差分画像に基づいて障害物領域を特定するとともに車両から障害物領域までの距離を算出する(ステップS4)。車両から障害物領域までの距離の算出方法については、後述する。   Next, the difference between the first bird's-eye view image and the second bird's-eye view image is taken (step S3). Then, the obstacle area is specified based on the obtained difference image, and the distance from the vehicle to the obstacle area is calculated (step S4). A method for calculating the distance from the vehicle to the obstacle area will be described later.

そして、第1の鳥瞰図画像(基準となる鳥瞰図画像)に、その画像内の障害物領域を他の部分から識別できるような表示と、障害物領域の車両からの距離データとを付加した画像をモニタに表示させる(ステップS5)。そして、ステップS1に戻る。障害物領域を他の部分から識別できるような表示としては、例えば、障害物領域に特殊な色をつけたり、点滅表示させたり、障害物領域を赤線で囲んだりするといったことが行われる。   Then, the first bird's-eye view image (reference bird's-eye view image) is displayed with an image in which the obstacle area in the image can be identified from other parts and distance data from the vehicle in the obstacle area. It is displayed on the monitor (step S5). Then, the process returns to step S1. As a display that can identify the obstacle area from other parts, for example, a special color is given to the obstacle area, a blinking display is performed, or the obstacle area is surrounded by a red line.

〔3〕ルックアップテーブルLUT1、LUT2の作成方法についての説明 [3] Description of how to create lookup tables LUT1 and LUT2

〔3−1〕LUT1の作成方法について説明する。 [3-1] A method for creating the LUT 1 will be described.

図16は、カメラ座標系XYZと、カメラ1の撮像面Sの座標系Xbubuと、2次元地面座標系Xw w を含む世界座標系Xw w w との関係を示している。 FIG. 16 shows the relationship between the camera coordinate system XYZ, the coordinate system X bu Y bu of the imaging surface S of the camera 1, and the world coordinate system X w Y w Z w including the two-dimensional ground coordinate system X w Z w. ing.

カメラ座標系XYZでは、カメラの光学中心を原点Oとして、光軸方向にZ軸が、Z軸に直交しかつ地面に平行な方向にX軸が、Z軸およびX軸に直交する方向にY軸がとられている。撮像面Sの座標系Xbubuでは、撮像面Sの中心に原点をとり、撮像面Sの横方向にXbu軸が、撮像面Sの縦方向にYbuが取られている。 In the camera coordinate system XYZ, with the optical center of the camera as the origin O, the Z axis in the optical axis direction, the X axis in the direction perpendicular to the Z axis and parallel to the ground, and the Y axis in the direction perpendicular to the Z axis and the X axis The axis is taken. In the coordinate system X bu Y bu of the imaging surface S, the origin is set at the center of the imaging surface S, the X bu axis is taken in the horizontal direction of the imaging surface S, and Y bu is taken in the vertical direction of the imaging surface S.

世界座標系Xw w w では、カメラ座標系XYZの原点Oを通る垂線と地面との交点を原点Ow とし、地面と垂直な方向にYw 軸が、カメラ座標系XYZのX軸と平行な方向にXw 軸が、Xw 軸およびYw 軸に直交する方向にZw 軸がとられている。 In the world coordinate system X w Y w Z w, the intersection of the perpendicular with the ground passing through the origin O of the camera coordinate system XYZ with the origin O w, Y w axis to the ground and perpendicular directions, X axis of the camera coordinate system XYZ X w axis in a direction parallel to the can, Z w axis is taken in a direction orthogonal to the X w axis and Y w axis.

世界座標系Xw w w とカメラ座標系XYZとの間の平行移動量は〔0,h,0〕であり、X軸周りの回転量はθである。 Translation amount between the world coordinate system X w Y w Z w and the camera coordinate system XYZ is [0, h, 0], the rotation amount about the X-axis is theta.

したがって、カメラ座標系XYZの座標(x,y,z)と世界座標系Xw w w の座標(xw ,yw ,zw )との間の変換式は、次式(1)で表される。 Therefore, the conversion formula between the coordinates (x, y, z) of the camera coordinate system XYZ and the coordinates (x w , y w , z w ) of the world coordinate system X w Y w Z w is the following formula (1): It is represented by

Figure 2008085710
Figure 2008085710

また、撮像面Sの座標系Xbubuの座標(xbu,ybu)と、カメラ座標系XYZの座標(x,y,z)との間の変換式は、カメラ1の焦点距離をfとすると、次式(2)で表される。 In addition, the conversion formula between the coordinates (x bu , y bu ) of the coordinate system X bu Y bu on the imaging surface S and the coordinates (x, y, z) of the camera coordinate system XYZ represents the focal length of the camera 1. If it is set to f, it represents with following Formula (2).

Figure 2008085710
Figure 2008085710

上記式(1)、(2)から、撮像面Sの座標系Xbubuの座標(xbu,ybu)と二次元地面座標系Xw w の座標(xw ,zw )との間の変換式(3)が得られる。 From the above equations (1) and (2), the coordinates (x bu , y bu ) of the coordinate system X bu Y bu of the imaging surface S and the coordinates (x w , z w ) of the two-dimensional ground coordinate system X w Z w (3) is obtained.

Figure 2008085710
Figure 2008085710

また、二次元地面座標系Xw w から仮想カメラの鳥瞰図座標系Xauauへの投影は、平行投影によって行われる。カメラ1の焦点距離をfとし、仮想カメラの高さ位置をHとすると、二次元地面座標系Xw w の座標(xw ,zw )と鳥瞰図座標系Xauauの座標(xau,yau)との間の変換式は、次式(4)で表される。仮想カメラの高さ位置Hは予め設定されている。 Further, the projection from the two-dimensional ground coordinate system X w Z w to the bird's eye view coordinate system X au Y au of the virtual camera is performed by parallel projection. Assuming that the focal length of the camera 1 is f and the height position of the virtual camera is H, the coordinates (x w , z w ) of the two-dimensional ground coordinate system X w Z w and the coordinates of the bird's eye view coordinate system X au Y au (x A conversion formula between au and y au ) is expressed by the following formula (4). The height position H of the virtual camera is set in advance.

Figure 2008085710
Figure 2008085710

上記式(4)から、次式(5)が得られる。   From the above equation (4), the following equation (5) is obtained.

Figure 2008085710
Figure 2008085710

得られた式(5)を上記式(3)に代入すると、次式(6)が得られる。   Substituting the obtained equation (5) into the above equation (3), the following equation (6) is obtained.

Figure 2008085710
Figure 2008085710

上記式(6)から、入力画像I1 の座標(xbu,ybu)を、鳥瞰図座標系Xauauの座標(xau,yau)に変換するための式(7)が得られる。 From the above equation (6), the equation (7) for converting the coordinates (x bu , y bu ) of the input image I 1 into the coordinates (x au , y au ) of the bird's eye view coordinate system X au Y au is obtained. .

Figure 2008085710
Figure 2008085710

したがって、上記式(7)に基づいて、鳥瞰図座標系Xauauの各座標(xau,yau)毎に、それに対応するカメラ1の入力画像I1 の座標(xbu,ybu)を記憶したLUT1を作成することができる。 Therefore, based on the above equation (7), for each coordinate (x au , y au ) of the bird's eye view coordinate system X au Y au , the corresponding coordinate (x bu , y bu ) of the input image I 1 of the camera 1 Can be created.

〔3−2〕LUT2の作成方法について説明する。 [3-2] A method for creating the LUT 2 will be described.

カメラ2についてもカメラ1と同様に、上記式(7)が成り立つ。しかしながら、式(7)に基づいて、カメラ2の入力画像から鳥瞰図画像を生成した場合には、その鳥瞰図座標系は、カメラ1の入力画像から生成された鳥瞰図画像の鳥瞰図座標系(基準となる鳥瞰図座標系)と同一とならない。   Similarly to the camera 1, the camera (2) also holds the above formula (7). However, when the bird's-eye view image is generated from the input image of the camera 2 based on the equation (7), the bird's-eye view coordinate system is a bird's-eye view coordinate system (reference) of the bird's-eye view image generated from the input image of the camera 1. It is not the same as the bird's eye view coordinate system).

式(7)により、各カメラ1、2の入力画像から鳥瞰図画像を生成するためには、各カメラ1、2の取り付け角θと取り付け高さhとが必要となる。また、式(7)によって生成された鳥瞰図画像は、各カメラ1、2の地面への垂直投影点が座標原点となる。そこで、各カメラ1、2の入力画像を同一の鳥瞰図座標系の鳥瞰図画像へ変換するためには、両カメラ間の水平方向距離(相対位置情報)Lが必要となる。   In order to generate a bird's eye view image from the input images of the cameras 1 and 2 according to Expression (7), the mounting angle θ and the mounting height h of the cameras 1 and 2 are required. In the bird's-eye view image generated by Expression (7), the vertical projection point on the ground of each camera 1 and 2 is the coordinate origin. Therefore, in order to convert the input images of the cameras 1 and 2 into a bird's-eye view image of the same bird's-eye view coordinate system, a horizontal distance (relative position information) L between both cameras is required.

つまり、図17に示すように、式(7)に基づいてカメラ2の入力画像から生成した鳥瞰図画像の鳥瞰図座標系のZw 軸(図17に破線で示す)は、式(7)に基づいてカメラ1の入力画像から生成した鳥瞰図画像の鳥瞰図座標系(基準となる鳥瞰図座標系)のZw 軸に対して、鳥瞰図座標系の−Xw 方向に距離Lだけ離れている。 That is, as shown in FIG. 17, (shown by dashed lines in FIG. 17) Z w axis of the bird's eye view coordinate system of the bird's-eye view image generated from the input image of the camera 2 based on the equation (7) is based on the equation (7) Te relative Z w axis of the bird's eye view coordinate system of the generated bird's-eye view image from the input image of the camera 1 (bird's-eye view coordinate system as a reference), are separated in the -X w direction of the bird's eye view coordinate system by a distance L.

したがって、カメラ2の入力画像I2 の座標(xbu,ybu)を、基準となる鳥瞰図座標系Xauauの座標(xau,yau)に変換するための式は、次式(8)となる。 Therefore, the equation for converting the coordinates (x bu , y bu ) of the input image I 2 of the camera 2 into the coordinates (x au , y au ) of the reference bird's-eye view coordinate system X au Y au is as follows: 8).

Figure 2008085710
Figure 2008085710

したがって、上記式(8)に基づいて、基準となる鳥瞰図座標系Xauauの各座標(xau,yau)毎に、それに対応するカメラ2の入力画像I2 の座標(xbu,ybu)を記憶したLUT2を作成することができる。 Thus, based on the equation (8), bird's eye view coordinate system as the reference X au Y coordinates of au (x au, y au) for each input image I 2 of the coordinates of the camera 2 corresponding thereto (x bu, A LUT2 storing y bu ) can be created.

なお、上記実施例では、LUT1、LUT2は、レンズ歪み補正を考慮していないので、入力画像I1 、I2 としてはカメラによって撮像された原画像に対してレンズ歪み補正を行なった後の画像を用いることが好ましい。 In the above embodiment, since LUT1 and LUT2 do not consider lens distortion correction, input images I 1 and I 2 are images after performing lens distortion correction on the original image captured by the camera. Is preferably used.

また、LUT1、LUT2としてレンズ歪み補正を考慮したルックアップテーブルを用いることができる。この場合には、入力画像I1 、I2 としてはカメラによって撮像された原画像を用いることがてきるので、原画像に対してレンズ歪み補正を行なう必要がない。 In addition, look-up tables taking lens distortion correction into consideration can be used as LUT1 and LUT2. In this case, since the original images picked up by the camera can be used as the input images I 1 and I 2 , it is not necessary to perform lens distortion correction on the original images.

〔4〕車両から障害物領域までの距離の算出方法についての説明 [4] Explanation of the method for calculating the distance from the vehicle to the obstacle area

図15のステップS3で得られた差分画像に基づいて障害物領域を抽出した後、上記式(5)に基づいて、第1の鳥瞰図画像上の障害物領域の位置(xau ,yau)に対応する二次元地面座標系の座標(xw ,zw 〕を算出する。得られたzw が車両から障害物までの距離Dとなる。 After extracting the obstacle area based on the difference image obtained in step S3 of FIG. 15, the position (x au , y au ) of the obstacle area on the first bird's eye view image based on the above equation (5). The coordinates (x w , z w ) of the two-dimensional ground coordinate system corresponding to are calculated, and the obtained z w is the distance D from the vehicle to the obstacle.

本願発明の処理の流れを示すブロック図である。It is a block diagram which shows the flow of a process of this invention. 2台のカメラ1、2の取り付け態様を示す模式図である。It is a schematic diagram which shows the attachment aspect of the two cameras 1 and 2. FIG. カメラ1の取り付け角度βを示す模式図である。It is a schematic diagram which shows the attachment angle (beta) of the camera. 図2(c)のように車両に取り付けられた2台のカメラ1、2による撮像シーンを示す模式図である。It is a schematic diagram which shows the imaging scene by the two cameras 1 and 2 attached to the vehicle as shown in FIG. 図4に示すような撮像シーンにおいて、各カメラ1、2によって撮像された撮像画像を示す模式図である。FIG. 5 is a schematic diagram illustrating captured images captured by the cameras 1 and 2 in an imaging scene as illustrated in FIG. 4. 図5に示す各撮像画像101、102を同一鳥瞰図座標系の鳥瞰図画像に変換することにより得られた2つの鳥瞰図画像を示す模式図である。It is a schematic diagram which shows two bird's-eye view images obtained by converting each captured image 101,102 shown in FIG. 5 into the bird's-eye view image of the same bird's-eye view coordinate system. 図6に示す2つの鳥瞰図画像の差分画像を示す模式図である。It is a schematic diagram which shows the difference image of two bird's-eye view images shown in FIG. カメラ1、2の配置が図2(a)である場合において、垂直棒が存在するような撮像シーンを示す模式図である。FIG. 3 is a schematic diagram showing an imaging scene in which a vertical bar is present when the cameras 1 and 2 are arranged as shown in FIG. 図8に示すような撮像シーンにおいて、各カメラ1、2によって撮像された撮像画像を同一鳥瞰図座標系の鳥瞰図画像に変換することにより得られた2つの鳥瞰図画像を示す模式図である。FIG. 9 is a schematic diagram showing two bird's-eye view images obtained by converting captured images taken by the cameras 1 and 2 into bird's-eye view images in the same bird's-eye view coordinate system in the imaging scene shown in FIG. 8. 図9に示す2つの鳥瞰図画像の差分画像を示す模式図である。It is a schematic diagram which shows the difference image of two bird's-eye view images shown in FIG. カメラ1、2の配置が図2(b)である場合において、カードレールが存在するような撮像シーンを示す模式図である。FIG. 3 is a schematic diagram illustrating an imaging scene in which a card rail exists when the arrangement of the cameras 1 and 2 is FIG. 2B. 図11に示すような撮像シーンにおいて、各カメラ1、2によって撮像された撮像画像を同一鳥瞰図座標系の鳥瞰図画像に変換することにより得られた2つの鳥瞰図画像を示す模式図である。FIG. 12 is a schematic diagram showing two bird's-eye view images obtained by converting captured images taken by the cameras 1 and 2 into bird's-eye view images in the same bird's-eye view coordinate system in the image pickup scene as shown in FIG. 11. 図12に示す2つの鳥瞰図画像の差分画像を示す模式図である。It is a schematic diagram which shows the difference image of two bird's-eye view images shown in FIG. 自動車に設けられた運転支援システムの構成を示すブロック図である。It is a block diagram which shows the structure of the driving assistance system provided in the motor vehicle. 画像処理ユニット3による処理手順を示すフローチャートである。4 is a flowchart illustrating a processing procedure performed by the image processing unit 3. 図16は、カメラ座標系XYZと、カメラ1の撮像面Sの座標系Xbubuと、2次元地面座標系Xw w を含む世界座標系Xw w w との関係を示す模式図である。FIG. 16 shows the relationship between the camera coordinate system XYZ, the coordinate system X bu Y bu of the imaging surface S of the camera 1, and the world coordinate system X w Y w Z w including the two-dimensional ground coordinate system X w Z w. It is a schematic diagram. 式(7)に基づいてカメラ2の入力画像から生成した鳥瞰図画像の鳥瞰図座標系のY軸(図17に破線で示す)と、式(7)に基づいてカメラ1の入力画像から生成した鳥瞰図画像の鳥瞰図座標系(基準となる鳥瞰図座標系)のY軸との位置関係を示す模式図である。The bird's eye view generated from the input image of the camera 1 based on the Y axis (indicated by a broken line in FIG. 17) of the bird's eye view coordinate system of the bird's eye view image generated from the input image of the camera 2 based on the equation (7). It is a schematic diagram which shows the positional relationship with the Y-axis of the bird's-eye view coordinate system (reference bird's-eye view coordinate system) of an image.

符号の説明Explanation of symbols

1、2 カメラ
3 画像処理ユニット
4 モニタ
1, 2 Camera 3 Image processing unit 4 Monitor

Claims (3)

車両に搭載された表示器、
互いの撮像範囲に共通領域が含まれるように車両に間隔をおいて設けられかつ車両周辺の画像を撮像する2台の撮像装置、
各撮像装置によって撮像された2つの画像のそれぞれを、同一鳥瞰図座標系の鳥瞰図画像に変換する鳥瞰図画像生成手段、
鳥瞰図画像生成手段によって生成された2つの鳥瞰図画像の差分をとることにより、高さのある障害物領域を抽出する障害物領域抽出手段、ならびに
2つの鳥瞰図画像のうち一方の鳥瞰図画像を表示器に表示するとともに、その鳥瞰図画像のうち障害物領域抽出手段によって抽出された障害物領域を他の部分と識別できるように表示器に表示させる表示手段、
を備えていることを特徴とする運転支援システム。
Indicator mounted on the vehicle,
Two imaging devices that are provided at an interval in the vehicle so as to include a common area in each other's imaging range and that capture an image around the vehicle,
Bird's-eye view image generation means for converting each of the two images captured by each imaging device into a bird's-eye view image of the same bird's-eye view coordinate system;
By taking the difference between the two bird's-eye view images generated by the bird's-eye view image generating means, the obstacle region extracting means for extracting the obstacle region having a height, and one bird's-eye view image of the two bird's-eye view images is displayed on the display. Display means for displaying on the display so that the obstacle area extracted from the bird's eye view image by the obstacle area extraction means can be distinguished from other parts.
A driving support system characterized by comprising:
車両から障害物領域抽出手段によって抽出された障害物領域までの距離を算出する距離算出手段を備えており、表示手段は距離算出手段によって算出された車両から障害物領域までの距離を表示させる手段を備えていることを特徴とする請求項1に記載の運転支援システム。 Distance calculating means for calculating the distance from the vehicle to the obstacle area extracted by the obstacle area extracting means is provided, and the display means displays the distance from the vehicle to the obstacle area calculated by the distance calculating means. The driving support system according to claim 1, further comprising: 各撮像装置はそれぞれ、地面に水平な同一の仮想軸または地面に水平でかつ互いに平行な2つの仮想軸に対して、撮像装置の光軸が直交する状態で取り付けられていることを特徴とする請求項1乃至2に記載の運転支援システム。 Each imaging device is mounted in a state where the optical axis of the imaging device is orthogonal to the same virtual axis that is horizontal to the ground or two virtual axes that are horizontal to the ground and parallel to each other The driving support system according to claim 1.
JP2006263931A 2006-09-28 2006-09-28 Driving support system Pending JP2008085710A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006263931A JP2008085710A (en) 2006-09-28 2006-09-28 Driving support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006263931A JP2008085710A (en) 2006-09-28 2006-09-28 Driving support system

Publications (1)

Publication Number Publication Date
JP2008085710A true JP2008085710A (en) 2008-04-10

Family

ID=39356096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006263931A Pending JP2008085710A (en) 2006-09-28 2006-09-28 Driving support system

Country Status (1)

Country Link
JP (1) JP2008085710A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009131152A1 (en) * 2008-04-23 2009-10-29 コニカミノルタホールディングス株式会社 Three-dimensional image processing camera and three-dimensional image processing system
JP2009259215A (en) * 2008-03-18 2009-11-05 Zenrin Co Ltd Road surface marking map generation method
JP2010193198A (en) * 2009-02-18 2010-09-02 Aisin Seiki Co Ltd Object bottom end position detection device and object bottom end position detection program
EP2233358A1 (en) 2009-03-24 2010-09-29 Aisin Seiki Kabushiki Kaisha Obstruction detecting apparatus
JP2010239190A (en) * 2009-03-30 2010-10-21 Aisin Seiki Co Ltd Obstacle detection device
JP2013070177A (en) * 2011-09-21 2013-04-18 Toshiba Alpine Automotive Technology Corp On-vehicle camera
KR20170019793A (en) * 2015-08-12 2017-02-22 현대모비스 주식회사 Apparatus and method for providing around view
JP2017156329A (en) * 2016-03-04 2017-09-07 株式会社リコー System, information processing device, and program
WO2017212927A1 (en) 2016-06-08 2017-12-14 ソニー株式会社 Imaging control device and method, and vehicle
JP2021109711A (en) * 2020-01-06 2021-08-02 三菱ロジスネクスト株式会社 Transfer crane

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0396451A (en) * 1989-09-11 1991-04-22 Nissan Motor Co Ltd Obstruction detection device for vehicle
JPH08242443A (en) * 1995-03-02 1996-09-17 Yazaki Corp Equipment for monitoring surrounding of vehicle
JP2001114047A (en) * 1999-10-20 2001-04-24 Matsushita Electric Ind Co Ltd Vehicle-surrounding situation indication device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0396451A (en) * 1989-09-11 1991-04-22 Nissan Motor Co Ltd Obstruction detection device for vehicle
JPH08242443A (en) * 1995-03-02 1996-09-17 Yazaki Corp Equipment for monitoring surrounding of vehicle
JP2001114047A (en) * 1999-10-20 2001-04-24 Matsushita Electric Ind Co Ltd Vehicle-surrounding situation indication device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009259215A (en) * 2008-03-18 2009-11-05 Zenrin Co Ltd Road surface marking map generation method
WO2009131152A1 (en) * 2008-04-23 2009-10-29 コニカミノルタホールディングス株式会社 Three-dimensional image processing camera and three-dimensional image processing system
JP2010193198A (en) * 2009-02-18 2010-09-02 Aisin Seiki Co Ltd Object bottom end position detection device and object bottom end position detection program
EP2233358A1 (en) 2009-03-24 2010-09-29 Aisin Seiki Kabushiki Kaisha Obstruction detecting apparatus
JP2010239190A (en) * 2009-03-30 2010-10-21 Aisin Seiki Co Ltd Obstacle detection device
JP2013070177A (en) * 2011-09-21 2013-04-18 Toshiba Alpine Automotive Technology Corp On-vehicle camera
KR20170019793A (en) * 2015-08-12 2017-02-22 현대모비스 주식회사 Apparatus and method for providing around view
KR102352833B1 (en) * 2015-08-12 2022-01-18 현대모비스 주식회사 Apparatus and method for providing around view
KR20220012375A (en) * 2015-08-12 2022-02-03 현대모비스 주식회사 Apparatus and method for providing around view
KR102438078B1 (en) 2015-08-12 2022-08-30 현대모비스 주식회사 Apparatus and method for providing around view
JP2017156329A (en) * 2016-03-04 2017-09-07 株式会社リコー System, information processing device, and program
WO2017212927A1 (en) 2016-06-08 2017-12-14 ソニー株式会社 Imaging control device and method, and vehicle
US11108992B2 (en) 2016-06-08 2021-08-31 Sony Corporation Imaging control device and method, and vehicle
JP2021109711A (en) * 2020-01-06 2021-08-02 三菱ロジスネクスト株式会社 Transfer crane

Similar Documents

Publication Publication Date Title
JP2008085710A (en) Driving support system
JP4863922B2 (en) Driving support system and vehicle
JP4874280B2 (en) Image processing apparatus and method, driving support system, and vehicle
JP5615441B2 (en) Image processing apparatus and image processing method
JP5491235B2 (en) Camera calibration device
JP5108605B2 (en) Driving support system and vehicle
JP5341789B2 (en) Parameter acquisition apparatus, parameter acquisition system, parameter acquisition method, and program
JP2006268076A (en) Driving assistance system
JP4248570B2 (en) Image processing apparatus and visibility support apparatus and method
JP2009017462A (en) Driving support system and vehicle
JP2009060499A (en) Driving support system, and combination vehicle
EP2061234A1 (en) Imaging apparatus
JP2006287892A (en) Driving support system
JP2009129001A (en) Operation support system, vehicle, and method for estimating three-dimensional object area
US10099617B2 (en) Driving assistance device and driving assistance method
JP2013001366A (en) Parking support device and parking support method
JP2010016805A (en) Image processing apparatus, driving support system, and image processing method
JP6151535B2 (en) Parameter acquisition apparatus, parameter acquisition method and program
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JPH09202180A (en) On-board camera device
JP4679293B2 (en) In-vehicle panoramic camera system
JP3521859B2 (en) Vehicle peripheral image processing device and recording medium
JP6375633B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP2009267602A (en) Vehicle periphery monitoring apparatus, and setting correcting method of camera installing position and posture information which is applicable thereto
JP2006254318A (en) Vehicle-mounted camera, vehicle-mounted monitor and forward road area imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110914

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111027