JP2005123914A - Information display device and information display method - Google Patents
Information display device and information display method Download PDFInfo
- Publication number
- JP2005123914A JP2005123914A JP2003357205A JP2003357205A JP2005123914A JP 2005123914 A JP2005123914 A JP 2005123914A JP 2003357205 A JP2003357205 A JP 2003357205A JP 2003357205 A JP2003357205 A JP 2003357205A JP 2005123914 A JP2005123914 A JP 2005123914A
- Authority
- JP
- Japan
- Prior art keywords
- information
- color
- display
- display device
- color information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 29
- 238000003384 imaging method Methods 0.000 claims 2
- 238000012545 processing Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000007499 fusion processing Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Instrument Panels (AREA)
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- User Interface Of Digital Computer (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
Description
本発明は、情報表示装置および情報表示方法に係り、特に、自車両前方の走行状況をナビゲーション情報に重ねて表示する手法に関する。 The present invention relates to an information display device and an information display method, and more particularly, to a method for displaying a traveling situation ahead of the host vehicle on navigation information.
従来より、車両に設けられたディスプレイに、ナビゲーション情報とともに、前方の走行状況を表示する情報表示装置が知られている。例えば、特許文献1には、赤外線カメラによって撮影された赤外画像のうち、自車両が走行する領域に対応する部分画像を、地図画像に重ね合わせて表示画面上に表示する車両用表示装置が開示されている。この特許文献1によれば、必要性の低い部分がカットされた赤外画像を地図画像に重ね合わせることにより、障害物の種類や大きさなどの認知性の向上を図ることができる。また、特許文献2には、クルーズコントロール装置において、地図情報から生成した道路形状に周辺車両や追従車両の位置情報を重ねて表示する情報表示装置が開示されている。この特許文献2によれば、自車位置を示すマーク、追従車の位置を示すマーク、および追従車両以外の周辺車両位置を示すマークが、それぞれ色や模様を変えて道路上に重ねて表示される。
しかしながら、上記の特許文献1および2に開示された手法によれば、実際に前方に存在する対象物の色と、表示装置に表示される対象物の色とが対応しないことがある。そのため、この両者の色彩的な違いが、利用者に違和感を与える可能性がある。このような情報表示装置は、安全かつ快適なドライブを楽しむための装置であり、利用者にとっての使い勝手のよさが付加価値となり、購買意欲があおられることになる。そのため、この類の装置では、使い勝手がよく、かつ、その装置にユニークな機能が求められている。
However, according to the methods disclosed in
本発明は、かかる事情に鑑みてなされたものであり、その目的は、ナビゲーション情報とともに前方の走行状況を表示する情報表示装置において、利用者の利便性の向上を図ることである。 The present invention has been made in view of such circumstances, and an object of the present invention is to improve user convenience in an information display device that displays a traveling situation in front of navigation information.
かかる課題を解決するために、第1の発明は、自車両前方の景色を撮像することにより、カラー画像を出力するカメラと、自車両の走行に応じたナビゲーション情報を出力するナビゲーションシステムと、出力されたカラー画像に基づいて、自車両前方に存在する対象物を認識するとともに、認識された対象物の色情報を出力する認識部と、情報を表示する表示装置と、認識された対象物を示すシンボルを、出力されたナビゲーション情報に重ねて表示するように表示装置を制御するとともに、出力された対象物の色情報に対応する表示カラーを用いてシンボルを表示するように表示装置を制御する制御部とを有する情報表示装置を提供する。 In order to solve such a problem, the first invention is to capture a scenery in front of the host vehicle and output a color image, a navigation system that outputs navigation information according to the traveling of the host vehicle, and an output A recognition unit for recognizing an object existing ahead of the host vehicle based on the color image thus obtained, outputting color information of the recognized object, a display device for displaying the information, and a recognized object The display device is controlled so that the symbol to be displayed is superimposed on the output navigation information, and the display device is controlled to display the symbol using a display color corresponding to the color information of the output object. An information display device having a control unit is provided.
ここで、第1の発明において、自車両前方の距離の二次元的な分布を示す距離データを出力するセンサをさらに有していてもよい。この場合、認識部は、距離データに基づいて、対象物の位置を認識し、制御部は、認識部により認識された対象物の位置に基づいて、実空間における対象物の位置に対応させてシンボルを表示するように表示装置を制御することが好ましい。また、第1の発明において、前記カメラを第1のカメラとし、自車両前方の景色を撮像することにより、カラー画像を出力し、かつ、第1のカメラと協働することによってステレオカメラとして機能する第2のカメラをさらに有していてもよい。この場合、センサは、第1のカメラから出力されるカラー画像と、第2のカメラから出力されるカラー画像とに基づき、ステレオマッチングによって、距離データを出力することが好ましい。 Here, in the first invention, a sensor that outputs distance data indicating a two-dimensional distribution of the distance ahead of the host vehicle may be further included. In this case, the recognition unit recognizes the position of the object based on the distance data, and the control unit associates the position of the object in the real space with the position of the object recognized by the recognition unit. It is preferable to control the display device to display the symbols. In the first invention, the camera is the first camera, and a color image is output by capturing a scene in front of the host vehicle, and the camera functions as a stereo camera by cooperating with the first camera. You may further have the 2nd camera to do. In this case, the sensor preferably outputs the distance data by stereo matching based on the color image output from the first camera and the color image output from the second camera.
さらに、第1の発明において、認識部は、出力された対象物の色情報が、対象物の実際の色とは異なるような走行状況であると判断した場合には、経時的に前に出力された対象物の色情報に基づいて、対象物の色情報を特定し、制御部は、特定された色情報に対応する表示カラーを用いてシンボルを表示するように表示装置を制御することが好ましい。また、第1の発明において、制御部は、認識部から色情報が出力されていない対象物について、対象物を示すシンボルを予め設定された所定の表示カラーを用いて表示するように表示装置を制御することが好ましい。 Furthermore, in the first invention, when the recognition unit determines that the output color information of the object is different from the actual color of the object, the recognition unit outputs the object in advance over time. The color information of the target object is specified based on the color information of the target object, and the control unit may control the display device to display a symbol using a display color corresponding to the specified color information. preferable. In the first invention, the control unit displays a display device for displaying a symbol indicating the object using a predetermined display color for an object for which color information is not output from the recognition unit. It is preferable to control.
また、第2の発明は、コンピュータが、自車両前方の景色が撮像されたカラー画像に基づいて、自車両前方に存在する対象物を認識するとともに、認識された対象物の色情報を生成する第1のステップと、コンピュータが、自車両の走行に応じたナビゲーション情報を取得する第2のステップと、コンピュータが、認識された対象物を示すシンボルを、ナビゲーション情報に重ねて表示するように表示装置を制御するとともに、生成された対象物の色情報に対応する表示カラーを用いてシンボルを表示するように表示装置を制御する第3のステップとを有する情報表示方法を提供する。 In the second invention, the computer recognizes an object existing ahead of the host vehicle and generates color information of the recognized object based on a color image obtained by capturing a scene in front of the host vehicle. A first step, a second step in which the computer obtains navigation information according to the traveling of the host vehicle, and a display in which the computer displays a symbol indicating the recognized object superimposed on the navigation information. And a third step of controlling the display device so as to display a symbol using a display color corresponding to the color information of the generated object.
ここで、第2の発明において、この情報表示方法は、自車両前方の距離の二次元的な分布を示す距離データに基づいて、対象物の位置を認識する第4のステップをさらに有していてもよい。この場合、第3のステップは、認識された対象物の位置に基づいて、実空間における対象物の位置に対応させてシンボルを表示するように表示装置を制御するステップを含むことが好ましい。 Here, in the second invention, the information display method further includes a fourth step of recognizing the position of the object based on distance data indicating a two-dimensional distribution of distances ahead of the host vehicle. May be. In this case, it is preferable that the third step includes a step of controlling the display device so as to display a symbol corresponding to the position of the object in the real space, based on the recognized position of the object.
また、第2の発明において、第1のステップは、生成された対象物の色情報が、対象物の実際の色とは異なるような走行状況であると判断した場合には、経時的に前に生成された対象物の色情報に基づいて、対象物の色情報を特定するステップを含み、第3のステップは、特定された色情報に対応する表示カラーを用いてシンボルを表示するように表示装置を制御するステップであることが好ましい。さらに、第2の発明において、第3のステップは、色情報が生成されていない対象物について、対象物を示すシンボルを予め設定された所定の表示カラーを用いて表示するように表示装置を制御するステップであることが好ましい。 In the second invention, if the first step determines that the color information of the generated object is a running situation that is different from the actual color of the object, The step of specifying the color information of the target object based on the color information of the target object generated in step (3) includes displaying a symbol using a display color corresponding to the specified color information. Preferably, this is a step of controlling the display device. Furthermore, in the second invention, in the third step, the display device is controlled so that a symbol indicating the object is displayed using a predetermined display color for the object for which color information is not generated. It is preferable that it is a step to perform.
本発明によれば、前方の景色が撮像されたカラー画像に基づいて、自車両前方に存在する対象物が認識されるとともに、その対象物の色情報が出力される。そして、この認識された対象物を示すシンボルが、ナビゲーション情報に重ねて表示されるように表示装置が制御される。この場合、表示されるシンボルは、出力された対象物の色情報に対応する表示カラーを用いて表示される。そのため、実際にドライバーが認識する走行状況と、表示装置に表示されるシンボルとが色的に対応することとなり、両者の間に生じる色彩的な相違感を低減することができる。よって、利用者の認視性の向上を図ることができるので、利用者の利便性の向上を図ることができる。 According to the present invention, an object existing in front of the host vehicle is recognized and color information of the object is output based on a color image obtained by capturing a front scene. Then, the display device is controlled so that the symbol indicating the recognized object is displayed so as to overlap the navigation information. In this case, the displayed symbol is displayed using a display color corresponding to the color information of the output object. Therefore, the driving situation actually recognized by the driver and the symbol displayed on the display device correspond to each other in color, and the color difference between them can be reduced. Therefore, since the visibility of the user can be improved, the convenience of the user can be improved.
図1は、本実施形態にかかる情報表示装置1の全体構成を示すブロック図である。自車両前方の景色を撮像するステレオカメラは、例えば、ルームミラー近傍に取付けられている。このステレオカメラは、一対のカメラ2,3で構成されており、メインカメラ2は、ステレオ画像処理を行う際に必要な基準画像を撮像し、サブカメラ3は、比較画像を撮像する。それぞれのカメラ2,3には、赤緑青のそれぞれに別個のイメージセンサが内蔵されており(例えば、3板式カラーCCD)、各カメラ2,3から、赤画像、緑画像および青画像の3つの原色画像が出力される。したがって、一対のカメラ2,3が1回の撮影タイミングで出力する画像は合計6枚になる。互いの同期が取れている状態において、カメラ2,3から出力された各アナログ画像は、A/Dコンバータ4,5により、所定の輝度階調(例えば、256階調のグレースケール)のデジタル画像に変換される。
FIG. 1 is a block diagram showing the overall configuration of the information display apparatus 1 according to the present embodiment. A stereo camera that captures a scene in front of the host vehicle is attached, for example, in the vicinity of a room mirror. This stereo camera is composed of a pair of
画像補正部6は、デジタル化された3つの原色画像対(計6つの原色画像)のそれぞれについて、輝度の補正や画像の幾何学的な変換等を行う。通常、一対のカメラ2,3の取付位置は、程度の差はあるものの誤差が存在するため、それに起因したずれが左右の各画像対に生じている。このずれを補正するために、アフィン変換等を用いて、画像の回転や平行移動等の幾何学的な変換が行われる。
The
このような画像処理を経て、メインカメラ2より3つの原色画像に対応する基準画像データが得られ、サブカメラ3より3つの原色画像に対応する比較画像データが得られる。これらの画像データは、各画素の輝度値(0〜255)の集合である。ここで、画像データによって規定される画像平面は、i−j座標系で表現され、画像の左下隅を原点として、水平方向をi座標軸、垂直方向をj座標軸とする。一フレーム相当の基準画像データと比較画像データとは、後段のステレオ画像処理部7に出力されるとともに、画像データメモリ9に格納される。
Through such image processing, reference image data corresponding to the three primary color images is obtained from the
ステレオ画像処理部7は、基準画像データと比較画像データとに基づいて、一フレーム相当の撮像画像に関する距離データを算出する。ここで、「距離データ」とは、画像データによって規定される画像平面において小領域毎に算出された視差の集合であり、個々の視差は画像平面上の位置(i,j)と対応付けられている。それぞれの視差は、基準画像平面の一部を構成する所定面積(例えば、4×4画素)の画素ブロック毎に1つ算出される。それぞれのカメラ2,3から3つの原色画像が出力される本実施形態において、このステレオマッチングは、同一色の原色画像毎に、別個に行われる。
The stereo
ある画素ブロック(相関元)に関する視差を算出する場合、この画素ブロックの輝度特性と相関を有する領域(相関先)を比較画像において特定する。カメラ2,3から対象物までの距離は、基準画像と比較画像との間における水平方向のずれ量として現れる。したがって、比較画像において相関先を探索する場合、相関元となる画素ブロックのj座標と同じ水平線(エピポーラライン)上を探索すればよい。ステレオ画像処理部7は、相関元のi座標を基準に設定された所定の探索範囲内において、エピポーラライン上を一画素ずつシフトしながら、相関元と相関先の候補との間の相関性を順次評価する(ステレオマッチング)。そして、原則として、最も相関が高いと判断される相関先(相関先の候補の内のいずれか)の水平方向のずれ量を、その画素ブロックの視差とする。換言すれば、距離データは、自車両前方の距離の二次元的な分布である。そして、ステレオ画像処理部7は、同一色の原色画像同士でステレオマッチングをそれぞれ行い、後段の融合処理部8に出力する。これにより、基準画像における一画素ブロックに関して、3つの視差(以下、それぞれを「原色視差」という)が算出される。
When calculating the parallax regarding a certain pixel block (correlation source), a region (correlation destination) having a correlation with the luminance characteristic of this pixel block is specified in the comparison image. The distance from the
融合処理部8は、ある画素ブロックに関して算出された3つの原色視差を融合し、その画素ブロックに関する統一的な視差Niを算出する。原色視差の融合は、検出対象選定部8aより得られるパラメータ(具体的には各色の重み係数)に基づき、積和演算によって行われる。このようにして求められた視差Niの一フレーム分の集合は、距離データとして距離データメモリ10に格納される。なお、融合処理部8および検出対象選定部8aの詳細なシステム構成およびシステム処理については、本出願人によって既に出願されている特願2001−343801号に開示されているので、必要ならば参照されたい。
The
マイクロコンピュータ11は、CPU、ROM、RAM、入出力インターフェース等で構成されているが、これを機能的に捉えた場合、認識部12と、制御部13とを有する。認識部12は、画像データメモリ9に格納された原色画像に基づいて、自車両前方に存在する対象物を認識するとともに、この認識された対象物の色情報を生成する。認識部12が認識すべき対象物は、典型的に、立体物であり、自動車、二輪車、歩行者などがこれに該当する。認識部12によって認識された対象物の情報、および生成された色情報は、制御部13に対して出力される。制御部13は、認識部12によって認識された対象物を示すシンボルを、ナビゲーション情報に重ねて表示するように、後段に設けられた表示装置15を制御する。この場合、この対象物に対応するシンボルは、出力された対象物の色情報に対応する表示カラーを用いて表示される。
The
ここで、ナビゲーション情報は、自車両の現在位置や自車両の予定経路を地図情報とともに表示装置15に表示するために必要な情報であり、周知のナビゲーションシステム14から取得することができる。このナビゲーションシステム14は、図1には明示されていないが、車速センサ、ジャイロスコープ、GPS受信機、地図データ入力部、およびナビ制御部を主体に構成されている。車速センサは車両の速度を検出するセンサであり、ジャイロスコープは車両に加わる回転運動の角速度に基づいて車両の方位角変化量を検出する。GPS受信機は、アンテナを介し、GPS用の人工衛星から送信された電波を受信し、車両の位置、方位(進行方向)などといった測位情報を検出する。地図データ入力部は、一般にCD−ROMやDVDといった記録媒体に格納された地図情報のデータ(以下「地図データ」という)をシステム14に入力するための装置である。ナビ制御部は、GPS受信機から得られる測位情報、或いは車速に応じた車両の移動距離および車両の方位変化量に基づいて、車両の現在位置を算出する。算出された現在位置、およびこの現在位置に対応した地図データは、走行状況に応じ、ナビゲーション情報としてナビゲーションシステム14からマイクロコンピュータ11に対して出力される。
Here, the navigation information is information necessary for displaying the current position of the host vehicle and the planned route of the host vehicle together with the map information on the
図2は、本実施形態にかかる情報表示処理の手順を示したフローチャートである。このフローチャートに示すルーチンは所定間隔毎に呼び出され、マイクロコンピュータ11によって実行される。まず、ステップ1において、距離データおよび画像データ(例えば基準画像データ)が読み込まれる。それぞれのカメラ2,3によって3つの原色画像が出力される本実施形態では、各原色画像に対応する3つの画像データ(以下、それぞれを「原色画像データ」という)がそれぞれ読み込まれる。
FIG. 2 is a flowchart showing a procedure of information display processing according to the present embodiment. The routine shown in this flowchart is called at predetermined intervals and executed by the
ステップ2において、自車両前方に存在する立体物が認識される。立体物認識では、まず、グループフィルタ処理によって距離データに含まれるノイズ、すなわち、信頼性が低いと思われる視差Niが除去される。ノイズ等の影響によるミスマッチにより生じた視差Niは、周囲の視差Niの値と大きく異なり、かつ、その視差Niと同様の値を有するグループの面積が比較的小さくなるという特性がある。そこで、それぞれの画素ブロックに関して算出された視差Niについて、その上下および左右方向に隣接した画素ブロックにおける視差Niとの変化量が所定のしきい値以内のものをグループ化する。そして、グループの面積の大きさが検出され、所定の大きさ(例えば2画素ブロック)よりも大きな面積を有するグループが有効グループと判断される。一方、所定の大きさ以下の面積を有するグループに属する視差Niは、算出された視差Niの信頼性が低いと判断され、距離データから除去される。
In
つぎに、グループフィルタ処理によって抽出された視差Niと、この視差に対応する画像平面上の座標位置とに基づいて、周知の座標変換式を用いて、実空間上の位置が算出される。そして、算出された実空間上の位置と、道路面の位置とを比較することにより、道路面よりも上に位置する視差Ni、すなわち、立体物に相当する視差(以下「立体物視差」という)Niが抽出される。道路面の位置は、道路形状を規定する道路モデルを算出することにより、特定可能である。道路モデルは、実空間の座標系において、水平方向および垂直方向における直線式で表現され、この直線式のパラメータを実際の道路形状に合致するような値に設定することにより、算出される。路面上に描かれた白線は道路面と比較して高輝度であるという知得に基づき、画像データが参照される。この画像データに基づいて、道路の幅方向の輝度変化を評価することにより、画像平面上の左右の白線の位置が特定される。白線の位置を特定する場合、3つの原色画像データのそれぞれについて輝度変化を評価してもよいが、例えば、赤画像のみ、或いは、赤画像および青画像のみといったように、ある特定の原色画像データについて輝度変化を評価してもよい。そして、白線の画像平面上の位置に基づき、距離データを用いて白線の実空間上の位置が検出される。道路モデルは、道路上の白線を距離方向に複数区間に分割し、各区間における左右の白線を三次元の直線で近似し、これらを折れ線状に連結することにより、算出される。 Next, based on the parallax Ni extracted by the group filter processing and the coordinate position on the image plane corresponding to the parallax, a position in the real space is calculated using a well-known coordinate conversion formula. Then, by comparing the calculated position in the real space with the position of the road surface, the disparity Ni located above the road surface, that is, the disparity corresponding to the three-dimensional object (hereinafter referred to as “three-dimensional object parallax”). ) Ni is extracted. The position of the road surface can be specified by calculating a road model that defines the road shape. The road model is expressed by a linear equation in the horizontal direction and the vertical direction in the coordinate system of the real space, and is calculated by setting the parameters of the linear equation to values that match the actual road shape. Based on the knowledge that the white line drawn on the road surface is higher in luminance than the road surface, the image data is referred to. Based on this image data, the position of the left and right white lines on the image plane is specified by evaluating the luminance change in the width direction of the road. When the position of the white line is specified, the luminance change may be evaluated for each of the three primary color image data. For example, a specific primary color image data such as only a red image or only a red image and a blue image may be evaluated. The brightness change may be evaluated for. Based on the position of the white line on the image plane, the position of the white line in the real space is detected using the distance data. The road model is calculated by dividing the white line on the road into a plurality of sections in the distance direction, approximating the left and right white lines in each section with a three-dimensional straight line, and connecting them in a polygonal line shape.
つぎに、距離データが格子状に区分され、この格子状の区分毎に、各区分に属する立体物視差Niに関するヒストグラムが作成される。このヒストグラムは単位区分あたりに含まれる立体物視差Niの頻度の分布を示しており、このヒストグラムにおいて、ある立体物を示す視差Niの頻度は高くなる。そのため、作成されたヒストグラムにおいて、度数が判定値以上となる立体物視差Niを検出し、この検出された立体物視差Niが自車両前方に存在する立体物の候補として検出される。この際、立体物の候補までの距離も算出される。つぎに、隣接する区分において、算出された距離が近接する立体物の候補同士がグループ化され、各グループが立体物として認識される。認識された立体物は、左右の端部位置、中心位置および距離などがパラメータとして対応付けられる。なお、グループフィルタにおける具体的な処理手順、および立体物認識の具体的な処理手順については、特開平10−285582号公報に開示されているので、必要ならば参照されたい。 Next, the distance data is sectioned in a grid pattern, and a histogram related to the three-dimensional object parallax Ni belonging to each section is created for each grid pattern section. This histogram shows the distribution of the frequency of the three-dimensional object parallax Ni included per unit section. In this histogram, the frequency of the parallax Ni indicating a certain three-dimensional object is high. Therefore, in the created histogram, the three-dimensional object parallax Ni whose frequency is equal to or higher than the determination value is detected, and the detected three-dimensional object parallax Ni is detected as a candidate for a three-dimensional object existing in front of the host vehicle. At this time, the distance to the candidate for the three-dimensional object is also calculated. Next, three-dimensional object candidates whose calculated distances are close to each other are grouped in adjacent sections, and each group is recognized as a three-dimensional object. The recognized three-dimensional object is associated with the left and right end positions, the center position, the distance, and the like as parameters. A specific processing procedure in the group filter and a specific processing procedure for three-dimensional object recognition are disclosed in Japanese Patent Laid-Open No. 10-285582, so refer to them if necessary.
ステップ3において、現在の走行状況が立体物の色情報を生成するのに適した状況であるか否かが判断される。後述するように、立体物の色情報は、各原色画像データの輝度値に基づいて、生成される。通常の走行状況において、原色画像データをベースに生成された色情報は、立体物の実際の色を精度よく再現することができる。しかしながら、自車両がトンネル内を走行しているといったケースでは、トンネル内の照明や照度の低下に起因して、画像ベースで生成される立体物の色情報が、実際のそれと相違することがある。そこで、色情報を誤って生成することを回避すべく、ステップ4の認識処理の前に、ステップ3の判断が設けられている。自車両がトンネル内を走行しているか否かの判断は、時系列的に出力される各原色画像データの輝度特性が低輝領域にシフトしたこと、ヘッドライトの点灯状態などから判断することができる。なお、ヘッドライトについてはランプ切れといった事態も考えられるため、ヘッドライトの点灯状態ではなく、ヘッドライトの操作スイッチの状態を検出してもよい。
In
ステップ3において肯定判定された場合、すなわち、色情報を生成するのに適した走行状況である場合には、ステップ4に進む。そして、ステップ4において、認識された立体物のそれぞれを処理対象として、色情報が生成される。この色情報の生成処理では、まず、距離データによって規定される二次元平面(ij平面)において、立体物と認識されたグループに該当する立体物視差Niに対応付けられた画像平面上の位置群((i,j)の集合)が特定される。つぎに、各原色画像データにおいて、この特定された位置群の輝度値が検出される。3つの原色画像データを用いる本実施形態では、赤画像における位置群の輝度値(以下「R輝度値」という)、緑画像における位置群の輝度値(以下「G輝度値」という)、および青画像における位置群の輝度値(以下「B輝度値」という)がそれぞれ検出される。そして、その立体物の特徴的な色を特定すべく、各原色画像データにおいて検出された輝度値(正確には、位置群に該当する輝度値の集合)に基づいて、最頻輝度値、または位置群の輝度平均値が、その立体物の色情報として認識される。そのため、本実施形態において、立体物の色情報は、R輝度値、G輝度値およびB輝度値の3つの色成分の集合となる。例えば、ボディーカラーが白色の先行車、或いは白い服装の歩行者は、その色情報が、R輝度値「255」、G輝度値「255」およびB輝度値「255」として生成されるといった如くである。
If an affirmative determination is made in
一方、このステップ3において否定判定された場合、すなわち、色情報を生成するのに不適な走行状況である場合には、ステップ5に進む。このケースでは、適切な走行状況で生成された立体物の色情報、すなわち、経時的に前に生成された色情報に基づいて、立体物の色情報が特定される(ステップ5)。まず、現在認識された立体物について、その立体物が以前に実行されたサイクルのなかで認識されているか否かが判断される。具体的には、現在認識された立体物の中から順次立体物が選択され、所定時間前に認識された立体物との位置的な比較が行われる。通常、走行状況が経時的に変化したとしても、同一の立体物に関する車幅方向の移動量、および車高方向の移動量が大きく変化する可能性は低い。そこで、立体物の車幅方向への移動量(更には車高方向への移動量)が所定の判定値以下であるか否かを判定することにより、以前に実行されたサイクルのなかで認識された立体物であるか否かが判断される(すなわち、異なる時間で認識された立体物の同一性の判断)。
On the other hand, if a negative determination is made in
この判断において、所定時間前に認識された立体物と同一の対象物がない、すなわち、本サイクルにおいて初めて認識された立体物について、その色情報が「認識不能」と特定される。一方、以前のサイクルから引き続き認識されている立体物について、既に生成されている色情報が、その色情報として特定される。この場合、適切な走行状況で色情報が生成されている立体物については、既にステップ4の処理において色情報が得られているため、この生成された色情報が、立体物の色情報として特定される。一方、トンネル内を走行している途中に認識された立体物については、以前のサイクルにおいて色情報が生成されていないので、引き続き、その色情報が「認識不能」のままとなる。 In this determination, the color information of the three-dimensional object recognized for the first time in this cycle is identified as “unrecognizable” when there is no object identical to the three-dimensional object recognized a predetermined time ago. On the other hand, already generated color information is specified as the color information for the three-dimensional object that is continuously recognized from the previous cycle. In this case, since the color information has already been obtained in the process of step 4 for the three-dimensional object for which the color information is generated in an appropriate traveling situation, the generated color information is specified as the color information for the three-dimensional object. Is done. On the other hand, for the three-dimensional object recognized while traveling in the tunnel, since the color information has not been generated in the previous cycle, the color information remains “unrecognizable”.
ステップ6において、ナビゲーション情報と、認識部12による認識結果とに基づいて、表示処理が行われる。具体的には、制御部13は、次の(1),(2)に示す表示形態となるように表示装置15を制御する。
(1) 立体物を示すシンボルをナビゲーション情報に重ねて表示する
距離データを用いた立体物認識において、立体物の位置は、自車両を原点位置とした座標系(本実施形態では三次元座標系)で表現される。そこで、制御部13は、立体物を示すシンボルを、ナビゲーションシステム14から得られる自車両の現在位置を基準に、認識された対象物の位置に基づいて、実空間における対象物の位置に対応させた上で、地図データ上に重ね合わせる。この場合、道路モデルを参照し、地図データ上の道路位置と、道路モデルを基準とした立体物の位置との対応させることにより、より正確な位置にシンボルを表示することができる。
(2) シンボルを所定の表示カラーで表示する
地図データに重ね合わせて表示されるシンボルは、その対象物について生成・出力された色情報に対応する表示カラーで表示される。すなわち、赤色の色情報(例えば、R輝度値「255」、G輝度値「0」、B輝度値「0」)が出力されている立体物を示すシンボルは、この出力された色情報と同じ表示カラーで表示される。また、その色情報が生成・特定されていない立体物(「認識不能」)を示すシンボルについては、予め設定された表示カラーを用いて表示する。この表示カラーは、交通環境において認識され得る色情報とは異なるような色であることが好ましく、例えば、紫色などが挙げられる。
In
(1) In three-dimensional object recognition using distance data in which a symbol representing a three-dimensional object is displayed superimposed on navigation information, the position of the three-dimensional object is a coordinate system (in the present embodiment, a three-dimensional coordinate system). ). Therefore, the
(2) Symbols that are displayed by being superimposed on map data for displaying symbols in a predetermined display color are displayed in a display color corresponding to the color information generated and output for the object. That is, a symbol indicating a three-dimensional object to which red color information (for example, R luminance value “255”, G luminance value “0”, and B luminance value “0”) is output is the same as the output color information. Displayed in display color. Further, a symbol indicating a three-dimensional object (“unrecognizable”) for which color information is not generated or specified is displayed using a preset display color. The display color is preferably a color different from the color information that can be recognized in a traffic environment, for example, purple.
図3は表示装置15の表示状態を示す説明図である。図4は実際の走行状態を示す模式図であり、自車両前方に存在する立体物と、その立体物の色(例えば、ボディーカラーなど)とが示されている。図3には、立体物として自動車が3台、二輪車が1台だけ認識されるケースにおいて(図4参照)、いわゆる、ドライバーズアイと呼ばれる手法を用いて地図データが表示されており、その上に各立体物を示すシンボルが重ねて表示されている。図3において、立体物を示すシンボルは、一例として、立方体を模したデザインが用いられており、認識された立体物の色情報に対応する表示カラーによって表示されることとなる。
FIG. 3 is an explanatory diagram showing a display state of the
また、制御部13は、上記の(1),(2)の条件以外にも、同図に示すように、認識された立体物の大きさに応じて、表示されるシンボルの大きさが相対的に異なるように表示装置15を表示してもよい。また、シンボルに遠近感が表現されるように、表示装置15を制御してもよい。このケースでは、認識された立体物から自車両までの距離に応じ、遠方に存在する立体物ほど、そのシンボルの表示サイズが小さくなるように表示される。さらに、制御部13は、位置的に遠方に表示されるシンボルと、それよりも近い位置に表示されるシンボルとがオーバーラップするようなケースでは、前者のシンボルが後者のシンボルよりも上面側に表示されるように、表示装置15を制御してもよい。これにより、遠方のシンボルが、近傍のシンボルによって覆い隠されるため、シンボルが見やすくなるとともに、シンボル間の位置的な前後関係を表現することができる。
In addition to the above conditions (1) and (2), the
このように、本実施形態によれば、カラー画像に基づいて、自車両前方に存在する対象物(本実施形態では、立体物)が認識されるとともに、この立体物の色情報が生成・出力される。そして、この認識された対象物を示すシンボルが、ナビゲーション情報に重ねて表示される。この場合、表示されるシンボルは、対象物について出力された色情報に対応した表示カラーとなるように表示装置15が制御される。そのため、実際にドライバーが認識する走行状況と、表示装置15に表示されるシンボルとが色的に対応することとなり、両者の間に生じる色彩的な相違感を低減することができる。また、表示と実際の走行環境の色彩とを対応させることにより、利用者(典型的には、ドライバー)による認視性の向上を図ることができる。その結果、従来にはない機能により、利便性の向上を図ることができるので、ユーザーフレンドリーといった観点から、商品訴求力の向上を図ることができる。
As described above, according to the present embodiment, an object (a three-dimensional object in the present embodiment) existing in front of the host vehicle is recognized based on a color image, and color information of the three-dimensional object is generated and output. Is done. A symbol indicating the recognized object is displayed so as to overlap the navigation information. In this case, the
なお、認識されたすべての立体物に対応するシンボルをすべて表示した場合、走行状況を詳細に表示するといった点で有利であるものの、画面上に表示される情報量が増える。すなわち、自車両から遠方に存在する先行車のように、運転に直接関係のない情報までも表示していることもある。そこで、不要な情報を排除するといった観点から、自車両から近い複数個の立体物を選択し、この選択された立体物に対応するシンボルのみを表示してもよい。 Note that displaying all the symbols corresponding to all recognized three-dimensional objects is advantageous in that the driving situation is displayed in detail, but the amount of information displayed on the screen increases. That is, information that is not directly related to driving may be displayed, such as a preceding vehicle that is far away from the host vehicle. Therefore, from the viewpoint of eliminating unnecessary information, a plurality of three-dimensional objects close to the host vehicle may be selected, and only symbols corresponding to the selected three-dimensional objects may be displayed.
また、本実施形態では、シンボルを表示する場合、生成された色情報の色成分(すなわち、R輝度値、G輝度値およびB輝度値)と完全に一致した表示カラーを用いて表示を行うことに限定されない。すなわち、利用者の視覚的な相違がないと想定される範囲内において、適宜その表示カラーを調整してもよい。さらに、ドライバーズアイといった表示手法以外にも、その他の鳥瞰図的な手法(例えば、バードビュー)や、平面図的な手法を用いた表示手法にも本発明を適用することができる。 In this embodiment, when displaying a symbol, the display is performed using a display color that completely matches the color component of the generated color information (that is, the R luminance value, the G luminance value, and the B luminance value). It is not limited to. That is, the display color may be adjusted as appropriate within a range where there is no visual difference between the users. Furthermore, in addition to the display method such as the driver's eye, the present invention can be applied to other bird's-eye view methods (for example, bird view) and display methods using a plan view method.
また、カラー画像を出力する一対のカメラによってステレオカメラを構成することにより、カラー画像を出力するカメラとしての機能、および、この後段の画像処理系によって距離データを出力するセンサとしての機能を両立しているが、本発明はこれに限定されるものではない。これ以外にも、カラー画像を出力する単眼カメラと、レーザレーダやミリ波レーダといった距離データを算出し得る周知のセンサとを併用することにより、本実施形態と同様の機能を得ることができる。また、単に自車両前方に存在する立体物の色情報を認識し、この認識された立体物の色情報に対応する表示カラーを用いてシンボルを表示するのであれば、距離データを出力するセンサを必ずしも設ける必要はない。このケースでは、オプティカルフローなどの周知の画像処理技術、或いは路面とは異なる色成分を検出するなどといった手法を用いることにより、画像データから立体物を認識することができる。ただし、距離データを用いることにより、立体物の位置情報を精度よく認識することができる。そのため、この位置情報を表示処理に反映させることで、表示における実際の走行状況の再現性を向上させることができる。 In addition, by configuring a stereo camera with a pair of cameras that output a color image, both a function as a camera that outputs a color image and a function as a sensor that outputs distance data by the image processing system in the subsequent stage are achieved. However, the present invention is not limited to this. In addition to this, by using a monocular camera that outputs a color image and a known sensor that can calculate distance data, such as a laser radar or a millimeter wave radar, the same function as in the present embodiment can be obtained. Further, if the color information of the three-dimensional object existing in front of the host vehicle is recognized and the symbol is displayed using the display color corresponding to the color information of the recognized three-dimensional object, a sensor that outputs distance data is provided. It is not always necessary to provide it. In this case, a three-dimensional object can be recognized from the image data by using a well-known image processing technique such as an optical flow or a method of detecting a color component different from the road surface. However, by using the distance data, the position information of the three-dimensional object can be accurately recognized. Therefore, the reproducibility of the actual driving situation in the display can be improved by reflecting this position information in the display process.
また、認識部12は、対象物の認識結果に基づいて、ドライバーへの警報が必要と判定した場合には、表示装置15やスピーカ16を動作させ、ドライバーに注意喚起を促すことができる。また、認識部12は、必要に応じて制御装置17を制御し、シフトダウン、ブレーキコントロールなどの車両制御を行ってもよい。
Further, when the
1 情報表示装置
2,3 カメラ
4,5 A/Dコンバータ
6 画像補正部
7 ステレオ画像処理部
8 融合処理部
9 画像データメモリ
10 距離データメモリ
11 マイクロコンピュータ
12 認識部
13 制御部
14 ナビゲーションシステム
15 表示装置
16 スピーカ
17 制御装置
DESCRIPTION OF SYMBOLS 1
Claims (9)
前記自車両前方の景色を撮像することにより、カラー画像を出力するカメラと、
前記自車両の走行に応じたナビゲーション情報を出力するナビゲーションシステムと、
前記出力されたカラー画像に基づいて、前記自車両前方に存在する対象物を認識するとともに、当該認識された対象物の色情報を出力する認識部と、
情報を表示する表示装置と、
前記認識された対象物を示すシンボルを、前記出力されたナビゲーション情報に重ねて表示するように前記表示装置を制御するとともに、前記出力された対象物の色情報に対応する表示カラーを用いて前記シンボルを表示するように前記表示装置を制御する制御部と
を有することを特徴とする情報表示装置。 In the information display device,
A camera that outputs a color image by imaging the scenery in front of the host vehicle;
A navigation system that outputs navigation information according to the travel of the host vehicle;
Recognizing an object existing ahead of the host vehicle based on the output color image, and a recognition unit that outputs color information of the recognized object;
A display device for displaying information;
The display device is controlled to display a symbol indicating the recognized object superimposed on the output navigation information, and the display color corresponding to the color information of the output object is used to control the display device. And a control unit that controls the display device to display symbols.
前記認識部は、前記距離データに基づいて、前記対象物の位置を認識し、
前記制御部は、前記認識部により認識された前記対象物の位置に基づいて、実空間における前記対象物の位置に対応させて前記シンボルを表示するように前記表示装置を制御することを特徴とする請求項1に記載された情報表示装置。 A sensor that outputs distance data indicating a two-dimensional distribution of the distance ahead of the vehicle;
The recognizing unit recognizes the position of the object based on the distance data;
The control unit controls the display device to display the symbol corresponding to the position of the object in real space based on the position of the object recognized by the recognition unit. The information display device according to claim 1.
前記センサは、前記第1のカメラから出力されるカラー画像と、前記第2のカメラから出力されるカラー画像とに基づき、ステレオマッチングによって、前記距離データを出力することを特徴とする請求項2に記載された情報表示装置。 A second camera functioning as a stereo camera by outputting a color image by imaging the scenery in front of the host vehicle and cooperating with the first camera. In addition,
3. The sensor outputs the distance data by stereo matching based on a color image output from the first camera and a color image output from the second camera. Information display device described in 1.
前記制御部は、前記特定された色情報に対応する表示カラーを用いて前記シンボルを表示するように前記表示装置を制御することを特徴とする請求項1から3のいずれかに記載された情報表示装置。 When the recognition unit determines that the output color information of the target object is different from the actual color of the target object, the target object output before time Based on the color information of the object, the color information of the object is specified,
4. The information according to claim 1, wherein the control unit controls the display device to display the symbol using a display color corresponding to the specified color information. 5. Display device.
コンピュータが、自車両前方の景色が撮像されたカラー画像に基づいて、前記自車両前方に存在する対象物を認識するとともに、当該認識された対象物の色情報を生成する第1のステップと、
前記コンピュータが、自車両の走行に応じたナビゲーション情報を取得する第2のステップと、
前記コンピュータが、前記認識された対象物を示すシンボルを、前記ナビゲーション情報に重ねて表示するように表示装置を制御するとともに、前記生成された対象物の色情報に対応する表示カラーを用いて前記シンボルを表示するように前記表示装置を制御する第3のステップと
を有することを特徴とする情報表示方法。 In the information display method,
A first step in which a computer recognizes an object existing ahead of the host vehicle based on a color image obtained by capturing a scene in front of the host vehicle, and generates color information of the recognized object;
A second step in which the computer acquires navigation information according to the travel of the host vehicle;
The computer controls a display device to display a symbol indicating the recognized object superimposed on the navigation information, and uses a display color corresponding to the color information of the generated object. And a third step of controlling the display device to display symbols.
前記第3のステップは、前記認識された対象物の位置に基づいて、実空間における前記対象物の位置に対応させて前記シンボルを表示するように前記表示装置を制御するステップを含むことを特徴とする請求項6に記載された情報表示方法。 A fourth step of recognizing the position of the object based on distance data indicating a two-dimensional distribution of the distance ahead of the host vehicle;
The third step includes a step of controlling the display device to display the symbol corresponding to the position of the object in real space based on the position of the recognized object. The information display method according to claim 6.
前記第3のステップは、前記特定された色情報に対応する表示カラーを用いて前記シンボルを表示するように前記表示装置を制御するステップであることを特徴とする請求項6または7に記載された情報表示方法。 In the first step, when it is determined that the color information of the generated object is a traveling situation that is different from the actual color of the object, the first information generated before Identifying the color information of the object based on the color information of the object,
8. The method according to claim 6, wherein the third step is a step of controlling the display device to display the symbol using a display color corresponding to the specified color information. Information display method.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003357205A JP4398216B2 (en) | 2003-10-17 | 2003-10-17 | Information display device and information display method |
US10/965,126 US7356408B2 (en) | 2003-10-17 | 2004-10-14 | Information display apparatus and information display method |
DE602004011164T DE602004011164T2 (en) | 2003-10-17 | 2004-10-15 | Device and method for displaying information |
EP04024625A EP1524638B9 (en) | 2003-10-17 | 2004-10-15 | Information display apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003357205A JP4398216B2 (en) | 2003-10-17 | 2003-10-17 | Information display device and information display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005123914A true JP2005123914A (en) | 2005-05-12 |
JP4398216B2 JP4398216B2 (en) | 2010-01-13 |
Family
ID=34614161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003357205A Expired - Fee Related JP4398216B2 (en) | 2003-10-17 | 2003-10-17 | Information display device and information display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4398216B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010105443A (en) * | 2008-10-28 | 2010-05-13 | Denso Corp | Visual assistive device |
JP2010234857A (en) * | 2009-03-30 | 2010-10-21 | Denso Corp | Display device for vehicle |
JP2014507906A (en) * | 2011-02-23 | 2014-03-27 | モビクリップ | Device and method for managing the position of a focal plane in a stereoscopic scene |
JP2014083921A (en) * | 2012-10-22 | 2014-05-12 | Denso Corp | Display device |
JP2017109614A (en) * | 2015-12-16 | 2017-06-22 | 株式会社デンソー | Headup display device |
CN113950432A (en) * | 2019-06-11 | 2022-01-18 | 株式会社小糸制作所 | Head-up display device and head-up display system |
-
2003
- 2003-10-17 JP JP2003357205A patent/JP4398216B2/en not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010105443A (en) * | 2008-10-28 | 2010-05-13 | Denso Corp | Visual assistive device |
JP2010234857A (en) * | 2009-03-30 | 2010-10-21 | Denso Corp | Display device for vehicle |
JP2014507906A (en) * | 2011-02-23 | 2014-03-27 | モビクリップ | Device and method for managing the position of a focal plane in a stereoscopic scene |
JP2014083921A (en) * | 2012-10-22 | 2014-05-12 | Denso Corp | Display device |
JP2017109614A (en) * | 2015-12-16 | 2017-06-22 | 株式会社デンソー | Headup display device |
CN113950432A (en) * | 2019-06-11 | 2022-01-18 | 株式会社小糸制作所 | Head-up display device and head-up display system |
Also Published As
Publication number | Publication date |
---|---|
JP4398216B2 (en) | 2010-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8036823B2 (en) | Navigation system | |
US8305431B2 (en) | Device intended to support the driving of a motor vehicle comprising a system capable of capturing stereoscopic images | |
EP1524638B9 (en) | Information display apparatus and method | |
JP5127182B2 (en) | Object detection device | |
JP5591730B2 (en) | Environment recognition device | |
WO2009087716A1 (en) | Image transformation method, image display method, image transformation apparatus and image display apparatus | |
JP2002319091A (en) | Device for recognizing following vehicle | |
JP4893212B2 (en) | Perimeter monitoring device | |
JP5516998B2 (en) | Image generation device | |
JP2007198962A (en) | Guidance display device for vehicle | |
KR20200126365A (en) | Surround view system with adjusted projection plane | |
JP2008128827A (en) | Navigation device, navigation method, and program thereof | |
JP4032843B2 (en) | Monitoring system and monitoring method, distance correction device and distance correction method in the monitoring system | |
JP5188429B2 (en) | Environment recognition device | |
US8170284B2 (en) | Apparatus and method for displaying image of view in front of vehicle | |
JP5825713B2 (en) | Dangerous scene reproduction device for vehicles | |
JP2004265396A (en) | Image forming system and image forming method | |
JP2005038225A (en) | Lane follow-up device | |
JP2007264717A (en) | Lane deviation decision device, lane deviation prevention device and lane follow-up supporting device | |
JP2014106739A (en) | In-vehicle image processing device | |
JP2000293693A (en) | Obstacle detecting method and device | |
JP4398216B2 (en) | Information display device and information display method | |
JPH0981734A (en) | Image processor | |
JP2007256048A (en) | Navigation system | |
JP2019128153A (en) | Distance calculation device and vehicle control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090728 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091020 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091022 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121030 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4398216 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121030 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131030 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |