JP7027725B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP7027725B2 JP7027725B2 JP2017160905A JP2017160905A JP7027725B2 JP 7027725 B2 JP7027725 B2 JP 7027725B2 JP 2017160905 A JP2017160905 A JP 2017160905A JP 2017160905 A JP2017160905 A JP 2017160905A JP 7027725 B2 JP7027725 B2 JP 7027725B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- unit
- evaluation area
- information
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明の実施形態は、ユーザを目的地へと導くナビゲーション機能を有する情報処理装置に関する。以下、本発明の実施形態による情報処理装置20の概要を説明する。
図2は、本発明の実施形態による情報処理装置20の構成を示す説明図である。図2に示したように、本発明の実施形態による情報処理装置20は、出力部30と、位置推定部220と、設定部230と、記憶部240と、ナビゲーション機能部250と、画像処理部270と、情報生成部280と、を備える。
位置推定部220は、情報処理装置20の現在位置を推定する。例えば、位置推定部220は、GPS(Global Positioning System)人工衛星から受信される衛星信号に基づいて情報処理装置20の現在位置を推定してもよい。また、位置推定部220は、WiFiのアクセスポイントから送信される信号の受信強度および各アクセスポイントの既知の位置情報に基づいて情報処理装置20の現在位置を推定してもよい。また、位置推定部220は、情報処理装置20に内蔵される加速度センサおよびジャイロセンサなどの慣性センサの出力を用いて、歩行者自律航法に基づいて情報処理装置20の現在位置を推定してもよい。
設定部230は、ナビゲーション機能部250で用いられる設定情報、および画像処理部270で用いられる設定情報の格納および変更などを行う。ナビゲーション機能部250で用いられる設定情報としては、ユーザの視線高さを示す情報が挙げられる。設定部230は、設定情報を、ユーザによる操作に基づいて変更してもよいし、情報処理装置20に設けられたセンサからの出力に基づいて変更してもよい。
記憶部240は、情報処理装置20の動作で用いられる多様な情報を記憶する。記憶部240は、図2に示したように、例えば地図情報、3次元空間情報および認識用データセットを記憶する。地図情報は、ナビゲーション機能部250が案内ルートを生成する際に用いる情報であり、2次元平面における道路や施設の配置を示す情報であってもよい。3次元空間情報は、画像処理部270で用いられる情報であり、色情報付点群データやメッシュモデルおよびテクスチャで構成される。3次元空間情報に基づき、任意の視点からの空間画像を得ることが可能である。認識用データセットは、画像処理部270で用いられる情報であり、例えばDeep Learningによる物体認識のためのデータセットのように、画像認識に関連する情報である。
ナビゲーション機能部250は、案内ルートを生成するための構成である。ナビゲーション機能部250の機能は、図2に示したように、出発地情報取得部252、目的地情報取得部254、および案内ルート生成部256に細分化される。
出発地情報取得部252は、ユーザがナビゲーションを求める区間の出発地(ナビゲーション開始地点)に関する情報を取得する。出発地情報取得部252は、例えば、位置推定部220により推定された現在位置を示す位置情報を取得してもよいし、ユーザにより図示しない操作部を介して指定された地名、住所または地図上の位置を示す位置情報を取得してもよい。
目的地情報取得部254は、ユーザがナビゲーションを求める区間の目的地(ナビゲーション終了地点)に関する情報を取得する。目的地情報取得部254は、例えば、ユーザにより図示しない操作部を介して指定された地名、住所または地図上の位置を示す位置情報を取得してもよい。
案内ルート生成部256は、出発地情報取得部252により取得された出発地に関する情報と、目的地情報取得部254により取得された目的地に関する情報と、設定部230に格納されている設定情報と、記憶部240に記憶されている地図情報と、に基づいて案内ルートを生成する。案内ルート生成部256は、地図情報が示す道路の配置のうちで、設定情報が示す移動手段で利用される道路の配置を用いて、目的地と出発地を結ぶルートを探索することにより、案内ルートを生成し得る。ただし、案内ルートの生成方法は特に限定されず、例えば、案内ルート生成部256は、ルート生成手法として一般的に利用されるダイクストラ法を用いて案内ルートを生成してもよい。
画像処理部270は、ユーザが案内ルートを移動する際にユーザが実世界で目にすることが予想されるオブジェクト(ランドマーク)の情報を画像処理により抽出する。オブジェクトの情報は、例えば、オブジェクトの名前、形状またはユーザの視野におけるオブジェクトが存在するであろう位置の情報を含む。画像処理部270の機能は、図2に示したように、画像生成部272、画像分割部274および画像解析部276に細分化される。
画像生成部272(評価領域特定部)は、案内ルート上に複数の基準地点を設定し、設定部230に格納されているユーザの視点高さの情報および記憶部240に記憶されている3次元空間情報に基づき、各基準地点におけるユーザの視野に対応する3次元的な評価領域を特定する。具体的には、画像生成部272は、基準地点におけるユーザの視線高さを視点として、当該視点から、基準地点における案内ルートの向きを視線方向とするユーザの視野に含まれる領域を上記評価領域として特定する。なお、画像生成部272は、案内ルートにおいて道なりにユーザが進む区間に所定間隔で基準地点を設定し、進路が変わる箇所にも基準地点を設定してもよい。
画像分割部274は、画像生成部272により生成された2次元画像を複数の区画に分割し、各区画に重みを設定する。非特許文献1によれば、人間の有効視野(眼球運動だけで瞬時に情報受容できる領域)は、図7に示したように、水平視野角において30°以内であり、垂直視野角において20°以内である。そこで、画像分割部274は、ユーザの視線方向を中心とする有効視野(水平視野角において30°以内、垂直視野角において20°以内)に対応する区画を2次元画像から切り出し、有効視野の周辺に対応する領域を複数の区画に分割してもよい。
画像解析部276は、評価領域に含まれるオブジェクトを抽出するオブジェクト抽出部の一例である。具体的には、画像解析部276は、画像分割部274により得られた2次元画像の各区画を解析することで各区画からオブジェクトを認識し、認識された1または2以上のオブジェクトから所定の条件に従ってオブジェクトを抽出する。そして、画像解析部276は、抽出したオブジェクトに関する情報を情報生成部280に供給する。
情報生成部280は、出力部30から出力される情報を生成する出力情報生成部である。例えば、情報生成部280は、ナビゲーション機能部250によって生成された案内ルート、位置推定部220により推定された現在位置の表示を含むナビゲーション画面を生成する。また、情報生成部280は、進路の分岐点の手前では、ナビゲーション画面に進路変更の指示および分岐点までの距離情報を重畳する。また、情報生成部280は、進路の分岐点の手前では、ナビゲーション画面に進路変更の指示および分岐点までの距離情報を含むナビゲーション音声を生成してもよい。これらナビゲーション画面およびナビゲーション音声などのナビゲーション情報は出力部30により出力される。
以上、本発明の実施形態による情報処理装置20の構成を説明した。続いて、図11および図12を参照して、本発明の実施形態による情報処理装置20の動作を整理する。
以上、本発明の実施形態を説明した。以下では、本発明の実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本発明の実施形態に適用されてもよいし、組み合わせで本発明の実施形態に適用されてもよい。また、各変形例は、本発明の実施形態で説明した構成に代えて適用されてもよいし、本発明の実施形態で説明した構成に対して追加的に適用されてもよい。
例えば、画像生成部272が2次元画像を生成する際に利用する3次元空間情報は、状況に応じて異なってもよい。例えば、記憶部240は、日没前の3次元空間情報および日没後の3次元空間画像を記憶しており、画像生成部272は、日没前であるか否かに基づき、2次元画像を生成するために利用する3次元空間情報を選択してもよい。なお、日没前と日没後では各オブジェクトの見え方(主に、輝度、色度)が異なるので、3次元空間情報と日没後の3次元空間画像とでは、各オブジェクトに対応する点データに異なる輝度データまたは色度データなどが設定され得る。また、画像生成部272は、図示しない明るさセンサにより現在が日没前であるか否かを判定してもよいし、現在の季節、現在時刻、および緯度経度情報に基づいて現在が日没前であるか否かを判定してもよい。ユーザの存在する環境に近い3次元空間情報を用いることで、実際にユーザが視認しやすいオブジェクトを抽出することが可能となる。
また、画像分割部274は、二次元画像の各区画の重みを、ユーザの周辺環境に応じて動的に設定してもよい。例えば、ユーザが屋外に存在し、かつ天候が雨天である場合、傘を差している歩行者が多く、ユーザの視野における上方が傘に遮られ易いと考えられる。このため、ユーザが屋外に存在し、かつ天候が雨天である場合、画像分割部274は2次元画像の上方領域に存在する区画の重みを下げてもよい。また、ユーザの周辺に歩行者が多い場合、ユーザの視界における中段および下方が歩行者により遮られ易いと考えられる。このため、ユーザの周辺に歩行者が多い場合、画像分割部274は2次元画像の中段領域および下方領域に存在する区画の重みを下げてもよい。
また、画像解析部276は、ある基準地点に関して生成された2次元画像の各区画から複数のオブジェクトを選択してもよいし、2次元画像から複数のオブジェクトを抽出してもよい。ここで、異なる区画に関して同一のオブジェクトが選択された場合、画像解析部276は、当該オブジェクトを抽出候補のオブジェクトから外してもよい。または、同一のオブジェクトが同一の水平方向の区画、または同一の垂直方向の区画に関して選択された場合、「上方向にxxがあります。」または「右方向にyyがあります。」のように、複数の区画を包括した補助情報を生成可能である。このため、同一のオブジェクトが同一の水平方向の区画、または同一の垂直方向の区画に関して選択された場合、画像解析部276は、同一の水平方向の区画、または同一の垂直方向の区画に関して選択されたオブジェクトを抽出してもよい。
また、画像解析部276は、抽出したオブジェクトと現在位置との距離を、3次元空間情報に基づいて算出して、当該距離を示す情報を情報生成部280に供給してもよい。かかる構成により、オブジェクトとの距離情報を含む補助情報を出力することが可能となる。
また、ある基準地点において生成された2次元画像に、直前の基準地点において生成された2次元画像から抽出されたオブジェクトが含まれる場合がある。この場合、画像解析部276は、基準地点において生成された2次元画像に含まれる各オブジェクトの評価値によらず、直前の基準地点において生成された2次元画像から抽出されたオブジェクトを抽出してもよい。
また、設定部230は、ユーザの移動手段ごとに設定情報を格納してもよい。図13は、ユーザの移動手段ごとに格納される設定情報の一例を示す説明図である。移動手段に応じてユーザの視線高さは異なるので、図13に示した例では、移動手段ごとにユーザの視線高さが設定されている。また、ユーザの移動手段に応じてユーザの移動速度が異なるので、ユーザの移動手段に応じて基準地点が設定される間隔が異なることが望ましい。このため、図13に示した例では、移動手段ごとに基準地点の間隔が設定されている。この場合、画像生成部272は、ユーザの現在の移動手段を推定し、推定された移動手段に対応する設定情報を用いて2次元画像を生成する。かかる構成により、より高精度にユーザの実際の視野に則した2次元画像を生成することが可能となる。
また、情報処理装置20は、床面から情報処理装置20の高さを検出する高さ検出部を備えてもよい。ユーザの目の位置は、情報処理装置20の位置よりも高いと考えられるので、画像生成部272は、高さ検出部により検出された情報処理装置20の高さに基づいてユーザの視線高さを推定し(例えば、情報処理装置20の高さ+30cm)、推定したユーザの視線高さを用いて2次元画像を生成してもよい。
また、上記では、案内ルートを決定した後にオブジェクトの抽出が行われる例を説明したが、複数の候補ルートのうちで、より有用な補助情報を出力可能なルートを案内ルートとして決定してもよい。以下、図12を参照して当該変形例を説明する。
以上、本発明の実施形態を説明した。上述した案内ルートの生成およびオブジェクトの抽出などの情報処理は、ソフトウェアと、以下に説明する情報処理装置20のハードウェアとの協働により実現される。
以上説明したように、本発明の実施形態によれば、ユーザの実際の移動方向の視野に含まれるであろうオブジェクトを抽出し、当該オブジェクトに関する補助情報をユーザに提供することができる。このため、ユーザは、自分が案内ルート上に位置しているか否か、および、ユーザの向き(ユーザの進行方向)が正しいか否かを認識し易くなる。結果、ナビゲーション画面と実際の移動方向の視野との対応関係をユーザが視線の往復により確認する頻度を減少させることが可能である。
30 出力部
32 表示部
34 音声出力部
220 位置推定部
230 設定部
240 記憶部
250 ナビゲーション機能部
252 出発地情報取得部
254 目的地情報取得部
256 案内ルート生成部
270 画像処理部
272 画像生成部
274 画像分割部
276 画像解析部
280 情報生成部
Claims (9)
- 3次元空間情報に基づき、ナビゲーション画面に含まれる案内ルートに沿って移動するユーザの視野に対応する評価領域を特定する評価領域特定部と、
前記評価領域に含まれるオブジェクトを抽出するオブジェクト抽出部と、
前記オブジェクト抽出部により抽出された前記オブジェクトを示す出力情報を生成する出力情報生成部と、
を備え、
前記評価領域特定部は、前記案内ルート上の基準地点における前記ユーザの視線高さを視点として、前記視点から、前記基準地点における前記案内ルートの向きを視線方向とする前記ユーザの視野に含まれる領域を前記評価領域として特定し、
前記評価領域特定部は、前記ユーザの視線高さとして、ユーザの移動手段ごとに事前に設定された値のうちで、前記ユーザの現在の移動手段に応じた値を用いる、情報処理装置。 - 前記評価領域特定部は、前記評価領域を表現する2次元画像を生成し、
前記情報処理装置は、前記2次元画像を複数の区画に分割する画像分割部をさらに備え、
前記オブジェクト抽出部は、前記複数の区画の各々について画像認識を行い、前記複数の区画の各々で認識されたオブジェクトから、前記オブジェクトを抽出し、
前記出力情報生成部は、前記オブジェクト抽出部により抽出された前記オブジェクト、および前記オブジェクトがいずれの区画で認識されたかに基づき、前記出力情報を生成する、請求項1に記載の情報処理装置。 - 前記オブジェクト抽出部は、
前記複数の区画の各々に含まれる物体が前記画像認識により認識した前記オブジェクトである確信度を算出し、
当該確信度に、前記複数の区画の各々に設定されている重みを乗じることで、前記オブジェクトの評価値を算出し、
前記複数の区画の各々から抽出された1または2以上の前記オブジェクトの評価値に基づき、前記1または2以上のオブジェクトから前記オブジェクトを抽出し、
前記出力情報生成部は、前記オブジェクト抽出部により抽出および選択されたオブジェクトを示す出力情報を生成する、請求項2に記載の情報処理装置。 - 前記2次元画像の中心に位置する中心区画に最も高い重みが設定され、前記中心区画の外側の区画には前記中心区画よりも低い重みが設定される、請求項3に記載の情報処理装置。
- 前記情報処理装置は、前記出力情報生成部により生成された前記出力情報を音声により出力する音声出力部をさらに備える、請求項1~4のいずれか一項に記載の情報処理装置。
- 前記評価領域特定部は、前記案内ルート上には複数の前記基準地点を設定し、前記複数の基準地点の間隔は、前記ユーザの移動手段に応じて異なる、請求項1に記載の情報処理装置。
- 前記出力情報生成部は、前記案内ルートを含む前記ナビゲーション画面をさらに生成する、請求項1~6のいずれか一項に記載の情報処理装置。
- コンピュータにより、
3次元空間情報に基づき、ナビゲーション画面に含まれる案内ルートに沿って移動するユーザの視野に対応する評価領域を特定することと、
前記評価領域に含まれるオブジェクトを抽出することと、
抽出された前記オブジェクトを示す出力情報を生成することと、
を含み、
前記評価領域を特定することは、前記案内ルート上の基準地点における前記ユーザの視線高さを視点として、前記視点から、前記基準地点における前記案内ルートの向きを視線方向とする前記ユーザの視野に含まれる領域を前記評価領域として特定することを含み、
前記ユーザの視線高さとして、ユーザの移動手段ごとに事前に設定された値のうちで、前記ユーザの現在の移動手段に応じた値が用いられる、情報処理方法。 - コンピュータを、
3次元空間情報に基づき、ナビゲーション画面に含まれる案内ルートに沿って移動するユーザの視野に対応する評価領域を特定する評価領域特定部と、
前記評価領域に含まれるオブジェクトを抽出するオブジェクト抽出部と、
前記オブジェクト抽出部により抽出された前記オブジェクトを示す出力情報を生成する出力情報生成部と、
を備え、
前記評価領域特定部は、前記案内ルート上の基準地点における前記ユーザの視線高さを視点として、前記視点から、前記基準地点における前記案内ルートの向きを視線方向とする前記ユーザの視野に含まれる領域を前記評価領域として特定し、
前記評価領域特定部は、前記ユーザの視線高さとして、ユーザの移動手段ごとに事前に設定された値のうちで、前記ユーザの現在の移動手段に応じた値を用いる、情報処理装置として機能させるための、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017160905A JP7027725B2 (ja) | 2017-08-24 | 2017-08-24 | 情報処理装置、情報処理方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017160905A JP7027725B2 (ja) | 2017-08-24 | 2017-08-24 | 情報処理装置、情報処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019039739A JP2019039739A (ja) | 2019-03-14 |
JP7027725B2 true JP7027725B2 (ja) | 2022-03-02 |
Family
ID=65725680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017160905A Active JP7027725B2 (ja) | 2017-08-24 | 2017-08-24 | 情報処理装置、情報処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7027725B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002277275A (ja) | 2001-03-19 | 2002-09-25 | Locus Corp | ナビゲーション方法、およびナビゲーションデータ管理方法 |
JP2005207781A (ja) | 2004-01-20 | 2005-08-04 | Mazda Motor Corp | 車両用画像表示装置、車両用画像表示方法及び車両用画像表示プログラム |
JP2007192670A (ja) | 2006-01-19 | 2007-08-02 | Aruze Corp | 携帯端末機用プログラム及び建築物内案内システム |
JP2007263849A (ja) | 2006-03-29 | 2007-10-11 | Matsushita Electric Ind Co Ltd | ナビゲーション装置 |
JP4068661B1 (ja) | 2006-10-13 | 2008-03-26 | 株式会社ナビタイムジャパン | ナビゲーションシステム、携帯端末装置および経路案内方法 |
WO2011121788A1 (ja) | 2010-03-31 | 2011-10-06 | パイオニア株式会社 | ナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体 |
-
2017
- 2017-08-24 JP JP2017160905A patent/JP7027725B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002277275A (ja) | 2001-03-19 | 2002-09-25 | Locus Corp | ナビゲーション方法、およびナビゲーションデータ管理方法 |
JP2005207781A (ja) | 2004-01-20 | 2005-08-04 | Mazda Motor Corp | 車両用画像表示装置、車両用画像表示方法及び車両用画像表示プログラム |
JP2007192670A (ja) | 2006-01-19 | 2007-08-02 | Aruze Corp | 携帯端末機用プログラム及び建築物内案内システム |
JP2007263849A (ja) | 2006-03-29 | 2007-10-11 | Matsushita Electric Ind Co Ltd | ナビゲーション装置 |
JP4068661B1 (ja) | 2006-10-13 | 2008-03-26 | 株式会社ナビタイムジャパン | ナビゲーションシステム、携帯端末装置および経路案内方法 |
WO2011121788A1 (ja) | 2010-03-31 | 2011-10-06 | パイオニア株式会社 | ナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP2019039739A (ja) | 2019-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210025729A1 (en) | Street-Level Guidance Via Route Path | |
US10878629B2 (en) | Display apparatus, information processing system, and control method | |
JP3798469B2 (ja) | ナビゲーション装置 | |
US20160210735A1 (en) | System for obstacle avoidance around a moving object | |
US20150204687A1 (en) | Apparatus and method of guiding lane change based on augmented reality | |
EP2728313A1 (en) | Method of displaying objects on a navigation map | |
JP2015000629A (ja) | 車載表示装置およびプログラム | |
WO2016199248A1 (ja) | 情報提示システム及び情報提示方法 | |
JP6596989B2 (ja) | 表示制御方法、表示制御プログラム、情報処理端末及びヘッドマウントディスプレイ | |
CN106441343B (zh) | 一种基于文字识别的街景导航方法 | |
JP6627214B2 (ja) | 情報表示装置、制御方法、プログラム、及び記憶媒体 | |
EP3827222B1 (en) | Method and device for navigating two or more users to a meeting location | |
JP2018120600A (ja) | 信号機認識装置、制御方法、プログラム及び記憶媒体 | |
US9791287B2 (en) | Drive assist system, method, and program | |
JP2015207243A5 (ja) | ||
US20170221268A1 (en) | Behavior tracking and modification using mobile augmented reality | |
US9739629B2 (en) | Location display system, location display method, and location display program | |
JP6968069B2 (ja) | 表示制御装置および表示制御方法 | |
JP2013225275A (ja) | 3次元画像表示システム | |
JP4804853B2 (ja) | 地点検索装置および車載用ナビゲーション装置 | |
US20240094007A1 (en) | Indoor wayfinder interface and service | |
JP2017032436A (ja) | 移動案内システム、移動案内方法及びコンピュータプログラム | |
JP7027725B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
WO2014115239A1 (ja) | 信号機認識装置、制御方法、プログラム及び記憶媒体 | |
KR20150086840A (ko) | 복수개의 카메라를 이용한 휴대 장치 및 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190327 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200513 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210511 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220131 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7027725 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |