JP2019039739A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2019039739A
JP2019039739A JP2017160905A JP2017160905A JP2019039739A JP 2019039739 A JP2019039739 A JP 2019039739A JP 2017160905 A JP2017160905 A JP 2017160905A JP 2017160905 A JP2017160905 A JP 2017160905A JP 2019039739 A JP2019039739 A JP 2019039739A
Authority
JP
Japan
Prior art keywords
unit
user
information
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017160905A
Other languages
English (en)
Other versions
JP7027725B2 (ja
Inventor
寛之 福島
Hiroyuki Fukushima
寛之 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2017160905A priority Critical patent/JP7027725B2/ja
Publication of JP2019039739A publication Critical patent/JP2019039739A/ja
Application granted granted Critical
Publication of JP7027725B2 publication Critical patent/JP7027725B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ナビゲーション画面と移動方向の視野との対応関係をユーザがより容易に理解することを可能にする。【解決手段】3次元空間情報に基づき、ナビゲーション画面に含まれる案内ルートに沿って移動するユーザの視野に対応する評価領域を特定する評価領域特定部と、前記評価領域に含まれるオブジェクトを抽出するオブジェクト抽出部と、前記オブジェクト抽出部により抽出された前記オブジェクトを示す出力情報を生成する出力情報生成部と、を備える、情報処理装置。【選択図】図2

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。
近年、ユーザを目的地へと導くナビゲーションシステムは、携帯機器上のサービスとして一般化しており、歩行または自動車などのいずれの移動手段においても幅広く利用されている。ユーザに対して提供されるナビゲーション画面には、出発地(ナビゲーション開始地点)および目的地(ナビゲーション終了地点)を結ぶ案内ルートが含まれ、2次元地図上または建物を3次元的(立体的)に表現する3次元地図上に当該案内ルートが示される。分岐点における進行方向に関する情報、特定ルート区間における距離情報、ルート周辺の建物名/施設名等の情報がナビゲーション音声としてユーザに提供されることもある。
上述したナビゲーション画面は、通常、ナビゲーション画面を利用するユーザが実世界で目にする移動方向の視野を正確に表現するものではない。このため、ユーザは、ナビゲーション画面と実際の移動方向の視野との対応関係を理解するために、ナビゲーション画面と移動方向の視野との間で視線を往復することがある。当該視線の往復はユーザにとって負荷であり、かつ、注意力が散漫となり交通トラブルのリスクが増大する。
上記問題に関し、特許文献1には、ナビゲーション画面内の一部を実世界に即した情報に置換する技術が開示されている。かかる技術によれば、ユーザが、ナビゲーション画面と実際の移動方向の視野との対応関係を理解し易くなる。
特開2009−276266号公報
本書編集委員、「眼・色・光 −より優れた色再現を求めて−」、日本印刷技術協会出版、2007年12月28日
しかし、特許文献1に記載の技術では、ナビゲーション画面を実世界に即した情報に置換できる範囲に制限があり、また、上記置換のためには毎回ユーザとのインタラクションが必要であるという問題があった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ナビゲーション画面とユーザの視野との対応関係をユーザがより容易に理解することが可能な、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、3次元空間情報に基づき、ナビゲーション画面に含まれる案内ルートに沿って移動するユーザの視野に対応する評価領域を特定する評価領域特定部と、前記評価領域に含まれるオブジェクトを抽出するオブジェクト抽出部と、前記オブジェクト抽出部により抽出された前記オブジェクトを示す出力情報を生成する出力情報生成部と、を備える、情報処理装置が提供される。
前記評価領域特定部は、前記案内ルート上の基準地点における前記ユーザの視線高さを視点として、前記視点から、前記基準地点における前記案内ルートの向きを視線方向とする前記ユーザの視野に含まれる領域を前記評価領域として特定してもよい。
前記評価領域特定部は、前記ユーザの視線高さとして、事前に設定された値を用いてもよい。
前記評価領域特定部は、前記ユーザの視線高さとして、ユーザの移動手段ごとに事前に設定された値のうちで、前記ユーザの現在の移動手段に応じた値を用いてもよい。
前記情報処理装置は、床面からの高さを検出する高さ検出部をさらに備え、前記評価領域特定部は、前記ユーザの視線高さとして、前記高さ検出部により検出された高さ以上の値を用いてもよい。
前記評価領域特定部は、前記評価領域を表現する2次元画像を生成し、前記情報処理装置は、前記2次元画像を複数の区画に分割する画像分割部をさらに備え、前記オブジェクト抽出部は、前記複数の区画の各々について画像認識を行い、前記複数の区画の各々で認識されたオブジェクトから、前記オブジェクトを抽出し、前記出力情報生成部は、前記オブジェクト抽出部により抽出された前記オブジェクト、および前記オブジェクトがいずれの区画で認識されたかに基づき、前記出力情報を生成してもよい。
前記オブジェクト抽出部は、前記複数の区画の各々に含まれる物体が前記画像認識により認識した前記オブジェクトである確信度を算出し、当該確信度に、前記複数の区画の各々に設定されている重みを乗じることで、前記オブジェクトの評価値を算出し、前記複数の区画の各々から抽出された1または2以上の前記オブジェクトの評価値に基づき、前記1または2以上のオブジェクトから前記オブジェクトを抽出し、前記出力情報生成部は、前記オブジェクト抽出部により抽出および選択されたオブジェクトを示す出力情報を生成してもよい。
前記2次元画像の中心に位置する中心区画に最も高い重みが設定され、前記中心区画の外側の区画には前記中心区画よりも低い重みが設定されてもよい。
前記情報処理装置は、前記出力情報生成部により生成された前記出力情報を音声により出力する音声出力部をさらに備えてもよい。
前記評価領域特定部は、前記案内ルート上には複数の前記基準地点を設定し、前記複数の基準地点の間隔は、前記ユーザの移動手段に応じて異なってもよい。
前記出力情報生成部は、前記案内ルートを含む前記ナビゲーション画面をさらに生成してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、3次元空間情報に基づき、ナビゲーション画面に含まれる案内ルートに沿って移動するユーザの視野に対応する評価領域を特定することと、前記評価領域に含まれるオブジェクトを抽出することと、抽出された前記オブジェクトを示す出力情報を生成することと、を含む、情報処理方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、3次元空間情報に基づき、ナビゲーション画面に含まれる案内ルートに沿って移動するユーザの視野に対応する評価領域を特定する評価領域特定部と、前記評価領域に含まれるオブジェクトを抽出するオブジェクト抽出部と、前記オブジェクト抽出部により抽出された前記オブジェクトを示す出力情報を生成する出力情報生成部と、として機能させるための、プログラムが提供される。
以上説明したように本発明によれば、ナビゲーション画面とユーザの視野との対応関係をユーザがより容易に理解することが可能である。
本発明の実施形態による情報処理装置を示す説明図である。 本発明の実施形態による情報処理装置の構成を示す説明図である。 案内ルートが重畳された地図情報を示す説明図である。 基準地点の設定例を示す説明図である。 ユーザの視野角の具体例を示す説明図である。 二次元画像の具体例を示す説明図である。 人間の有効視野を示す説明図である。 2次元画像の分割例を示す説明図である。 各区画に対する画像認識の結果例を示す説明図である。 各オブジェクトの評価値の具体例を示す説明図である。 本発明の実施形態による情報処理装置の動作を示すフローチャートである。 本発明の実施形態による情報処理装置の動作を示すフローチャートである。 ユーザの移動手段ごとに格納される設定情報の一例を示す説明図である。 変形例による情報処理装置の動作を示すフローチャートである。 情報処理装置のハードウェア構成を示したブロック図である。
以下に添付図面を参照しながら、本発明の実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、複数の構成要素の各々に同一符号のみを付する。
<1.情報処理装置の概要>
本発明の実施形態は、ユーザを目的地へと導くナビゲーション機能を有する情報処理装置に関する。以下、本発明の実施形態による情報処理装置20の概要を説明する。
図1は、本発明の実施形態による情報処理装置20を示す説明図である。図1に示したように、本発明の実施形態による情報処理装置20は、表示部32および音声出力部34を備える。
表示部32は、多様な表示画面を表示する。例えば、表示部32は、目的地およびルート検索条件などをユーザが入力するための操作画面、およびナビゲーション画面などを表示する。ナビゲーション画面は、図1に示したように、出発地を示す表示42、目的地を示す表示44、出発地および目的地を結ぶ案内ルート46、現在地表示48を含む。ユーザは、当該ナビゲーション画面を見て案内ルート46に沿って移動することで、目的地に到着することが可能である。
音声出力部34は、多様な音声を出力する。例えば、音声出力部34は、ユーザの位置に応じたナビゲーション音声を出力する。図1に示した例では、ユーザが信号機49の手前に到達しており、音声出力部34は「信号機丁字路右折」というナビゲーション音声を出力する。ユーザは、当該ナビゲーション音声に基づき、より確実に目的地へのルートを把握することができる。
上述した表示部32および音声出力部34は、ナビゲーション画面およびナビゲーション音声などのナビゲーション画面を出力する出力部の一例である。なお、情報処理装置20は、スマートフォンまたは専用端末などの携帯端末であってもよいし、車両に搭載される車載器であってもよい。
しかし、上述したナビゲーション画面は、通常、ナビゲーション画面を利用するユーザが実世界で目にする移動方向の視野を正確に表現するものではない。このため、ナビゲーション画面の理解を助ける情報が情報処理装置20からユーザに提供されない場合、ユーザは、ナビゲーション画面と実際の移動方向の視野との対応関係を理解するために、ナビゲーション画面と移動方向の視野との間で視線を往復し得る。当該視線の往復はユーザにとって負荷であり、かつ、注意力が散漫となり交通トラブルのリスクが増大する。
そこで、本件発明者は上記事情を一着眼点にして本発明の実施形態を創作するに至った。本発明の実施形態による情報処理装置20は、ナビゲーション画面と移動方向の視野との対応関係をユーザがより容易に理解することを可能とする。以下、このような本発明の実施形態による情報処理装置20の構成および動作を順次詳細に説明する。
<2.情報処理装置の構成>
図2は、本発明の実施形態による情報処理装置20の構成を示す説明図である。図2に示したように、本発明の実施形態による情報処理装置20は、出力部30と、位置推定部220と、設定部230と、記憶部240と、ナビゲーション機能部250と、画像処理部270と、情報生成部280と、を備える。
(位置推定部220)
位置推定部220は、情報処理装置20の現在位置を推定する。例えば、位置推定部220は、GPS(Global Positioning System)人工衛星から受信される衛星信号に基づいて情報処理装置20の現在位置を推定してもよい。また、位置推定部220は、WiFiのアクセスポイントから送信される信号の受信強度および各アクセスポイントの既知の位置情報に基づいて情報処理装置20の現在位置を推定してもよい。また、位置推定部220は、情報処理装置20に内蔵される加速度センサおよびジャイロセンサなどの慣性センサの出力を用いて、歩行者自律航法に基づいて情報処理装置20の現在位置を推定してもよい。
(設定部230)
設定部230は、ナビゲーション機能部250で用いられる設定情報、および画像処理部270で用いられる設定情報の格納および変更などを行う。ナビゲーション機能部250で用いられる設定情報としては、ユーザの視線高さを示す情報が挙げられる。設定部230は、設定情報を、ユーザによる操作に基づいて変更してもよいし、情報処理装置20に設けられたセンサからの出力に基づいて変更してもよい。
(記憶部240)
記憶部240は、情報処理装置20の動作で用いられる多様な情報を記憶する。記憶部240は、図2に示したように、例えば地図情報、3次元空間情報および認識用データセットを記憶する。地図情報は、ナビゲーション機能部250が案内ルートを生成する際に用いる情報であり、2次元平面における道路や施設の配置を示す情報であってもよい。3次元空間情報は、画像処理部270で用いられる情報であり、色情報付点群データやメッシュモデルおよびテクスチャで構成される。3次元空間情報に基づき、任意の視点からの空間画像を得ることが可能である。認識用データセットは、画像処理部270で用いられる情報であり、例えばDeep Learningによる物体認識のためのデータセットのように、画像認識に関連する情報である。
(ナビゲーション機能部250)
ナビゲーション機能部250は、案内ルートを生成するための構成である。ナビゲーション機能部250の機能は、図2に示したように、出発地情報取得部252、目的地情報取得部254、および案内ルート生成部256に細分化される。
・出発地情報取得部252
出発地情報取得部252は、ユーザがナビゲーションを求める区間の出発地(ナビゲーション開始地点)に関する情報を取得する。出発地情報取得部252は、例えば、位置推定部220により推定された現在位置を示す位置情報を取得してもよいし、ユーザにより図示しない操作部を介して指定された地名、住所または地図上の位置を示す位置情報を取得してもよい。
・目的地情報取得部254
目的地情報取得部254は、ユーザがナビゲーションを求める区間の目的地(ナビゲーション終了地点)に関する情報を取得する。目的地情報取得部254は、例えば、ユーザにより図示しない操作部を介して指定された地名、住所または地図上の位置を示す位置情報を取得してもよい。
・案内ルート生成部256
案内ルート生成部256は、出発地情報取得部252により取得された出発地に関する情報と、目的地情報取得部254により取得された目的地に関する情報と、設定部230に格納されている設定情報と、記憶部240に記憶されている地図情報と、に基づいて案内ルートを生成する。案内ルート生成部256は、地図情報が示す道路の配置のうちで、設定情報が示す移動手段で利用される道路の配置を用いて、目的地と出発地を結ぶルートを探索することにより、案内ルートを生成し得る。ただし、案内ルートの生成方法は特に限定されず、例えば、案内ルート生成部256は、ルート生成手法として一般的に利用されるダイクストラ法を用いて案内ルートを生成してもよい。
(画像処理部270)
画像処理部270は、ユーザが案内ルートを移動する際にユーザが実世界で目にすることが予想されるオブジェクト(ランドマーク)の情報を画像処理により抽出する。オブジェクトの情報は、例えば、オブジェクトの名前、形状またはユーザの視野におけるオブジェクトが存在するであろう位置の情報を含む。画像処理部270の機能は、図2に示したように、画像生成部272、画像分割部274および画像解析部276に細分化される。
・画像生成部272
画像生成部272(評価領域特定部)は、案内ルート上に複数の基準地点を設定し、設定部230に格納されているユーザの視点高さの情報および記憶部240に記憶されている3次元空間情報に基づき、各基準地点におけるユーザの視野に対応する3次元的な評価領域を特定する。具体的には、画像生成部272は、基準地点におけるユーザの視線高さを視点として、当該視点から、基準地点における案内ルートの向きを視線方向とするユーザの視野に含まれる領域を上記評価領域として特定する。なお、画像生成部272は、案内ルートにおいて道なりにユーザが進む区間に所定間隔で基準地点を設定し、進路が変わる箇所にも基準地点を設定してもよい。
さらに、画像生成部272は、特定した3次元的な評価領域を表現する2次元画像を生成する。当該2次元画像は、評価領域に存在するオブジェクトの抽出に用いられる。3次元空間情報における評価領域の部分の情報を解析することによりオブジェクトを抽出することも可能であるが、3次元的な評価領域を2次元画像に変換することにより、後段のオブジェクトの抽出負荷を低減することが可能である。
以下、図3〜図6を参照し、画像生成部272により生成される2次元画像の具体例を説明する。
図3は、案内ルートが重畳された建物内の地図情報を示す説明図である。図3においては、出発地52、目的地54および案内ルート56が示されている。案内ルートが図3に示したように生成された場合、画像生成部272は、例えば図4に示すように複数の基準地点を設定する。
図4は、基準地点の設定例を示す説明図である。図4に示した例では、基準地点P1〜P6が設定されている。基準地点P3は進路が変わる箇所に設定された基準地点であり、他の基準地点は同一進路において所定間隔で設定された基準地点である。
また、各基準地点から延出する2本の破線は、ユーザの想定される視野角を示す。当該視野角は、実際のユーザの視野角に近いことが望ましい。非特許文献1には、人間の安定注視野(眼球・頭部運動で無理なく注視可能であり、効果的な情報受容ができる領域)は、水平方向上での視野角(水平視野角)において60〜90°、垂直方向上での視野角(垂直視野角)として45〜70°が記載されている。非特許文献1を参考に、本明細書では、水平視野角の広さを60°と考え、垂直視野角の広さを45°と考える。
図5は、ユーザの視野角の具体例を示す説明図である。図5に示したように、画像生成部272は、視線方向を中心に水平視野角を左右に30°振り分け、視線方向を中心に垂直視野角を上側に20°、下側に25°振り分けてもよい。
ここで、視線方向は、水平方向、かつ、案内ルートにおいて基準地点の近傍の前後地点を結んで得られる方向であってもよい。図4に示した例では、基準地点P1、P2、P4〜P6の近傍では案内ルートは直線であるので、基準地点P1、P2、P4〜P6における視線方向は案内ルートの方向に一致する水平方向である。一方、基準地点P3は進路の変更点であるので、基準地点P3の近傍の前後地点を結ぶ直線は案内ルートの方向と異なり、基準地点P3における視線方向は案内ルートの方向と異なる。
なお、ユーザが進路を変更する場合、実際には、ユーザはある地点で不連続に進行方向を変更せず、円弧を描くように連続的に進行方向を変更する。このような連続的な進行方向の変更が案内ルートに反映されている場合、画像生成部272は、案内ルートの接線方向をユーザの視線方向として用いてもよい。
画像生成部272は、上記のように設定した複数の基準地点の各々におけるユーザの視野に含まれる領域を評価領域として3次元空間情報から特定し、特定した評価領域を表現する2次元画像を生成する。例えば、画像生成部272は、基準地点P4に関して図6に示す2次元画像を生成する。基準地点におけるユーザの視野に実際に含まれるであろう領域が評価領域として特定されるので、画像生成部272において生成される2次元画像は、ユーザの基準地点における視野に則することが期待される。
・画像分割部274
画像分割部274は、画像生成部272により生成された2次元画像を複数の区画に分割し、各区画に重みを設定する。非特許文献1によれば、人間の有効視野(眼球運動だけで瞬時に情報受容できる領域)は、図7に示したように、水平視野角において30°以内であり、垂直視野角において20°以内である。そこで、画像分割部274は、ユーザの視線方向を中心とする有効視野(水平視野角において30°以内、垂直視野角において20°以内)に対応する区画を2次元画像から切り出し、有効視野の周辺に対応する領域を複数の区画に分割してもよい。
図8は、2次元画像の分割例を示す説明図である。図8に示した例では、水平視野角を−30°〜−15°、−15°〜15°および15°〜30°の3つに区分けし、垂直視野角を−25°〜−10°、−10°〜10°および10°〜20°の3つに区分けすることで、9つの区画A〜区画Iが得られる。便宜上、視線方向から見た一側を正方向、他側を負方向(−)として示している。
区画A〜区画Iには、視線中心Qとの距離に応じた重みが設定される。すなわち、区画の重みは、当該区画に対応する領域をユーザがどの程度認識し易いかを示す。図8に示した例では、視線中心Qを含む、有効視野に対応する区画Eには最も高い重み「1.5」が設定され、視線中心Qと水平位置または垂直位置が一致する区画B、D、FおよびHには重み「1.2」が設定され、視線中心Qと水平位置および垂直位置のいずれも一致しない区画A、C、GおよびIにも最も低い重み「1.0」が設定される。
・画像解析部276
画像解析部276は、評価領域に含まれるオブジェクトを抽出するオブジェクト抽出部の一例である。具体的には、画像解析部276は、画像分割部274により得られた2次元画像の各区画を解析することで各区画からオブジェクトを認識し、認識された1または2以上のオブジェクトから所定の条件に従ってオブジェクトを抽出する。そして、画像解析部276は、抽出したオブジェクトに関する情報を情報生成部280に供給する。
例えば、画像解析部276は、2次元画像の各区画に対して、記憶部240に記憶されている認識用データセットに基づき、例えばDeep Learningを利用した画像認識を施す。これにより、区画内の各物体が何のオブジェクトであるかを示す認識結果、および各物体が認識されたオブジェクトである確信度(認識の確からしさが高いほど大きい数値。適合度。自確信度。)が得られる。画像解析部276は、各区画内で確信度が最も高く、かつ、確信度が所定の閾値を上回るオブジェクトを選択する。確信度が最も高く、かつ、確信度が所定の閾値を上回るオブジェクトが存在しない区画については、当該区画にオブジェクトが存在しないとして扱われる。
図9は、各区画に対する画像認識の結果例を示す説明図である。なお、図9に示した2次元画像は、図5に示した、基準地点P4における二次元画像である。図9に示した例では、区画Dについてオブジェクト「植物」(確信度:80)が選択され、区画Eについてオブジェクト「赤いマット」(確信度:40)が特定され、区画Gについてオブジェクト「赤いソファ」(確信度:80)が選択され、区画Iについてオブジェクト「黒い椅子」(確信度:60)が選択されている。
続いて、画像解析部276は、各区画について選択されたオブジェクトの適合度に、各区画に設定されている重みを乗算して、各区画について選択されたオブジェクトの評価値を算出する。そして、画像解析部276は、評価値が最も高いオブジェクトを抽出する。評価値が同一である2以上のオブジェクトが存在する場合、画像解析部276は、区画に設定された重みが大きい方のオブジェクトを優先的に抽出してもよい。評価値および区画に設定された重みの双方が同一の2以上のオブジェクトが存在する場合、画像解析部276は、当該2以上のオブジェクトを抽出してもよい。例えば、図9に示した画像認識の結果が得られ、各区画に図8に示した重みが設定されている場合、各オブジェクトの評価値は図10に示す評価値となる。
図10は、各オブジェクトの評価値の具体例を示す説明図である。図10に示した例では、区画Dについて選択されたオブジェクト「植物」の評価値が「96」であり、区画Eについて選択されたオブジェクト「赤いマット」の評価値が「60」であり、区画Gについて選択されたオブジェクト「赤いソファ」の評価値が「80」であり、区画Iについて選択されたオブジェクト「黒い椅子」の評価値が「60」である。
図10に示した例では区画Dについて選択されたオブジェクト「植物」の評価値が最大であるので、画像解析部276は、区画Dについて選択されたオブジェクト「植物」を抽出する。そして、画像解析部276は、オブジェクト「植物」を示す情報、およびオブジェクト「植物」が認識された区画Dを示す情報を情報生成部280に供給する。
(情報生成部280)
情報生成部280は、出力部30から出力される情報を生成する出力情報生成部である。例えば、情報生成部280は、ナビゲーション機能部250によって生成された案内ルート、位置推定部220により推定された現在位置の表示を含むナビゲーション画面を生成する。また、情報生成部280は、進路の分岐点の手前では、ナビゲーション画面に進路変更の指示および分岐点までの距離情報を重畳する。また、情報生成部280は、進路の分岐点の手前では、ナビゲーション画面に進路変更の指示および分岐点までの距離情報を含むナビゲーション音声を生成してもよい。これらナビゲーション画面およびナビゲーション音声などのナビゲーション情報は出力部30により出力される。
さらに、本発明の実施形態による情報生成部280は、画像処理部270から供給される情報に基づいて、各基準地点について、ユーザによるナビゲーション情報の理解を補助するための補助情報を生成する。具体的には、情報生成部280は、画像処理部270から供給される、オブジェクトを示す情報、および当該オブジェクトが認識された区画を示す情報に基づき、基準地点において実際にどの方向に何が見えるかを示す補助情報を生成する。例えば、画像処理部270からオブジェクト「植物」を示す情報、およびオブジェクト「植物」が認識された区画Dを示す情報が供給された場合、情報生成部280は、「左前方に植物があります」という補助情報を音声形式で生成してもよい。この場合、音声出力部34が補助情報を出力する。これにより、ユーザは情報処理装置20を見ることなく、実世界への視野を維持しながら補助情報を得ることが可能である。ただし、補助情報の形式は音声形式に限られず、補助情報の形式は画像形式であってもよい。
<3.情報処理装置の動作>
以上、本発明の実施形態による情報処理装置20の構成を説明した。続いて、図11および図12を参照して、本発明の実施形態による情報処理装置20の動作を整理する。
図11および図12は、本発明の実施形態による情報処理装置20の動作を示すフローチャートである。図11に示したように、まず、出発地情報取得部252が出発地に関する情報を取得し(S304)、目的地情報取得部254が目的地に関する情報を取得する(S308)。そして、案内ルート生成部256が、出発地に関する情報と、目的地に関する情報と、設定部230に格納されている設定情報と、記憶部240に記憶されている地図情報と、に基づいて案内ルートを生成する(S312)。その後、情報生成部280が案内ルートに基づいてナビゲーション情報を生成し、出力部30がナビゲーション情報の出力を開始する(S316)。
一方、画像処理部270は、案内ルート上に複数の基準地点を設定する(S320)。そして、画像処理部270は、直近の基準地点におけるユーザの視野からオブジェクトを抽出する(S330)。具体的には、図12に示したように、まず、画像生成部272が、直近の基準地点におけるユーザの視野に対応する2次元画像を生成する(S332)。そして、画像分割部274が、画像生成部272により生成された2次元画像を複数の区画に分割する(S334)。続いて、画像解析部276が、画像分割部274により得られた2次元画像の各区画を解析することで各区画からオブジェクトを認識する(S336)。さらに、画像解析部276は、各区画内で確信度が最も高く、かつ、確信度が所定の閾値を上回るオブジェクトを選択する。そして、画像解析部276は、各区画について選択されたオブジェクトの適合度に、各区画に設定されている重みを乗算して、各区画について選択されたオブジェクトの評価値を算出する(S338)。続いて、画像解析部276は、各区画について選択されたオブジェクトから、評価値が最も高いオブジェクトを抽出する(S339)。
その後、図11に示したように、情報生成部280が、画像処理部270から供給される、オブジェクトを示す情報、および当該オブジェクトが認識された区画を示す情報に基づき、基準地点において実際にどの方向に何が見えるかを示す補助情報を生成する(S344)。そして、出力部30が、情報生成部280により生成された補助情報を出力する(S344)。
上述したS330〜S344の処理が、ユーザが目的地に到着するまで繰り返される(S348)。
以上説明したように、本発明の実施形態によれば、ユーザの実際の移動方向の視野に含まれるであろうオブジェクトを抽出し、当該オブジェクトに関する補助情報をユーザに提供することができる。このため、ユーザは、自分が案内ルート上に位置しているか否か、および、ユーザの向き(ユーザの進行方向)が正しいか否かを認識し易くなる。結果、ナビゲーション画面と実際の移動方向の視野との対応関係をユーザが視線の往復により確認する頻度を減少させることが可能である。
<4.変形例>
以上、本発明の実施形態を説明した。以下では、本発明の実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本発明の実施形態に適用されてもよいし、組み合わせで本発明の実施形態に適用されてもよい。また、各変形例は、本発明の実施形態で説明した構成に代えて適用されてもよいし、本発明の実施形態で説明した構成に対して追加的に適用されてもよい。
(変形例1)
例えば、画像生成部272が2次元画像を生成する際に利用する3次元空間情報は、状況に応じて異なってもよい。例えば、記憶部240は、日没前の3次元空間情報および日没後の3次元空間画像を記憶しており、画像生成部272は、日没前であるか否かに基づき、2次元画像を生成するために利用する3次元空間情報を選択してもよい。なお、日没前と日没後では各オブジェクトの見え方(主に、輝度、色度)が異なるので、3次元空間情報と日没後の3次元空間画像とでは、各オブジェクトに対応する点データに異なる輝度データまたは色度データなどが設定され得る。また、画像生成部272は、図示しない明るさセンサにより現在が日没前であるか否かを判定してもよいし、現在の季節、現在時刻、および緯度経度情報に基づいて現在が日没前であるか否かを判定してもよい。ユーザの存在する環境に近い3次元空間情報を用いることで、実際にユーザが視認しやすいオブジェクトを抽出することが可能となる。
(変形例2)
また、画像分割部274は、二次元画像の各区画の重みを、ユーザの周辺環境に応じて動的に設定してもよい。例えば、ユーザが屋外に存在し、かつ天候が雨天である場合、傘を差している歩行者が多く、ユーザの視野における上方が傘に遮られ易いと考えられる。このため、ユーザが屋外に存在し、かつ天候が雨天である場合、画像分割部274は2次元画像の上方領域に存在する区画の重みを下げてもよい。また、ユーザの周辺に歩行者が多い場合、ユーザの視界における中段および下方が歩行者により遮られ易いと考えられる。このため、ユーザの周辺に歩行者が多い場合、画像分割部274は2次元画像の中段領域および下方領域に存在する区画の重みを下げてもよい。
(変形例3)
また、画像解析部276は、ある基準地点に関して生成された2次元画像の各区画から複数のオブジェクトを選択してもよいし、2次元画像から複数のオブジェクトを抽出してもよい。ここで、異なる区画に関して同一のオブジェクトが選択された場合、画像解析部276は、当該オブジェクトを抽出候補のオブジェクトから外してもよい。または、同一のオブジェクトが同一の水平方向の区画、または同一の垂直方向の区画に関して選択された場合、「上方向にxxがあります。」または「右方向にyyがあります。」のように、複数の区画を包括した補助情報を生成可能である。このため、同一のオブジェクトが同一の水平方向の区画、または同一の垂直方向の区画に関して選択された場合、画像解析部276は、同一の水平方向の区画、または同一の垂直方向の区画に関して選択されたオブジェクトを抽出してもよい。
(変形例4)
また、画像解析部276は、抽出したオブジェクトと現在位置との距離を、3次元空間情報に基づいて算出して、当該距離を示す情報を情報生成部280に供給してもよい。かかる構成により、オブジェクトとの距離情報を含む補助情報を出力することが可能となる。
(変形例5)
また、ある基準地点において生成された2次元画像に、直前の基準地点において生成された2次元画像から抽出されたオブジェクトが含まれる場合がある。この場合、画像解析部276は、基準地点において生成された2次元画像に含まれる各オブジェクトの評価値によらず、直前の基準地点において生成された2次元画像から抽出されたオブジェクトを抽出してもよい。
(変形例6)
また、設定部230は、ユーザの移動手段ごとに設定情報を格納してもよい。図13は、ユーザの移動手段ごとに格納される設定情報の一例を示す説明図である。移動手段に応じてユーザの視線高さは異なるので、図13に示した例では、移動手段ごとにユーザの視線高さが設定されている。また、ユーザの移動手段に応じてユーザの移動速度が異なるので、ユーザの移動手段に応じて基準地点が設定される間隔が異なることが望ましい。このため、図13に示した例では、移動手段ごとに基準地点の間隔が設定されている。この場合、画像生成部272は、ユーザの現在の移動手段を推定し、推定された移動手段に対応する設定情報を用いて2次元画像を生成する。かかる構成により、より高精度にユーザの実際の視野に則した2次元画像を生成することが可能となる。
(変形例7)
また、情報処理装置20は、床面から情報処理装置20の高さを検出する高さ検出部を備えてもよい。ユーザの目の位置は、情報処理装置20の位置よりも高いと考えられるので、画像生成部272は、高さ検出部により検出された情報処理装置20の高さに基づいてユーザの視線高さを推定し(例えば、情報処理装置20の高さ+30cm)、推定したユーザの視線高さを用いて2次元画像を生成してもよい。
(変形例8)
また、上記では、案内ルートを決定した後にオブジェクトの抽出が行われる例を説明したが、複数の候補ルートのうちで、より有用な補助情報を出力可能なルートを案内ルートとして決定してもよい。以下、図12を参照して当該変形例を説明する。
図14は、変形例による情報処理装置20の動作を示すフローチャートである。図14に示したように、まず、出発地情報取得部252が出発地に関する情報を取得し(S404)、目的地情報取得部254が目的地に関する情報を取得する(S408)。そして、案内ルート生成部256が、出発地に関する情報と、目的地に関する情報と、設定部230に格納されている設定情報と、記憶部240に記憶されている地図情報と、に基づいて複数の候補ルートを生成する(S412)。
その後、画像処理部270が、各候補ルートについてS416〜S424の処理を実行する。具体的には、画像処理部270が、候補ルート上に複数の基準地点を設定する(S416)。そして、画像処理部270は、設定された各基準地点における視野から、図12を参照して説明した方法に準じてオブジェクトを抽出する(S420)。続いて、情報生成部280が、画像処理部270により抽出されたオブジェクトの情報に基づいて補助情報を生成する(S424)。
その後、案内ルート生成部256は、S412で生成した複数の候補ルートのうちで、補助情報が最も充実した候補ルートを案内ルートに決定する(S428)。そして、情報生成部280が案内ルートに基づいてナビゲーション情報を生成し、出力部30がナビゲーション情報の出力を開始する(S432)。
<5.ハードウェア構成>
以上、本発明の実施形態を説明した。上述した案内ルートの生成およびオブジェクトの抽出などの情報処理は、ソフトウェアと、以下に説明する情報処理装置20のハードウェアとの協働により実現される。
図15は、情報処理装置20のハードウェア構成を示したブロック図である。情報処理装置20は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、ホストバス204と、を備える。また、情報処理装置20は、ブリッジ205と、外部バス206と、インタフェース207と、入力装置208と、表示装置209と、音声出力装置210と、ストレージ装置(HDD)211と、ドライブ212と、ネットワークインタフェース215とを備える。
CPU201は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置20内の動作全般を制御する。また、CPU201は、マイクロプロセッサであってもよい。ROM202は、CPU201が使用するプログラムや演算パラメータ等を記憶する。RAM203は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス204により相互に接続されている。CPU201、ROM202およびRAM203とソフトウェアとの協働により、ナビゲーション機能部250および画像処理部270の機能が実現され得る。
ホストバス204は、ブリッジ205を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス206に接続されている。なお、必ずしもホストバス204、ブリッジ205および外部バス206を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置208は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、センサー、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU201に出力する入力制御回路などから構成されている。情報処理装置20のユーザは、該入力装置208を操作することにより、情報処理装置20に対して各種のデータを入力したり処理動作を指示したりすることができる。
表示装置209は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、プロジェクター装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。また、音声出力装置210は、スピーカおよびヘッドホンなどの音声出力装置を含む。
ストレージ装置211は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置211は、例えば、HDD(Hard Disk Drive)またはSSD(Solid Strage Drive)、あるいは同等の機能を有するメモリ等で構成される。このストレージ装置211は、ストレージを駆動し、CPU201が実行するプログラムや各種データを格納する。ストレージ装置211は、図2を参照して説明した記憶部240に対応する。
ドライブ212は、記憶媒体用リーダライタであり、情報処理装置20に内蔵、あるいは外付けされる。ドライブ212は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体24に記録されている情報を読み出して、RAM203またはストレージ装置211に出力する。また、ドライブ212は、リムーバブル記憶媒体24に情報を書き込むこともできる。
ネットワークインタフェース215は、例えば、専用網12に接続するための通信デバイス等で構成された通信インタフェースである。また、ネットワークインタフェース215は、無線LAN(Local Area Network)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
<6.むすび>
以上説明したように、本発明の実施形態によれば、ユーザの実際の移動方向の視野に含まれるであろうオブジェクトを抽出し、当該オブジェクトに関する補助情報をユーザに提供することができる。このため、ユーザは、自分が案内ルート上に位置しているか否か、および、ユーザの向き(ユーザの進行方向)が正しいか否かを認識し易くなる。結果、ナビゲーション画面と実際の移動方向の視野との対応関係をユーザが視線の往復により確認する頻度を減少させることが可能である。
なお、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記ではナビゲーション機能部250および画像処理部270が情報処理装置20内に存在する例を説明したが、情報処理装置20はナビゲーション機能部250および画像処理部270の双方の機能を備えなくてもよい。ナビゲーション機能部250または画像処理部270の少なくとも一方はネットワーク側に存在してもよい。
また、上記では2次元画像が長方形形状の9つの区画に分割される例を説明したが、区画の数および区画の形状は上述した例に限定されない。
また、本明細書の情報処理装置20の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、情報処理装置20の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、情報処理装置20に内蔵されるCPU、ROMおよびRAMなどのハードウェアに、上述した情報処理装置20の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
20 情報処理装置
30 出力部
32 表示部
34 音声出力部
220 位置推定部
230 設定部
240 記憶部
250 ナビゲーション機能部
252 出発地情報取得部
254 目的地情報取得部
256 案内ルート生成部
270 画像処理部
272 画像生成部
274 画像分割部
276 画像解析部
280 情報生成部

Claims (13)

  1. 3次元空間情報に基づき、ナビゲーション画面に含まれる案内ルートに沿って移動するユーザの視野に対応する評価領域を特定する評価領域特定部と、
    前記評価領域に含まれるオブジェクトを抽出するオブジェクト抽出部と、
    前記オブジェクト抽出部により抽出された前記オブジェクトを示す出力情報を生成する出力情報生成部と、
    を備える、情報処理装置。
  2. 前記評価領域特定部は、前記案内ルート上の基準地点における前記ユーザの視線高さを視点として、前記視点から、前記基準地点における前記案内ルートの向きを視線方向とする前記ユーザの視野に含まれる領域を前記評価領域として特定する、請求項1に記載の情報処理装置。
  3. 前記評価領域特定部は、前記ユーザの視線高さとして、事前に設定された値を用いる、請求項2に記載の情報処理装置。
  4. 前記評価領域特定部は、前記ユーザの視線高さとして、ユーザの移動手段ごとに事前に設定された値のうちで、前記ユーザの現在の移動手段に応じた値を用いる、請求項3に記載の情報処理装置。
  5. 前記情報処理装置は、床面からの高さを検出する高さ検出部をさらに備え、
    前記評価領域特定部は、前記ユーザの視線高さとして、前記高さ検出部により検出された高さ以上の値を用いる、請求項2に記載の情報処理装置。
  6. 前記評価領域特定部は、前記評価領域を表現する2次元画像を生成し、
    前記情報処理装置は、前記2次元画像を複数の区画に分割する画像分割部をさらに備え、
    前記オブジェクト抽出部は、前記複数の区画の各々について画像認識を行い、前記複数の区画の各々で認識されたオブジェクトから、前記オブジェクトを抽出し、
    前記出力情報生成部は、前記オブジェクト抽出部により抽出された前記オブジェクト、および前記オブジェクトがいずれの区画で認識されたかに基づき、前記出力情報を生成する、請求項1〜5のいずれか一項に記載の情報処理装置。
  7. 前記オブジェクト抽出部は、
    前記複数の区画の各々に含まれる物体が前記画像認識により認識した前記オブジェクトである確信度を算出し、
    当該確信度に、前記複数の区画の各々に設定されている重みを乗じることで、前記オブジェクトの評価値を算出し、
    前記複数の区画の各々から抽出された1または2以上の前記オブジェクトの評価値に基づき、前記1または2以上のオブジェクトから前記オブジェクトを抽出し、
    前記出力情報生成部は、前記オブジェクト抽出部により抽出および選択されたオブジェクトを示す出力情報を生成する、請求項6に記載の情報処理装置。
  8. 前記2次元画像の中心に位置する中心区画に最も高い重みが設定され、前記中心区画の外側の区画には前記中心区画よりも低い重みが設定される、請求項7に記載の情報処理装置。
  9. 前記情報処理装置は、前記出力情報生成部により生成された前記出力情報を音声により出力する音声出力部をさらに備える、請求項1〜8のいずれか一項に記載の情報処理装置。
  10. 前記評価領域特定部は、前記案内ルート上には複数の前記基準地点を設定し、前記複数の基準地点の間隔は、前記ユーザの移動手段に応じて異なる、請求項2に記載の情報処理装置。
  11. 前記出力情報生成部は、前記案内ルートを含む前記ナビゲーション画面をさらに生成する、請求項1〜10のいずれか一項に記載の情報処理装置。
  12. 3次元空間情報に基づき、ナビゲーション画面に含まれる案内ルートに沿って移動するユーザの視野に対応する評価領域を特定することと、
    前記評価領域に含まれるオブジェクトを抽出することと、
    抽出された前記オブジェクトを示す出力情報を生成することと、
    を含む、情報処理方法。
  13. コンピュータを、
    3次元空間情報に基づき、ナビゲーション画面に含まれる案内ルートに沿って移動するユーザの視野に対応する評価領域を特定する評価領域特定部と、
    前記評価領域に含まれるオブジェクトを抽出するオブジェクト抽出部と、
    前記オブジェクト抽出部により抽出された前記オブジェクトを示す出力情報を生成する出力情報生成部と、
    として機能させるための、プログラム。
JP2017160905A 2017-08-24 2017-08-24 情報処理装置、情報処理方法およびプログラム Active JP7027725B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017160905A JP7027725B2 (ja) 2017-08-24 2017-08-24 情報処理装置、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017160905A JP7027725B2 (ja) 2017-08-24 2017-08-24 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2019039739A true JP2019039739A (ja) 2019-03-14
JP7027725B2 JP7027725B2 (ja) 2022-03-02

Family

ID=65725680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017160905A Active JP7027725B2 (ja) 2017-08-24 2017-08-24 情報処理装置、情報処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7027725B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002277275A (ja) * 2001-03-19 2002-09-25 Locus Corp ナビゲーション方法、およびナビゲーションデータ管理方法
JP2005207781A (ja) * 2004-01-20 2005-08-04 Mazda Motor Corp 車両用画像表示装置、車両用画像表示方法及び車両用画像表示プログラム
JP2007192670A (ja) * 2006-01-19 2007-08-02 Aruze Corp 携帯端末機用プログラム及び建築物内案内システム
JP2007263849A (ja) * 2006-03-29 2007-10-11 Matsushita Electric Ind Co Ltd ナビゲーション装置
JP4068661B1 (ja) * 2006-10-13 2008-03-26 株式会社ナビタイムジャパン ナビゲーションシステム、携帯端末装置および経路案内方法
WO2011121788A1 (ja) * 2010-03-31 2011-10-06 パイオニア株式会社 ナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002277275A (ja) * 2001-03-19 2002-09-25 Locus Corp ナビゲーション方法、およびナビゲーションデータ管理方法
JP2005207781A (ja) * 2004-01-20 2005-08-04 Mazda Motor Corp 車両用画像表示装置、車両用画像表示方法及び車両用画像表示プログラム
JP2007192670A (ja) * 2006-01-19 2007-08-02 Aruze Corp 携帯端末機用プログラム及び建築物内案内システム
JP2007263849A (ja) * 2006-03-29 2007-10-11 Matsushita Electric Ind Co Ltd ナビゲーション装置
JP4068661B1 (ja) * 2006-10-13 2008-03-26 株式会社ナビタイムジャパン ナビゲーションシステム、携帯端末装置および経路案内方法
WO2011121788A1 (ja) * 2010-03-31 2011-10-06 パイオニア株式会社 ナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体

Also Published As

Publication number Publication date
JP7027725B2 (ja) 2022-03-02

Similar Documents

Publication Publication Date Title
US11698268B2 (en) Street-level guidance via route path
EP2728313B1 (en) Method of displaying objects on a navigation map
CN110487262A (zh) 基于增强现实设备的室内定位方法及系统
JP2014181927A (ja) 情報提供装置、及び情報提供プログラム
WO2016199248A1 (ja) 情報提示システム及び情報提示方法
JP6596989B2 (ja) 表示制御方法、表示制御プログラム、情報処理端末及びヘッドマウントディスプレイ
US20160146614A1 (en) Computer vision navigation
CN106441343B (zh) 一种基于文字识别的街景导航方法
JP6627214B2 (ja) 情報表示装置、制御方法、プログラム、及び記憶媒体
KR20130018119A (ko) 3d 터널 표현
JP2014203115A (ja) 検出装置、制御方法、プログラム及び記憶媒体
JP2018120600A (ja) 信号機認識装置、制御方法、プログラム及び記憶媒体
JP5883723B2 (ja) 3次元画像表示システム
EP3827222B1 (en) Method and device for navigating two or more users to a meeting location
US20170221268A1 (en) Behavior tracking and modification using mobile augmented reality
JP4804853B2 (ja) 地点検索装置および車載用ナビゲーション装置
JP7027725B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2010286340A (ja) 交差点案内情報作成装置
JP2009026164A (ja) 車線認識装置及びナビゲーション装置
KR102442239B1 (ko) 디지털 사이니지를 이용한 실내 길안내 장치
JPWO2014115239A1 (ja) 信号機認識装置、制御方法、プログラム及び記憶媒体
EP2950048A1 (en) System and method for providing geographically based sound cues to a user of a mobile device
JP2016219024A (ja) 信号機認識装置、制御方法、プログラム及び記憶媒体
JP2018163123A (ja) 端末装置、ヘッドマウント型表示装置、コード表示方法、ルート案内方法及びコンピュータプログラム
JP2012189477A (ja) 経路表示装置、方法およびプログラム

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220131

R150 Certificate of patent or registration of utility model

Ref document number: 7027725

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150