JP2020030134A - 情報処理装置、情報処理方法、及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法、及び情報処理プログラム Download PDF

Info

Publication number
JP2020030134A
JP2020030134A JP2018156511A JP2018156511A JP2020030134A JP 2020030134 A JP2020030134 A JP 2020030134A JP 2018156511 A JP2018156511 A JP 2018156511A JP 2018156511 A JP2018156511 A JP 2018156511A JP 2020030134 A JP2020030134 A JP 2020030134A
Authority
JP
Japan
Prior art keywords
information
user
information processing
sensor
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018156511A
Other languages
English (en)
Other versions
JP7093268B2 (ja
Inventor
一浩 二宮
Kazuhiro Ninomiya
一浩 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LY Corp
Original Assignee
Z Holdings Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Z Holdings Corp filed Critical Z Holdings Corp
Priority to JP2018156511A priority Critical patent/JP7093268B2/ja
Publication of JP2020030134A publication Critical patent/JP2020030134A/ja
Application granted granted Critical
Publication of JP7093268B2 publication Critical patent/JP7093268B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ユーザの視線に応じたルートに関するナビゲーションを提供可能にする。【解決手段】本願に係る情報処理装置は、取得部と、決定部とを有する。取得部は、一の移動体を操作するユーザの視線方向を撮像した画像情報を取得する。提供部は、取得部により取得された画像情報に基づいて、ユーザに移動ルートを案内するナビゲーションサービスを提供する。【選択図】図3

Description

本発明は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。
近年、ユーザに移動に関する種々のナビゲーションサービスが提供されている。例えば、自動車等の移動体で移動するユーザをナビゲーションにおいて、複数の案内対象物の候補から適切なものを選択する技術が提供されている。
特開2014−174880号公報
しかしながら、上記の従来技術では、ユーザの視線に応じたルートに関するナビゲーションを提供可能にすることができるとは限らない。例えば、複数の案内対象物の候補から適切なものを選択し、その対象物をユーザに通知するだけでは、ルートに関するナビゲーションを提供可能にすることが難しい場合があるという課題がある。
本願は、上記に鑑みてなされたものであって、ユーザの視線に応じたルートに関するナビゲーションを提供可能にする情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。
本願に係る情報処理装置は、一の移動体を操作するユーザの視線方向を撮像した画像情報を取得する取得部と、前記取得部により取得された前記画像情報に基づいて、前記ユーザに移動ルートを案内するナビゲーションサービスを提供する提供部と、を備えたことを特徴とする。
実施形態の一態様によれば、ユーザの視線に応じたルートに関するナビゲーションを提供可能にすることができるという効果を奏する。
図1は、実施形態に係る情報処理の一例を示す図である。 図2は、実施形態に係る情報処理システムの構成例を示す図である。 図3は、実施形態に係る情報処理装置の構成例を示す図である。 図4は、実施形態に係るPOI情報記憶部の一例を示す図である。 図5は、実施形態に係るユーザ情報記憶部の一例を示す図である。 図6は、実施形態に係る移動体情報記憶部の一例を示す図である。 図7は、実施形態に係るセンサ情報記憶部の一例を示す図である。 図8は、実施形態に係る情報処理の一例を示すフローチャートである。 図9は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る情報処理装置、情報処理方法、及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
(実施形態)
〔1.情報処理〕
まず、図1を用いて、実施形態に係る情報処理の一例について説明する。図1は、実施形態に係る情報処理の一例を示す図である。図1の例では、情報処理装置100は、一の移動体を操作するユーザの視線方向を撮像した画像情報に基づいて、ユーザに移動ルートを案内するナビゲーションサービス(以下、「ナビサービス」ともいう)を提供する場合を示す。図1の例では、ユーザU1が運転する移動体C1に配置された端末装置10により、ナビサービスに関する情報が出力される場合を示す。図1の例では、一の移動体が自動車であり、自動車を運転(操作)するユーザの視線方向を撮像した画像情報に基づいて、ユーザにナビサービスを提供する場合を示す。
情報処理装置100は、ナビゲーションに関するアプリケーションがインストールされた端末装置10にナビサービスを提供する。以下では、自動車で移動するユーザをナビゲーションであるナビアプリAが端末装置10にインストールされている場合を例に説明する。また、以下では、ナビゲーションを単に「ナビ」と記載する場合がある。なお、情報処理装置100がナビサービスを提供可能であれば、端末装置10はナビアプリAが未インストールであってもよい。また、ナビゲーションサービスであれば、自動車に限らず、自転車用のナビ等の種々のサービスを対象としてもよい。
〔情報処理システムの構成〕
図1の説明に先立って、図2を用いて情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システムの構成例を示す図である。図2に示すように、情報処理システム1は、端末装置10と、画像センサ20と、情報処理装置100とが含まれる。端末装置10と、画像センサ20と、情報処理装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。なお、図2に示した情報処理システム1には、複数台の端末装置10や、複数台の画像センサ20や、複数台の情報処理装置100が含まれてもよい。
端末装置10は、ユーザによって利用される端末装置(情報処理装置)である。端末装置10は、ナビ情報が出力可能であり、ユーザとともに移動可能であればどのような端末装置であってもよい。端末装置10は、音声出力手段であるスピーカ(音声出力部)を有する携帯端末(端末装置)であってもよい。端末装置10は、例えば、スマートスピーカや、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。
図1は、端末装置10がスマートスピーカである場合を示す。例えば、端末ID「TM1−1」により識別される端末装置10(端末装置TM1−1)は、図1に示すユーザU1の移動体C1に配置される端末装置10に対応する。このように、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU1」と記載した場合、そのユーザはユーザID「U1」により識別されるユーザである。また、「移動体C*(*は任意の数値)」と記載した場合、その移動体は移動体ID「C*」により識別される移動体であることを示す。例えば、「移動体C1」と記載した場合、その移動体は移動体ID「C1」により識別される移動体である。
また、端末ID「TM1−1」により識別される端末装置10は、上記のように端末装置TM1−1と記載する場合がある。このように、各端末装置10を区別して説明する場合、「端末装置」の末尾に端末ID(TM1−1等)を付加した記載とする。各端末装置10について、特に区別なく説明する場合には、単に「端末装置10」と記載する。
また、端末装置10は、種々のセンサにより検知された情報(以下、「センサ情報」ともいう)を収集する。端末装置10は、種々のセンサを含むセンサ部を備える。また、端末装置10は、GPS(Global Positioning System)センサ等の位置センサの機能を有し、位置を検知し、取得可能であるものとする。また、端末装置10は、通信を行っている基地局の位置情報や、Wi−Fi(登録商標)(Wireless Fidelity)の電波を用いて位置情報を推定し、取得してもよい。なお、以下では位置情報を単に「位置」と記載する場合がある。
また、端末装置10は、マイク等の音を検知する音センサを有する。例えば、端末装置10は、音センサにより、端末装置10の周囲におけるユーザの発話を検知する。例えば、端末装置10は、周囲の音を検知し、検知した音に応じて種々の処理を行うデバイス(音声アシスト端末)であってもよい。例えば、端末装置10は、ユーザの発話に対して、処理を行う端末装置である。例えば、端末装置10は、ユーザの発話に限らず、端末装置10の周囲の環境音等を収集する。なお、端末装置10は、上記に限らず、種々のセンサを有してもよい。例えば、端末装置10は、加速度センサ、ジャイロセンサ、温度センサ、湿度センサ、照度センサ、圧力センサ、近接センサ、ニオイや汗や心拍や脈拍や脳波等の生体情報を取得するためのセンサ等の種々のセンサを有してもよい。そして、端末装置10は、各種センサにより検知された種々のセンサ情報を情報処理装置100に送信してもよい。
また、端末装置10は、音声認識の機能を有してもよい。また、端末装置10は、音声認識サービスを提供する音声認識サーバから情報を取得可能であってもよい。この場合、情報処理システム1は、音声認識サーバが含まれてもよい。なお、図1の例では、端末装置10や音声認識サーバが、種々の従来技術を適宜用いてユーザの発話を認識したり、発話したユーザを推定したりするものとして、適宜説明を省略する。
また、端末装置10は、後述する画像センサ20とは別に画像センサ等を有してもよい。例えば、端末装置10は、赤外線センサや人感センサや温度センサや気圧センサ等の種々の機能を有し、温度や気圧等の端末装置10の周囲の環境に関するセンサ情報を検知し、取得可能であってもよい。また、端末装置10は、情報処理装置100に種々の情報等を送信する。例えば、端末装置10は、ユーザに関する位置情報等の種々のセンサ情報を情報処理装置100へ送信する。
画像センサ20は、移動体に配置され動画像を撮像するセンサ装置である。例えば、画像センサ20は、端末装置10や情報処理装置100等の外部装置との間で外部装置と情報を送受信する通信機能を有する情報処理装置である。画像センサ20は、ドライブレコーダ等の所定の撮像装置であってもよい。また、画像センサ20は、移動体外や移動体内等の所定の対象範囲の動画像情報(以下、単に「画像」や「動画」や「動画像」や「画像情報」ともいう)を検知(撮像)する。
図1は、移動体C1に配置される2つの画像センサIS1−1と画像センサIS1−2とを示す。センサID「IS1−1」により識別される画像センサ20は、上記のように画像センサIS1−1と記載し、センサID「IS1−2」により識別される画像センサ20は、上記のように画像センサIS1−2と記載する場合がある。このように、各画像センサ20を区別して説明する場合、「画像センサ」の末尾にセンサID(IS1−1等)を付加した記載とする。各画像センサ20について、特に区別なく説明する場合には、単に「画像センサ20」と記載する。
図1の例では、移動体C1には、内部を撮像する画像センサIS1−1、及び前方を撮像する画像センサIS1−2が配置されることを示す。すなわち、移動体C1は、画像センサIS1−1により内部の画像情報(センサ情報)が撮像(検知)され、画像センサIS1−2により前方の画像が撮像(検知)されることを示す。
図1の示すように、画像センサIS1−1は、移動体C1の運転者の頭部に向けて設置されており、運転者の目(視線)を撮像する。例えば、画像センサIS1−1は、移動体C1の運転席に乗車したユーザの目の部分を含む頭部を継続して撮像(検知)し、撮像した動画像等の画像情報(センサ情報)を、端末装置TM1−1や情報処理装置100に送信する。
また、図1の示すように、画像センサIS1−2は、移動体C1の前方に向けて設置されており、運転者から見た移動体前方の視野画像を撮像する。例えば、画像センサIS1−2は、移動体C1の運転席に乗車したユーザから見た移動体前方の視野領域を継続して撮像(検知)し、撮像した動画像等の画像情報(センサ情報)を、端末装置TM1−1や情報処理装置100に送信する。
情報処理装置100は、一の移動体を操作するユーザの視線方向を撮像した第1画像情報(以下「視野画像」ともいう)に基づいて、ユーザに移動ルートを案内するナビゲーションサービスを提供する情報処理装置である。すなわち、情報処理装置100は、ユーザにナビに関する情報を提供する提供装置である。また、情報処理装置100は、移動体C1を運転するユーザの頭部を撮像した第2画像情報(以下「頭部画像」ともいう)に基づいて、ユーザの視線方向を推定する。なお、情報処理装置100は、ナビゲーション情報を提供するナビサービス提供装置(以下単に「サービス提供装置」ともいう)から、ユーザの指定した目的地までの移動ルートに関するナビ情報(案内情報)を取得し、取得したナビ情報を用いてユーザに移動ルートを案内するナビゲーションサービスを提供してもよい。例えば、情報処理装置100は、ユーザが指定した目的地やユーザの移動体の位置情報をサービス提供装置に送信することにより、サービス提供装置から目的地までの移動ルートに関するナビ情報(案内情報)を取得してもよい。この場合、情報処理システム1には、情報処理装置100や端末装置10にナビゲーション情報を提供するサービス提供装置が含まれてもよい。なお、情報処理装置100がナビゲーション情報を提供するサービス提供装置であってもよい。
例えば、情報処理装置100は、移動体C1を運転するユーザの頭部画像に基づいて、ユーザの視線ベクトル、焦点座標値、視点位置などの種々のユーザの視線方向の推定に用いる情報を生成してもよい。例えば、情報処理装置100は、視線推定に関する種々の従来技術を適宜用いて、ユーザの視線ベクトル、焦点座標値、視点位置などの種々のユーザの視線方向の推定に用いる情報を生成してもよい。
例えば、情報処理装置100は、ナビアプリAがインストールされた端末装置10を装着したユーザにナビサービスを提供する。例えば、ナビアプリAは、ナビアプリAがインストールされた端末装置10が配置された移動体を目的地まで案内するナビサービスを提供する。例えば、ナビアプリAがインストールされた端末装置10は、移動体を運転するユーザから目的地の入力を受け付けると、ユーザを目的地まで誘導するための地図情報や道路情報やPOI(Point of Interest)情報等を含むナビゲーションに関する情報に基づいてナビサービスを提供する。以下では、このような地図情報や道路情報やPOI情報等を含むナビゲーションに関する情報等を「ナビ情報」と記載する場合がある。
また、情報処理システム1には、図示を省略するが情報処理装置100等に種々の情報を提供する情報提供装置が含まれてもよい。例えば、情報提供装置は、いわゆる広く開かれた利用が許可されているデータであるオープンデータを情報処理装置100へ提供する報処理装置である。例えば、情報提供装置は、各自治体が管理し、自治体が保有するデータをオープンデータとして外部に提供する情報処理装置であってもよい。また、例えば、情報提供装置は、気象庁が管理するサーバ等の種々の情報処理装置であってもよい。情報提供装置は、利用が許可されているデータ(情報)であれば、上記に限らず、道路情報等の交通に関するオープンデータや天気や気温等の気象に関するオープンデータや地理空間情報、防災・減災情報、調達情報、統計情報等の種々のオープンデータを提供してもよい。情報処理装置100は、情報提供装置から種々の情報を取得してもよい。
ここから、図1を用いて、情報処理の流れについて説明する。図1は、実施形態に係る情報処理の一例を示す図である。具体的には、図1は、ユーザU1の視線方向に基づいてナビ情報を提供する提供処理の一例を示す図である。
図1の例では、マップ情報MP1に示す自動車である移動体C1をユーザU1が運転し、所定の目的地まで移動している場合を示す。また、図1では、移動体C1には、ユーザU1が利用する端末装置TM1−1が配置されている場合を示す。端末装置TM1−1は、車載用スマートスピーカであってもよい。端末装置TM1−1は、種々のセンサにより、センサ情報を検知し、情報処理装置100へ送信する。端末装置TM1−1は、画像センサIS1−1、IS1−2が撮像(検知)した動画像(センサ情報)を取得し、情報処理装置100へ送信する。また、端末装置TM1−1は、音センサにより移動体C1内におけるユーザU1の発話を検知し、情報処理装置100へ送信する。また、端末装置TM1−1は、位置センサにより検知した位置情報を情報処理装置100へ送信する。なお、図1の例では位置情報を、位置情報LC1−1等の抽象的な符号で図示するが、位置情報は、具体的な緯度や経度を示す情報(緯度経度情報)等であってもよい。また、以下、「位置情報LC*(*は任意の数値等の文字列)」を「位置LC*」と記載する場合がある。例えば、「位置LC1−1」と記載した場合、その位置は位置情報LC1−1に対応する位置であることを示す。
また、図1の例では、情報処理装置100は、移動体C1に配置された端末装置TM1−1によりユーザU1にナビの提供を開始する。情報処理装置100は、ユーザU1からのナビの要求に応じて、ナビを開始する。例えば、情報処理装置100は、ユーザU1からの目的地の指定に応じて、指定された目的地までのナビを開始する。情報処理装置100は、ナビゲーションに関する種々の従来技術を適宜用いて、指定された目的地までユーザU1を案内する。情報処理装置100は、ユーザU1の視線の向きに基づいて、ナビゲーションに用いる情報を決定するが、詳細は後述する。また、ユーザU1は、「××まで案内して」などの音声入力により、情報処理装置100に「××」が位置する地点までのナビを要求してもよい。情報処理システム1は、音声認識に関する種々の従来技術を適宜用いて、情報処理装置100に「××」が位置する地点(目的地)までのナビを要求してもよい。例えば、情報処理装置100は、ユーザが指定した目的地をサービス提供装置に送信し、移動体C1の位置情報をサービス提供装置に随時送信することにより、サービス提供装置から目的地までの移動ルートに関するナビ情報(案内情報)を取得してもよい。なお、図1の例では、移動体C1の進行方向に位置する交差点CR1を右折した先に、ユーザU1が指定した目的地が位置するものとする。
図1中のマップ情報MP1は、ユーザU1が運転する移動体C1が交差点CR1の方向へ移動している状態を示す。そして、移動体C1に配置された端末装置TM1−1は、検知されたセンサ情報SN1−1を情報処理装置100へ送信する。端末装置TM1−1は、画像センサIS1−1により検知された移動体C1内の動画像であるセンサ情報SN1−1を情報処理装置100へ送信する。図1の例では、端末装置TM1−1は、移動体C1を運転するユーザU1の頭部を撮像した動画であるセンサ情報SN1−1を情報処理装置100へ送信する。図1の例では、センサ情報SN1−1には、移動体C1を運転するユーザU1が左斜め前の方向を見ていることを示す情報が含まれるものとする。センサ情報SN1−1には、地面を平面視した場合において、移動体C1の進行方向に対して、ユーザU1が左斜めの方向を見ていることを示す情報が含まれるものとする。
例えば、端末装置TM1−1は、センサ情報SN1−1が検知された位置LC1−2を示す位置情報やセンサ情報SN1−1が日時dt1−1に検知されたことを示す日時情報をセンサ情報SN1−1に対応付けて情報処理装置100に送信する。例えば、端末装置TM1−1は、端末装置TM1−1の位置情報やセンサ情報SN1−1が検知された日時の情報をセンサ情報SN1−1とともに情報処理装置100に送信する。また、例えば、端末装置TM1−1は、センサ情報SN1−1の取得元が画像センサIS1−1であることを特定可能にする情報(センサID等)や端末装置TM1−1の端末情報(端末ID等)をセンサ情報SN1−1に対応付けて情報処理装置100に送信する。例えば、端末装置TM1−1は、端末装置TM1−1の端末ID等をセンサ情報SN1−1とともに情報処理装置100に送信する。
また、図1の例では、移動体C1に配置された端末装置TM1−1は、検知されたセンサ情報SN1−2を情報処理装置100へ送信する。端末装置TM1−1は、画像センサIS1−2により検知された移動体C1の前方の動画像であるセンサ情報SN1−2を情報処理装置100へ送信する。図1の例では、端末装置TM1−1は、移動体C1を運転するユーザU1から見た移動体C1の前方の動画であるセンサ情報SN1−2を情報処理装置100へ送信する。
例えば、端末装置TM1−1は、センサ情報SN1−2が検知された位置LC1−2を示す位置情報やセンサ情報SN1−2が日時dt1−1に検知されたことを示す日時情報をセンサ情報SN1−2に対応付けて情報処理装置100に送信する。例えば、端末装置TM1−1は、端末装置TM1−1の位置情報やセンサ情報SN1−2が検知された日時の情報をセンサ情報SN1−2とともに情報処理装置100に送信する。また、例えば、端末装置TM1−1は、センサ情報SN1−2の取得元が画像センサIS1−2であることを特定可能にする情報(センサID等)や端末装置TM1−1の端末情報(端末ID等)をセンサ情報SN1−2に対応付けて情報処理装置100に送信する。例えば、端末装置TM1−1は、端末装置TM1−1の端末ID等をセンサ情報SN1−2とともに情報処理装置100に送信する。なお、図1中では、端末装置TM1−1がセンサ情報SN1−1とセンサ情報SN1−2とを併せて送信する場合を示すが、端末装置TM1−1は、センサ情報SN1−1とセンサ情報SN1−2とを別々のタイミングで情報処理装置100に送信してもよい。
これにより、情報処理装置100は、センサ情報SN1−1、SN1−2やそれらに対応付けられた位置情報、日時情報、センサID、端末情報等を取得する(ステップS11)。図1の例では、情報処理装置100は、一覧情報SLST1に示すように、ログID「LG11」により識別されるログを取得する。情報処理装置100は、センサ情報SN1−1の取得元は、画像センサIS1−1であることを示す情報を取得する。情報処理装置100は、種別が「画像」、すなわち動画像であるセンサ情報SN1−1を取得する。また、情報処理装置100は、センサ情報SN1−1が日時dt1−2において、位置LC1−2で検知されたことを示す情報を取得する。
また、図1の例では、情報処理装置100は、一覧情報SLST1に示すように、ログID「LG12」により識別されるログを取得する。情報処理装置100は、センサ情報SN1−2の取得元は、画像センサIS1−2であることを示す情報を取得する。情報処理装置100は、種別が「画像」、すなわち動画像であるセンサ情報SN1−2を取得する。また、情報処理装置100は、センサ情報SN1−2が日時dt1−2において、位置LC1−2で検知されたことを示す情報を取得する。
そして、情報処理装置100は、移動体C1を運転するユーザU1の視線方向を推定する(ステップS12)。例えば、情報処理装置100は、ユーザU1の目を含む頭部を撮像したセンサ情報SN1−1を解析することにより、ユーザU1の視線方向を推定する。図1の例では、情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、センサ情報SN1−1を解析することにより、ユーザU1の視線方向を推定する。
情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、図1中の向き情報DR11に示すように、ユーザU1の視線方向を推定する。図1の例では、情報処理装置100は、センサ情報SN1−1に基づいて、ユーザU1が左斜め前の方向を見ていることを示す向き情報DR11を推定する。このように、情報処理装置100は、移動体の進行方向に対して左斜め方向をユーザU1の視線方向を示す向き情報DR11を推定する。なお、情報処理装置100は、ユーザU1の視線方向を推定可能であれば、どのような方法により、ユーザU1が左斜め前の方向を見ていることを示す向き情報DR11を推定してもよい。例えば、情報処理装置100は、ユーザU1の視線方向を推定可能であれば、センサ情報SN1−1を用いることなく、ユーザU1が左斜め前の方向を見ていることを示す向き情報DR11を推定してもよい。例えば、情報処理装置100は、ユーザU1がメガネ型のウェアラブルデバイスを装着している場合、メガネ型のウェアラブルデバイスが検知したユーザU1の視線に関するセンサ情報を用いて、ユーザU1が左斜め前の方向を見ていることを示す向き情報DR11を推定してもよい。
そして、情報処理装置100は、ユーザU1の向き情報DR11に対応する対象POIを決定する(ステップS13)。例えば、情報処理装置100は、ユーザU1の向き情報DR11上に位置するPOIを対象POIとして決定する。図1の例では、情報処理装置100は、POI情報記憶部122に記憶されたPOIのうち、ユーザU1の向き情報DR11上に位置するPOIを対象POIとして決定する。
図1中のPOI情報記憶部122に示す「POIID」は、各種のPOIを識別する情報を示す。図1中のPOI情報記憶部122に示す「対象物名」は、POIの具体的な名称等を示す。図1中のPOI情報記憶部122に示す「位置情報」は、対応するPOIが所在する位置を示す。図1中のPOI情報記憶部122に示す「色情報」は、対応するPOIの特徴情報である、そのPOIの色を示す。
図1に示す例では、POIID「FC1」により識別されるPOI(対象物FC11)は、「Aコンビニ」であり、交差点CT1付近の位置LC11に位置することを示す。また、Aコンビニの色は、色「CL11」であることを示す。例えば、対象物FC11であるAコンビニの色CL11は、「水色」であることを示す。
図1に示す例では、POIID「FC2」により識別されるPOI(対象物FC12)は、「Bポスト」であり、交差点CT1付近の位置LC12に位置することを示す。また、Bポストの色は、色「CL12」であることを示す。例えば、対象物FC12であるBポストの色CL12は、「赤色」であることを示す。
例えば、情報処理装置100は、座標変換に関する種々の従来技術を適宜用いて、各POIや端末装置10の位置や向き情報DR11等を種々の形式に変換してもよい。例えば、情報処理装置100は、緯度経度情報を平面直角座標の情報に変換してもよい。例えば、情報処理装置100は、端末装置TM1−1の位置LC1−2や対象物FC11の位置LC11、対象物FC12の位置LC12等の位置を示す緯度経度情報を平面直角座標の情報に変換してもよい。また、情報処理装置100は、向き情報DR11に対応する線を平面直角座標の情報に変換してもよい。
そして、情報処理装置100は、対象物FC11、FC12等のうち、座標中において向き情報DR11に対応する線が交わるPOIをユーザU1に情報提供するPOI(対象物)と決定する。例えば、情報処理装置100は、向き情報DR11に対応する緯度経度の一覧情報(リスト)と、対象物FC11、FC12等の所在地の緯度経度情報とを比較することにより、ユーザU1に情報提供するPOI(対象物)を決定する。例えば、情報処理装置100は、向き情報DR11に対応する緯度経度の一覧情報(リスト)と、一のPOI(対象物)の所在地の緯度経度情報が向き情報DR11に対応する緯度経度の一覧情報(リスト)に含まれる場合、その一のPOI(対象物)がユーザU1の視線の向きに位置すると判定し、その一のPOI(対象物)の情報を提供すると決定する。
図1中の地図情報MP1に示すように、ユーザU1の視線上には、Bポスト(対象物FC12)が位置する。そのため、情報処理装置100は、BポストがユーザU1の視界に入っているかを推定する。例えば、情報処理装置100は、移動体C1の前方を撮像したセンサ情報SN1−2を解析することにより、ユーザU1の視界にBポストが入っているかを推定する。図1の例では、情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、センサ情報SN1−2を解析することにより、センサ情報SN1−2にBポストが含まれるかを推定する。
情報処理装置100は、特定物体認識等の物体認識に関する種々の従来技術を適宜用いて、センサ情報SN1−2の画像中にBポストが含まれるかを推定する。例えば、情報処理装置100は、特定物体認識等の物体認識に関する種々の従来技術を適宜用いて、センサ情報SN1−2の画像中に色CL12である赤色のBポストが含まれるかを推定する。図1の例では、情報処理装置100は、画像解析により、センサ情報SN1−2に色CL12である赤色のBポストが含まれると推定する。そのため、情報処理装置100は、Bポスト(対象物FC12)を対象POIに決定する。なお、情報処理装置100は、上記に限らず、種々の方法により対象POIに決定してもよい。例えば、画像センサIS1−2がユーザU1の視線方向に応じて向きを変動可能な場合、情報処理装置100は、画像センサIS1−2が検知したセンサ情報SN1−2の中央部に位置するPOIを対象POIに決定してもよい。例えば、画像センサIS1−2がユーザU1の視線方向が中心となるように向きを変える場合、情報処理装置100は、画像センサIS1−2が検知したセンサ情報SN1−2の中央部に位置するPOIを対象POIに決定してもよい。
そして、情報処理装置100は、ユーザU1への移動ルートの提供情報を決定する(ステップS14)。例えば、情報処理装置100は、ユーザU1の移動体C1(端末装置TM1−1)の位置LC1−2をサービス提供装置に送信し、サービス提供装置からユーザU1へ提供するナビ情報を取得する。図1の例では、情報処理装置100は、ユーザU1の移動体C1の位置LC1−2を送信したサービス提供装置から、ナビ情報一覧NINF1に示すように、ユーザU1に提供するナビ情報を取得する。なお、情報処理装置100は、ナビ情報一覧NINF1を生成してもよい。情報処理装置100は、ルートID「RT1」により識別される移動ルートに対応するナビ情報NV1である「交差点CR1を右折」をサービス提供装置から取得する。そのため、情報処理装置100は、ナビ情報NV1である「交差点CR1を右折」をユーザU1に提供するタイミングであると決定する。
そして、情報処理装置100は、取得したナビ情報NV1を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、ナビ情報NV1の内容を推定する。例えば、情報処理装置100は、ナビ情報NV1の文字列「交差点CR1を右折」を解析することにより、ナビ情報NV1に含まれる「交差点CR1」を抽出する。そして、情報処理装置100は、ナビ情報NV1のうち、交差点CR1を対象POIに置き換えると決定する。情報処理装置100は、ナビ情報NV1のうち、交差点CR1を、交差点CR1付近に位置しユーザU1の視界に入っているPOIであるBポストに置き換えると決定する。図1の例では、情報処理装置100は、変更後ナビ情報PINF1に示すように、交差点CR1をBポストに関する情報に置き換えると決定する。情報処理装置100は、Bポストに関する色情報を用いた情報により、「交差点CR1を右折」を変更する。情報処理装置100は、「交差点CR1を右折」を「赤いポストを右折」に変更する。そして、情報処理装置100は、変更後ナビ情報PINF1をナビ情報として、端末装置TM1−1に提供する(ステップS15)。情報処理装置100は、変更後ナビ情報PINF1をナビ情報として、端末装置TM1−1に送信する。
情報処理装置100から変更後ナビ情報PINF1を受信した端末装置TM1−1は、変更後ナビ情報PINF1を出力する(ステップS16)。例えば、端末装置TM1−1は、変更後ナビ情報PINF1を音声出力する。図1の例では、端末装置TM1−1は、右折地点が近いことを示す変更後ナビ情報PINF1を音声出力する。端末装置TM1−1は、変更後ナビ情報PINF1に基づく「赤いポストを右折です」という音声を出力する。なお、情報処理装置100は、対象POIに関する情報であれば、どのような情報に置き換えてもよい。情報処理装置100は、色情報を用いずに「交差点CR1を右折」を「ポストBを右折」に変更してもよい。
このように、情報処理装置100は、移動体C1を操作するユーザの視線方向を撮像した画像情報に基づいて、ユーザU1が視認している対象物FC12を推定し、対象物FC12の情報を用いて、ユーザU1に交差点CR1の右折の案内の情報を提供する。このように、情報処理装置100は、ユーザが視認している対象物の情報を用いて、ユーザに移動ルートを案内するナビゲーションサービスを提供することにより、ユーザの視線に応じたルートに関するナビゲーションを提供可能にすることができる。これにより、情報処理装置100は、直感的なナビゲーションを提供することができる。なお、上記は一例であり、情報処理装置100は、運転手の目線の画像(視線方向に基づく画像)でナビが可能であれば、どのような方法によりナビ情報を提供してもよい。例えば、情報処理装置100は、「100メートル先を右折してください」といったナビ情報を、「赤いポストを右に曲がってください」等、100メートル先での目印となるものを特定し、「100メートル先」を、対象物を示す文字列に変換して(言い換えて)出力してもよい。例えば、情報処理装置100は、移動体C1の位置から視線方向に100メートル程度の位置を推定し、その位置にあるPOIを特定し、そのPOIに関する文字列を用いてナビ情報を提供してもよい。
〔1−1.その他の移動体〕
なお、上記は一例であり、情報処理装置100は、種々のナビ情報を提供してもよい。図1の例では、情報処理装置100がユーザの視界に入っていると推定されるPOIの情報を含むナビ情報を提供する例を示したが、情報処理装置100は、ユーザの視界に入っていると推定される他の移動体を含むナビ情報を提供してもよい。例えば、情報処理装置100は、ユーザ(提供対象ユーザ)が運転する移動体が左折する交差点を左折した他の移動体が、その提供対象ユーザの視界に入っていると推定される場合、他の移動体の情報を含むナビ情報を提供してもよい。この場合、情報処理装置100は、他の移動体の車種や色の情報を含むナビ情報を提供してもよい。例えば、他の移動体がトラックである場合、情報処理装置100は、「前方のトラックが左折した所を左折です」といったナビ情報を提供対象ユーザに提供してもよい。例えば、他の移動体の色が赤色である場合、情報処理装置100は、「前方の赤色の車が左折した所を左折です」といったナビ情報を提供対象ユーザに提供してもよい。
例えば、情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、提供対象ユーザの前方を走行する移動体の動作を推定する。情報処理装置100は、提供対象ユーザの移動体の前方を撮像した動画像を解析することにより、提供対象ユーザの移動体の前方を走行する移動体が右折する動作や左折する動作等を推定してもよい。
図1の例では、情報処理装置100は、ユーザU1が運転する移動体C1の前方に位置する他の移動体(「移動体CX」とする)が交差点CT1を右折した場合、移動体CXの情報を含むナビ情報を提供してもよい。この場合、情報処理装置100は、移動体CXの車種や色の情報を含むナビ情報をユーザU1に提供してもよい。例えば、移動体CXがトラックである場合、情報処理装置100は、「前方のトラックが右折した所を左折です」といったナビ情報をユーザU1に提供してもよい。例えば、移動体CXの色が黄色である場合、情報処理装置100は、「前方の黄色の車が左折した所を右折です」といったナビ情報をユーザU1に提供してもよい。情報処理装置100は、端末装置TM1−1に上記のようなナビ情報を送信することにより、ユーザU1にナビサービスを提供する。すなわち、情報処理装置100は、リアルタイムで起こっていることをナビゲーションの案内に利用してもよい。これにより、情報処理装置100は、上記のように、「今白いトラックが曲がったところを曲がってください」等のナビ情報を提供することができる。
〔1−2.先行する移動体〕
また、情報処理装置100は、移動ルートにおいて、ユーザが運転する移動体よりも先行する他の移動体が検知した情報を用いてナビ情報を提供してもよい。例えば、情報処理装置100は、すでに取得されている先行した自動車の情報を用いて先回りして案内情報を生成しても良い。例えば、情報処理装置100は、移動ルート中の先に渋滞や事故や道が狭くなっている場所が有ることなどを事前通知してもよい。例えば、情報処理装置100は、移動ルートにおける一の移動体の前方位置に先行する他の移動体により検知された他のセンサ情報に基づいて、ナビゲーションサービスを提供してもよい。例えば、情報処理装置100は、他のセンサ情報に基づく前方位置における道路状況を示す情報を、ユーザに提供してもよい。
図1の例では、情報処理装置100は、ユーザU1が運転する移動体C1よりも先行する他の移動体(「移動体CY」とする)により検知された他のセンサ情報に基づいて、ユーザU1にナビサービスを提供してもよい。例えば、移動体CYは、交差点CR1を右折後の移動体C1の移動ルートに位置する移動体であるものとする。例えば、情報処理装置100は、移動体CYに配置され、移動体CYの前方を撮像する画像センサ20により、前方が渋滞していることを示すセンサ情報が検知された場合、ユーザU1に渋滞していることを示すナビサービスを提供してもよい。この場合、情報処理装置100は、「交差点CR1を右折後、渋滞しています」等、ユーザU1の移動ルートが渋滞していることを示すナビサービスをユーザU1に提供してもよい。
なお、情報処理装置100は、移動体CYにおいて検知されたセンサ情報であれば、画像センサ20により検知されたセンサ情報に限らず、種々のセンサ情報により道路状況を推定してもよい。例えば、情報処理装置100は、移動体CYにおける発話情報に基づいて、ユーザU1にナビサービスを提供してもよい。例えば、情報処理装置100は、移動体CYにおいて「渋滞している」等の発話情報が検知された場合、例えば、情報処理装置100は、移動体CYにおける発話情報に基づいて、ユーザU1に渋滞していることを示すナビサービスを提供してもよい。
例えば、情報処理装置100は、移動体CYの速度を示す速度情報に基づいて、ユーザU1にナビサービスを提供してもよい。例えば、情報処理装置100は、移動体CYの速度が所定の期間(例えば10分等)に亘って所定の閾値(例えば10km/h等)以下である場合、渋滞していると推定し、ユーザU1に渋滞していることを示すナビサービスを提供してもよい。なお、情報処理装置100は、先行した移動体の情報を用いて、渋滞に限らず、種々の情報を提供してもよい。例えば、情報処理装置100は、移動ルート中の先に事故や道が狭くなっている場所が有ることを示すナビ情報をユーザに提供してもよい。
〔1−3.監視〕
また、情報処理装置100は、複数の移動体の画像センサ20を用いて、サービスを提供してもよい。例えば、情報処理装置100は、複数の移動体が撮像した複数の画像情報に基づいて、所定のサービスを提供してもよい。例えば、情報処理装置100は、異なる時刻に複数の移動体の各々が撮像した複数の画像情報に基づいて、監視に関するサービスを提供してもよい。
例えば、情報処理装置100は、複数の画像情報に含まれる共通のナンバー(自動車登録番号等)に基づいて、所定の移動体の監視に関するサービスを提供してもよい。例えば、情報処理装置100は、複数の移動体の画像センサ20が検知した画像情報をつなぎ合わせることで、監視に関するサービスを提供してもよい。例えば、情報処理装置100は、複数の移動体の画像センサ20が検知した画像情報をつなぎ合わせることで、複数の画像情報に含まれる共通のナンバー(自動車登録番号等)の移動体を追跡するサービスを提供してもよい。これにより、通常の監視カメラが固定に対して、情報処理システム1においては、所定の期間(何時から何時まで)の映像が繋がった情報を取得可能になる。そのため、情報処理装置100は、ナンバーのトラッキングが可能になる。
また、例えば、情報処理装置100は、各々が異なる時刻に所定の位置を通過した複数の移動体が、所定の位置において外部を撮像した複数の画像情報に基づいて、所定のサービスを提供してもよい。例えば、情報処理装置100は、各々が異なる時刻に所定の位置を通過した複数の移動体が、所定の位置において外部を撮像した複数の画像情報に含まれる共通のナンバー(自動車登録番号等)に基づいて、所定の移動体の監視に関するサービスを提供してもよい。例えば、情報処理装置100は、複数の画像情報に含まれる共通のナンバー(自動車登録番号等)に基づいて、所定の移動体の監視に関するサービスを提供してもよい。
〔1−4.過去〕
また、情報処理装置100は、過去に所定の移動体が外部を撮像した画像の履歴情報に基づいて、所定のサービスを提供してもよい。例えば、情報処理装置100は、履歴情報に含まれる所定の商品の値段を示す情報に基づいて、商品の値段を通知するサービスを提供してもよい。例えば、情報処理装置100は、所定のガソリンスタンドの前を通過した移動体が撮像した画像の履歴情報に基づいて、所定のサービスを提供してもよい。例えば、情報処理装置100は、所定のガソリンスタンドの前を通過した移動体が撮像した画像の履歴情報に基づいて、その所定のガソリンスタンドが販売するガソリンの値段を通知するサービスを提供してもよい。
例えば、情報処理装置100は、所定のガソリンスタンドの前を通過した移動体が撮像した画像の履歴情報に基づいて、その所定のガソリンスタンドが所定の時点(例えば1週間前)に販売していたガソリンの値段を通知するサービスを提供してもよい。例えば、情報処理装置100は、ユーザによるPOIの指定に基づいて、過去の情報を提供する対象となるPOIを決定してもよい。例えば、情報処理装置100は、ユーザが「ガソリンスタンドGSA」と指定した場合、過去の情報を提供する対象となるPOIをガソリンスタンドGSAに決定してもよい。そして、情報処理装置100は、ユーザによる情報の指定に基づいて、提供する過去の情報を決定してもよい。例えば、情報処理装置100は、ユーザが「ガソリンスタンドGSAの先週の値段は?」と指定した場合、ガソリンスタンドGSAにおける先週のガソリンの値段を、過去の画像を解析することにより特定し、特定したガソリンの値段を示す情報をユーザに決定してもよい。例えば、情報処理装置100は、「先週」と指定された場合、検知された日時が先週の日時に対応し、検知された位置がガソリンスタンドGSAの対応する位置である画像を履歴情報から抽出し、抽出した履歴情報を解析することにより、ガソリンスタンドGSAにおける先週のガソリンの値段を特定してもよい。
〔1−5.状況〕
また、情報処理装置100は、画像センサにより撮像されたセンサ情報に基づいて、状況(コンテキスト)を推定し、推定した情報を提供してもよい。情報処理装置100は、画像センサにより撮像されたセンサ情報に所定の閾値(例えば30人等)の列ができている画像が含まれる場合、その列の位置に対応するPOIを推定し、推定した情報を提供してもよい。例えば、情報処理装置100は、画像センサにより撮像されたセンサ情報に所定の閾値(例えば30人等)の列を「行列」や「人だかり」と推定してもよい。例えば、情報処理装置100は、物体認識に関する種々の従来技術を適宜用いて、センサ情報に含まれる人の数等を推定してもよい。例えば、情報処理装置100は、人の認識に関する種々の従来技術を適宜用いて、センサ情報に含まれる人の数等を推定してもよい。例えば、情報処理装置100は、人の形状を認識する種々の従来技術を適宜用いて、センサ情報に含まれる人の数等を推定してもよい。
そして、情報処理装置100は、センサ情報が撮像された位置に基づいて、人が多く集まっている位置(行列位置)を推定する。情報処理装置100は、各POIの位置と、行列位置とを比較することにより、人が集まっているPOIを推定する。例えば、情報処理装置100は、人が多く集まっている行列位置から所定の範囲内に位置するPOIを、行列ができているPOI(行列POI)であると推定する。そして、情報処理装置100は、推定した行列POIに、行列ができていることを示すフラグ(行列フラグ)を対応付けて記憶部120(図3参照)に記憶する。例えば、情報処理装置100は、推定した行列POIに対応するPOIIDに、行列フラグを対応付けてPOI情報記憶部122(図4参照)に記憶する。
また、情報処理装置100は、ユーザから「あの人だかりのあるお店は何」といった要求を取得した場合、上記の推定結果に基づくPOIを示す情報をユーザに提供してもよい。情報処理装置100は、行列フラグが付与されたPOIから所定の範囲(例えば50m)内に位置するユーザから「あの人だかりのあるお店は何」といった要求を取得した場合、行列フラグが付与されたPOIを示す情報をユーザに提供してもよい。これにより、情報処理装置100は、ユーザによる直接的な建物名の指定だけではなく、ユーザの指定した状況に基づいて、ユーザにナビ情報を提供することができる。
〔1−6.システム構成〕
なお、情報処理システム1は、図2に示したシステム構成に限らず、種々の構成であってもよい。例えば、端末装置10が提供処理を行ってもよい。例えば、端末装置10が情報処理装置100の機能を有してもよい。すなわち、情報処理装置100と端末装置10とは一体であってもよい。この場合、情報処理システムには、種々のサービスを提供するサービス提供装置が含まれてもよい。情報処理装置100は、サービス提供装置からナビゲーションに必要な種々の情報を取得してもよい。そして、端末装置10である情報処理装置100は、ユーザの視線方向に基づいて、ユーザに移動ルートを案内するナビゲーションサービスを提供してもよい。
〔2.情報処理装置の構成〕
次に、図3を用いて、実施形態に係る情報処理装置100の構成について説明する。図3は、実施形態に係る情報処理装置100の構成例を示す図である。図3に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、端末装置10や画像センサ20との間で情報の送受信を行う。
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図3に示すように、地図情報記憶部121と、POI情報記憶部122と、ユーザ情報記憶部123と、移動体情報記憶部124と、センサ情報記憶部125とを有する。なお、地図情報記憶部121は、図示を省略するが、ナビアプリAが出力する地図情報や道路情報等、ナビサービスを提供するために用いる各種情報を記憶する。また、地図情報記憶部121は、ナビアプリAのサービスを提供可能であれば、どのような情報を記憶してもよい。例えば、地図情報記憶部121は、ナビアプリAのサービスに用いるノードの識別ID等のノードに関する情報やリンクの識別ID等のリンクに関する情報を記憶してもよい。また、記憶部120は、上記に限らず、種々の情報を記憶してもよい。
(POI情報記憶部122)
実施形態に係るPOI情報記憶部122は、POI(関心地点)に関する情報を記憶する。図4は、実施形態に係るPOI情報記憶部の一例を示す図である。図4に示すPOI情報記憶部122には、地図上に位置する各種のスポット(対象物)等のPOI(関心地点)に関する情報が記憶される。図4に示すPOI情報記憶部122には、「POIID」、「対象物名」、「位置情報」、「色情報」といった項目が含まれる。
「POIID」は、各種のPOIを識別する情報を示す。「対象物名」は、POIの具体的な名称等を示す。また、「位置情報」は、対応するPOIが所在する位置を示す。図4では「位置情報」に「LC11」といった概念的な情報が格納される例を示したが、実際には、具体的な緯度経度情報や位置を示す住所であってもよい。また、「色情報」は、対応するPOIの特徴情報である、そのPOIの色を示す。例えば、「色情報」は、対応するPOIの特徴づける色を示す。例えば、「色情報」は、対応するPOIの主たる色を示す。例えば、「色情報」は、対応するPOIの運営する事業者のイメージカラーであってもよい。図4では「色情報」に「CL11」といった概念的な情報が格納される例を示したが、実際には、「赤」や「青」等のPOIの色を示す具体的な情報であってもよい。
図4に示す例では、POIID「FC1」により識別されるPOIは、「Aコンビニ」であり、交差点CT1付近の位置LC11に位置することを示す。また、Aコンビニの色は、色「CL11」、例えば「水色」であることを示す。
なお、POI情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、POI情報記憶部122には、色情報に限らず、POIの特徴を示す種々の特徴情報が記憶されてもよい。例えば、POI情報記憶部122には、POIの特徴を示す形状情報が記憶されてもよい。
(ユーザ情報記憶部123)
実施形態に係るユーザ情報記憶部123は、ユーザに関する各種情報を記憶する。例えば、ユーザ情報記憶部123は、ユーザ属性に関する各種情報を記憶する。図5は、実施形態に係るユーザ情報記憶部の一例を示す図である。図5に示すユーザ情報記憶部123は、「ユーザID」、「年齢」、「性別」、「利用端末」、「興味」、「位置情報」といった項目が含まれる。また、「位置情報」には、「最新位置」といった項目が含まれる。
「ユーザID」は、ユーザを識別するための識別情報を示す。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。
「利用端末」は、ユーザにより利用される端末を示す。なお、図5に示す例では、各ユーザに1つの端末装置10が対応付けられる場合を示すが、ユーザには複数の端末装置10が対応付けられてもよい。例えば、ユーザU3が、スマートフォンである端末装置TM1−3とは別に、スマートスピーカである端末装置TM1−30を利用する場合、ユーザU3に対応する「利用端末」は、「TM1−3」と「TM1−30」とが記憶されてもよい。
また、「興味」は、ユーザIDにより識別されるユーザの興味を示す。すなわち、「興味」は、ユーザIDにより識別されるユーザが関心の高い対象を示す。なお、図5に示す例では、「興味」は、各ユーザに1つずつ図示するが、複数であってもよい。
また、「位置情報」中の「最新位置」は、対応するユーザについて最後に取得された位置情報を示す。なお、「最新位置」は、「LC1−2」といった抽象的な符号を図示するが、緯度や経度を示す情報や「X県Y市Z町」等のような住所を示す情報であってもよい。また、「位置情報」は「取得日時」の項目を有してもよい。例えば、「取得日時」は、最後に位置情報が取得された日時を示す。
図5の例では、ユーザID「U1」により識別されるユーザ(ユーザU1)の年齢は、「20代」であり、性別は、「男性」であることを示す。ユーザU1の利用端末は、スマートスピーカである端末装置TM1−1であることを示す。また、ユーザU1は経済に興味があることを示す。例えば、ユーザU1については、位置LC1−2に位置したことを示す位置情報が最後に取得された位置情報、すなわち最新の位置情報であることを示す。
なお、ユーザ情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部123は、デモグラフィック属性情報やサイコグラフィック属性情報等の種々の情報を記憶してもよい。例えば、ユーザ情報記憶部123は、氏名、家族構成、収入等の情報を記憶してもよい。
また、ユーザ情報記憶部123は、図示を省略するが、センサ情報を基に各ユーザを識別するための識別情報を、各ユーザIDに対応付けて記憶してもよい。例えば、ユーザ情報記憶部123には、「音声」といった項目を含む項目「識別情報」が含まれてもよい。
項目「音声」には、ユーザの識別に用いられる音声情報が記憶される。項目「音声」には、各ユーザの音声情報、またはこれらの格納場所を示すファイルパス名などが格納されてもよい。項目「音声」に記憶される情報は、ユーザの音声の特徴を示す特徴情報であってもよい。例えば、項目「音声」に記憶される情報は、ユーザの発話から抽出された音声的な特徴を示す情報(音声特徴情報)であってもよい。例えば、項目「音声」に記憶される情報は、各発話から音声の特徴抽出に関する種々の従来技術を適宜用いて抽出された音声特徴情報であってもよい。
図1の例では、情報処理装置100は、ユーザの発話と、ユーザ情報記憶部123中に記憶された音声とを用いて、発話を行ったユーザを判定(推定)してもよい。例えば、情報処理装置100は、ユーザの発話の音声情報と、ユーザ情報記憶部123中の項目「音声」に記憶された各ユーザの音声情報とを比較することにより、発話を行ったユーザを判定(推定)してもよい。なお、項目「識別情報」には、「画像」といった項目が含まれてもよい。この場合、項目「画像」には、ユーザの識別に用いられる画像情報が記憶される。
(移動体情報記憶部124)
実施形態に係る移動体情報記憶部124は、移動体に関する各種情報を記憶する。図6は、実施形態に係る移動体情報記憶部の一例を示す図である。例えば、移動体情報記憶部124は、種々の移動体に関する情報を記憶する。図6に示す移動体情報記憶部124には、「移動体ID」、「車載端末ID」、「利用ユーザID」、「配置センサ」、「ナビ用情報」といった項目が含まれる。
「移動体ID」は、移動体を識別するための識別情報を示す。「車載端末ID」は、移動体に搭載される端末装置を識別する情報を示す。また、「利用ユーザID」は、移動体を利用(運転)するユーザを示す。例えば、「利用ユーザID」は、移動体を所有するユーザを示す。
「配置センサ」は、移動体に配置されるセンサを示す。「配置センサ」には、「画像センサ(車内)」や「画像センサ(車外:前方)」といった項目を有する。「画像センサ(車内)」は、移動体の内部を撮像する画像センサを識別するための識別情報を示す。「画像センサ(車外:前方)」は、移動体の外部の前方を撮像する画像センサを識別するための識別情報を示す。
「ナビ用情報」は、ナビゲーションを提供するために用いる情報を示す。「ナビ用情報」には、「位置」、「視線方向(向き情報)」「対象POI」といった項目が含まれる。
「ナビ用情報」中の「位置」は、移動体の位置を示す。例えば、「位置」は、移動体の最新位置を示す。「ナビ用情報」中の「向き情報」は、移動体の運転者(ユーザ)の視線方向を示す向き情報を示す。例えば、「向き情報」は、推定された運転者(ユーザ)の視線の向きを示す最新の向き情報を示す。例えば、「向き情報」は、最後に推定された運転者(ユーザ)の視線の向きを示す情報を示す。「対応POI」は、位置と向き情報に基づいてユーザが視認していると推定されるPOIを示す。例えば、「対応POI」は、対応する位置における対応する視線方向で、ユーザが視認できるPOIを示す。
図6の例では、移動体ID「C1」により識別される移動体(移動体C1)は、搭載される端末装置が車載端末ID「TM1−1」により識別される端末装置であることを示す。すなわち、移動体C1は、搭載される端末装置が端末装置TM1−1であることを示す。また、移動体C1は、利用ユーザID「U1」により識別されるユーザ(ユーザU1)により利用される移動体であることを示す。
移動体C1は、内部を撮像する画像センサがセンサID「IS1−1」により識別される画像センサ(画像センサIS1−1)であることを示す。すなわち、移動体C1は、画像センサIS1−1により内部の画像が撮像(検知)されることを示す。また、移動体C1は、前方を撮像する画像センサがセンサID「IS1−2」により識別される画像センサ(画像センサIS1−2)であることを示す。すなわち、移動体C1は、画像センサIS1−2により前方の画像が撮像(検知)されることを示す。
移動体C1は、最新位置が位置LC1−2であることを示す。例えば、移動体C1は、最後に検知された位置が位置LC1−2であることを示す。移動体C1は、最新の運転者(ユーザU1)の視線方向が向き情報DR11であることを示す。例えば、移動体C1は、最後に検知されたユーザU1の視線方向が向き情報DR11であることを示す。位置LC1−2において向き情報DR11に対応する方向を向いているユーザU1は、対象物FC12を視認していると推定されることを示す。すなわち、ユーザU1は、交差点CR1付近のPOIのうち、Bポストを視認していると推定されることを示す。
なお、移動体情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、移動体情報記憶部124は、項目「登録番号」を有してもよい。この場合、例えば「登録番号」は、移動体の具体的な登録番号を示す。例えば、「登録番号」は、自動車等の移動体に取り付けられた自動車登録番号標(ナンバープレート)に表示される番号であってもよい。例えば、「登録番号」は、「品川500 たXX−XX」のような文字や数字等の記号を組合せたものであってもよい。また、例えば、移動体情報記憶部124には、視線方向に対応するユーザの視線が通る緯度経度の一覧情報(リスト)が格納されてもよい。
(センサ情報記憶部125)
実施形態に係るセンサ情報記憶部125は、センサによる検知に関する各種情報を記憶する。例えば、センサ情報記憶部125は、センサにより検知されたセンサ情報を記憶する。図7は、実施形態に係るセンサ情報記憶部の一例を示す図である。例えば、センサ情報記憶部125は、各ユーザが利用する端末装置により検知されたセンサ情報を記憶する。図7に示すセンサ情報記憶部125には、「ログID」、「取得元」、「種別」、「センサ情報」、「日時」、「位置」といった項目が含まれる。
「ログID」は、取得されたセンサ情報を識別するための識別情報を示す。「取得元」は、センサ情報を検知したセンサを示す。「取得元」中の括弧内の情報は、センサ情報を情報処理装置100へ送信した端末装置を示す。また、「種別」は、検知されたセンサ情報の種別に関する情報を示す。「センサ情報」は、検知されたセンサ情報を示す。図7では「センサ情報」に「SN1−1」といった概念的な情報が格納される例を示したが、実際には、具体的に検知された情報(センサデータ)、または、その格納場所を示すファイルパス名などが格納されてもよい。
例えば、センサ情報の種別「画像」である場合、「センサ情報」には、静止画像や動画像、または、これらの格納場所を示すファイルパス名などが格納される。また、例えば、センサ情報の種別「発話」である場合、「センサ情報」には、音声データや音声データを変換後の文字情報、または、これらの格納場所を示すファイルパス名などが格納される。
「日時」は、センサ情報が検知された日時を示す。「日時」には、「dt1−1」等のように抽象的に図示するが、「2018年8月14日17時31分52秒」等の具体的な日時が記憶されてもよい。なお、「日時」は、時点に限らず、「2018年8月14日17時31分」や「2018年8月14日17時30−31分」等の所定の期間であってもよい。また、「位置」は、対応する行動が行われた位置を示す。なお、「位置」は、「LC1−2」といった抽象的な符号を図示するが、緯度や経度を示す情報や「X県Y市Z町A−B」等のような住所を示す情報であってもよい。
図7の例では、ログID「LG11」により識別される履歴情報(ログLG11)におけるセンサ情報SN1−1の取得元は、ID「IS1−1」により識別されるセンサであることを示す。すなわち、ログLG11のセンサ情報SN1−1は、画像センサIS1−1により検知されたことを示す。また、センサ情報SN1−1は、ID「TM1−1」により識別される端末装置から情報処理装置100へ送信されたことを示す。すなわち、ログLG11のセンサ情報SN1−1は、画像センサIS1−1により検知され、端末装置TM1−1により情報処理装置100へ送信されたことを示す。また、ログLG11のセンサ情報SN1−1は、種別「画像」である動画像情報であることを示す。また、ログLG11のセンサ情報SN1−1は、日時dt1−1において、位置LC1−2で検知されたことを示す。
また、図7の例では、ログID「LG12」により識別される履歴情報(ログLG12)におけるセンサ情報SN1−2の取得元は、ID「IS1−2」により識別されるセンサであることを示す。すなわち、ログLG12のセンサ情報SN1−2は、画像センサIS1−2により検知されたことを示す。また、センサ情報SN1−2は、端末装置TM1−1から情報処理装置100へ送信されたことを示す。すなわち、ログLG12のセンサ情報SN1−2は、画像センサIS1−2により検知され、端末装置TM1−2により情報処理装置100へ送信されたことを示す。また、ログLG12のセンサ情報SN1−2は、種別「画像」である動画像情報であることを示す。また、ログLG12のセンサ情報SN1−2は、日時dt1−1において、位置LC1−2で検知されたことを示す。
なお、センサ情報記憶部125は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
(制御部130)
図3の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図3に示すように、制御部130は、取得部131と、推定部132と、決定部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
(取得部131)
取得部131は、種々の情報を取得する。取得部131は、端末装置10や情報提供装置等の外部装置から各種情報を取得する。また、取得部131は、記憶部120から各種情報を取得する。また、取得部131は、地図情報記憶部121や、POI情報記憶部122や、ユーザ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等から各種情報を取得する。例えば、取得部131は、画像センサ20から各種情報を取得してもよい。
取得部131は、一の移動体を操作するユーザの視線方向を撮像した画像情報を取得する。取得部131は、所定のセンサが検知したセンサ情報を取得する。取得部131は、画像センサによりユーザの目を撮像した画像であるセンサ情報を取得する。
取得部131は、移動ルートにおける一の移動体の前方位置に先行する他の移動体により検知された他のセンサ情報を取得する。取得部131は、複数の移動体が撮像した複数の画像情報を取得する。取得部131は、異なる時刻に複数の移動体が撮像した複数の画像情報を取得する。取得部131は、過去に所定の移動体が外部を撮像した画像の履歴情報を取得する。
図1の例では、取得部131は、センサ情報SN1−1、SN1−2やそれらに対応付けられた位置情報、日時情報、センサID、端末情報等を取得する。取得部131は、一覧情報SLST1に示すように、ログID「LG11」により識別されるログを取得する。取得部131は、センサ情報SN1−1の取得元は、画像センサIS1−1であることを示す情報を取得する。取得部131は、種別が「画像」、すなわち動画像であるセンサ情報SN1−1を取得する。また、取得部131は、センサ情報SN1−1が日時dt1−2において、位置LC1−2で検知されたことを示す情報を取得する。
また、図1の例では、取得部131は、一覧情報SLST1に示すように、ログID「LG12」により識別されるログを取得する。取得部131は、センサ情報SN1−2の取得元は、画像センサIS1−2であることを示す情報を取得する。取得部131は、種別が「画像」、すなわち動画像であるセンサ情報SN1−2を取得する。また、取得部131は、センサ情報SN1−2が日時dt1−2において、位置LC1−2で検知されたことを示す情報を取得する。
(推定部132)
推定部132は、各種情報を推定する。推定部132は、各種情報を特定する。推定部132は、各種情報を抽出する。推定部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を推定する。推定部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を特定する。推定部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を抽出する。推定部132は、地図情報記憶部121や、POI情報記憶部122や、ユーザ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を推定する。推定部132は、地図情報記憶部121や、POI情報記憶部122や、ユーザ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を特定する。推定部132は、地図情報記憶部121や、POI情報記憶部122や、ユーザ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を抽出する。推定部132は、取得部131により取得された各種情報に基づいて、種々の情報を推定する。推定部132は、取得部131により取得された各種情報に基づいて、種々の情報を特定する。推定部132は、取得部131により取得された各種情報に基づいて、種々の情報を抽出する。
推定部132は、所定のセンサが検知したセンサ情報に基づいて、ユーザの視線方向を推定する。推定部132は、取得部131により取得されたセンサ情報に基づいて、ユーザの視線方向を推定する。
図1の例では、推定部132は、移動体C1を運転するユーザU1の視線方向を推定する。推定部132は、ユーザU1の目を含む頭部を撮像したセンサ情報SN1−1を解析することにより、ユーザU1の視線方向を推定する。推定部132は、画像解析や画像処理に関する種々の従来技術を適宜用いて、センサ情報SN1−1を解析することにより、ユーザU1の視線方向を推定する。
推定部132は、画像解析や画像処理に関する種々の従来技術を適宜用いて、図1中の向き情報DR11に示すように、ユーザU1の視線方向を推定する。図1の例では、推定部132は、センサ情報SN1−1に基づいて、ユーザU1が左斜め前の方向を見ていることを示す向き情報DR11を推定する。このように、推定部132は、移動体の進行方向に対して左側の方向をユーザU1の視線方向を示す向き情報DR11を推定する。
推定部132は、BポストがユーザU1の視界に入っているかを推定する。例えば、推定部132は、移動体C1の前方を撮像したセンサ情報SN1−2を解析することにより、ユーザU1の視界にBポストが入っているかを推定する。図1の例では、推定部132は、画像解析や画像処理に関する種々の従来技術を適宜用いて、センサ情報SN1−2を解析することにより、センサ情報SN1−2にBポストが含まれるかを推定する。
推定部132は、特定物体認識等の物体認識に関する種々の従来技術を適宜用いて、センサ情報SN1−2の画像中にBポストが含まれるかを推定する。例えば、推定部132は、特定物体認識等の物体認識に関する種々の従来技術を適宜用いて、センサ情報SN1−2の画像中に色CL12である赤色のBポストが含まれるかを推定する。図1の例では、推定部132は、画像解析により、センサ情報SN1−2に色CL12である赤色のBポストが含まれると推定する。
(決定部133)
決定部133は、各種情報を決定する。決定部133は、各種情報を判定する。決定部133は、各種情報を生成する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を決定する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を判定する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を生成する。決定部133は、地図情報記憶部121や、POI情報記憶部122や、ユーザ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を決定する。決定部133は、地図情報記憶部121や、POI情報記憶部122や、ユーザ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を生成する。決定部133は、推定部132により推定された各種情報に基づいて、種々の情報を決定する。決定部133は、取得部131により取得された各種情報に基づいて、種々の情報を決定する。決定部133は、取得部131により取得された各種情報に基づいて、種々の情報を生成する。
図1の例では、決定部133は、ユーザU1の向き情報DR11に対応する対象POIを決定する。決定部133は、ユーザU1の向き情報DR11上に位置するPOIを対象POIとして決定する。決定部133は、POI情報記憶部122に記憶されたPOIのうち、ユーザU1の向き情報DR11上に位置するPOIを対象POIとして決定する。
決定部133は、対象物FC11、FC12等のうち、座標中において向き情報DR11に対応する線が交わるPOIをユーザU1に情報提供するPOI(対象物)と決定する。例えば、決定部133は、向き情報DR11に対応する緯度経度の一覧情報(リスト)と、対象物FC11、FC12等の所在地の緯度経度情報とを比較することにより、ユーザU1に情報提供するPOI(対象物)を決定する。例えば、決定部133は、向き情報DR11に対応する緯度経度の一覧情報(リスト)と、一のPOI(対象物)の所在地の緯度経度情報が向き情報DR11に対応する緯度経度の一覧情報(リスト)に含まれる場合、その一のPOI(対象物)がユーザU1の視線の向きに位置すると判定し、その一のPOI(対象物)の情報を提供すると決定する。決定部133は、Bポスト(対象物FC12)を対象POIに決定する。
決定部133は、ユーザU1への移動ルートの提供情報を決定する。例えば、決定部133は、端末装置TM1−1の位置LC1−2に基づいて、ナビ情報NV1である「交差点CR1を右折」をユーザU1に提供するタイミングであると決定する。決定部133は、ナビ情報NV1のうち、交差点CR1を対象POIに置き換えると決定する。決定部133は、ナビ情報NV1のうち、交差点CR1を、交差点CR1付近に位置しユーザU1の視界に入っているPOIであるBポストに置き換えると決定する。図1の例では、決定部133は、変更後ナビ情報PINF1に示すように、交差点CR1をBポストに関する情報に置き換えると決定する。決定部133は、Bポストに関する色情報を用いた情報により、「交差点CR1を右折」を変更する。
(提供部134)
提供部134は、各種情報を提供する。提供部134は、外部の情報処理装置へ各種情報を提供する。提供部134は、端末装置10等の外部の情報処理装置に各種情報を提供する。提供部134は、端末装置10に各種情報を送信する。提供部134は、端末装置10に各種情報を配信する。提供部134は、取得部131により取得された各種情報に基づいて、種々の情報を提供する。提供部134は、決定部133により決定された各種情報に基づいて、種々の情報を提供する。提供部134は、推定部132により判定された各種情報に基づいて、種々のサービスを提供する。提供部134は、推定部132により判定された各種情報に基づいて、種々の情報を提供する。
提供部134は、取得部131により取得された画像情報に基づいて、ユーザに移動ルートを案内するナビゲーションサービスを提供する。提供部134は、推定部132により推定されたユーザの視線方向に基づいて、ナビゲーションサービスを提供する。
提供部134は、ユーザに一の移動体の操作を案内する案内情報であって、ユーザの視線方向に位置する所定の対象を示す情報を含む案内情報を、ユーザに提供する。提供部134は、ユーザの視線方向に位置する対象物を示す情報を含む案内情報を、ユーザに提供する。提供部134は、対象物の色を示す情報を含む案内情報を、ユーザに提供する。提供部134は、対象物の名称を示す情報を含む案内情報を、ユーザに提供する。提供部134は、ユーザの視線方向に位置する対象物である他の移動体の動作を示す情報を含む案内情報を、ユーザに提供する。
提供部134は、他のセンサ情報に基づいて、ナビゲーションサービスを提供する。提供部134は、他のセンサ情報に基づく前方位置における道路状況を示す情報を、ユーザに提供する。提供部134は、複数の画像情報に基づいて、所定のサービスを提供する。提供部134は、複数の画像情報に基づいて、監視に関するサービスを提供する。提供部134は、履歴情報に基づいて、所定のサービスを提供する。提供部134は、履歴情報に含まれる所定の商品の値段を示す情報に基づいて、商品の値段を通知するサービスを提供する。
図1の例では、提供部134は、変更後ナビ情報PINF1をナビ情報として、端末装置TM1−1に提供する。提供部134は、変更後ナビ情報PINF1をナビ情報として、端末装置TM1−1に送信する。
〔3.情報処理のフロー〕
次に、図8を用いて、実施形態に係る情報処理システム1による情報処理の手順について説明する。図8は、実施形態に係る情報処理の一例を示すフローチャートである。具体的には、図8は、提供処理の一例を示すフローチャートである。
図8に示すように、情報処理装置100は、一の移動体を操作するユーザの視線方向を撮像した画像情報を取得する(ステップS101)。そして、情報処理装置100は、画像情報に基づいて、ユーザに移動ルートを案内するナビゲーションサービスを提供する(ステップS102)。
〔4.効果〕
上述してきたように、実施形態に係る情報処理装置100は、取得部131と、提供部134とを有する。取得部131は、一の移動体を操作するユーザの視線方向を撮像した画像情報を取得する。提供部134は、取得部131により取得された画像情報に基づいて、ユーザに移動ルートを案内するナビゲーションサービスを提供する。
これにより、実施形態に係る情報処理装置100は、一の移動体を操作するユーザの視線方向を撮像した画像情報に基づいて、ユーザに移動ルートを案内するナビゲーションサービスを提供することにより、ユーザの視線に応じた内容のナビゲーション情報を提供することができる。したがって、情報処理装置100は、ユーザの視線に応じたルートに関するナビゲーションを提供可能にすることができる。
また、実施形態に係る情報処理装置100は、推定部132を有する。推定部132は、所定のセンサが検知したセンサ情報に基づいて、ユーザの視線方向を推定する。提供部134は、推定部132により推定されたユーザの視線方向に基づいて、ナビゲーションサービスを提供する。
これにより、実施形態に係る情報処理装置100は、所定のセンサが検知したセンサ情報に基づいて、ユーザの視線方向を推定し、推定したユーザの視線方向に基づいて、ユーザに移動ルートを案内するナビゲーションサービスを提供することにより、ユーザの視線に応じた内容のナビゲーション情報を提供することができる。したがって、情報処理装置100は、ユーザの視線に応じたルートに関するナビゲーションを提供可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、所定のセンサが検知したセンサ情報を取得する。推定部132は、取得部131により取得されたセンサ情報に基づいて、ユーザの視線方向を推定する。
これにより、実施形態に係る情報処理装置100は、所定のセンサが検知したセンサ情報を取得し、センサ情報に基づいてユーザの視線方向を推定し、推定したユーザの視線方向に基づいて、ユーザに移動ルートを案内するナビゲーションサービスを提供することにより、ユーザの視線に応じた内容のナビゲーション情報を提供することができる。したがって、情報処理装置100は、ユーザの視線に応じたルートに関するナビゲーションを提供可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、画像センサによりユーザの目を撮像した画像であるセンサ情報を取得する。
これにより、実施形態に係る情報処理装置100は、画像センサによりユーザの目を撮像した画像であるセンサ情報を取得し、センサ情報に基づいてユーザの視線方向を推定し、推定したユーザの視線方向に基づいて、ユーザに移動ルートを案内するナビゲーションサービスを提供することにより、ユーザの視線に応じた内容のナビゲーション情報を提供することができる。したがって、情報処理装置100は、ユーザの視線に応じたルートに関するナビゲーションを提供可能にすることができる。
また、実施形態に係る情報処理装置100において、提供部134は、ユーザに一の移動体の操作を案内する案内情報であって、ユーザの視線方向に位置する所定の対象を示す情報を含む案内情報を、ユーザに提供する。
これにより、実施形態に係る情報処理装置100は、ユーザに一の移動体の操作を案内する案内情報であって、ユーザの視線方向に位置する所定の対象を示す情報を含む案内情報を、ユーザに提供することにより、ユーザの視線に応じた内容のナビゲーション情報を提供することができる。したがって、情報処理装置100は、ユーザの視線に応じたルートに関するナビゲーションを提供可能にすることができる。
また、実施形態に係る情報処理装置100において、提供部134は、ユーザの視線方向に位置する対象物を示す情報を含む案内情報を、ユーザに提供する。
これにより、実施形態に係る情報処理装置100は、ユーザの視線方向に位置する対象物を示す情報を含む案内情報を、ユーザに提供することにより、ユーザの視線に応じた内容のナビゲーション情報を提供することができる。したがって、情報処理装置100は、ユーザの視線に応じたルートに関するナビゲーションを提供可能にすることができる。
また、実施形態に係る情報処理装置100において、提供部134は、対象物の色を示す情報を含む案内情報を、ユーザに提供する。
これにより、実施形態に係る情報処理装置100は、対象物の色を示す情報を含む案内情報を、ユーザに提供することにより、ユーザの視線に応じた内容のナビゲーション情報を提供することができる。したがって、情報処理装置100は、ユーザの視線に応じたルートに関するナビゲーションを提供可能にすることができる。
また、実施形態に係る情報処理装置100において、提供部134は、対象物の名称を示す情報を含む案内情報を、ユーザに提供する。
これにより、実施形態に係る情報処理装置100は、対象物の名称を示す情報を含む案内情報を、ユーザに提供することにより、ユーザの視線に応じた内容のナビゲーション情報を提供することができる。したがって、情報処理装置100は、ユーザの視線に応じたルートに関するナビゲーションを提供可能にすることができる。
また、実施形態に係る情報処理装置100において、提供部134は、ユーザの視線方向に位置する対象物である他の移動体の動作を示す情報を含む案内情報を、ユーザに提供する。
これにより、実施形態に係る情報処理装置100は、ユーザの視線方向に位置する対象物である他の移動体の動作を示す情報を含む案内情報を、ユーザに提供することにより、ユーザの視線に応じた内容のナビゲーション情報を提供することができる。したがって、情報処理装置100は、ユーザの視線に応じたルートに関するナビゲーションを提供可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、移動ルートにおける一の移動体の前方位置に先行する他の移動体により検知された他のセンサ情報を取得する。提供部134は、他のセンサ情報に基づいて、ナビゲーションサービスを提供する。
これにより、実施形態に係る情報処理装置100は、移動ルートにおける一の移動体の前方位置に先行する他の移動体により検知された他のセンサ情報に基づいて、ナビゲーションサービスを提供することにより、他の移動体のセンサ情報を加味した内容のナビゲーション情報を提供することができる。したがって、情報処理装置100は、ユーザに適切なナビゲーションを提供可能にすることができる。
また、実施形態に係る情報処理装置100において、提供部134は、他のセンサ情報に基づく前方位置における道路状況を示す情報を、ユーザに提供する。
これにより、実施形態に係る情報処理装置100は、他のセンサ情報に基づく前方位置における道路状況を示す情報を、ユーザに提供することにより、他の移動体のセンサ情報を加味した内容のナビゲーション情報を提供することができる。したがって、情報処理装置100は、ユーザに適切なナビゲーションを提供可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、複数の移動体が撮像した複数の画像情報を取得する。提供部134は、複数の画像情報に基づいて、所定のサービスを提供する。
これにより、実施形態に係る情報処理装置100は、複数の移動体が撮像した複数の画像情報に基づいて、所定のサービスを提供することにより、適切なサービスを提供可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、異なる時刻に複数の移動体の各々が撮像した複数の画像情報を取得する。提供部134は、複数の画像情報に基づいて、監視に関するサービスを提供する。
これにより、実施形態に係る情報処理装置100は、異なる時刻に複数の移動体の各々が撮像した複数の画像情報に基づいて、監視に関するサービスを提供することにより、適切なサービスを提供可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、過去に所定の移動体が外部を撮像した画像の履歴情報を取得する。提供部134は、履歴情報に基づいて、所定のサービスを提供する。
これにより、実施形態に係る情報処理装置100は、過去に所定の移動体が外部を撮像した画像の履歴情報に基づいて、所定のサービスを提供することにより、適切なサービスを提供可能にすることができる。
また、実施形態に係る情報処理装置100において、提供部134は、履歴情報に含まれる所定の商品の値段を示す情報に基づいて、商品の値段を通知するサービスを提供する。
これにより、実施形態に係る情報処理装置100は、履歴情報に含まれる所定の商品の値段を示す情報に基づいて、商品の値段を通知するサービスを提供することにより、適切なサービスを提供可能にすることができる。
〔5.ハードウェア構成〕
上述してきた実施形態に係る情報処理装置100は、例えば図9に示すような構成のコンピュータ1000によって実現される。図9は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
〔6.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
1 情報処理システム
100 情報処理装置
121 地図情報記憶部
122 POI情報記憶部
123 ユーザ情報記憶部
124 移動体情報記憶部
125 センサ情報記憶部
130 制御部
131 取得部
132 推定部
133 決定部
134 提供部
10 端末装置
20 画像センサ
N ネットワーク

Claims (17)

  1. 一の移動体を操作するユーザの視線方向を撮像した画像情報を取得する取得部と、
    前記取得部により取得された前記画像情報に基づいて、前記ユーザに移動ルートを案内するナビゲーションサービスを提供する提供部と、
    を備えることを特徴とする情報処理装置。
  2. 所定のセンサが検知したセンサ情報に基づいて、前記ユーザの視線方向を推定する推定部、
    をさらに備え、
    前記提供部は、
    前記推定部により推定された前記ユーザの視線方向に基づいて、前記ナビゲーションサービスを提供する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記取得部は、
    前記所定のセンサが検知した前記センサ情報を取得し、
    前記推定部は、
    前記取得部により取得された前記センサ情報に基づいて、前記ユーザの視線方向を推定する
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記取得部は、
    画像センサにより前記ユーザの目を撮像した画像である前記センサ情報を取得する
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 前記提供部は、
    前記ユーザに前記一の移動体の操作を案内する案内情報であって、前記ユーザの視線方向に位置する所定の対象を示す情報を含む案内情報を、前記ユーザに提供する
    ことを特徴とする請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 前記提供部は、
    前記ユーザの視線方向に位置する対象物を示す情報を含む前記案内情報を、前記ユーザに提供する
    ことを特徴とする請求項5に記載の情報処理装置。
  7. 前記提供部は、
    前記対象物の色を示す情報を含む案内情報を、前記ユーザに提供する
    ことを特徴とする請求項6に記載の情報処理装置。
  8. 前記提供部は、
    前記対象物の名称を示す情報を含む案内情報を、前記ユーザに提供する
    ことを特徴とする請求項6または請求項7に記載の情報処理装置。
  9. 前記提供部は、
    前記ユーザの視線方向に位置する対象物である他の移動体の動作を示す情報を含む前記案内情報を、前記ユーザに提供する
    ことを特徴とする請求項6〜8のいずれか1項に記載の情報処理装置。
  10. 前記取得部は、
    前記移動ルートにおける前記一の移動体の前方位置に先行する他の移動体により検知された他のセンサ情報を取得し、
    前記提供部は、
    前記他のセンサ情報に基づいて、前記ナビゲーションサービスを提供する
    ことを特徴とする請求項1〜9のいずれか1項に記載の情報処理装置。
  11. 前記提供部は、
    前記他のセンサ情報に基づく前記前方位置における道路状況を示す情報を、前記ユーザに提供する
    ことを特徴とする請求項10に記載の情報処理装置。
  12. 前記取得部は、
    複数の移動体が撮像した複数の画像情報を取得し、
    前記提供部は、
    前記複数の画像情報に基づいて、所定のサービスを提供する
    ことを特徴とする請求項1〜11のいずれか1項に記載の情報処理装置。
  13. 前記取得部は、
    異なる時刻に前記複数の移動体の各々が撮像した前記複数の画像情報を取得し、
    前記提供部は、
    前記複数の画像情報に基づいて、監視に関するサービスを提供する
    ことを特徴とする請求項12に記載の情報処理装置。
  14. 前記取得部は、
    過去に所定の移動体が外部を撮像した画像の履歴情報を取得し、
    前記提供部は、
    前記履歴情報に基づいて、所定のサービスを提供する
    ことを特徴とする請求項1〜13のいずれか1項に記載の情報処理装置。
  15. 前記提供部は、
    前記履歴情報に含まれる所定の商品の値段を示す情報に基づいて、商品の値段を通知するサービスを提供する
    ことを特徴とする請求項14に記載の情報処理装置。
  16. コンピュータが実行する情報処理方法であって、
    一の移動体を操作するユーザの視線方向を撮像した画像情報を取得する取得工程と、
    前記取得工程により取得された前記画像情報に基づいて、前記ユーザに移動ルートを案内するナビゲーションサービスを提供する提供工程と、
    を含むことを特徴とする情報処理方法。
  17. 一の移動体を操作するユーザの視線方向を撮像した画像情報を取得する取得手順と、
    前記取得手順により取得された前記画像情報に基づいて、前記ユーザに移動ルートを案内するナビゲーションサービスを提供する提供手順と、
    をコンピュータに実行させることを特徴とする情報処理プログラム。
JP2018156511A 2018-08-23 2018-08-23 情報処理装置、情報処理方法、及び情報処理プログラム Active JP7093268B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018156511A JP7093268B2 (ja) 2018-08-23 2018-08-23 情報処理装置、情報処理方法、及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018156511A JP7093268B2 (ja) 2018-08-23 2018-08-23 情報処理装置、情報処理方法、及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2020030134A true JP2020030134A (ja) 2020-02-27
JP7093268B2 JP7093268B2 (ja) 2022-06-29

Family

ID=69624251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018156511A Active JP7093268B2 (ja) 2018-08-23 2018-08-23 情報処理装置、情報処理方法、及び情報処理プログラム

Country Status (1)

Country Link
JP (1) JP7093268B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007123104A1 (ja) * 2006-04-19 2007-11-01 Pioneer Corporation 経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体
JP2008064483A (ja) * 2006-09-05 2008-03-21 Denso It Laboratory Inc 車両用ナビゲーション装置、方法およびプログラム
JP2012123645A (ja) * 2010-12-09 2012-06-28 Isuzu Motors Ltd 補給所情報提供システム
JP2013145540A (ja) * 2011-12-13 2013-07-25 Toyota Motor Corp 情報提供装置
JP2017045211A (ja) * 2015-08-26 2017-03-02 株式会社日立製作所 駐車監視支援システム及び方法
JP2018081052A (ja) * 2016-11-18 2018-05-24 クラリオン株式会社 車載装置、及び情報処理システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007123104A1 (ja) * 2006-04-19 2007-11-01 Pioneer Corporation 経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体
JP2008064483A (ja) * 2006-09-05 2008-03-21 Denso It Laboratory Inc 車両用ナビゲーション装置、方法およびプログラム
JP2012123645A (ja) * 2010-12-09 2012-06-28 Isuzu Motors Ltd 補給所情報提供システム
JP2013145540A (ja) * 2011-12-13 2013-07-25 Toyota Motor Corp 情報提供装置
JP2017045211A (ja) * 2015-08-26 2017-03-02 株式会社日立製作所 駐車監視支援システム及び方法
JP2018081052A (ja) * 2016-11-18 2018-05-24 クラリオン株式会社 車載装置、及び情報処理システム

Also Published As

Publication number Publication date
JP7093268B2 (ja) 2022-06-29

Similar Documents

Publication Publication Date Title
KR102043588B1 (ko) 자율 주행 차량 내에서 미디어 콘텐츠를 표시하기 위한 시스템 및 방법
US20210116932A1 (en) Method and apparatus for providing unknown moving object detection
US9736650B2 (en) Method and apparatus for adapting navigation notifications based on compliance information
CA2848995C (en) A computing platform for development and deployment of sensor-driven vehicle telemetry applications and services
US9448079B2 (en) Method and apparatus for providing navigation guidance via proximate devices
EP3620972A1 (en) Method and apparatus for providing a user reaction user interface for generating a passenger-based driving profile
EP3635337B1 (en) Systems and methods for selecting a poi to associate with a navigation maneuver
US20220365991A1 (en) Method and apparatus for enhancing a geolocation database
US20230128964A1 (en) Mobile Device And System For Automated Trip Familiarity Recognition And Corresponding Method Thereof
US20220332321A1 (en) System and method for adjusting a yielding space of a platoon
JP7267696B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7093268B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7475808B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
Feng et al. Commute booster: a mobile application for first/last mile and middle mile navigation support for people with blindness and low vision
Al-Rajab et al. Smart Application for Every Car (SAEC).(AR Mobile Application)
CN114261394A (zh) 用于确定交通场景的方法、系统和计算机可读存储介质
US11043117B2 (en) Method and apparatus for next token prediction based on previously observed tokens
JP2021124794A (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP7027281B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US20230392936A1 (en) Method and apparatus for determining lingering communication indicators
US11879744B2 (en) Inferring left-turn information from mobile crowdsensing
JP6971206B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US11828616B2 (en) Search system, search method, and recording medium for recording search program
JP7405502B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP6971205B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220422

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220422

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220502

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220617

R150 Certificate of patent or registration of utility model

Ref document number: 7093268

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350