JP5187517B2 - 情報提供装置、情報提供方法およびプログラム - Google Patents

情報提供装置、情報提供方法およびプログラム Download PDF

Info

Publication number
JP5187517B2
JP5187517B2 JP2008303118A JP2008303118A JP5187517B2 JP 5187517 B2 JP5187517 B2 JP 5187517B2 JP 2008303118 A JP2008303118 A JP 2008303118A JP 2008303118 A JP2008303118 A JP 2008303118A JP 5187517 B2 JP5187517 B2 JP 5187517B2
Authority
JP
Japan
Prior art keywords
occupant
sight
line
character device
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008303118A
Other languages
English (en)
Other versions
JP2010127779A (ja
Inventor
裕史 塚原
弘利 岩崎
豊明 西田
泰史 戸田
達也 平松
康之 角
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto University
Denso IT Laboratory Inc
Original Assignee
Kyoto University
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyoto University, Denso IT Laboratory Inc filed Critical Kyoto University
Priority to JP2008303118A priority Critical patent/JP5187517B2/ja
Publication of JP2010127779A publication Critical patent/JP2010127779A/ja
Application granted granted Critical
Publication of JP5187517B2 publication Critical patent/JP5187517B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)
  • Position Input By Displaying (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、乗物の乗員に対して情報を提供する情報提供装置に関する。
従来から、車両の乗員に対して情報を提供する情報提供装置が知られていた。例えば、特許文献1に記載された車両用情報提供システムは、乗員の嗜好データを記憶した利用者データベースを備えており、走行位置の周辺にある地物の中から、利用者の嗜好に合った地物を読み出して、情報を提供する。本明細書において、情報提供の対象となる「地物」とは、施設、建物、河川、家屋、樹木等の地上に存在する天然または人工の物体のほかに、イベント等が行われている場所等も含む。地物は、POI(Point of Interest)と言い換えることもできる。
特許文献1に記載された情報提供装置は、乗員の嗜好に基づいて地物の取捨選択を行うものの、そのときどきの状況に拘わらずに情報が提供されるので、ときには乗員が煩わしさを感じる場合があった。
特許文献2に記載された車両用情報提供装置は、情報センターに音声自動応答装置を備えている。乗員は、音声自動応答装置の音声案内に従って、提供を希望する情報を伝え、これに従って、音声自動応答装置は乗員の希望する情報を用意して車載機に送信し、音声案内を行う。
また、本発明者は、特許文献3において、視線を用いたインターフェースを提案している。この文献は、会話データを知識化するシステムに関し、会話データに付加する検索用データを作成するために、会話が盛り上がったときに見ていた対象物を特定するために視線を用いている。しかし、視線は、運転行動等によっても動くので、視線のみから情報を提供すべき対象物を特定することは容易ではない。
特開2005−30980号公報 特開2004−348658号公報 特開2008−197598号公報
上記した特許文献2のように音声に従って情報を選択する発明は、ドライバがハンドルから手を離すことなく、音声で情報を選択できる点では、車両用の情報提供装置に適している。しかしながら、ドライバは、話しかけられると、その問いの意味を理解してその返事をする必要があるので、集中力が削がれる場合があった。
本発明は、上記背景に鑑み、運転の妨げとならずに、出力すべき情報を選択可能な情報提供装置を提供することを目的とする。
人間が視線を知覚する能力は、コミュニケーションにおける非常に基本的なものである。本発明者らは、人間がアイコンタクトをとったり、他者が見ている方向を目で追ったりする動作(以下、「共同注視」という)が無意識に処理される動作であることに着目し、運転の妨げとなるような負担をかけないで乗員に情報を提供する本発明を完成させた。
本発明の情報提供装置は、車両の現在位置を検出する現在位置検出部と、地物に関する情報を記憶した地物情報記憶部と、乗員の視線を検出する視線検出部と、三次元動作により任意の方向に視線を提示するキャラクターデバイスと、地物に関する情報を出力する情報出力部と、制御部とを備え、前記制御部は、前記キャラクターデバイスの視線を乗員以外の方に向け、前記現在位置検出部にて検出された現在位置の周辺にある地物を前記地物情報記憶部から検索し、地物が検索された場合に、前記キャラクターデバイスの視線を乗員の方に向け、前記キャラクターデバイスの視線が乗員の方を向いたときに、前記視線検出部での検出結果に基づいて乗員が前記キャラクターデバイスの方を見たか否かを判定し、乗員が前記キャラクターデバイスの方を見たと判定された場合に、前記キャラクターデバイスの視線を前記地物の方向に向け、前記キャラクターデバイスの視線が前記地物の方向を向いたときに、前記視線検出部での検出結果に基づいて乗員が前記キャラクターデバイスの視線方向を見たか否かを判定し、乗員が前記キャラクターデバイスの視線方向を見たと判定された場合に、前記地物に関する情報を前記情報出力部から出力する。
本発明は、乗員に提供すべき地物が検索された場合に、キャラクターデバイスの視線を乗員の方に向ける制御を行う。キャラクターデバイスを周辺視野で捉えることができる程度に余裕がある場合には、乗員は無意識のうちにキャラクターデバイスの方を見る(キャラクターデバイスとアイコンタクトを行う)。乗員がキャラクターデバイスを見た場合に、キャラクターデバイスの視線を地物の方向に向けることにより、人間が無意識のうちに行う共同注視を利用して、乗員が地物を見るように仕向けることができる。乗員の視線を地物に向けることに成功した場合に、その地物の情報を提供することにより、乗員が見ている地物に関する情報を提供することができる。なお、キャラクターデバイスは、人間が視線方向を認識できるものであればよく、例えば、人間の顔を模したロボットのようなものでもよく、人間以外の物の形状を有していてもよい。人体のような多自由度ではない少数自由度の機構であっても、ラバン特徴量などの力学的・幾何学的特徴量が類似していれば、人には同じ身体表現として認識されるという研究がある(例えば、「ロボットの身体動作表現と生成される印象とのラバン特徴量を介した定量的相関分析」、中田亨、 森 武俊、 佐藤 知正、日本ロボット学会誌、 Vol.19, No.2, pp.252-259, 2001.)。従って、力学的・幾何学的な特徴量によってデバイスの三次元動作を制御することにより、デバイスを擬人化して見せ、その視線方向を認識させるようにしてもよい。
本発明の情報提供装置において、前記制御部は、前記視線検出部での検出結果に基づいて、乗員が所定の閾値以上の時間にわたって車両の前方以外の方向を見ていると判定した場合に、前記キャラクターデバイスの視線を車両の前方に向けてもよい。
この構成により、ドライバが所定時間にわたってよそ見をして、車両の前方を見ていない場合には、共同注視を利用して乗員を車両前方に向けることができ、安全運転に資することができる。
また、本発明の情報提供装置は、以下の構成を採用することも可能である。
(1)前記制御部は、乗員が前記キャラクターデバイスの方を見たか否かを判定した結果、前記キャラクターデバイスを見たと判定された場合に、乗員の視線がキャラクターデバイスの方向に所定時間以上停留していたか否かを判定し、乗員の視線がキャラクターデバイスの方向に所定時間以上停留していたと判定された場合に、前記キャラクターデバイスの視線を前記地物の方向に向ける制御を行う。
(2)前記情報提供装置は、乗員を撮影するカメラを備え、前記制御部は、乗員が前記キャラクターデバイスの方を見たか否かを判定した結果、前記キャラクターデバイスを見たと判定された場合に、前記カメラで撮影した映像に基づいて乗員が頷いたか否かを判定し、乗員が頷いたと判定された場合に、前記キャラクターデバイスの視線を前記地物の方向に向ける制御を行う。
(3)前記情報提供装置は、乗員を撮影するカメラを備え、前記制御部は、乗員が前記キャラクターデバイスの方を見たか否かを判定した結果、前記キャラクターデバイスを見たと判定された場合に、前記カメラで撮影した映像に基づいて、乗員の表情が予め記憶されたパターンに合致したか否かを判定し、乗員の表情が予め記憶したパターンに合致したと判定された場合に、前記キャラクターデバイスの視線を前記地物の方向に向ける制御を行う。
(4)前記情報提供装置は、乗員の音声を検出するマイクと、前記マイクにて検出された音声を分析する音声認識部とを備え、前記制御部は、乗員が前記キャラクターデバイスの方を見たか否かを判定した結果、前記キャラクターデバイスを見たと判定された場合に、前記音声認識部での認識結果に基づいて、乗員が予め記憶された単語を発したか否かを判定し、予め記憶された単語を発したと判定された場合に、前記キャラクターデバイスの視線を前記地物の方向に向ける制御を行う。
(5)前記情報提供装置は、乗員の瞳孔を撮影するアイカメラを備え、前記制御部は、乗員が前記キャラクターデバイスの方を見たか否かを判定した結果、前記キャラクターデバイスを見たと判定された場合に、前記アイカメラで撮影した映像に基づいて乗員の瞳孔が大きくなったか否かを判定し、乗員の瞳孔が大きくなったと判定された場合に、前記キャラクターデバイスの視線を前記地物の方向に向ける制御を行う。
本発明の情報提供装置において、前記制御部は、前記視線検出部での検出結果に基づいて乗員の注視行動を検出した場合に、注視対象の地物を前記地物情報記憶部から読み出し、前記キャラクターデバイスの視線を乗員の方に向け、前記キャラクターデバイスの視線が乗員の方を向いたときに、前記視線検出部での検出結果に基づいて乗員が前記キャラクターデバイスの方を見たか否かを判定し、前記乗員が前記キャラクターデバイスの方を見たと判定された場合に、前記地物に関する情報を前記情報出力部から出力してもよい。
このように乗員が注視行動をとったときにキャラクターデバイスの視線を乗員に向け、これに対して乗員がキャラクターデバイスを見るかどうかを判定することで、乗員に、キャラクターデバイスを周辺視野で捉えることができる程度の余裕があるか判断できる。これにより、適切なタイミングで、注視対象の地物のデータを提供することができる。
本発明の視線提示装置は、車両の現在位置を検出する現在位置検出部と、三次元動作により任意の方向に視線を提示するキャラクターデバイスと、前記キャラクターデバイスの動作を制御する制御部とを備え、前記制御部は、前記現在位置検出部にて検出された車両の現在位置に基づいて乗員に対して通知すべき情報があるか否かを判定し、通知すべき情報があると判定された場合に、前記キャラクターデバイスの視線を乗員に向ける制御を行う。
このようにキャラクターデバイスの視線を乗員に向けることにより、運転の妨げにならない態様で、乗員に対して通知すべき情報があることを知らせることができる。
本発明の視線提示装置は、車両の現在位置を検出する現在位置検出部と、地物に関する情報を記憶した地物情報記憶部と、三次元動作により任意の方向に視線を提示するキャラクターデバイスと、前記キャラクターデバイスの動作を制御する制御部とを備え、前記制御部は、前記現在位置検出部にて検出された車両の現在位置と、前記地物情報記憶部に記憶された地物の位置に基づいて、車両から前記地物までの相対位置を算出し、算出した相対位置の方向に前記キャラクターデバイスの視線を向ける制御を行う。
このようにキャラクターデバイスの視線を地物に向けることにより、共同注視により、乗員が地物の方を見るように仕向けることができる。
本発明の情報提供方法は、三次元動作により任意の方向に視線を提示するキャラクターデバイスを備えた情報提供装置によって、車両の乗員に情報を提供する方法であって、前記情報提供装置が、前記キャラクターデバイスの視線を乗員以外の方に向けるステップと、前記情報提供装置が、現在位置検出部にて検出された車両の現在位置の周辺にある地物を、地物に関する情報を記憶した地物情報記憶部から検索するステップと、地物が検索された場合に、前記情報提供装置が、前記キャラクターデバイスの視線を乗員の方に向けるステップと、前記キャラクターデバイスの視線が乗員の方を向いたときに、前記情報提供装置が、視線検出部での検出結果に基づいて乗員が前記キャラクターデバイスの方を見たか否かを判定するステップと、乗員が前記キャラクターデバイスの方を見たと判定された場合に、前記キャラクターデバイスの視線を前記地物の方向に向けるステップと、前記キャラクターデバイスの視線が前記地物の方向を向いたときに、前記情報提供装置が、視線検出部での検出結果に基づいて乗員が前記キャラクターデバイスの視線方向を見たか否かを判定するステップと、乗員が前記キャラクターデバイスの視線方向を見たと判定された場合に、前記情報提供装置が、前記地物に関する情報を出力するステップとを備える。
この構成により、本発明の情報提供装置と同様に、人間が無意識のうちに行う共同注視を利用して、乗員が地物を見るように仕向けることができ、乗員が見ている地物の情報を提供することができる。なお、本発明の情報提供装置の各種の構成を本発明の情報提供方法に適用することも可能である。
本発明のプログラムは、車両の乗員に情報を提供するためのプログラムであって、車両の現在位置を検出する現在位置検出部と、乗員の視線を検出する視線検出部と、三次元動作により任意の方向に視線を提示するキャラクターデバイスを備えたコンピュータに、前記キャラクターデバイスの視線を乗員以外の方に向けるステップと、前記現在位置検出部にて検出された現在位置の周辺にある地物を、地物に関する情報を記憶した地物情報記憶部から検索するステップと、地物が検索された場合に、前記キャラクターデバイスの視線を乗員の方に向けるステップと、前記キャラクターデバイスの視線が乗員の方を向いたときに、前記視線検出部での検出結果に基づいて乗員が前記キャラクターデバイスの方を見たか否かを判定するステップと、乗員が前記キャラクターデバイスの方を見たと判定された場合に、前記キャラクターデバイスの視線を前記地物の方向に向けるステップと、前記キャラクターデバイスの視線が前記地物の方向を向いたときに、前記視線検出部での検出結果に基づいて乗員が前記キャラクターデバイスの視線方向を見たか否かを判定するステップと、乗員が前記キャラクターデバイスの視線方向を見たと判定された場合に、前記地物に関する情報を出力するステップとを実行させる。
この構成により、本発明の情報提供装置と同様に、人間が無意識のうちに行う共同注視を利用して、乗員が地物を見るように仕向けることができ、乗員が見ている地物の情報を提供することができる。なお、本発明の情報提供装置の各種の構成を本発明のプログラムに適用することも可能である。
本発明によれば、キャラクターデバイスを地物の方向に向けることにより、人間が無意識のうちに行う共同注視を利用して、乗員が地物を見るように仕向けることができる。
また、本発明では、乗員に提供すべき地物が検索された場合または乗員の注視行動を検出した場合に、キャラクターデバイスを乗員の方に振り向かせる制御を行い、乗員に、キャラクターデバイスを周辺視野で捉えることができる程度に余裕があるかどうかを判定できる。
以下、本発明の実施の形態の情報提供装置について図面を参照しながら説明する。以下の説明では、乗用車内において、地物に関するデータ(以下、「地物データ」という)を提供情報として提供する場合を例として説明する。なお、本発明の情報提供装置が提供する情報は、地物データに限定されない。本発明の情報提供装置は、地物に関連付けられた情報(例えば、アミューズメント情報、過去会話等)の提供にも適用することが可能である。
(第1の実施の形態)
図1は第1の実施の形態の情報提供装置1の構成を示す図であり、図2は情報提供装置1の外観を示す模式図である。
情報提供装置1は、車両の現在位置を検出する現在位置検出部10と、地物に関するデータを記憶した地物データ記憶部12と、乗員を撮影するドライバモニタカメラ14および室内モニタカメラ16と、撮影したカメラ映像から乗員の視線を検出する視線検出部18と、インストルメントパネルの中央付近に設けられたキャラクターデバイス22と、地物データを出力するスピーカ32と、文字や記号などの視覚的情報を提示するためのモニタ34と、車両情報を入力する車両情報入力部36と、提供した情報の履歴データを記憶する情報提供履歴記憶部38と、上記した各構成の制御を行う制御部40とを有している。また、情報提供装置1は、図2に示すように車載LANゲートウェイ54を有している。車載LANゲートウェイ54は、車内にある各種の機器と無線で通信を行うための構成である。
ドライバモニタカメラ14は、図2に示すように、ハンドルの軸の上に設置されており、乗員の判別と視線の検出に用いられる。室内モニタカメラ16は、室内に向けて設置されており、同乗者の判別及び視線を検出するなどに用いられる。
図3は、キャラクターデバイス22の構成を示す図である。キャラクターデバイス22は、2軸の回転部56,58を持つ支持台上にキャラクターデバイス22の頭部を設置した形状をしている。キャラクターデバイス22の頭部の支持台は、2軸のモーターによって、向きを制御可能なアクチュエータであり、頭部の左右・上下の回転を組み合わせて自由な方向への回転が可能になっている。キャラクターデバイス22の2軸の回転部は、キャラクターデバイスアクチュエータ30によって制御される。各モーターの回転角をα、βとし、α=β=0の時、キャラクターデバイス22の頭部は、車両の正面前方を向くように設定されている。
図3では、キャラクターデバイス22の頭部を支持する軸を長く描いているが、キャラクターデバイス22の高さは、乗員の視界を遮らないように十分低く設計する。インストルメントパネル上に設置する場合には、キャラクターデバイス22は出来るだけ平たい形状にすることが望ましい。また、支持台の水平方向の回転部56と垂直方向の回転部58は、図3とは逆の上下位置関係に設置してあってもよい。
キャラクターデバイス22の頭部には、左右の目の位置に相当する位置に小型カメラ24,26を搭載し、その下に小型マイク28を搭載している。これらはキャラクターデバイス22の頭部の目や鼻などの位置を視覚的に表現し、キャラクターデバイス22が視線を提供することを可能にするとともに、小型カメラ24,26による画像キャプチャ及び小型マイク28による音声キャプチャにより、視線を向けた方向に見えるシーンとそちらから向かってくる音声とを検知する。これらの小型カメラ24,26及び小型マイク28による入力は、制御部40で、開始・停止を任意に操作できるようになっている。
視線検出部18は、ドライバモニタカメラ14、室内モニタカメラ16およびキャラクターデバイス22に搭載された2個の小型カメラ24,26の映像から乗員の顔および眼球の映像を検出し、顔および眼球の向きから乗員の視線を検出する。視線検出部18は、検出した視線のデータを逐次、視線履歴記憶部20に記憶する。
次に、制御部40の構成について説明する。制御部40は、情報提供装置1の各構成要素を統合的に制御する機能を有する。制御部40は、処理ロジックを記録したECUやデータを格納するハードディスク、無線ネットワークに繋がる通信部などから構成される。なお、以下に説明する制御部40の機能を実現するためのプログラムも本発明の範囲に含まれる。
制御部40は、キャラクターデバイスアクチュエータ30を制御するアクチュエータ制御部42と、地物データ記憶部12から現在位置付近にある地物を検索する情報検索部44と、視線履歴記憶部20に記憶されたデータおよびキャラクターデバイス22の制御情報に基づいて、乗員とキャラクターデバイス22とのアイコンタクトを検出するアイコンタクト検出部46と、視線履歴記憶部20に記憶されたデータおよびキャラクターデバイス22の制御情報に基づいて乗員とキャラクターデバイス22の共同注視を検出する共同注視検出部48と、スピーカ32またはモニタ34からの情報の出力を制御する情報出力制御部50と、地物データの情報提供を行った履歴を管理する情報提供履歴管理部52とを有している。
図4は、情報提供装置1の動作状態を示す図である。情報提供装置1は、自律モードおよび情報提供モードを有している。乗員がスイッチ等を操作することにより、自律モードと情報提供モードを切り替えることができる。自律モードは、地物の位置情報などの環境情報に基づいてキャラクターデバイス22の姿勢を制御するモードである。情報提供モードは、乗員に提供すべき情報がある場合に乗員に対して情報を提供するモードである。
図4に示すように、自律モード、情報提供モードのいずれにおいても乗員が注視行動をとった場合には、情報提供装置1は、注視対象の地物のデータを提供する処理を行う。注視対象の情報提供が終了すると、情報提供装置1は、遷移元の自律モードあるいは情報提供モードに戻る。以下、自律モード、情報提供モード、注視行動検出時の各処理について詳しく説明する。
(自律モード)
図5は、自律モードでの情報提供装置1の処理フローを示す図である。自律モードでは、制御部40は、自車位置周辺の所定範囲内にある地物データが多く存在している方向へキャラクターデバイス22の視線が動くように制御する。車両の現在位置を含む所定範囲内に地物がない場合には、車両前方画像の中から特徴点を抽出し、例えば、特徴点の分布に対するクラスタリングを行い、最もサイズの大きいクラスタの重心方向へ視線を移動させる。以下、図5を参照して、具体的な処理について説明する。
まず、情報提供装置1は、現在位置検出部10にて車両の現在位置を検出し(S10)、制御部40にて現在位置の周辺にある地物を検索する。
図6は、制御部40の情報検索部44による地物の検索について説明する図である。図6に示すように、情報提供装置1は、自車位置(X,Y)を中心として、半径Rの円内で、かつ、進行方向(現在、停車しているときは、停車直前に移動していた方向)を中央にして、角度2ρの範囲内にある地物データを地物データ記憶部12から検索する(S12)。
制御部40は、現在位置周辺の地物データが検出されたか否かを判定する(S14)。地物データが検出された場合には(S14でYES)、図6に示すように、すでに情報提供した地物データを削除する(S16)。情報提供済みの地物データは、情報提供履歴記憶部38に記憶されているので、情報提供装置1は、情報提供履歴記憶部38に記憶されたデータに基づいて、情報提供済みか否かを判定する。
制御部40は、情報提供をしていない地物データ(以下、「未提供地物」という)があるか否かを判定する(S18)。この結果、未提供地物データがあると判定された場合には(S18でYES)、制御部40は、その地物の位置データおよび車両の現在位置から地物の相対位置を計算する(S20)。図7に示すように、車両の現在位置から各地物までの相対方向(φ,θ)及び相対距離rを計算する。相対方向(φ,θ)及び距離rは、下記の式(1)〜(3)によって近似的に求められる。
水平方向に関する地物データの分布を下記の式(4)に従って範囲[−ρ,ρ]内で計算する。
この分布は、範囲[−ρ,ρ]をサイズΔφの区分に分割し、かつ区分内に入る地物データの数を式(4)に示すような重み付きで加え上げることで計算されるものである。式(4)において、関数f(r)は、非負の有界な非増加関数であり、近くに存在する地物の方向を優先するような重み付けを与えるものである。
図8は、地物データの分布の例を示す図である。分布の最大値の水平方向をφとする。水平方向が[φ,φ+Δφ]内にある地物データの垂直方向を下記の式(5)によって重み付き平均を計算することで、垂直方向θを計算する。
制御部40は、キャラクターデバイス22の視線を、上記の計算により求めた方向、すなわち地物の分布の最大値の方向へ移動させる(S22)。
次に、地物が検出されたか否かの判定(S14)において地物が検出されなかった場合(S14でNO)、および、未提供地物があるか否かの判定(S18)において未提供地物がないと判定された場合(S18でNO)の動作について説明する。地物が検出されなかった場合および未提供地物がない場合には、制御部40は、車両前方の画像から車両前方の特徴点を抽出し(S24)、抽出された複数の特徴点の中から一の特徴点を選択する(S26)。続いて、制御部40は、特徴点の相対位置を算出し(S28)、キャラクターデバイス22を特徴点の方向に向ける(S30)。これにより、車両の周辺に未提供の地物がない場合にも、キャラクターデバイス22を自律的に動作させることができる。
自律モードでは、上記したフローの動作を、車両位置が更新されたタイミングで繰り返し実行する。
(情報提供モード)
図9は、情報提供装置1の情報提供モードの処理フローを示す図である。情報提供モードでは、情報提供装置1が情報提供すべき地物を検索した場合には、その地物の方向を示すとともに地物のデータを出力する。以下では、未提供地物が情報提供すべき地物であるとして説明する。
情報提供装置1が車両の現在位置を検出してから(S10)、未提供地物があるか否かを判定する(S18)までの動作は自律モードにおける情報提供装置1の動作と同じである。
未提供の地物があると判定された場合(S18でYES)、制御部40は、図10に示すように、キャラクターデバイス22を乗員の方向に向ける(S32)。続いて、制御部40は、キャラクターデバイス22の視線を乗員の方に向けたときに、乗員とキャラクターデバイス22とのアイコンタクトを検出する(S34)。具体的には、視線検出部18による視線検出結果を用いて、図11に示すように、乗員がキャラクターデバイス22の方を見たか否かを判定する。なお、この判定においては、所定の中心視野分だけのズレは許容する。
この判定の結果、乗員とキャラクターデバイス22とのアイコンタクトが検出された場合(S34でYES)、キャラクターデバイス22の視線を未提供の地物の方向に向ける(S36)。アイコンタクトが検出されなかった場合(S34でNO)、情報提供装置1は、地物のデータを提供しないで、現在位置を検出する動作に戻る(S10)。
次に、制御部40は、キャラクターデバイス22の視線を未提供の地物の方向に向けたときに、乗員が図12に示すような共同注視を行ったか否かを検出する(S38)。具体的には、視線検出部18による視線検出結果を用いて、乗員がキャラクターデバイス22の視線方向と同方向を見たか否かを判定する。なお、この判定においては、所定の中心視野分だけのズレは許容する。この判定の結果、乗員が共同注視をしたと判定された場合には(S38でYES)、情報提供装置1は、地物データを出力する(S40)。これにより、乗員が見ている方向にある地物のデータを提供することができる。
上記した説明では、未提供の地物が情報提供すべき地物である例について説明したが、未提供のすべての地物について情報提供を行うのではなく、未提供の地物のうち、乗員の嗜好に合致する属性を有する地物についてのみ、上記したフローと同様にして、情報提供を行うこととしてもよい。情報提供装置1は、ユーザの年齢、性別、嗜好ジャンル等のユーザ属性を記憶した記憶部を有し、記憶部に記憶されたユーザ属性と未提供の地物の属性とを比較し、ユーザ属性と合致する地物を求め、求めた地物のデータを提供する。これにより、乗員に提供する地物数を削減し、キャラクターデバイス22の振り向きの動作に対して馴化してしまうという弊害を防止できる。
(注視検出時の動作)
次に、自律モードまたは情報提供モードにおける動作中に、乗員の注視行動を検出した際の情報提供装置1の動作について説明する。図4にて説明したとおり、乗員の注視行動を検出した場合には、情報提供装置1は、注視対象の地物のデータを提供する(以下、「注視検出時動作」という)。
なお、乗員の注視行動とは、乗員の視線が所定の時間にわたって、空間の一定位置に視線が向けられる行動である。情報提供装置1は、視線が向けられていた時間内における視線データから、注視位置を推定することができる。一例としては、車両(視線の起点)が移動していることを利用して、起点Aからの視線方向と起点Bからの視線方向との交差する位置を注視位置として特定する。また、注視位置の相対位置を上記した式(1)〜(3)により、近似的に計算することができる。
図13は、注視検出時の情報提供装置1の動作を示す図である。情報提供装置1は、視線検出部18にて乗員の視線を検出し、検出結果を視線履歴に記録する。情報提供装置1は、所定期間内の過去の視線履歴から注視行動を検出する処理を行う。情報提供装置1は、注視行動が検出されたか否かを判定し(S42)、注視行動が検出された場合には(S42でYES)、注視対象の地物の相対位置を計算によって求める。
図14は、注視対象の地物の計算の仕方を示す図である。図14に示すように、注視位置を中心として、所定の範囲内にある地物データを検索する。これらを注視位置周辺地物データと呼ぶ。もし、注視位置周辺地物が存在しない場合には、以下の処理を中断する。
検索された注視位置周辺地物データから、注視対象の地物を以下のように決定する。図14に示すように、注意位置からの各地物との間の距離をliとする。また、各地物には、人物判定結果に基づき、ユーザの嗜好と過去に情報提示したことがあるか否かという履歴に基づいて決定される重みwiを割り振る。上記式(1)〜(3)に示した関数を距離liに当てはめたf(li)と重みwiとの積giを下記の式(6)によって求め、積wiが最大となる地物を注視対象地物として決定する(S44)。
注視対象地物を決定後、当該地物の相対位置を式(1)〜(3)に従って計算し、当該方向へキャラクターデバイス22の視線を移動する共同注視行動を行う(S46)。このように共同注視行動を行うことにより、乗員は、情報提供装置1が乗員の注視行動を検出したこと、および、注視対象の地物に関する情報が存在することを暗黙的に示す。
次に、図10に示すように、情報提供装置1は、キャラクターデバイス22の視線を乗員の顔の方向に向ける(S48)。顔の方向は、ドライバモニタカメラ14あるいは室内モニタカメラ16によって撮影した画像から推定された位置である。
続いて、情報提供装置1は、図11に示すように、乗員とキャラクターデバイス22とのアイコンタクトを検出する(S50)。すなわち、乗員の視線がキャラクターデバイス22の方向へ向けられたかどうかを検知する。アイコンタクトの検出には、キャラクターデバイス22の頭部に設定された小型カメラ24,26による撮影画像を利用することもできる。この場合には、視線を検出しなくても、乗員の顔が認識されるか否かによって、アイコンタクトがされたか否か、およびアイコンタクト時間を精度良く検知することができる。
アイコンタクトが検知されない場合には(S50でNO)、情報提供装置1は、以下の処理を中断する。アイコンタクトが検知された場合には(S50でYES)、情報提供装置1は、情報提供を受ける余裕があると判断し、注視対象の地物のデータを情報表示部あるいはスピーカ32から出力し(S52)、地物の情報提供を行う。
また、この際、キャラクターデバイス22の視線を、再び注視対象地物の方向へ移動してもよい。これにより、注視行動を行った人の視線をキャラクターデバイス22から提示する情報の方向へ誘導し、音声による情報提示内容と見ているものをマッチさせることができる。また、共同注視行動により、無意識のうちに提示された視線方向へ自らの視線方向へ移動するため、乗員の視線が固定されることを回避できる。情報提供が完了したら、情報提供装置1は、自律モードまたは情報提供モードへ遷移する。以上、本発明の第1の実施の形態の情報提供装置1について説明した。
本実施の形態の情報提供装置1は、情報提供モードにおいて、乗員に提供すべき地物を検出した場合には、キャラクターデバイス22の視線を乗員に向け、続いて、地物の方向を向くことにより、乗員は、余裕がある場合には、無意識のうちにキャラクターデバイス22が見ている方向を見ることになる。そして、情報提供装置1は、乗員がキャラクターデバイス22と共同注視をしたと判定した場合に、その地物のデータを提供するので、乗員が見ている方向にある地物のデータを提供することができる。
また、本実施の形態の情報提供装置1は、乗員の注視行動を検出した場合には、注視対象の地物を特定し、キャラクターデバイス22の視線を乗員に向ける。これにより、乗員は、余裕がある場合には、無意識のうちにキャラクターデバイス22とアイコンタクトを取ることになる。そして、情報提供装置1は、乗員がキャラクターデバイス22とアイコンタクトをとったと判定した場合に注視対象の地物のデータを提供するので、適切なタイミングで注視対象の地物のデータを提供することができる。
(第2の実施の形態)
次に、第2の実施の形態の情報提供装置について説明する。第2の実施の形態の情報提供装置の基本的な構成は、第1の実施の形態の情報提供装置1と同じであるが(図1参照)、情報提供モードにおける動作が異なる。
図15は、第2の実施の形態の情報提供装置の情報提供モードの動作を示す図である。第2の実施の形態の情報提供装置の基本的な動作は、第1の実施の形態の情報提供装置1と同じであるので、第1の実施の形態と相違する処理を中心に説明する。
第2の実施の形態の情報提供装置1は、アイコンタクトを検出した後(S34)、乗員の視線が所定時間以上(例えば1秒)キャラクターデバイス22に停留しているか否かを判定する(S35)。この判定の結果、乗員の視線がキャラクターデバイス22に停留していると判定された場合には(S35でYES)、キャラクターデバイス22の視線を地物に向ける制御を行い(S36)、乗員の視線が所定時間以上停留しないでキャラクターデバイス22から逸れた場合には(S35でNO)、現在位置を検出する最初の処理に戻る(S10)。
このように乗員の視線が所定時間以上停留したか否かを判定することにより、乗員が情報の提供を望んでいるか否かの意図をより正確に判定することができる。
なお、本実施の形態では、視線がキャラクターデバイス22に所定時間以上停留したか検出しているが(S35)、視線の停留に代えて、乗員の別の動作や変化を捉えて、情報提供を行ってもよい。
例えば、視線の停留に代えて、乗員の頷きを検出してもよい。乗員の頷きを検出する方法としては、例えば、乗員を撮影した映像を解析し、乗員の顔の特徴点(目、鼻、口等)が縦に動いたかどうかを判定する。
また、視線の停留に代えて、乗員からの音声による指示を検出してもよい。音声による指示を検出する方法としては、例えば、キャラクターデバイス22に設けられた小型マイク28によって乗員の音声を検出し、検出した音を解析する。例えば、乗員が予め定められた言葉を発したか否かを検出することにより、乗員の指示を検出できる。
また、視線の停留に代えてまた、乗員の表情の変化を検出してもよい。乗員の表情の変化を検出する方法としては、例えば、あらかじめ乗員の表情(例えば、笑顔)を撮影して記憶した記憶部を準備しておき、乗員を撮影した映像が予め記憶された表情と合致するか否かを判定する。
また、視線の停留に代えて、乗員の瞳孔の大きさの変化を検出してもよい。乗員の瞳孔の大きさの変化を検出する方法としては、例えば、アイカメラによって乗員の瞳孔を撮影し、キャラクターデバイス22を見る前後で瞳孔の大きさが変化したか否かを判定する。
以上、本発明の実施の形態の情報提供装置について実施の形態を挙げて詳細に説明したが、本発明は上記した実施の形態に限定されるものではない。
上記した実施の形態の情報提供装置において、所定時間以上(例えば、2秒)乗員の視線が前方から逸れている場合に、キャラクターデバイス22の視線を車両の前方に向けるように制御してもよい。キャラクターデバイス22の視線が車両の前方を向くことにより、乗員はキャラクターデバイス22との共同注視により無意識のうちに車両前方を向く。このように乗員を前方に向かせることにより、安全運転に資することができる。
上記した実施の形態では、自律モードと情報提供モードとの切り替えをユーザの操作により行う例について説明したが、乗員の視線に基づいて、自律モードと情報提供モードとの切り替えを行ってもよい。例えば、乗員がキャラクターデバイス22を凝視した際に、乗員が情報提供を望んでいると判断して、自律モードから情報提供モードへの切り替えを行ってもよい。
図16は、自律モードから情報提供モードへの切り替えの動作を示す図である。情報提供装置は、乗員の視線を検出し(S54)、乗員の視線が所定時間(例えば1秒)以上、キャラクターデバイス22に停留していたか否かを判定する(S56)。この判定の結果、乗員の視線がキャラクターデバイス22に停留していた(所定の中心視野分だけのズレは許容する)と判定された場合(S56でYES)、情報提供装置は、車両情報に基づいて、運転負荷が閾値以下であるか否かを判定する(S58)。この結果、運転負荷が閾値以下であると判定された場合(S58でYES)、情報提供装置は、自律モードから情報提供モードへの切り替えを行う(S60)。
このようにキャラクターデバイス22を所定時間以上見たことを検知して、自律モードから情報提供モードへの切り替えを行うので、乗員は何か情報がないか尋ねるような感覚でキャラクターデバイス22を見ることにより、情報提供モードへの切り替えを行うことができる。また、乗員はハンドルから手を離して操作を行う必要がないので安全である。
また、運転行動においては、図17に示すように、偶然に視線がキャラクターデバイス22の方向に固定される場合があるが、図16に示すフローでは、運転負荷を判定するステップを有しているので(S58)、運転行動とキャラクターデバイス22の注視とを区別することができる。また、運転負荷が高い場合には、自律モードを継続することにより、注意力を削ぐ可能性のある情報提供を行わないようにできる。
上記した実施の形態では、乗員としてドライバに対して情報提供を行う例について説明したが、助手席や後部座席に座っている同乗者に対しても同様に情報提供を行うことが可能である。
上記した実施の形態では、情報提供装置1が地物データ記憶部12を有し、地物データ記憶部12から地物データを読み出しているが、地物データ記憶部12は無線ネットワークによって接続されたサーバに記憶されていてもよい。このような構成を採用することにより、地物データの内容が変更された場合にも、情報提供装置1は容易に最新の地物データを提供することができる。
上記した実施の形態の情報提供装置1の構成に加えて、乗員や車外の映像を記録するシーン記録部を有してもよい。例えば、乗員に対して提供した地物の映像や、情報を提供されたときの乗員の様子等を撮影し、シーンデータ記憶部に記憶してもよい。これにより、シーンデータ記憶部に記憶された映像により、ドライブの思い出を想起することができる。
以上説明したように、本発明は、人間が無意識のうちに行う動作を利用して、乗員に負担をかけずに情報を提供することができ、地物データを提供するカーナビゲーション装置等として有用である。
第1の実施の形態の情報提供装置の構成を示す図である。 第1の実施の形態の情報提供装置の外観を示す図である。 キャラクターデバイスの外観を示す図である。 情報提供装置の動作状態を示す図である。 情報提供装置の自律モードによる動作を示す図である。 検索範囲に含まれる地物データを示す図である。 地物の相対位置について説明する図である。 地物データの分布の例を示す図である。 情報提供装置の情報提供モードによる動作を示す図である。 キャラクターデバイスが乗員を振り返った様子を示す図である。 キャラクターデバイスと乗員がアイコンタクトをとる様子を示す図である。 キャラクターデバイスと乗員が共同注視を行う様子を示す図である。 注視行動を検出したときの情報提供装置の動作を示す図である。 注視対象の地物の計算の仕方を示す図である。 第2の実施の形態の情報提供装置の情報提供モードによる動作を示す図である。 動作モード切替えの他の動作を示す図である。 誤認識されやすい状況の例を示す図である。
符号の説明
1 情報提供装置
10 現在位置検出部
12 地物データ記憶部
14 ドライバモニタカメラ
16 室内モニタカメラ
18 視線検出部
20 視線履歴記憶部
22 キャラクターデバイス
24,26 小型カメラ
28 小型マイク
30 キャラクターデバイスアクチュエータ
32 スピーカ
34 モニタ
36 車両情報入力部
38 情報提供履歴記憶部
40 制御部
42 アクチュエータ制御部
44 情報検索部
46 アイコンタクト検出部
48 共同注視検出部
50 情報出力制御部
52 情報提供履歴管理部
54 車載LANゲートウェイ
56 水平方向の回転部
58 垂直方向の回転部

Claims (11)

  1. 車両の現在位置を検出する現在位置検出部と、
    地物に関する情報を記憶した地物情報記憶部と、
    乗員の視線を検出する視線検出部と、
    三次元動作により任意の方向に視線を提示するキャラクターデバイスと、
    地物に関する情報を出力する情報出力部と、
    制御部と、
    を備え、
    前記制御部は、
    前記キャラクターデバイスの視線を乗員以外の方に向け、
    前記現在位置検出部にて検出された現在位置の周辺にある地物を前記地物情報記憶部から検索し、
    地物が検索された場合に、前記キャラクターデバイスの視線を乗員の方に向け、
    前記キャラクターデバイスの視線が乗員の方を向いたときに、前記視線検出部での検出結果に基づいて乗員が前記キャラクターデバイスの方を見たか否かを判定し、
    乗員が前記キャラクターデバイスの方を見たと判定された場合に、前記キャラクターデバイスの視線を前記地物の方向に向け、
    前記キャラクターデバイスの視線が前記地物の方向を向いたときに、前記視線検出部での検出結果に基づいて乗員が前記キャラクターデバイスの視線方向を見たか否かを判定し、
    乗員が前記キャラクターデバイスの視線方向を見たと判定された場合に、前記地物に関する情報を前記情報出力部から出力する情報提供装置。
  2. 前記制御部は、前記視線検出部での検出結果に基づいて、乗員が所定の閾値以上の時間にわたって車両の前方以外の方向を見ていると判定した場合に、前記キャラクターデバイスの視線を車両の前方に向ける請求項1に記載の情報提供装置。
  3. 前記制御部は、
    乗員が前記キャラクターデバイスの方を見たか否かを判定した結果、前記キャラクターデバイスを見たと判定された場合に、乗員の視線がキャラクターデバイスの方向に所定時間以上停留していたか否かを判定し、
    乗員の視線がキャラクターデバイスの方向に所定時間以上停留していたと判定された場合に、前記キャラクターデバイスの視線を前記地物の方向に向ける請求項1または2に記載の情報提供装置。
  4. 乗員を撮影するカメラを備え、
    前記制御部は、
    乗員が前記キャラクターデバイスの方を見たか否かを判定した結果、前記キャラクターデバイスを見たと判定された場合に、前記カメラで撮影した映像に基づいて乗員が頷いたか否かを判定し、
    乗員が頷いたと判定された場合に、前記キャラクターデバイスの視線を前記地物の方向に向ける請求項1または2に記載の情報提供装置。
  5. 乗員を撮影するカメラを備え、
    前記制御部は、
    乗員が前記キャラクターデバイスの方を見たか否かを判定した結果、前記キャラクターデバイスを見たと判定された場合に、前記カメラで撮影した映像に基づいて、乗員の表情が予め記憶されたパターンに合致したか否かを判定し、
    乗員の表情が予め記憶したパターンに合致したと判定された場合に、前記キャラクターデバイスの視線を前記地物の方向に向ける請求項1または2に記載の情報提供装置。
  6. 乗員の音声を検出するマイクと、
    前記マイクにて検出された音声を分析する音声認識部と、
    を備え、
    前記制御部は、
    乗員が前記キャラクターデバイスの方を見たか否かを判定した結果、前記キャラクターデバイスを見たと判定された場合に、前記音声認識部での認識結果に基づいて、乗員が予め記憶された単語を発したか否かを判定し、
    予め記憶された単語を発したと判定された場合に、前記キャラクターデバイスの視線を前記地物の方向に向ける請求項1または2に記載の情報提供装置。
  7. 乗員の瞳孔を撮影するアイカメラを備え、
    前記制御部は、
    乗員が前記キャラクターデバイスの方を見たか否かを判定した結果、前記キャラクターデバイスを見たと判定された場合に、前記アイカメラで撮影した映像に基づいて乗員の瞳孔が大きくなったか否かを判定し、
    乗員の瞳孔が大きくなったと判定された場合に、前記キャラクターデバイスの視線を前記地物の方向に向ける請求項1または2に記載の情報提供装置。
  8. 前記制御部は、前記視線検出部での検出結果に基づいて乗員の注視行動を検出した場合に、注視対象の地物を前記地物情報記憶部から読み出し、
    前記キャラクターデバイスの視線を乗員の方に向け、
    前記キャラクターデバイスの視線が乗員の方を向いたときに、前記視線検出部での検出結果に基づいて乗員が前記キャラクターデバイスの方を見たか否かを判定し、
    前記乗員が前記キャラクターデバイスの方を見たと判定された場合に、前記地物に関する情報を前記情報出力部から出力する請求項1〜7のいずれかに記載の情報提供装置。
  9. 車両の現在位置を検出する現在位置検出部と、
    地物に関する情報を記憶した地物情報記憶部と、
    三次元動作により任意の方向に視線を提示するキャラクターデバイスと、
    前記キャラクターデバイスの動作を制御する制御部と、
    を備え、
    前記制御部は、前記現在位置検出部にて検出された車両の現在位置と、前記地物情報記憶部に記憶された地物の位置に基づいて、車両から前記地物までの相対位置を算出し、算出した相対位置の方向に前記キャラクターデバイスの視線を向ける制御を行う視線提示装置。
  10. 三次元動作により任意の方向に視線を提示するキャラクターデバイスを備えた情報提供装置によって、車両の乗員に情報を提供する方法であって、
    前記情報提供装置が、前記キャラクターデバイスの視線を乗員以外の方に向けるステップと、
    前記情報提供装置が、現在位置検出部にて検出された車両の現在位置の周辺にある地物を、地物に関する情報を記憶した地物情報記憶部から検索するステップと、
    地物が検索された場合に、前記情報提供装置が、前記キャラクターデバイスの視線を乗員の方に向けるステップと、
    前記キャラクターデバイスの視線が乗員の方を向いたときに、前記情報提供装置が、視線検出部での検出結果に基づいて乗員が前記キャラクターデバイスの方を見たか否かを判定するステップと、
    乗員が前記キャラクターデバイスの方を見たと判定された場合に、前記キャラクターデバイスの視線を前記地物の方向に向けるステップと、
    前記キャラクターデバイスの視線が前記地物の方向を向いたときに、前記情報提供装置が、視線検出部での検出結果に基づいて乗員が前記キャラクターデバイスの視線方向を見たか否かを判定するステップと、
    乗員が前記キャラクターデバイスの視線方向を見たと判定された場合に、前記情報提供装置が、前記地物に関する情報を出力するステップと、
    を備える情報提供方法。
  11. 車両の乗員に情報を提供するためのプログラムであって、車両の現在位置を検出する現在位置検出部と、乗員の視線を検出する視線検出部と、三次元動作により任意の方向に視線を提示するキャラクターデバイスを備えたコンピュータに、
    前記キャラクターデバイスの視線を乗員以外の方に向けるステップと、
    前記現在位置検出部にて検出された現在位置の周辺にある地物を、地物に関する情報を記憶した地物情報記憶部から検索するステップと、
    地物が検索された場合に、前記キャラクターデバイスの視線を乗員の方に向けるステップと、
    前記キャラクターデバイスの視線が乗員の方を向いたときに、前記視線検出部での検出結果に基づいて乗員が前記キャラクターデバイスの方を見たか否かを判定するステップと、
    乗員が前記キャラクターデバイスの方を見たと判定された場合に、前記キャラクターデバイスの視線を前記地物の方向に向けるステップと、
    前記キャラクターデバイスの視線が前記地物の方向を向いたときに、前記視線検出部での検出結果に基づいて乗員が前記キャラクターデバイスの視線方向を見たか否かを判定するステップと、
    乗員が前記キャラクターデバイスの視線方向を見たと判定された場合に、前記地物に関する情報を出力するステップと、
    を実行させるプログラム。
JP2008303118A 2008-11-27 2008-11-27 情報提供装置、情報提供方法およびプログラム Expired - Fee Related JP5187517B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008303118A JP5187517B2 (ja) 2008-11-27 2008-11-27 情報提供装置、情報提供方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008303118A JP5187517B2 (ja) 2008-11-27 2008-11-27 情報提供装置、情報提供方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2010127779A JP2010127779A (ja) 2010-06-10
JP5187517B2 true JP5187517B2 (ja) 2013-04-24

Family

ID=42328286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008303118A Expired - Fee Related JP5187517B2 (ja) 2008-11-27 2008-11-27 情報提供装置、情報提供方法およびプログラム

Country Status (1)

Country Link
JP (1) JP5187517B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5640481B2 (ja) * 2010-06-11 2014-12-17 日産自動車株式会社 情報提供装置及び情報提供方法
JP5892309B2 (ja) * 2011-10-27 2016-03-23 マツダ株式会社 車両用視線誘導装置
JP5630518B2 (ja) 2012-03-14 2014-11-26 株式会社デンソー 運転支援装置
JP6357884B2 (ja) 2014-06-02 2018-07-18 ヤマハ株式会社 位置特定装置およびオーディオ装置
US10522041B2 (en) 2016-01-19 2019-12-31 Nissan Motor Co., Ltd. Display device control method and display device
JP2018032204A (ja) * 2016-08-24 2018-03-01 トヨタ自動車株式会社 運転支援装置
JP6913316B2 (ja) * 2017-02-20 2021-08-04 トヨタ自動車株式会社 情報提示システム
JP2019005842A (ja) 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP7095337B2 (ja) * 2018-03-19 2022-07-05 トヨタ自動車株式会社 表示制御装置および表示制御方法
JP7327536B2 (ja) * 2018-06-12 2023-08-16 トヨタ自動車株式会社 車両用コクピット
JP7148296B2 (ja) * 2018-07-05 2022-10-05 フォルシアクラリオン・エレクトロニクス株式会社 車載用ロボット
JP7084848B2 (ja) * 2018-11-06 2022-06-15 本田技研工業株式会社 制御装置、エージェント装置及びプログラム
JP7508290B2 (ja) 2020-07-01 2024-07-01 日産自動車株式会社 情報提供装置及び情報提供方法
JP2022175359A (ja) * 2021-05-13 2022-11-25 株式会社デンソー 車両用情報提供装置、情報提供方法、及び情報提供プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3873386B2 (ja) * 1997-07-22 2007-01-24 株式会社エクォス・リサーチ エージェント装置
JP3651001B2 (ja) * 2002-08-08 2005-05-25 マツダ株式会社 経路誘導装置、経路誘導方法、及び、経路誘導用プログラム
JP2004093354A (ja) * 2002-08-30 2004-03-25 Casio Comput Co Ltd 運転情報出力装置およびプログラム
JP2006284454A (ja) * 2005-04-01 2006-10-19 Fujitsu Ten Ltd 車載用エージェントシステム
WO2008038375A1 (fr) * 2006-09-28 2008-04-03 Pioneer Corporation Processeur d'informations, procédé de traitement d'informations, programme de traitement d'informations, et support d'enregistrement lisible par ordinateur
JP5228716B2 (ja) * 2007-10-04 2013-07-03 日産自動車株式会社 情報提示システム

Also Published As

Publication number Publication date
JP2010127779A (ja) 2010-06-10

Similar Documents

Publication Publication Date Title
JP5187517B2 (ja) 情報提供装置、情報提供方法およびプログラム
CN107635844B (zh) 车辆控制装置、车辆控制方法和存储介质
US20180079427A1 (en) Gesture based control of autonomous vehicles
US9316502B2 (en) Intelligent mobility aid device and method of navigating and providing assistance to a user thereof
US10460186B2 (en) Arrangement for creating an image of a scene
CN106257486A (zh) 用于调节车辆的部件的方法
JP2017185994A (ja) 自動車の室内照明を制御するためのデバイス
JP5030142B2 (ja) 集中度評価装置及びこれを用いた車両用表示装置
US20220317462A1 (en) Information processing apparatus, information processing method, and program
US20200218072A1 (en) Information processing apparatus, information processing method, and program
US11256104B2 (en) Intelligent vehicle point of focus communication
KR20190083727A (ko) 안내 로봇 및 그의 동작 방법
US20180316911A1 (en) Information processing apparatus
US11151775B2 (en) Image processing apparatus, display system, computer readable recoring medium, and image processing method
JP2017130793A (ja) 情報処理装置およびユーザガイド提示方法
JP2007263931A (ja) ドライバ思考推定装置、ドライバ思考推定方法及びドライバ思考推定プログラム
JP2020093590A (ja) 運転支援装置、ウェアラブル装置、運転支援システム、運転支援方法およびプログラム
US10747308B2 (en) Line-of-sight operation apparatus, method, and medical device
CN112686958B (zh) 标定方法、装置及电子设备
US10547464B2 (en) Autonomous agent for meeting preparation assistance
JP6199038B2 (ja) 視線分析装置
KR102301763B1 (ko) 이동로봇을 제어하기 위한 시스템 및 방법
JP7247784B2 (ja) 興味推定システム
JP6321247B1 (ja) 仮想空間を移動するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラムおよび情報処理装置
JP6536443B2 (ja) 視線学習システムおよび視線学習プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5187517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees