JP2010256554A - 情報処理装置及び画像表示制御方法 - Google Patents

情報処理装置及び画像表示制御方法 Download PDF

Info

Publication number
JP2010256554A
JP2010256554A JP2009105290A JP2009105290A JP2010256554A JP 2010256554 A JP2010256554 A JP 2010256554A JP 2009105290 A JP2009105290 A JP 2009105290A JP 2009105290 A JP2009105290 A JP 2009105290A JP 2010256554 A JP2010256554 A JP 2010256554A
Authority
JP
Japan
Prior art keywords
gaze
information
vehicle
processing apparatus
travel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2009105290A
Other languages
English (en)
Inventor
Yuichi Tamura
雄一 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2009105290A priority Critical patent/JP2010256554A/ja
Publication of JP2010256554A publication Critical patent/JP2010256554A/ja
Ceased legal-status Critical Current

Links

Images

Abstract

【課題】
運転者による表示面の注視の傾向を利用して、消費電力を抑制する。
【解決手段】
注視特徴学習手段740が、視線検出手段720から受けた視線の情報と、走行環境情報取得手段730から受けた車両CRの走行環境情報とに基づいて、表示面の注視と走行環境との関係の特徴を学習する。また、注視予測手段750は、走行環境と、注視特徴学習手段740による学習の結果とに基づいて、注視タイミングの予測を行う。そして、表示制御手段760が、注視タイミングとなったと判断されたとき又は表示面の注視が行われていると判断された場合に、表示面の輝度を第1輝度に設定する。また、表示制御手段760は、注視タイミングが発生している場合を除いて、表示面の注視が行われていないと判断された場合に、表示面の輝度を第1輝度よりも低い第2輝度に設定する。
【選択図】 図1

Description

本発明は、情報処理装置、画像表示制御方法、画像表示制御プログラム、及び、当該画像表示制御プログラムが記録された記録媒体に関する。
従来から、車両に搭載され、表示面に画像を表示する情報処理装置が広く普及している。こうした情報処理装置を利用する運転者は、運転に集中する必要から、車両の走行中においては、常に表示面を注視しているわけではない。このように運転者が表示面を注視していない期間においても、表示面に視認可能な状態で画像を表示すると、電力の無駄な消費を招くことになる。
かかる電力の無駄な消費を抑制するため、運転者が表示面を注視している期間、及び、注視する可能性のある期間においてのみ、視認可能な状態で表示面に画像を表示する技術が提案されている(特許文献1参照:以下、「従来例」と呼ぶ)。この従来例の技術では、運転者の視線方向を検出し、運転者が表示面を注視していると判断された場合、及び、画面表示により経路案内をしている期間においては、運転者が案内画面を注視する可能性が高い分岐点付近を走行している場合に、画面の輝度を表示画像の視認に良好な輝度とするとともに、その他の場合には、画面の輝度を下げることで、経路案内の機能を有する情報処理装置の消費電力を抑制するようにしている。
特開2008−292753号公報
上述した従来例の技術では、経路案内をしている場合において、車両が分岐点付近を走行しているときのみを、運転者が表示面を注視する可能性が高いとしている。しかしながら、当該可能性には普遍性はなく、運転者によっては、車両が分岐点付近を走行している際には、ほとんど表示面を注視せず、他の状況下において表示面を注視することも考えられる。
ところで、運転者による表示面の注視は、走行道路の種類や車両の走行速度等の車両内外の走行環境に応じて、当該運転者の個性を反映したものである。そして、運転者の個性に応じた表示面の制御を行うことができれば、運転者にとっての利便性を向上させるとともに、情報処理装置の消費電力を抑制することができる。
このため、運転者の個性を反映しつつ、走行支援画像を表示面に表示する情報処理装置の消費電力を適切に抑制することのできる技術が待望されている。かかる要請に応えることが、本発明が解決すべき課題の一つとして挙げられる。
本発明は、上記の事情を鑑みてなされたものであり、運転者による表示面の注視の傾向を利用して、走行支援画像を表示する表示面の輝度を調整することにより、消費電力を抑制することができる新たな情報処理装置及び画像表示制御方法を提供することを目的とする。
請求項1に記載の発明は、車両に搭載される情報処理装置であって、走行支援画像を表示面に表示する表示手段と;前記車両の搭乗者の視線の情報を検出する視線検出手段と;前記車両の走行環境情報を取得する走行環境情報取得手段と;前記検出された視線の情報と、前記取得された走行環境情報とに基づいて、前記搭乗者による前記表示面の注視と走行環境との関係の特徴を学習する注視特徴学習手段と;前記車両の走行環境と、前記学習の結果とに基づいて、前記搭乗者の前記表示面の注視タイミングの予測を行う注視予測手段と;前記取得された走行環境情報に基づいて、前記予測された注視タイミングとなったと判断されたときに、前記表示面の輝度を、表示画像の視認に適した第1輝度に設定する表示制御手段と;を備えることを特徴とする情報処理装置である。
請求項13に記載の発明は、車両に搭載され、走行支援画像を表示面に表示する表示手段を備える情報処理装置において使用される画像表示制御方法であって、前記車両の搭乗者の視線の情報を検出する視線検出工程と;前記車両の走行環境情報を取得する走行環境情報取得工程と;前記検出された視線の情報と、前記取得された走行環境情報とに基づいて、前記搭乗者による前記表示面の注視と走行環境との関係の特徴を学習する注視特徴学習工程と;前記車両の走行環境と、前記学習の結果とに基づいて、前記搭乗者の前記表示面の注視タイミングの予測を行う注視予測工程と;前記取得された走行環境情報に基づいて、前記予測された注視タイミングとなったと判断されたときに、前記表示面の輝度を、表示画像の視認に適した第1輝度に設定する表示制御工程と;を備えることを特徴とする画像表示制御方法である。
請求項14に記載の発明は、請求項13に記載の画像表示制御方法を演算手段に実行させる、ことを特徴とする画像表示制御プログラムである。
請求項15に記載の発明は、請求項14に記載の画像表示制御プログラムが、演算手段により読み取り可能に記録されていることを特徴とする記録媒体である。
本発明の一実施形態に係る情報処理装置の構成を説明するためのブロック図である。 本発明の一実施例に係るナビゲーション装置の構成を概略的に説明するためのブロック図である。 図2の注視特徴情報(CAI)の構成を説明するための図である。 図2のナビゲーション装置による注視と走行環境との関係の特徴の学習処理を説明するためのフローチャートである。 走行環境に応じた搭乗者の表示デバイスへの注視の度合いの例を説明するための図(その1)である。 走行環境に応じた搭乗者の表示デバイスへの注視の度合いの例を説明するための図(その2)である。 走行環境に応じた搭乗者の表示デバイスへの注視の度合いの例を説明するための図(その3)である。 図2のナビゲーション装置による表示デバイスの表示制御処理を説明するためのフローチャートである。
以下、本発明の一実施形態を、図1を参照して説明する。なお、以下の説明においては、同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
[構成]
図1には、一実施形態に係る情報処理装置700の概略的な構成が示されている。
この図1に示されるように、情報処理装置700は、車両CRに搭載されており、車両CRとともに移動するようになっている。この情報処理装置700は、表示手段710と、視線検出手段720と、走行環境情報取得手段730とを備えている。また、情報処理装置700は、注視特徴学習手段740と、注視予測手段750と、表示制御手段760とを備えている。
上記の表示手段710は、表示面を備えて構成される。表示手段710は、表示制御手段760による制御のもとで、地図画像等の走行支援画像を表示面に表示する。
上記の視線検出手段720は、車両CRの搭乗者(運転者)の視線の情報を検出する。視線検出手段720による検出結果は、注視特徴学習手段740及び表示制御手段760へ送られる。
上記の走行環境情報取得手段730は、車両CRの走行環境情報を取得する。ここで、「車両CRの走行環境情報」とは、車両CRの走行時における車両CR内外の環境情報である。
例えば、車両CRの走行環境情報には、交差点の位置に関する交差点情報が含まれるようにすることができる。そして、交差点情報としては、交差点ごとに、一般道路、高速道路等の交差道路の種類、都市、地方等の交差点の存在地域、及び、交差点の分岐数と対応付けておくようにすることができる。
また、車両CRの走行環境情報には、車両CRの走行時における案内音声の発生が含まれるようにすることができる。
また、車両CRの走行環境情報には、走行道路の走行難易度情報が含まれるようにすることができる。ここで、「走行難易度情報」とは、目的地到達の観点からの走行道路の難易度情報であり、走行道路ごとの難易度レベルは、実験、シミュレーション等により予め定められる。例えば、所定の距離当りに存在する行先案内板の数が多いほど、走行道路の難易度レベルが低くなるようになっている。また、一方通行等の走行規制がかかっている道路は、当該走行規制がかかっていない道路に比べて、難易度レベルが高くなるようになっている。
また、車両CRの走行環境情報には、車両CRにおける走行道路の走行頻度及び走行日時の少なくとも1つを記録した走行履歴情報が含まれるようにすることができる。
さらに、車両CRの走行環境情報には、車両CRの速度及び加速度の少なくとも1つが含まれるようにすることができるし、車両CRの走行時における日時及び天気の少なくとも1つが含まれるようにすることができる。
上記の注視特徴学習手段740は、視線検出手段720による検出結果である視線の情報を受けるとともに、走行環境情報取得手段730による取得結果である車両CRの走行環境情報を受ける。そして、注視特徴学習手段740は、当該視線の情報と車両CRの走行環境情報とに基づいて、搭乗者による表示面の注視と走行環境との関係の特徴(以下、「注視と走行環境との関係の特徴」とも記す)を学習する。当該学習にあたっての搭乗者による表示面の注視の度合いは、注視特徴学習手段740が、視線の情報から、車両CRの走行環境に応じた搭乗者の表示面への注視の回数及び注視の時間の少なくとも1つを考慮して決定するようにすることができる。この注視と走行環境との関係の特徴は、搭乗者(運転者)の運転経験、運転能力、性格、癖等により異なってくる。
当該学習にあたっては、注視特徴学習手段740は、車両CRの走行環境情報が上述した交差点情報である場合には、車両CRの交差点の進入時から退出時において、注視と走行環境との関係の特徴を学習するようにすることができる。こうした走行環境における当該学習の結果としては、例えば、搭乗者によっては、交差点の進入時においては表示面を注視する度合いが高くなり、交差点の進入後においては表示面を注視する度合いが低くなる特徴がある等が挙げられる。
また、車両CRの走行環境情報が上述した案内音声の発生である場合には、注視特徴学習手段740は、案内音声の発生の際に、注視と走行環境との関係の特徴を学習するようにすることができる。こうした走行環境における当該学習の結果としては、例えば、搭乗者によっては、案内音声の発生の際に表示面を注視する度合いが高くなる特徴がある等が挙げられる。
また、車両CRの走行環境情報が上述した走行難易度情報である場合には、注視特徴学習手段740は、走行時の走行道路の難易度レベルを考慮して、注視と走行環境との関係の特徴を学習するようにすることができる。こうした走行環境における当該学習の結果としては、例えば、搭乗者によっては、車両CRが難易度レベルの高い走行道路を走行している際には、表示面を注視する度合いが高くなり、車両CRが難易度レベルの低い走行道路を走行している際には、表示面を注視する度合いが低くなる特徴がある等が挙げられる。
また、車両CRの走行環境情報が上述した走行履歴情報である場合には、注視特徴学習手段740は、走行道路の走行頻度及び走行日時の少なくとも1つを考慮して、注視と走行環境との関係の特徴を学習するようにすることができる。こうした走行環境における当該学習の結果としては、例えば、搭乗者によっては、走行回数が少なくても直近の走行が所定期間(例えば、2年)以内である走行道路であれば、表示面を注視する度合いが低いが、走行回数が多くても直近の走行が所定期間を超える走行道路であれば、表示面を注視する度合いが高くなる特徴がある等が挙げられる。
なお、注視特徴学習手段740は、走行履歴情報に基づいて、例えば、走行時にUターンしたり、続けて複数回走行したりした走行道路を、搭乗者が間違えた走行道路であると推定し、当該間違えた走行道路の走行時に、注視と走行環境との関係の特徴を学習するようにすることができる。
また、車両CRの走行環境情報が上述した車両CRの速度及び加速度の少なくとも1つである場合には、注視特徴学習手段740は、車両CRの速度及び加速度の少なくとも1つを考慮して、注視と走行環境との関係の特徴を学習するようにすることができる。こうした走行環境における当該学習の結果としては、例えば、搭乗者によっては、車両CRの速度が遅いときには表示面を注視する度合いが高くなり、車両CRの速度が速いときには表示面を注視する度合いが低くなる特徴がある等が挙げられる。
また、車両CRの走行環境情報が上述した車両CRの走行時における日時及び天気の少なくとも1つである場合には、注視特徴学習手段740は、走行時における日時及び天気の少なくとも1つを考慮して、注視と走行環境との関係の特徴を学習するようにすることができる。こうした走行環境における当該学習の結果としては、例えば、搭乗者によっては、夜間においては昼間に比べて、表示面を注視する度合いが高くなる特徴がある等が挙げられる。また、雨天時においては晴天時に比べて、表示面を注視する度合いが高くなる特徴がある等が挙げられる。
注視特徴学習手段740は、上記に挙げた様々な車両CRの走行環境情報を総合的に勘案して、注視と走行環境との関係の特徴を学習するようにすることができる。
上記の注視予測手段750は、走行環境情報取得手段730による取得結果である車両CRの走行環境情報を受ける。そして、注視予測手段750は、車両CRの走行環境と、注視特徴学習手段740による注視と走行環境との関係の特徴の学習の結果とに基づいて、搭乗者の表示面の注視のタイミングである注視タイミングの予測を行う。注視予測手段750による予測結果は、表示制御手段760へ送られる。
上記の表示制御手段760は、表示手段710を制御して、表示面の輝度を調整する。かかる表示面の輝度の調整に際して、表示制御手段760は、注視予測手段750による予測結果から、注視タイミングとなったと判断されたときに、表示面の輝度を、表示画像の視認に適した第1輝度に設定する。
また、かかる表示面の輝度の調整に際して、表示制御手段760は、視線検出手段720による検出結果である視線の情報を受ける。そして、表示制御手段760は、上述した注視タイミングの発生の有無にかかわらず、検出された視線の情報に基づいて、搭乗者による表示面の注視が行われていると判断された場合には、表示面の輝度を第1輝度に設定する。
また、表示制御手段760は、予測された注視タイミングが発生し、表示面の輝度を第1輝度に設定する場合を除いて、検出された視線の情報に基づいて、搭乗者による表示面の注視が行われていないと判断された場合には、表示面の輝度を第1輝度よりも低い第2輝度に設定する。この第2輝度は、表示手段710の消費電力を抑制する観点から定められ、例えば、ゼロとするものであってもよい。
[動作]
上記のように構成された情報処理装置700において実行される画像表示制御方法について、説明する。
<注視と走行環境との関係の特徴の学習処理>
まず、情報処理装置700による搭乗者による表示面の注視と走行環境との関係の特徴の学習処理について説明する。
この学習処理に際して、視線検出手段720が、搭乗者の視線の情報の検出処理を行う。また、視線検出手段720による検出処理と並行して、走行環境情報取得手段730が、車両CRの走行環境情報の取得処理を行う。視線検出手段720による検出結果、及び、走行環境情報取得手段730による取得結果は、注視特徴学習手段740へ送られる。
視線の情報、及び、車両CRの走行環境情報を受けた注視特徴学習手段740では、車両CRの走行環境に応じた搭乗者の表示面への注視の回数及び注視の時間の少なくとも1つを考慮して、「注視と走行環境との関係の特徴」を学習する。こうして学習された注視と走行環境との関係の特徴は、表示手段710における表示面の輝度調整の際に利用される。
<注視タイミングの予測処理及び表示面の表示制御処理>
次に、情報処理装置700による搭乗者の表示面の注視タイミングの予測処理、及び、表示面の表示制御処理について説明する。なお、この注視タイミングの予測処理及び表示面の表示制御処理は、上述した学習処理と並行して行われるようになっている。
この注視タイミングの予測処理に際して、注視予測手段750が、走行環境情報取得手段730による取得結果である車両CRの走行環境情報を受ける。そして、注視予測手段750は、車両CRの走行環境と、注視特徴学習手段740による「注視と走行環境との関係の特徴」の学習の結果とに基づいて、搭乗者の表示面の注視タイミングの予測を行う。注視予測手段750による予測結果は、表示制御手段760へ送られる。
注視予測手段750による予測結果を受けた表示制御手段760では、注視タイミングとなったと判断されたときに、表示手段710における表示面の輝度を、表示画像の視認に適した第1輝度に設定する。
また、表示制御手段760は、視線検出手段720による検出結果である視線の情報を受ける。そして、表示制御手段760は、上述した注視タイミングの発生の有無にかかわらず、搭乗者による表示面の注視が行われていると判断された場合には、表示面の輝度を第1輝度に設定する。また、表示制御手段760は、予測された注視タイミングが発生し、表示面の輝度を第1輝度に設定する場合を除いて、搭乗者による表示面の注視が行われていないと判断された場合には、表示面の輝度を第1輝度よりも低い第2輝度に設定する。
この結果、注視タイミングとなったと判断されたとき、及び、搭乗者による表示面の注視が行われていると判断された期間には、表示手段710の表示面に、表示画像の視認に適した第1輝度で走行支援画像が表示される。また、上記の期間以外においては、表示面の輝度は、第2輝度に設定される。
以上説明したように、本実施形態では、注視特徴学習手段740が、視線検出手段720による検出結果である視線の情報を受けるとともに、走行環境情報取得手段730による取得結果である車両CRの走行環境情報を受ける。そして、注視特徴学習手段740は、視線の情報と車両CRの走行環境情報とに基づいて、搭乗者による表示面の注視と走行環境との関係の特徴を学習する。
この学習処理と並行して、注視予測手段750が、走行環境情報取得手段730からの車両CRの走行環境情報を受ける。注視予測手段750は、車両CRの走行環境と、注視特徴学習手段740による「注視と走行環境との関係の特徴」の学習の結果とに基づいて、搭乗者の表示面の注視タイミングの予測を行う。そして、表示制御手段760が、注視タイミングとなったと判断されたとき、又は、搭乗者による表示面の注視が行われていると判断された場合に、表示面の輝度を、表示画像の視認に適した第1輝度に設定する。また、表示制御手段760は、注視タイミングが発生している場合を除いて、搭乗者による表示面の注視が行われていないと判断された場合には、表示面の輝度を第1輝度よりも低い第2輝度に設定する。
したがって、本発明の実施形態によれば、搭乗者による表示面の注視の傾向を利用して、走行支援画像を表示する表示面の輝度を調整することにより、消費電力を抑制することができる。
なお、本実施形態においては、情報処理装置700が、車両CRの走行ルートを探索するルート探索手段を更に備える構成とすることができる。この場合においては、走行ルートの設定時と非設定時とに分けて、搭乗者の視線の情報と車両CRの走行環境情報とに基づいて、搭乗者による表示面の注視と走行環境との関係の特徴を学習するようにしてもよい。かかる学習の結果としては、例えば、搭乗者によっては、走行ルートの設定時においては、走行ルートの非設定時に比べて、表示面を注視する度合いが高くなる特徴がある等が挙げられる。なお、走行環境情報の1つである案内音声の発生は、走行ルートの設定時における誘導情報等の案内音声の発生であってもよいし、走行ルートの非設定時における渋滞情報等の案内音声の発生であってもよい。
また、情報処理装置700がルート探索手段を更に備えた場合においては、車両CRの走行環境情報には、搭乗者が走行ルートを設定した場合において、当該走行ルートの走行前に、搭乗者が、当該走行ルートにおいて、所定の重要度をもって確認した確認地点の情報が含まれるようにすることができる。こうした走行環境における「表示面の注視と走行環境との関係の特徴」の学習の結果としては、例えば、搭乗者によっては、車両CRが確認地点へ到達するに際して、表示面を注視する度合いが高くなる特徴がある等が挙げられる。
また、上記の実施形態の情報処理装置700を、演算手段としてのコンピュータを備えて構成し、表示手段710及び視線検出手段720を除く上述した各手段の機能を、プログラムを実行することにより実現するようにすることができる。これらのプログラムは、CD−ROM,DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配信の形態で取得されるようにすることができる。
以下、本発明のナビゲーション装置の一実施例を、図2〜図8を参照して説明する。なお、以下の説明及び図面においては、同一又は同等の要素については同一の符号を付し、重複する説明を省略する。
図2には、一実施例に係る情報処理装置としての機能を有する車両搭載用のナビゲーション装置100の概略的な構成が示されている。なお、ナビゲーション装置100は、上述した一実施形態の情報処理装置700(図1参照)の一態様となっている。このナビゲーション装置100は、車両CRに搭載されており、車両CRに装備された車速センサ290と接続されている。
[構成]
この図2に示されるように、ナビゲーション装置100は、制御ユニット110と、記憶ユニット120とを備えている。また、ナビゲーション装置100は、音出力ユニット130と、表示手段710としての表示ユニット140と、操作入力ユニット150とを備えている。さらに、ナビゲーション装置100は、走行情報取得ユニット160と、GPS(Global Positioning System)受信ユニット165と、視線検出手段720としてのアイカメラユニット170と、外部通信ユニット180とを備えている。
上記の制御ユニット110は、ナビゲーション装置100の全体を統括制御する。この制御ユニット110については、後述する。
上記の記憶ユニット120は、不揮発性の記憶装置であるハードディスク装置等から構成される。記憶ユニット120は、ナビゲーション用情報(NVI)、走行難易度情報(DEI)、走行履歴情報(HTI)、注視特徴情報(CAI)等の様々なデータを記憶する。この記憶ユニット120には、制御ユニット110がアクセスできるようになっている。
上記のナビゲーション用情報(NVI)には、地図データ、POI(Point Of Interests)データ、背景データ等のナビゲーションのために利用される様々なデータが記憶されている。これらのデータは、制御ユニット110によって読み取られるようになっている。なお、上述した地図データには、交差点ごとの、交差点の位置、交差道路の種類、交差点の存在地域、及び、交差点の分岐数に関する交差点データが含まれている。
上記の走行難易度情報(DEI)には、走行道路ごとの難易度レベルが記録されている。この走行難易度情報に記録されている走行道路の難易度レベルは、制御ユニット110によって読み取られるようになっている。
上記の走行履歴情報(HTI)には、車両CRにおける走行道路ごとの走行頻度及び走行日時が記録されている。この走行履歴情報の内容は、車両CRが走行道路を走行するたびに、制御ユニット110により、当該走行道路に関する走行履歴が更新される。走行履歴情報に記録されている走行道路の走行履歴は、制御ユニット110によって読み取られるようになっている。
上記の注視特徴情報(CAI)は、例えば、図3に示されるように、走行ルートの設定の有無、交差点道路の種類、交差点の存在地域、交差点の分岐数、音声案内の有無、…ごとに対応付けられた交差点への進入時における搭乗者の後述する表示デバイスへの注視期間が登録されている。
図2に戻り、上記の音出力ユニット130は、スピーカを備えて構成され、制御ユニット110から受信した音声データに対応する音声を出力する。この音出力ユニット130は、制御ユニット110による制御のもとで、ナビゲーション処理に際して、車両CRの進行方向、走行状況、交通状況等の案内音声を出力する。
上記の表示ユニット140は、液晶パネル等の表示デバイスを備えて構成され、制御ユニット110から受信した表示データに対応する画像を表示する。この表示ユニット140は、制御ユニット110による制御のもとで、ナビゲーション処理に際して、地図情報、ルート情報、ガイダンス情報等の走行支援画像を表示する。
上記の操作入力ユニット150は、ナビゲーション装置100の本体部に設けられたキー部、及び/又はキー部を備えるリモート入力装置等により構成される。ここで、本体部に設けられたキー部としては、表示ユニット140の表示デバイスに設けられたタッチパネルを用いることができる。なお、キー部を有する構成に代えて、又は併用して音声認識技術を利用して音声にて入力する構成を採用することもできる。
この操作入力ユニット150を利用者が操作することにより、ナビゲーション装置100の動作内容の設定や動作指令が行われる。例えば、ナビゲーション処理におけるルート探索に関する目的地等の設定を、利用者が操作入力ユニット150を利用して行う。こうした入力内容は、操作入力データとして、操作入力ユニット150から制御ユニット110へ向けて送られる。
上記の走行情報取得ユニット160は、加速度センサ、角速度センサ等を備えて構成されており、車両CRに作用している加速度、角速度を検出する。また、走行情報取得ユニット160は、ナビゲーション装置100と、車両CRに搭載されている車速センサ290との間におけるデータ授受に関して利用され、車速センサ290による検出結果である速度データを取得する。こうして得られた各データは、走行データとして制御ユニット110へ送られる。
上記のGPS受信ユニット165は、複数のGPS衛星からの電波の受信結果に基づいて、車両CRの現在位置を算出する。また、GPS受信ユニット165は、GPS衛星から送出された日時情報に基づいて、現在時刻を計時する。これらの現在位置および現在時刻に関する情報は、GPSデータとして制御ユニット110へ送られる。
上記のアイカメラユニット170は、不図示のアイカメラと、データ処理部とを備えて構成されている。アイカメラは、車室内の前方上部位置に配置される。そして、アイカメラは、搭乗者の瞳孔等を、所定の周期で撮影する。データ処理部は、アイカメラによる撮影結果をデジタル形式に変換し、画像処理を行うことによって、視線の方向を検出する。こうして検出された視線の方向は、視線の情報(以下、単に「視線情報」とも記す)として、制御ユニット110へ送られる。なお、データ処理部が行う画像処理としては、EOG(Electoro Oculo Graph)法や角膜反射法等の種々の技術が適用される。
上記の外部通信ユニット180は、制御ユニット110による制御のもとで、天気情報を保持している不図示の天気情報サーバとの間でデータ通信を行う。このデータ通信により取得された天気情報は、外部通信ユニット180から制御ユニット110へ送られる。
次に、上記の制御ユニット110について説明する。この制御ユニット110は、中央処理装置(CPU)及びその周辺回路を備えて構成されている。制御ユニット110が様々なプログラムを実行することにより、上記の各種機能が実現されるようになっている。こうした機能の中には、上述した一実施形態における走行環境情報取得手段730、注視特徴学習手段740、注視予測手段750及び表示制御手段760としての機能も含まれている。また、本実施例では、制御ユニット110がプログラムを実行して実現する機能の中には、ルート探索手段としての機能も含まれている。
この制御ユニット110は、搭乗者による目的地等を指定したルート探索指令に応答して、記憶ユニット120に記憶されているナビゲーション用情報(NVI)を利用して、車両CRの目的地までの走行ルートを探索する。ここで、搭乗者による目的地等を指定したルート探索指令は、操作入力ユニット150からの操作入力データとして、制御ユニット110に通知される。
また、制御ユニット110は、走行情報取得ユニット160からの走行データ、及び、GPS受信ユニット165からのGPSデータに基づいて、記憶ユニット120中のナビゲーション用情報(NVI)を適宜参照し、搭乗者へのナビゲーション情報の提供処理を行う。こうしたナビゲーション情報の提供処理には、(a)搭乗者が指定する地域の地図を表示ユニット140の表示デバイスに表示するための地図表示、(b)車両CRが地図上のどこに位置するのか、また、どの方角に向かっているのかを算出し、表示ユニット140の表示デバイスに表示して搭乗者に提示するマップマッチング、(c)設定された走行ルートに沿って目的地点まで運転するときに、進行すべき方向等を的確にアドバイスするために行われる、表示ユニット140の表示デバイスへの案内誘導の表示のための制御、及び、音出力ユニット130のスピーカから案内誘導を行う音声を出力するための制御等の処理が含まれる。
上述した提供処理における表示ユニット140への走行支援画像の表示を行うために、制御ユニット110は、車両CRの走行環境情報を取得する。本実施例では、この走行環境情報としては、走行ルートの設定情報が含まれている。また、走行環境情報としては、走行道路における交差点情報が含まれている。この交差点情報は、制御ユニット110が記憶ユニット120中のナビゲーション用情報(NVI)における地図データを参照し、走行道路の交差点データを抽出することにより取得される。
また、走行環境情報としては、車両CRの走行時における案内音声の発生が含まれている。この案内音声は、走行ルートの設定時における誘導情報等の案内音声であってもよいし、走行ルートの非設定時における渋滞情報等の案内音声であってもよい。
また、走行環境情報としては、目的地到達の観点からの走行道路の難易度に関する指標である走行道路の難易度レベルが挙げられる。この走行道路の難易度レベルは、制御ユニット110が記憶ユニット120中の走行難易度情報(DEI)を参照して、取得される。
また、走行環境情報としては、車両CRにおける走行道路の走行頻度及び走行日時を記録した走行履歴が含まれている。この走行道路の走行履歴は、制御ユニット110が記憶ユニット110中の走行履歴情報(HTI)を参照して、取得される。
また、走行環境情報としては、車両CRの速度及び加速度が含まれている。この車両CRの速度及び加速度は、走行情報取得ユニット160から受けた走行データに基づいて、取得される。
さらに、走行環境情報としては、車両CRの走行時における日時及び天気が含まれている。この走行時における日時は、GPS受信ユニット165から受けたGPSデータに基づいて、取得される。また、走行時における天気は、外部通信ユニットを介して受けた天気情報サーバからの天気情報に基づいて、取得される。
また、制御ユニット110は、上述した提供処理における走行支援画像の表示を行うために、アイカメラユニット170からの視線情報を取得して、搭乗者による表示ユニット140における表示デバイスへの注視の度合いを決定する。この注視の度合いは、搭乗者の表示デバイスへの注視の回数及び注視の時間を総合的に考慮して行う。そして、制御ユニット110は、当該注視の度合いと車両CRの走行環境情報とに基づいて、搭乗者による表示デバイスの注視と走行環境との関係の特徴(以下、「注視と走行環境との関係の特徴」とも記す)を学習する。かかる学習の結果は、記憶ユニット120中の注視特徴情報(CAI)に記録される。なお、当該注視と走行環境との関係の学習に関する処理については、後述する。
また、制御ユニット110は、上述した提供処理における表示ユニット140への走行支援画像の表示を行うに際して、車両CRの走行環境と、記憶ユニット120中の注視特徴情報(CAI)に記録されている注視と走行環境との関係の特徴の学習の結果とに基づいて、搭乗者の注視タイミングを予測する。引き続き、制御ユニット110は、当該注視タイミングと搭乗者の視線情報とを考慮して、走行支援画像を表示する表示デバイスの輝度を調整する。当該輝度の調整に関する処理については、後述する。
[動作]
以上のようにして構成されたナビゲーション装置100の動作について、搭乗者による表示デバイスへの注視と走行環境との関係の特徴を利用した、表示デバイスの表示制御処理に主に着目して説明する。
<注視と走行環境との関係の特徴の学習処理>
まず、搭乗者による表示デバイスの注視と走行環境との関係の特徴の学習処理について説明する。
この注視と走行環境との関係の特徴の学習処理に際しては、制御ユニット110が、常時、アイカメラユニット170からの搭乗者の視線情報を取得するとともに、上述した様々な車両CRの走行環境情報を取得する。そして、図4に示されるように、ステップS11において、制御ユニット110が、搭乗者の視線情報に基づいて、搭乗者による表示デバイスの注視が行われたか否かを判定する。この判定の結果が否定的であった場合(ステップS11:N)には、ステップS11の処理が繰り返される。なお、「開始」時においては、表示デバイスの輝度はゼロに設定されているものとする。
一方、ステップS11における判定の結果が肯定的になると(ステップS11:Y)、処理はステップS12へ進む。ステップS12では、制御ユニット110が、表示デバイスの輝度を、表示画像の視認に適した輝度に設定する。
引き続き、ステップS13において、制御ユニット110が、搭乗者の視線情報に基づいて、搭乗者による表示デバイスの注視が終了したか否かを判定する。この判定の結果が否定的であった場合(ステップS13:N)には、ステップS13の処理が繰り返される。
一方、ステップS13における判定の結果が肯定的になると(ステップS13:Y)、処理はステップS14へ進む。ステップS14では、制御ユニット110が、表示デバイスの輝度をゼロに設定する。この後、処理はステップS15へ進む。
ステップS15では、制御ユニット110が、搭乗者による表示デバイスの注視が開始してから終了するまでの車両CRの様々な走行環境情報に基づいて、注視と走行環境との関係の特徴を学習する。なお、本実施例では、制御ユニット110は、走行ルートの設定時と非設定時とに分けて、当該注視と走行環境との関係を学習する。
当該学習を行うにあたって、制御ユニット110は、取得した走行道路における交差点情報を参照し、車両CRの交差点の進入時から退出時において、「注視と走行環境との関係の特徴」を学習する。また、制御ユニット110は、案内音声の発生の際に、「注視と走行環境との関係の特徴」を学習する。
図5(A)には、走行ルートの設定時における交差点情報及び案内音声の発生を走行環境情報としたときの、走行環境に応じた搭乗者の表示デバイスへの注視の度合いの例が示されている。また、図5(B)には、走行ルートの非設定時における交差点情報及び案内音声の発生を走行環境情報としたときの、走行環境に応じた搭乗者の表示デバイスへの注視の度合いの例が示されている。なお、本実施例では、注視の度合いを1〜5までとし、注視の度合いの数値が大きくなるほど、注視の度合いは高くなっているものとする。
この図5(A)に示される例では、走行ルートの設定時においては、交差点の進入時や誘導情報等の案内音声の発生時に、表示デバイスを注視する度合いが高くなる特徴が学習される。また、図5(B)に示される例では、走行ルートの非設定時においても、交差点の進入時や渋滞情報等の案内音声の発生時に、表示デバイスを注視する度合いが高くなる特徴が学習される。
また、制御ユニット110は、取得した走行道路の難易度レベルを考慮して、注視と走行環境との関係を学習する。図6には、走行道路の難緯度レベルを走行環境情報としたときの、走行環境に応じた搭乗者の表示デバイスへの注視の度合いの例が示されている。なお、本実施例では、走行道路の難易度レベルを1〜8までとし、難易度レベルの数値が大きくなるほど、難しい走行道路となっているものとする。この図6に示される例では、難易度レベルが6以上の走行道路を車両CRが走行している際には、表示デバイスを注視する度合いが高くなり、難易度レベルが5以下の走行道路を車両CRが走行している際には、当該度合いが低くなる特徴が学習される。
また、当該学習を行うにあたって、制御ユニット110は、取得した走行道路の走行履歴を考慮して、注視と走行環境との関係を学習する。なお、制御ユニット110は、走行道路の走行履歴を考慮する際には、走行頻度及び走行日時を考慮するとともに、例えば、当該走行道路が、走行時にUターンしたり、続けて複数回走行したりした走行道路であるならば、当該走行道路は、搭乗者が間違えた走行道路であると推定し、当該推定結果を考慮して、注視と走行環境との関係を学習する。
図7には、走行道路の走行履歴を走行環境情報としたときの、走行履歴に応じた搭乗者の表示デバイスへの注視の度合いの例が示されている。この図7に示される例では、走行回数が100回を超えているが直近の走行が2年前以上前である走行道路を車両CRが走行している際には、表示デバイスを注視する度合いが高くなり、走行回数が10回であっても直近の走行が10日程度である走行道路を走行している際には、表示デバイスを注視する度合いが低くなる特徴が学習される。また、図7に示される例では、過去に間違えた走行道路を走行している際には、表示デバイスを注視する度合いが高くなる特徴が学習される。
また、制御ユニット110は、取得した車両CRの速度及び加速度を考慮して、注視と走行環境との関係を学習する。例えば、搭乗者によっては、高速度時や急加速時においては、表示デバイスを注視する度合いが非常に低くなる等の特徴が学習される。
また、制御ユニット110は、取得した走行時における日時及び天気を考慮して、注視と走行環境との関係を学習する。例えば、搭乗者によっては、夜間においては昼間に比べて、表示面を注視する度合いが高くなる特徴が学習され、また、雨天時においては晴天時に比べて、表示面を注視する度合いが高くなる特徴が学習される。
制御ユニット110は、上記に挙げた交差点情報、案内音声の発生、走行道路の難易度レベル、走行履歴等の様々な車両CRの走行環境情報を総合的に勘案して、注視と走行環境との関係の特徴を学習する。この総合的な学習は、例えば、現時点における複合的な走行環境の各走行環境における注視度合いをポイント加算する等の所定のアルゴリズムによって行われる。
上記のステップS15における注視と走行環境との関係の特徴の学習処理が終了すると、処理はステップS11へ戻る。
<注視タイミングの予測処理及び表示デバイスの表示制御処理>
次に、注視と走行環境との関係の特徴を利用した注視タイミングの予測処理、及び、表示デバイスの表示制御処理について説明する。この処理は、上述した「注視と走行環境との関係の特徴」の学習の結果が、注視タイミングを判定することができる程度に蓄積された場合に行われる。そして、この処理が開始された場合においては、上述した学習処理は行われなくなる。
この注視タイミングの予測処理に際しては、制御ユニット110が、常時、アイカメラユニット170からの搭乗者の視線情報を取得するとともに、上述した様々な車両CRの走行環境情報を取得する。そして、図8に示されるように、ステップS21において、制御ユニット110が、車両CRの走行環境情報に基づいて、注視タイミングとなったか否かを判定する。なお、「開始」時においては、表示デバイスの輝度はゼロに設定されているものとする。
かかる注視タイミングとなったか否かの判定に際し、制御ユニット110は、例えば、図5(A),(B)に示される「注視と走行環境との関係の特徴」を有する搭乗者の場合には、交差点の進入時や案内音声の発生時を、搭乗者の注視タイミングとなったと判定する。また、図6に示される特徴を有する搭乗者の場合には、制御ユニット110は、難易度レベルが6以上の走行道路を車両CRが走行している期間を、搭乗者の注視タイミングとなったと判定する。また、図7に示される特徴を有する搭乗者の場合には、直近の走行が2年以上前である走行道路を車両CRが走行している期間を、搭乗者の注視タイミングと予測するとともに、過去に間違えた走行道路を走行している期間を、搭乗者の注視タイミングとなったと判定する。
この判定の結果が否定的であった場合(ステップS21:N)には、ステップS22へ進む。
ステップS22では、上述したステップS11と同様の処理が行われる。そして、その後のステップS23〜S26の処理についても、上述したステップS12〜S15の処理と、同様にして行われる。
一方、ステップS21における判定の結果が肯定的であった場合(ステップS21:Y)には、処理はステップS27へ進む。ステップS27では、制御ユニット110が、表示デバイスの輝度を、表示画像の視認に適した輝度に設定する。この後、処理はステップS28へ進む。
ステップS28では、制御ユニット110が、搭乗者の視線情報に基づいて、搭乗者による表示デバイスの注視が行われたか否かを判定する。この判定の結果が肯定的であった場合(ステップS28:Y)、すなわち、注視タイミングにおける注視の開始が予測通りである場合には、処理はステップS29へ進む。
ステップS29では、制御ユニット110が、予測された注視期間が経過し、かつ、搭乗者による表示デバイスの注視が終了したか否かを判定する。この判定の結果が否定的であった場合(ステップS29:N)には、ステップS29の処理が繰り返される。
一方、ステップS29における判定の結果が肯定的になると(ステップS29:Y)、処理はステップS30へ進む。また、上述したステップS28における判定の結果が否定的であった場合(ステップS28:N)、すなわち、注視タイミングの予測通りに注視が行われなかった場合にも、処理はステップS30へ進む。
ステップS30では、制御ユニット110が、制御ユニット110が、表示デバイスの輝度をゼロに設定する。この後、処理はステップS31へ進む。
ステップS31では、制御ユニット110が、搭乗者の注視情報と車両CRの様々な走行環境情報とに基づいて、「注視と走行環境との関係の特徴」の学習結果を補正する。この後、処理はステップS21へ戻る。
上記の処理が実行されることにより、注視タイミングの予測処理及び表示デバイスの表示制御処理が行われる。
以上説明したように、本実施例では、制御ユニット110が、常時、アイカメラユニット170からの搭乗者の視線情報を取得するとともに、走行道路における交差点情報等の様々な車両CRの走行環境情報を取得する。そして、制御ユニット110が、視線の情報と車両CRの走行環境情報とに基づいて、搭乗者による表示デバイスの注視と走行環境との関係の特徴を学習する。
また、制御ユニット110は、車両CRの走行環境と、「注視と走行環境との関係の特徴」の学習の結果とに基づいて、搭乗者の表示デバイスの注視タイミングの予測を行う。そして、制御ユニット110が、注視タイミングとなったと判断されたとき、又は、搭乗者による表示デバイスの注視が行われていると判断された場合に、表示デバイスの輝度を、表示画像の視認に適した輝度に設定する。また、制御ユニット110は、注視タイミングが発生している場合を除いて、搭乗者による表示デバイスの注視が行われていないと判断された場合には、表示デバイスの輝度をゼロに設定する。
したがって、本実施例によれば、搭乗者による表示デバイスの注視の傾向を利用して、走行支援画像を表示する表示デバイスの輝度を調整することにより、消費電力を抑制することができる。
[実施例の変形]
本発明は、上記の実施例に限定されるものではなく、様々な変形が可能である。
例えば、上記の実施例では、走行環境情報としては、走行道路における交差点情報、案内音声の発生等が含まれることとしたが、走行環境情報には、他の情報が含まれていてもよい。例えば、他の走行環境情報としては、搭乗者が走行ルートを設定した場合において、当該走行ルートの走行前に、搭乗者が、当該走行ルートにおいて、所定の重要度をもって確認した確認地点の情報が含まれるようにすることができる。
また、上記の実施例では、注視タイミングになったと判断されていない期間、又は、搭乗者による表示デバイスの注視が行われていないと判断された期間においては、表示デバイスの輝度をゼロに設定することとした。これに対して、当該期間における表示デバイスの輝度を、当該期間以外の期間における輝度よりも低いものとし、表示ユニットの消費電力を抑制する観点から定められるゼロ以外の値に設定するようにしてもよい。
また、上記の実施例では、表示デバイスの輝度調整を自動的に行うようにしたが、こうした自動切換を行うか否かを搭乗者が設定できるようにしてもよい。
また、上記の実施例では、アイカメラユニットが搭乗者の瞳孔等を撮影し、撮影結果に対して画像処理を行うことで、視線の方向を検出した。これに対して、制御ユニットが、アイカメラユニットから搭乗者の瞳孔等の撮影結果を受け、当該撮影結に対して画像処理を行うことで、視線の方向を解析するようにしてもよい。
また、上記の実施例では、コンピュータによるプログラムの実行により、視線検出手段及び表示手段を除く各手段の機能を実現するようにしたが、これらの各手段の全部又は一部を、専用のLSI(Large Scale Integrated circuit)等を用いたハードウェアにより構成するようにしてもよい。
100 … ナビゲーション装置(情報処理装置)
110 … 制御ユニット(ルート探索手段、走行環境情報取得手段、注視特徴学習手
段、注視予測手段、表示制御手段)
140 … 表示ユニット(表示手段)
170 … アイカメラユニット(視線検出手段)
700 … 情報処理装置
710 … 表示手段
720 … 視線検出手段
730 … 走行環境情報取得手段
740 … 注視特徴学習手段
750 … 注視予測手段
760 … 表示制御手段

Claims (15)

  1. 車両に搭載される情報処理装置であって、
    走行支援画像を表示面に表示する表示手段と;
    前記車両の搭乗者の視線の情報を検出する視線検出手段と;
    前記車両の走行環境情報を取得する走行環境情報取得手段と;
    前記検出された視線の情報と、前記取得された走行環境情報とに基づいて、前記搭乗者による前記表示面の注視と走行環境との関係の特徴を学習する注視特徴学習手段と;
    前記車両の走行環境と、前記学習の結果とに基づいて、前記搭乗者の前記表示面の注視タイミングの予測を行う注視予測手段と;
    前記取得された走行環境情報に基づいて、前記予測された注視タイミングとなったと判断されたときに、前記表示面の輝度を、表示画像の視認に適した第1輝度に設定する表示制御手段と;
    を備えることを特徴とする情報処理装置。
  2. 前記表示制御手段は、
    前記注視タイミングの発生の有無にかかわらず、前記検出された視線に基づいて、前記搭乗者による前記表示面の注視が行われていると判断された場合には、前記表示面の輝度を前記第1輝度に設定し、
    前記予測された注視タイミングが発生し、前記表示面の輝度を前記第1輝度に設定する場合を除いて、前記検出された視線に基づいて、前記搭乗者による前記表示面の注視が行われていないと判断された場合には、前記表示面の輝度を前記第1輝度よりも低い第2輝度に設定する、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記注視特徴学習手段は、前記車両の走行環境に応じた前記搭乗者の前記表示面への注視の回数及び注視の時間の少なくとも1つを考慮して、前記関係の特徴を学習する、ことを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記車両の走行環境情報には、交差点情報が含まれ、
    前記注視特徴学習手段は、前記車両の交差点の進入時から退出時において、前記関係の特徴を学習する、
    ことを特徴とする請求項1〜3のいずれか一項に記載の情報処理装置。
  5. 前記交差点は、交差道路の種類、存在地域、及び、分岐数に対応付けられ、
    前記注視特徴学習手段は、前記対応付けられた交差点ごとに、前記車両の交差点の進入時から退出時において、前記関係の特徴を学習する、
    ことを特徴とする請求項4に記載の情報処理装置。
  6. 前記車両の走行環境情報には、前記車両の走行時における案内音声の発生が含まれ、
    前記注視特徴学習手段は、前記案内音声の発生の際に、前記関係の特徴を学習する、
    ことを特徴とする請求項1〜5のいずれか一項に記載の情報処理装置。
  7. 前記車両の走行環境情報には、走行道路の走行難易度情報が含まれ、
    前記注視特徴学習手段は、前記走行難易度情報の難易度レベルを考慮して、前記関係の特徴を学習する、
    ことを特徴とする請求項1〜6のいずれか一項に記載の情報処理装置。
  8. 前記車両の走行環境情報には、前記車両における走行道路の走行頻度及び走行日時の少なくとも1つを記録した走行履歴情報が含まれ、
    前記注視特徴学習手段は、前記走行頻度及び走行日時の少なくとも1つを考慮して、前記関係の特徴を学習する、
    ことを特徴とする請求項1〜7のいずれか一項に記載の情報処理装置。
  9. 前記車両の走行環境情報には、前記車両の速度及び加速度の少なくとも1つが含まれ、
    前記注視特徴学習手段は、前記車両の速度及び加速度の少なくとも1つを考慮して、前記関係の特徴を学習する、
    ことを特徴とする請求項1〜8のいずれか一項に記載の情報処理装置。
  10. 前記車両の走行環境情報には、前記車両の走行時における日時及び天気の少なくとも1つが含まれ、
    前記注視特徴学習手段は、前記日時及び天気の少なくとも1つ考慮して、前記関係の特徴を学習する、
    ことを特徴とする請求項1〜9のいずれか一項に記載の情報処理装置。
  11. 前記車両の走行ルートを探索するルート探索手段を更に備え、
    前記車両は、前記探索された走行ルートを走行する、
    ことを特徴とする請求項1〜10のいずれか一項に記載の情報処理装置。
  12. 前記車両の走行環境情報には、前記走行ルートの走行前に、前記搭乗者が、前記走行ルートにおいて、所定の重要度をもって確認した確認地点の情報が含まれ、
    前記注視特徴学習手段は、前記車両の確認地点への到達の際に、前記関係の特徴を学習する、
    ことを特徴とする請求項11に記載の情報処理装置。
  13. 車両に搭載され、走行支援画像を表示面に表示する表示手段を備える情報処理装置において使用される画像表示制御方法であって、
    前記車両の搭乗者の視線の情報を検出する視線検出工程と;
    前記車両の走行環境情報を取得する走行環境情報取得工程と;
    前記検出された視線の情報と、前記取得された走行環境情報とに基づいて、前記搭乗者による前記表示面の注視と走行環境との関係の特徴を学習する注視特徴学習工程と;
    前記車両の走行環境と、前記学習の結果とに基づいて、前記搭乗者の前記表示面の注視タイミングの予測を行う注視予測工程と;
    前記取得された走行環境情報に基づいて、前記予測された注視タイミングとなったと判断されたときに、前記表示面の輝度を、表示画像の視認に適した第1輝度に設定する表示制御工程と;
    を備えることを特徴とする画像表示制御方法。
  14. 請求項13に記載の画像表示制御方法を演算手段に実行させる、ことを特徴とする画像表示制御プログラム。
  15. 請求項14に記載の画像表示制御プログラムが、演算手段により読み取り可能に記録されていることを特徴とする記録媒体。
JP2009105290A 2009-04-23 2009-04-23 情報処理装置及び画像表示制御方法 Ceased JP2010256554A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009105290A JP2010256554A (ja) 2009-04-23 2009-04-23 情報処理装置及び画像表示制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009105290A JP2010256554A (ja) 2009-04-23 2009-04-23 情報処理装置及び画像表示制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013108682A Division JP2013225131A (ja) 2013-05-23 2013-05-23 情報処理装置及び画像表示制御方法

Publications (1)

Publication Number Publication Date
JP2010256554A true JP2010256554A (ja) 2010-11-11

Family

ID=43317554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009105290A Ceased JP2010256554A (ja) 2009-04-23 2009-04-23 情報処理装置及び画像表示制御方法

Country Status (1)

Country Link
JP (1) JP2010256554A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018306A (ja) * 2014-07-07 2016-02-01 富士重工業株式会社 車両状態報知システム
JP2017033022A (ja) * 2013-05-30 2017-02-09 オキュラス ブイアール,エルエルシー ヘッドマウントディスプレイのための知覚に基づく予測追跡
JP2018134993A (ja) * 2017-02-22 2018-08-30 株式会社デンソー 車両用操作システム及びコンピュータプログラム
JP2019011983A (ja) * 2017-06-29 2019-01-24 アイシン・エィ・ダブリュ株式会社 走行情報案内装置及びコンピュータプログラム
JP2019020485A (ja) * 2017-07-12 2019-02-07 アルパイン株式会社 表示装置及び表示方法
GB2582548A (en) * 2019-03-19 2020-09-30 Jaguar Land Rover Ltd Vehicle control system and method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001260776A (ja) * 2000-03-22 2001-09-26 Mazda Motor Corp 車両用障害物警報装置
JP2002083400A (ja) * 2000-09-06 2002-03-22 Honda Motor Co Ltd ドライバの視線領域の適合性を判定する車載情報処理装置
JP2007132870A (ja) * 2005-11-11 2007-05-31 Pioneer Electronic Corp ナビゲーション装置、コンピュータプログラム、画面制御方法及び測定間隔制御方法
JP2008292753A (ja) * 2007-05-24 2008-12-04 Denso Corp 情報表示装置
JP2009012608A (ja) * 2007-07-04 2009-01-22 Denso Corp 車両用照明装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001260776A (ja) * 2000-03-22 2001-09-26 Mazda Motor Corp 車両用障害物警報装置
JP2002083400A (ja) * 2000-09-06 2002-03-22 Honda Motor Co Ltd ドライバの視線領域の適合性を判定する車載情報処理装置
JP2007132870A (ja) * 2005-11-11 2007-05-31 Pioneer Electronic Corp ナビゲーション装置、コンピュータプログラム、画面制御方法及び測定間隔制御方法
JP2008292753A (ja) * 2007-05-24 2008-12-04 Denso Corp 情報表示装置
JP2009012608A (ja) * 2007-07-04 2009-01-22 Denso Corp 車両用照明装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10281978B2 (en) 2013-05-30 2019-05-07 Facebook Technologies, Llc Perception based predictive tracking for head mounted displays
KR20170102585A (ko) * 2013-05-30 2017-09-11 아큘러스 브이알, 엘엘씨 헤드 마운트 디스플레이를 위한 예측적 트래킹에 기반한 인식
KR101777820B1 (ko) 2013-05-30 2017-09-12 아큘러스 브이알, 엘엘씨 헤드 마운트 디스플레이를 위한 예측적 트래킹에 기반한 인식
US9897807B2 (en) 2013-05-30 2018-02-20 Oculus Vr, Llc Perception based predictive tracking for head mounted displays
KR101877411B1 (ko) 2013-05-30 2018-08-07 아큘러스 브이알, 엘엘씨 헤드 마운트 디스플레이를 위한 예측적 트래킹에 기반한 인식
JP2017033022A (ja) * 2013-05-30 2017-02-09 オキュラス ブイアール,エルエルシー ヘッドマウントディスプレイのための知覚に基づく予測追跡
US11181976B2 (en) 2013-05-30 2021-11-23 Facebook Technologies, Llc Perception based predictive tracking for head mounted displays
US10732707B2 (en) 2013-05-30 2020-08-04 Facebook Technologies, Llc Perception based predictive tracking for head mounted displays
JP2016018306A (ja) * 2014-07-07 2016-02-01 富士重工業株式会社 車両状態報知システム
JP2018134993A (ja) * 2017-02-22 2018-08-30 株式会社デンソー 車両用操作システム及びコンピュータプログラム
JP2019011983A (ja) * 2017-06-29 2019-01-24 アイシン・エィ・ダブリュ株式会社 走行情報案内装置及びコンピュータプログラム
JP2019020485A (ja) * 2017-07-12 2019-02-07 アルパイン株式会社 表示装置及び表示方法
GB2582548A (en) * 2019-03-19 2020-09-30 Jaguar Land Rover Ltd Vehicle control system and method
GB2582548B (en) * 2019-03-19 2021-10-13 Jaguar Land Rover Ltd Vehicle control system and method

Similar Documents

Publication Publication Date Title
US10145697B2 (en) Dynamic destination navigation system
JP5674567B2 (ja) ナビゲーション装置
JP2008082822A (ja) 注視対象物検出装置および注視対象物検出方法
JP2010256554A (ja) 情報処理装置及び画像表示制御方法
CN105339760A (zh) 交通信息引导系统、交通信息引导装置、交通信息引导方法以及计算机程序
US20130066549A1 (en) Navigation device and method
JP4421667B2 (ja) 情報案内装置、情報案内方法、情報案内プログラムおよびコンピュータに読み取り可能な記録媒体
JP2019200146A (ja) 車両用ナビゲーション装置、車両用ナビゲーション装置の制御方法、車両用ナビゲーション装置の制御プログラム
JP7132137B2 (ja) 情報処理装置、情報処理システム、プログラム、および情報処理方法
US11105648B2 (en) Geospatial navigation methods and systems for automatically suspending navigational guidance provided to a user of a mobile navigation device
JP6234047B2 (ja) ナビゲーション装置、サーバ、および、道幅情報更新方法
JP2007263903A (ja) カーナビゲーション装置
JP2015105903A (ja) ナビゲーション装置、ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体
JP2011052979A (ja) ナビゲーション装置
JP2009085750A (ja) 施設特定システム及び施設特定装置
JP2014052345A (ja) ナビゲーション装置およびナビゲーション情報の表示制御方法
JP2008123092A (ja) ディスプレイ表示システム
JP2010085203A (ja) ナビゲーション装置及び案内誘導方法
JP2013225131A (ja) 情報処理装置及び画像表示制御方法
JP2011117905A (ja) ルート選択支援装置及びルート選択支援方法
JP2009223187A (ja) 表示内容制御装置、表示内容制御方法及び表示内容制御方法プログラム
JP2011174723A (ja) 案内誘導装置及び案内誘導方法
JP5611103B2 (ja) ナビゲーション装置
JP6939147B2 (ja) 走行情報案内装置及びコンピュータプログラム
JP2014154125A (ja) 走行支援システム、走行支援方法及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130321

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130424

A045 Written measure of dismissal of application

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20130828