JP4268191B2 - 情報提示装置、情報提示方法、プログラム、及び記録媒体 - Google Patents

情報提示装置、情報提示方法、プログラム、及び記録媒体 Download PDF

Info

Publication number
JP4268191B2
JP4268191B2 JP2006548746A JP2006548746A JP4268191B2 JP 4268191 B2 JP4268191 B2 JP 4268191B2 JP 2006548746 A JP2006548746 A JP 2006548746A JP 2006548746 A JP2006548746 A JP 2006548746A JP 4268191 B2 JP4268191 B2 JP 4268191B2
Authority
JP
Japan
Prior art keywords
presentation
information
user
sight
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006548746A
Other languages
English (en)
Other versions
JPWO2006064655A1 (ja
Inventor
格也 山本
圭司 杉山
英明 中岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2006064655A1 publication Critical patent/JPWO2006064655A1/ja
Application granted granted Critical
Publication of JP4268191B2 publication Critical patent/JP4268191B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Instrument Panels (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Description

本発明は、ユーザに情報を提示する情報提示装置に関する。
近年、ゴーグルやヘルメットのような形状のHMD(Head Mounted Display)と呼ばれる情報提示装置が普及しつつある。HMDを頭部に装着すると、左右の目のすぐ前に画像が一つずつ提示される。左右の画像を少しずつ異ならせることによって、立体感を表現することができるものもある。ユーザに提示する情報は静止画に限らない。テレビ番組のような映像やテキストなどもユーザに提示することができる。
HMDは二つの型に大別することができる。一つは、外界光の入射を遮断して仮想の画像のみをユーザに提示する密閉型である。もう一つは、外界光の入射による自然画像とともに仮想の画像をユーザに提示する透過型である。
透過型のHMDによれば、行動(歩行など)しながらも情報を視認することができる。ただし、外界のシーンと、ユーザに提示する情報(以下「提示情報」という)との相互作用によって、提示情報を視認しにくくなる場合がある。
例えば、提示情報の色と、この提示情報とオーバラップする部分の外界の色とが類似している場合は、提示情報を視認しにくくなる。そこで、外界の色に応じて提示情報の色を制御するHMDが提案されている(例えば特許文献1)。
この従来のHMDでは、外界をモニターするカメラを備え、このカメラによって外界の色を検出する。そして、提示情報の色と、この提示情報とオーバラップする部分の外界の色とが類似しているかどうかを判定し、両者が類似している場合は、提示情報の色を変更する。このようにすれば、外界の色と類似しない色でユーザに情報を提示することができるので、外界との関係で提示情報が視認しにくくなるという問題は生じない。
特開平9−101477号公報
しかしながら、前記従来のHMDでは、長文テキストやテレビ番組など、ある程度の時間を要する情報を視認する場合において、安心して情報を視聴できないという問題があった。すなわち、長文テキストやテレビ番組を視認する場合は、視認に気をとられて、外界を注意深く観察することができなくなることが予想される。もっとも、ユーザ自身が外界を注意深く観察するように心掛けることで、より安全性を確保することはできるが、この場合は、提示情報を視認することに支障をきたすことになる。
そこで、本発明は、このような問題点に鑑みてなされたものであり、より安全性を確保しながらユーザに提示情報を視認させることができる情報提示装置を提供することを目的とする。
前記目的を達成するために、本発明に係る情報提示装置は、ユーザに情報を提示する情報提示装置であって、ユーザの状況に関する状況情報を取得する状況情報取得手段と、前記状況情報取得手段によって取得された状況情報に基づいて、外界を観察するユーザの観察視線を推定する観察視線推定手段と、ユーザに提示する提示情報を取得する提示情報取得手段と、前記提示情報取得手段によって取得された提示情報を視認するユーザの視認視線を推定する視認視線推定手段と、前記観察視線推定手段によって推定された観察視線と前記視認視線推定手段によって推定された視認視線とに基づいて、前記提示情報取得手段によって取得された提示情報の提示法を決定する提示法決定手段と、前記提示情報取得手段によって取得された提示情報を前記提示法決定手段によって決定された提示法によってユーザに提示する情報提示手段とを備えることを特徴とする。これによって、観察視線と視認視線という2つの視線を考慮して情報を提示することになるので、より安全性を確保しながらユーザに提示情報を視認させることができる。
具体的には、前記状況情報取得手段は、ユーザの進路に関する情報を取得し、前記提示法決定手段は、ユーザの進路に沿って投影的に前記提示情報を配置してもよい。これによって、視線移動の負荷が軽減され、より安全性を確保しながらユーザに提示情報を視認させることができる。
あるいは、前記状況情報取得手段は、ユーザの進路に関する情報を取得し、前記提示法決定手段は、ユーザの進路に沿って前記提示情報の構成部分を時系列順に配置してもよい。これによって、視線移動の負荷が軽減され、より安全性を確保しながらユーザに提示情報を視認させることができる。
より具体的には、前記観察視線推定手段は、外界を観察するユーザの視点位置を単位時間別に推定し、前記視認視線推定手段は、前記提示情報を視認するユーザの視点位置を単位時間別に推定し、前記提示法決定手段は、単位時間別に、前記観察視線と前記視認視線の両視線について特定面との交点を求め、両交点間の距離が所定の範囲内に納まるように前記提示情報の提示法を決定する。
これによって、所定の範囲を小さな距離とすることで視線移動の負荷が軽減され、より安全性を確保しながらユーザに提示情報を視認させることができる。また、観察視線または視認視線を精密に推定できない場合や、提示情報の提示法を詳細に制御できない場合も、ある程度提示法を改善することができるという効果もある。さらに、前記観察視線と前記視認視線との差異を0としないことによって、提示情報がユーザ周辺の外界に完全に重なって外界の認識を阻害することを避けることができるという効果もある。
ここで、前記視認視線推定手段は、前記提示情報を複数個の部分に分割し、前記提示法決定手段は、分割された部分ごとに提示法を決定してもよい。これによって、テキスト情報に限らず、写真などの静止画や、テレビ番組などの映像を、道を歩きながらでも安心して視認できるようになる。
また、前記状況情報取得手段は、ユーザの進路上に存在する物体に関する物体情報を取得し、前記提示法決定手段は、前記物体にユーザの視線が向くように前記提示情報を配置してもよい。これによって、注目すべき物体にユーザの視線が向くようになるので、よりユーザの安全性を確保することが可能となる。
あるいは、前記状況情報取得手段は、ユーザの進路上に存在する物体に関する物体情報を取得し、前記提示法決定手段は、前記物体にユーザの視線が向かないように前記提示情報を配置してもよい。これによって、凝視すべきでない物体にユーザの視線が向かないようになるので、よりユーザの安全性を確保することが可能となる。
ここで、前記観察視線推定手段は、発生する可能性があるユーザの状況別に、その状況に適した前記観察視線を複数個推定してもよい。これによって、ユーザの行動パターンや好みに応じた視線を観察視線として選択することができるようになる。
同様に、前記視認視線推定手段は、前記提示情報の構成部分別に、その部分を視認するのに適した速度の前記視認視線を複数個推定してもよい。これによって、重要な部分はゆっくりと読ませ、逆に重要でない部分は速い速度で読ませることが可能となる。また、ユーザ周辺の事象のうちユーザにとって重要な事象を視認する視線を視認視線として選択すれば、ユーザは提示情報の視認につられて視線を移動することになるので、重要な事象に気づけるようになる。
また、前記状況情報取得手段は、ユーザの進路に関する情報を取得し、前記提示法決定手段は、ユーザが交差点に差しかかった場合は、ユーザが交差点を左右確認することになる位置に前記提示情報を配置してもよい。これによって、交差点に差しかかったユーザに左右確認をさせることができるので、よりユーザの安全性を高めることが可能となる。
なお、本発明は、このような情報提示装置として実現することができるだけでなく、このような情報提示装置が備える特徴的な手段をステップとする情報提示方法として実現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM等の記録媒体やインターネット等の伝送媒体を介して配信することができるのは言うまでもない。
以上の説明から明らかなように、本発明に係る情報提示装置によれば、視線移動の負荷が軽減され、より安全性を確保しながらユーザに提示情報を視認させることができる。
以下、本発明の実施の形態について図面を用いて詳細に説明する。以下では、本発明に係る情報提示装置としてHMDを例示する。
(実施の形態1)
図1は、本発明に係るHMD100をユーザが装着している状態を示す図である。
この図に示すように、本発明に係るHMD100は、外観においては従来のHMDと同様であり、ユーザに情報を提示するための各種制御をする計算機11と、LCD(Liquid Crystal Display)等の表示装置12と、ユーザの眼前に配置される光学素子(提示幕)13と、音声案内用のヘッドホン14と、当該HMDをユーザの頭部1に装着するための装着部材15と、インターネット等から提示情報を受信するための受信機16とを備える。
光学素子13の一方の面は凹面の非球面であり、その上にハーフミラー膜が塗布されて、表示装置12に表示された情報を反射して虚像を形成する。また、光学素子13の他方の面は凹面とほとんど同じ非球面の凸面で外界を観察できるようになっているため、ユーザは、外界とオーバラップして表示装置12に表示された情報を視認することになる。
図2は、本発明に係るHMD100の要部の機能ブロック図である。このHMD100は、ユーザに情報を提示する装置であって、機能的には、状況情報取得部101と、観察視線推定部102と、提示情報管理部103と、視認視線推定部104と、提示法決定部105と、情報提示部106と、観察視線推定基準記憶部107と、視認視線推定基準記憶部108と、提示法記憶部109とを備える。
状況情報取得部101は、ユーザの状況に関する状況情報を取得するカメラ、GPS(Global Positioning System)、加速度センサ、傾きセンサ、磁気センサ等である。状況情報は、ユーザの現在位置、地図情報、ユーザの移動の向きや速さ、ユーザの身体状態(頭や眼球など体の各部の位置、向き、姿勢、心拍数、体温など)に関する情報である。過去の行動履歴をとるようにし、また、将来の行動予定(目的地など)を予め設定するようにすれば、これら情報を状況情報として利用することもできる。
図3は、本発明に係るHMD100が地図情報を取得する様子を示す図である。すなわち、HMD100の状況情報取得部101は、ユーザの自宅に設置されている端末300、ユーザが所有する携帯電話400、地図配信サービスを提供するサーバ500等から、インターネット200を介して地図情報を取得する。インターネット200を介すことなく、直接これらの装置から地図情報を取得することも可能である。
観察視線推定部102は、状況情報取得部101によって取得された状況情報に基づいて、外界を観察するユーザの観察視線を推定する。例えば、状況情報取得部101によって進路情報が取得されると、この進路に応じた観察視線を推定する。進路情報とは、ユーザの進路に関する情報であり、具体的には、GPSによって取得されたユーザの現在位置、地図情報、予め設定されている行動予定(目的地)等である。
提示情報取得部103は、ユーザに提示する提示情報を取得する通信I/F等である。提示情報は、電子メールのようなテキストや、テレビ番組のような映像などである。これら提示情報は、図1に示した受信機16によってインターネット等から受信することができる。あるいは、図4に示すように、提示情報を予め格納した格納部18からケーブル17を介して計算機11に提示情報が送られる構成を採用することもできる。この格納部18は例えばパーソナルコンピュータでもよく、また、このパーソナルコンピュータはLAN(Local Area Network)やインターネット等に接続されていてもよい。
視認視線推定部104は、提示情報取得部103によって取得された提示情報を視認するユーザの視認視線を推定する。例えば、提示情報の属性やHMD100の属性を考慮して、単位時間(例えば1秒間)にユーザによって視認される文字数を決定し、この文字数に基づいて、提示情報を視認するユーザの視認視線を推定する。
提示法決定部105は、観察視線推定部102によって推定された観察視線と視認視線推定部104によって推定された視認視線とに基づいて、提示情報取得部103によって取得された提示情報の提示法を決定する。具体的には、観察視線と視認視線との差異が所定の範囲内に納まるように提示情報の提示法を決定する。
情報提示部106は、提示情報取得部103によって取得された提示情報を提示法決定部105によって決定された提示法によってユーザに提示する。具体的な提示態様については、図面を用いて後で詳しく説明する。
観察視線推定基準記憶部107は、観察視線を推定する際の基準を示す情報を記憶している。視認視線推定基準記憶部108は、視認視線を推定する際の基準を示す情報を記憶している。提示法記憶部109は、提示情報の提示法を示す情報を記憶している。これら記憶部に記憶されている情報の具体例については後述する。
以下、図5を用いて、HMD100の動作について説明する。
ここでは、ユーザは、HMD100を装着している状態で、図6に示すように、交差点のない直線の道路を直進歩行しているものと仮定する。そして、その歩行途中、図7に示すように、「差出人」「タイトル」「本文」からなる電子メールAを受信したものと仮定する。
従来のHMDによれば、図8に示すように、歩行中の道路が手前から奥へと映っており、この道路手前にオーバラップして、受信した電子メールAの内容が提示されることになる。このような提示法によれば、ユーザの視線が画面下方に集中することになり、安心して情報を視聴できないので、本発明に係るHMD100では、以下の手法を採用している。
まず、状況情報取得部101は、歩行中のユーザの状況を状況情報として取得する(S201)。ここでいう状況情報は、例えば進路情報である。前記したように、ユーザの現在位置はGPSによって取得することができ、進路情報は予め地図上に設定された目的地から算出することができる。予め地図上に目的地を設定しなくても、過去に歩行したという行動履歴がある場合は、この行動履歴を用いて進路情報を予測することもできる。
このように状況情報が取得されると、観察視線推定部102は、観察視線推定基準記憶部107に記憶されている基準情報を参照し、ユーザの観察視線を推定する。
図9(A)は、観察視線推定基準記憶部107に記憶されている基準情報の一例を示す図である。ここでは、ユーザの状況別に、観察視線を推定する際の基準が対応付けられている。具体的には、ユーザの状況が「等速直線運動」であることと、観察視線が「等速直線運動」であることとが対応付けられている。また、ユーザの状況が「交差点直進」であることと、観察視線が「左右確認」であることとが対応付けられている。
そこで、観察視線推定部102は、ユーザが直線状の道路を直進していることから、ユーザの観察視線も歩行に合わせて道路の手前から奥へと移動していくと推定する(S202)。具体的には、図10に示すように、0秒後の視点位置はR0点、2秒後の視点位置はR2点、4秒後の視点位置はR4点、7秒後の視点位置はR7点であると推定する。
一方、提示情報取得部103は、電子メールを受信すると(S203)、この電子メールを提示情報として管理する。このように提示情報が提示情報取得部103の管理下におかれると、視認視線推定部104は、視認視線推定基準記憶部108に記憶されている基準情報を参照し、電子メールを視認するユーザの視認視線を推定する(S204)。
図11(A)は、視認視線推定基準記憶部108に記憶されている基準情報の一例を示す図である。ここでは、提示情報の種別ごとに、視認視線を推定する際の基準が対応付けられている。具体的には、提示情報が「電子メール」であることと、視認速度が「5文字/秒」であることとが対応付けられている。また、提示情報が「テレビ番組」であることと、視認速度が「1シーン/秒」であることとが対応付けられている。
図12は、電子メールを視認するユーザの視点移動を示す図である。電子メールは横書きで提示されているので、この電子メールを視認するユーザの視点は1行目から順に左から右へ移動すると推定することができる。ここでは、0秒後の視点位置はV0点、2秒後の視点位置はV2点、4秒後の視点位置はV4点、7秒後の視点位置はV7点であると推定している。すなわち、文字を読む速度は一定である(ここでは、5文字/秒である)として、将来読んでいる文字を特定し、その文字が提示されている位置を視点位置として推定している。
このように観察視線と視認視線とが推定されると、提示法決定部105は、両視線の差異を求める(S205)。すなわち、図13に示すように、0秒後における両視線の差異は矢印D0として、2秒後における両視線の差異は矢印D2として、4秒後における両視線の差異は矢印D4として、7秒後における両視線の差異は矢印D7として、それぞれ表すことができる。
両視線の差異の求め方について、図14を用いて、更に詳しく説明する。まず、図14(A)に示すように、観察視線と光学素子13との交点P1を求める。次に、図14(B)に示すように、視聴視線と光学素子13との交点P2を求める。最後に、図14(C)に示すように、交点P1と交点P2間の距離L1を求める。この距離L1が例えば矢印D0の大きさということになる。
次いで、提示法決定部105は、このように求めた差異が所定の範囲内であるかどうかを判定する(S206)。例えば、矢印D0、D2、D4、D7の大きさが光学素子13上で2mm以下であるかどうかを判定する。そして、矢印D0、D2、D4、D7の大きさが全て光学素子13上で2mm以下である場合は、電子メールの提示法を変更しない(S206→S208)。一方、矢印D0、D2、D4、D7いずれかの大きさが光学素子13上で2mmを超える場合は、電子メールの提示法を変更する(S206→S207)。
図15は、提示法記憶部109に記憶されている提示法情報の一例を示す図である。ここでは、提示情報の種別ごとに、提示法の種別が対応付けられている。具体的には、提示情報が「電子メール」であることと、提示法が「投影提示法」であることとが対応付けられている。また、提示情報が「テレビ番組」であることと、提示法が「部分提示法」であることとが対応付けられている。投影提示法は、ユーザの進路に沿って投影的に提示情報を配置する提示法である。また、部分提示法は、ユーザの進路に沿って提示情報の構成部分を時系列順に配置する提示法である。ここでは、提示情報は電子メールであるため、提示法決定部105は、電子メールの提示法を図13に示した提示法から投影提示法に変更する。
図16は、電子メールの提示法の変更例を示す図である。この図に示すように、提示法決定部105は、矢印D0、D2、D4、D7の大きさが全て光学素子13上で2mm以下となるように、電子メールの提示法を変更している。図13に示した提示法と比較して、図16に示した投影提示法では、R0点とV0点、R2点とV2点、R4点とV4点、R7点とV7点がそれぞれ接近していることがわかる。
このように電子メールの提示法が決定されると、情報提示部106は、投影提示法によって電子メールを提示する(S208)。すなわち、図17は、0秒後にユーザから見える状態を示しており、この状態では、「差出人」の文字が手前に映っている。図18は、2秒後にユーザから見える状態を示しており、この状態では、「タイトル」の文字が手前に映っている。図19は、4秒後にユーザから見える状態を示しており、この状態では、「本文」の文字が手前に映っている。図20は、7秒後にユーザから見える状態を示しており、この状態では、「本文」の続きが手前に映っている。このように、本提示法によると、あたかも電子メールの内容が道路に描かれているかのように視認されることになる。
前述したように、HMD100は、状況情報に基づいて観察視線を推定するとともに、提示情報に基づいて視認視線を推定する。そして、このように推定した両視線と光学素子13との交点P1及びP2を求め、この交点P1と交点P2間の距離L1が2mmを超える場合は、この距離L2が2mm以下となるように、電子メールの提示法を変更する。
以上の説明から明らかなように、本発明に係る情報提示装置によれば、ユーザにとって安全な方向に視線が向くように提示情報を配置することができる。具体的には、観察視線と視認視線との差異を求め、この差異が小さな距離となるように提示情報の提示法を決定しているので、視線移動の負荷が軽減され、より安全性を確保しながらユーザに提示情報を視認させることができる。
なお、電子メールの提示法は前記した投影提示法に限定されるものではない。例えば、電子メールの内容を複数個の構成部分に分割して、各構成部分を時系列順にユーザの進路に沿って提示するようにしてもよい。すなわち、提示態様についてだけ説明すると、図21は0秒後に、図22は2秒後に、図23は4秒後に、図24は7秒後に、それぞれユーザから見える状態を示している。あるいは、電子メールを縦書きでユーザの進路に沿って上方に提示するようにしてもよい。すなわち、図25は0秒後に、図26は2秒後に、図27は4秒後に、図28は7秒後に、それぞれユーザから見える状態を示している。
また、提示情報は電子メールに限定されるものではない。テレビ番組の映像をシーン毎に分割して、各シーン映像を時系列順にユーザの進路に沿って提示するようにしてもよい。すなわち、図29は0秒後に、図30は2秒後に、図31は4秒後に、図32は7秒後に、それぞれユーザから見える状態を示している。
もちろん、提示情報がもともと複数の構成部分からなる場合は、提示情報を複数個の構成部分に分割する必要はない。例えば、テレビ番組の映像はもともと複数のシーンから構成されるので、この場合は、テレビ番組の映像を分割する処理を省略することができる。電子メールも「差出人」「タイトル」「本文」という単位でもともと分割されていると考えれば、テレビ番組の映像と同様、分割する処理を省略することができる。
さらに、図5のS201とS203の動作はどちらが先に行われてもよい。すなわち、S202の動作までにS201の動作が完了していればよく、S204の動作までにS203の動作が完了していればよい。同様に、S202の動作とS204の動作は、どちらが先に行われてもよい。すなわち、S205の動作までにS202とS204の動作が完了していればよい。もちろん、図5に示した各動作は、即時に次々と行われてもよいし、並行して行われてもよいし、時間をおいて行われてもよい。
さらに、図5のS202やS204で推定する視線は1通りでなくてもよい。すなわち、複数の視線候補を推定してもよいし、この視線候補それぞれの実現確率を推定してもよい。
図9(B)は、観察視線推定基準記憶部107に記憶されている基準情報の別の例を示す図である。ここでは、交差点に差し掛かった直後のユーザの状況別に、その状況が発生する確率と、その状況に適した観察視線とが対応付けられている。具体的には、直進する確率は80%であり、その場合は「右」「左」「前」の順に観察視線を遷移させる旨が規定されている。また、右折する確率は20%であり、その場合は「右」「左」「右」の順に観察視線を遷移させる旨が規定されている。また、左折する確率は0%であり、その場合は「左」「右」「左」の順に観察視線を遷移させる旨が規定されている。また、引き返す確率は0%であり、その場合は観察視線を180度回転させる旨が規定されている。
そこで、観察視線推定部102は、歩行中のユーザが交差点に差し掛かった際、直進する確率が80パーセントで右折する確率が20パーセントであるとして、2つの観察視線を推定してもよい。この場合は、直進する確率が最も高いので、直進に適した観察視線を選択するのが好ましい。ただし、ユーザが直進せずに右折した場合は、予め推定しておいた右折に適した観察視線に変更するのが好ましい。
同様に、電子メールの内容には重要な部分と重要でない部分とが存在するので、電子メールの構成部分ごとに複数の視認視線候補を推定するようにしてもよい。
図11(B)は、視認視線推定基準記憶部108に記憶されている基準情報の別の例を示す図である。ここでは、電子メールの内容の重要度別に、その部分を読むのに適した視認速度が規定されている。具体的には、最も高い重要度Aの部分は「3文字/秒」、2番目に高い重要度Bの部分は「4文字/秒」、3番目に高い重要度Cの部分は「5文字/秒」、4番目に高い重要度Dの部分は「6文字/秒」、5番目に高い重要度Eの部分は「7文字/秒」の視認速度とする旨が規定されている。
そこで、視認視線推定部104は、電子メールの構成部分ごとに重要度A〜Eを決定し、決定した重要度に対応する速度でその部分が読まれたときの視認視線を推定する。これにより、重要な部分はゆっくりと読ませ、逆に重要でない部分は速い速度で読ませることが可能となる。
さらに、ここでは、矢印D0、D2、D4、D7の大きさが光学素子13上で2mm以下であるかどうかを判定することとしているが、本発明はこれに限定されるものではない。すなわち、両視線の角度差が例えば1度以内であるかどうかを判定するようにしてもよいし、あるいは、提示情報と重なる道路上の距離が例えば50cm以内であるかどうかを判定するようにしてもよい。両視線の差異が0の場合は、提示情報が重要な光景を隠してしまうこともあるので、例えば両視線の差異を5mmから2mmの間とする等、差異0を範囲外としてもよい。
(実施の形態2)
次に、本発明の実施の形態2について説明する。
実施の形態1では、交差点のない直線の道路をユーザが直進歩行している場面を想定していたので、ユーザの歩行進路と観察視線とはほぼ一致していた。本実施の形態では、ユーザの歩行進路と観察視線とが一致しない場面について説明する。
図33は、歩行中のユーザが交差点を直進する状況を示す図である。道路を直進する場合は、歩行進路と観察視線がほぼ一致していたが、交差点を直進する場合は、ユーザに交差点の左右確認をさせるために観察視線を左右に移動させるのが好ましい。
すなわち、このような場合は、図34に示すように、観察視線が進路前方から「右」「左」「右」へと移動した後、再び進路前方に戻るものと推定し、それに合わせて電子メールを配置するようにしている。図35は、このように電子メールを配置した場合に、ユーザから見える光景を示している。電子メールを順に読むと、交差点において自然と視線が「右」「左」「右」へと移動して、左右確認ができるようになっている。
以上の説明から明らかなように、本実施の形態に係る情報提示装置によれば、交差点を直進するユーザに左右確認をさせることができるので、よりユーザの安全性を高めることが可能となる。その他の点については、前記実施の形態1と同様であるため、ここでは詳しい説明を省略する。
(実施の形態3)
次に、本発明の実施の形態3について説明する。
前記実施の形態1では、ユーザの進路に沿って提示情報を一様に配置する構成を例示したが、本実施の形態では、視線に影響を与える物体に応じて、提示情報の位置や間隔や分布を偏らせて配置する。すなわち、ユーザの進路上に存在する物体に関する物体情報を状況情報取得部101が取得し、このように取得された物体情報に基づいて、提示法決定部105が提示情報の提示法を決定する。
図36は、直進歩行中のユーザが注目物体に接近している場合の提示例である。ここでいう注目物体は、例えば自転車などであり、ユーザが注目すべき物体である。このように注目物体に接近している場合は、図36に示すように、その注目物体付近に視線が向くように提示情報を配置するのが好ましい。ここでは、注目物体を挟む位置に電子メールの「タイトル」と「本文」を配置することで、「タイトル」を読んでから「本文」を読むまでの間に、ユーザが注目物体に気づきやすくしている。
図37は、直進歩行中のユーザが凝視回避物体に接近している場合の提示例である。ここでいう凝視回避物体は、例えば見知らぬ人などであり、過度に凝視すべきでない物体である。このように凝視回避物体に接近している場合は、図37に示すように、その凝視回避物体付近における情報配置の密度を低くすることで、凝視回避物体に長時間視線が向かないようにしている。なお、ユーザの進路上に存在する物体が注目物体であるか凝視回避物体であるかは、前方の光景を撮影して、その撮影画像を解析することによって判別可能である。
以上の説明から明らかなように、本実施の形態に係る情報提示装置によれば、視線に影響を与える物体に応じて、提示情報の位置や間隔や分布を偏らせて配置することができるので、よりユーザの安全性を高めることが可能となる。その他の点については、前記実施の形態1と同様であるため、ここでは詳しい説明を省略する。
なお、図2における各部は、一台のコンピュータ上にあってもよいし、一台のコンピュータ上になくてもよい。例えば、提示法決定部105と情報提示部106とが別の機器にあってもよいし、提示情報取得部103がインターネット上のサーバ機器でもよい。また、複数のコンピュータ上に各部が分散していてもよいし、図2における各部(例えば情報提示部106)が一台のコンピュータ上に複数存在してもよい。複数ユーザで図2の各部を共有してもよいのはもちろんである。
また、ここでは透過型のHMDを例示したが、本発明は、これに限定されるものではない。すなわち、カメラ等によって撮影された外界の画像を仮想画像と重畳させてLCD等の表示装置に表示する密閉型のHMDにも、本発明を適用することができる。また、情報提示部106は、ヘッドマウントディスプレイ、フェイスマウントディスプレイ、眼鏡型ディスプレイ、透過型ディスプレイ、網膜走査型ディスプレイ、携帯電話や携帯テレビやモバイル端末の情報提示部、プロジェクターなどを含んでもよい。もちろん、HMDだけでなく、図2に示した各部を備えた装置である以上、本発明を適用することができる。
さらに、視線の推定方法は様々あり、前述した方法に限定されるものではない。例えば、カメラで撮影した眼球の映像から目の特徴点(白目と黒目の境界など)を抽出することで視線を推定してもよい。あるいは、コンタクトレンズや眼球表面に印などの識別情報を付加しておき、その位置を認識することで視線を推定してもよい。あるいは、眼球付近の電気抵抗や、電流・電圧などの電気的特性の変化を計測することで視線を推定してもよい。あるいは、例えば「頭部が左を向いたので視点も左に移動する」などのように、体や頭部の移動に伴って視線が移動するという人間の身体的制約を用いて視線を推定してもよい。あるいは、交差点では左右確認するといった一般知識や、このユーザは子猫に興味を示すといった個人的嗜好を考慮することで、ユーザ周辺の状況や物体に対するユーザの関心の強さを予測して、関心の強い物体を注目するという観点から視線を推定してもよい。なお、視線の推定対象である目は、左右いずれか一方の目でもよいし、左右両方の目でもよい。また、ここでは視線を推定することとしているが、視点や注目点を推定することも、視線を推定することと実質的には同じである。もちろん、推定する視線の先は、点でなく領域でもよい。例えば、「2秒後は左側を見ている」などのように、領域で視線を推定してもよい。
さらに、ここでは提示情報の提示位置を変更することとしているが、提示する色調、明るさ、透明度、大きさ、向き、奥行き等のいずれかを変更するようにしてもよいし、あるいは、提示情報の再生状態(再生の一時停止、再開、中断、早送り、巻戻し、スロー再生、要約再生、部分再生など)を変更するようにしてもよい。また、提示法の変更は断続的でもよい。例えば、提示位置を変更する場合は、一旦提示を中止した後、前と異なる位置に再提示してもよい。
さらに、ここでは、提示情報として電子メールとテレビ番組とを例示したが、提示情報には、テレビ番組のような映像、電子メールのようなテキスト、静止画、信号などの少なくとも1つを含めばよい。また、提示情報を管理する方法については特に言及しなかったが、この方法としては、提示情報取得部103自体が提示情報自体の全部や一部を保有する方法を採用してもよいし、提示情報を取得できるように提示情報の位置を保有する方法を採用してもよいし、提示情報の位置を保有している別の提示情報取得部の位置を保有する方法を採用してもよい。
また、ここでは、観察視線と視認視線との差異が所定の範囲内に納まるように提示情報の提示法を決定することとしているが、本発明はこれに限定されるものではない。すなわち、視認視線あるいは観察視線の一方が他方に先行するように提示法を決定するようにしてもよいし、観察視線の動きに応じて情報提示を停止したり、ユーザの行動を変更させたりするように、提示法を決定するようにしてもよい。
本発明にかかる情報提示装置は、ユーザに情報を提示する情報提示装置として、特に、より安全性を確保しながらユーザに提示情報を視認させることが必要なHMD等として有用である。
図1は、本発明に係るHMDをユーザが装着している状態を示す図である。 図2は、本発明に係るHMDの要部の機能ブロック図である。 図3は、本発明に係るHMDが地図情報を取得する様子を示す図である。 図4は、本発明に係るHMDをユーザが装着している状態を示す図である。 図5は、本発明に係るHMDの動作を示すフローチャートである。 図6は、ユーザの歩行進路を示す図である。 図7は、電子メールの内容を示す図である。 図8は、ユーザから見える状態を示す図である。 図9(A)及び図9(B)は、観察視線推定基準記憶部に記憶されている基準情報の一例を示す図である。 図10は、観察視線を推定する方法を示す図である。 図11(A)及び図11(B)は、視認視線推定基準記憶部に記憶されている基準情報の一例を示す図である。 図12は、視認視線を推定する方法を示す図である。 図13は、観察視線と視認視線との差異を示す図である。 図14(A)、図14(B)、及び図14(C)は、観察視線と視認視線との差異を示す図である。 図15は、提示法記憶部に記憶されている提示法情報の一例を示す図である。 図16は、提示法の一例を示す図である。 図17は、0秒後にユーザから見える状態を示す図である。 図18は、2秒後にユーザから見える状態を示す図である。 図19は、4秒後にユーザから見える状態を示す図である。 図20は、7秒後にユーザから見える状態を示す図である。 図21は、0秒後にユーザから見える状態を示す図である。 図22は、2秒後にユーザから見える状態を示す図である。 図23は、4秒後にユーザから見える状態を示す図である。 図24は、7秒後にユーザから見える状態を示す図である。 図25は、0秒後にユーザから見える状態を示す図である。 図26は、2秒後にユーザから見える状態を示す図である。 図27は、4秒後にユーザから見える状態を示す図である。 図28は、7秒後にユーザから見える状態を示す図である。 図29は、0秒後にユーザから見える状態を示す図である。 図30は、2秒後にユーザから見える状態を示す図である。 図31は、4秒後にユーザから見える状態を示す図である。 図32は、7秒後にユーザから見える状態を示す図である。 図33は、歩行中のユーザが交差点を直進する状況を示す図である。 図34は、交差点を直進するユーザの歩行進路を示す図である。 図35は、交差点を直進するユーザから見える状態を示す図である。 図36は、直進歩行中のユーザが注目物体に接近している場合の提示例である。 図37は、直進歩行中のユーザが凝視回避物体に接近している場合の提示例である。
符号の説明
1 ユーザの頭部
11 計算機
12 表示装置(LCD)
13 光学素子
14 ヘッドホン
15 装着部材
16 受信機
17 ケーブル
18 格納部
101 状況情報取得部
102 観察視線推定部
103 提示情報取得部
104 視認視線推定部
105 提示法決定部
106 情報提示部

Claims (10)

  1. ユーザに情報を提示する情報提示装置であって、
    ユーザの状況に関する状況情報を取得する状況情報取得手段と、
    前記状況情報取得手段によって取得された状況情報に基づいて、ユーザの眼から外界の観察対象へと向かう観察視線の将来の視点位置単位時間別に推定する観察視線推定手段と、
    ユーザに提示する提示情報を取得する提示情報取得手段と、
    ユーザの眼から前記提示情報が提示される前記光学素子上の位置へと向かう視認視線の将来の視点位置、前記提示情報の種別ごとに予め定められた基準に基づいて、単位時間別に推定する視認視線推定手段と、
    前記観察視線と前記視認視線の両視線について特定面との交点を単位時間別に求め、両交点間の距離が所定の範囲内に納まるように前記提示情報の提示法を決定する提示法決定手段と、
    前記提示情報取得手段によって取得された提示情報を前記提示法決定手段によって決定された提示法によってユーザに提示する情報提示手段と
    を備えることを特徴とする情報提示装置。
  2. 前記状況情報取得手段は、ユーザの進路に関する情報を取得し、
    前記提示法決定手段は、ユーザの進路に沿って重なるような前記光学素子上の位置に仮想投影的に前記提示情報を配置する
    ことを特徴とする請求項1記載の情報提示装置。
  3. 前記状況情報取得手段は、ユーザの進路に関する情報を取得し、
    前記提示法決定手段は、ユーザの進路に沿って重なるような光学素子上の位置に仮想投影的に、前記提示情報の構成部分を時系列順に配置する
    ことを特徴とする請求項1記載の情報提示装置。
  4. 前記状況情報取得手段は、ユーザの進路に関する情報を取得し、
    前記提示法決定手段は、ユーザが交差点に差しかかった場合は、ユーザが交差点を左右確認することになる光学素子上の位置に仮想投影的に前記提示情報を配置する
    ことを特徴とする請求項1記載の情報提示装置。
  5. 前記視認視線推定手段は、前記提示情報を複数個の部分に分割し、
    前記提示法決定手段は、分割された部分ごとに異なる提示位置となる提示法を決定する
    ことを特徴とする請求項1記載の情報提示装置。
  6. 前記情報提示手段は、透過型の提示幕上に前記提示情報を提示する
    ことを特徴とする請求項1記載の情報提示装置。
  7. 前記情報提示装置はさらに、
    外界を観察するユーザの視線を検出するセンサを備え、
    前記観察視線推定手段は、検出された視線を前記観察視線として採用する
    ことを特徴とする請求項1記載の情報提示装置。
  8. ユーザに情報を提示する情報提示方法であって、
    ユーザの状況に関する状況情報を取得する状況情報取得ステップと、
    前記状況情報取得ステップにおいて取得された状況情報に基づいて、ユーザの眼から外界の観察対象へと向かう観察視線の将来の視点位置単位時間別に推定する観察視線推定ステップと、
    ユーザに提示する提示情報を取得する提示情報取得ステップ手段と、
    ユーザの眼から前記提示情報が提示される前記光学素子上の位置へと向かう視認視線の将来の視点位置単位時間別に推定する視認視線推定ステップと、
    前記観察視線と前記視認視線の両視線について特定面との交点を単位時間別に求め、両交点間の距離が所定の範囲内に納まるように前記提示情報の提示法を決定する提示法決定ステップと、
    前記提示情報取得ステップにおいて取得された提示情報を前記提示法決定ステップにおいて決定された提示法によってユーザに提示する情報提示ステップと
    を含むことを特徴とする情報提示方法。
  9. ユーザに情報を提示するためのプログラムであって、
    ユーザの状況に関する状況情報を取得する状況情報取得ステップと、
    前記状況情報取得ステップにおいて取得された状況情報に基づいて、ユーザの眼から外界の観察対象へと向かう観察視線の将来の視点位置単位時間別に推定する観察視線推定ステップと、
    ユーザに提示する提示情報を取得する提示情報取得ステップと、
    ユーザの眼から前記提示情報が提示される前記光学素子上の位置へと向かう視認視線の将来の視点位置単位時間別に推定する視認視線推定ステップと、
    前記観察視線と前記視認視線の両視線について特定面との交点を単位時間別に求め、両交点間の距離が所定の範囲内に納まるように前記提示情報の提示法を決定する提示法決定ステップと、
    前記提示情報取得ステップにおいて取得された提示情報を前記提示法決定ステップにおいて決定された提示法によってユーザに提示する情報提示ステップと
    をコンピュータに実行させるためのプログラム。
  10. ユーザに情報を提示するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
    ユーザの状況に関する状況情報を取得する状況情報取得ステップと、
    前記状況情報取得ステップにおいて取得された状況情報に基づいて、ユーザの眼から外界の観察対象へと向かう観察視線の将来の視点位置単位時間別に推定する観察視線推定ステップと、
    ユーザに提示する提示情報を取得する提示情報取得ステップと、
    ユーザの眼から前記提示情報が提示される前記光学素子上の位置へと向かう視認視線の将来の視点位置単位時間別に推定する視認視線推定ステップと、
    前記観察視線と前記視認視線の両視線について特定面との交点を単位時間別に求め、両交点間の距離が所定の範囲内に納まるように前記提示情報の提示法を決定する提示法決定ステップと、
    前記提示情報取得ステップにおいて取得された提示情報を前記提示法決定ステップにおいて決定された提示法によってユーザに提示する情報提示ステップと
    をコンピュータに実行させるためのプログラムを記録した記録媒体。
JP2006548746A 2004-12-14 2005-11-28 情報提示装置、情報提示方法、プログラム、及び記録媒体 Expired - Fee Related JP4268191B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004361610 2004-12-14
JP2004361610 2004-12-14
PCT/JP2005/021823 WO2006064655A1 (ja) 2004-12-14 2005-11-28 情報提示装置及び情報提示方法

Publications (2)

Publication Number Publication Date
JPWO2006064655A1 JPWO2006064655A1 (ja) 2008-06-12
JP4268191B2 true JP4268191B2 (ja) 2009-05-27

Family

ID=36587714

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006548746A Expired - Fee Related JP4268191B2 (ja) 2004-12-14 2005-11-28 情報提示装置、情報提示方法、プログラム、及び記録媒体

Country Status (4)

Country Link
US (1) US8327279B2 (ja)
JP (1) JP4268191B2 (ja)
CN (1) CN101080691B (ja)
WO (1) WO2006064655A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI339574B (en) * 2007-10-31 2011-04-01 Nat Applied Res Laboratories Color recognition device and method thereof
JP2010145436A (ja) * 2008-12-16 2010-07-01 Brother Ind Ltd ヘッドマウントディスプレイ
US8392853B2 (en) * 2009-07-17 2013-03-05 Wxanalyst, Ltd. Transparent interface used to independently manipulate and interrogate N-dimensional focus objects in virtual and real visualization systems
US20110211739A1 (en) * 2009-12-23 2011-09-01 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US9875719B2 (en) 2009-12-23 2018-01-23 Gearbox, Llc Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US9361729B2 (en) * 2010-06-17 2016-06-07 Microsoft Technology Licensing, Llc Techniques to present location information for social networks using augmented reality
US8681073B1 (en) * 2011-09-29 2014-03-25 Rockwell Collins, Inc. System for and method of controlling contrast or color contrast in see-through displays
US20130151722A1 (en) * 2011-12-13 2013-06-13 Motorola Mobility, Inc. Method and Apparatus for Utilizing Streaming Content at an Electronic Device
JP2013147200A (ja) * 2012-01-23 2013-08-01 Calsonic Kansei Corp 車両用表示装置
WO2013111388A1 (ja) * 2012-01-23 2013-08-01 三菱電機株式会社 情報表示装置
US8982014B2 (en) * 2012-02-06 2015-03-17 Battelle Memorial Institute Image generation systems and image generation methods
US9909878B2 (en) * 2012-03-05 2018-03-06 Here Global B.V. Method and apparatus for triggering conveyance of guidance information
JP6040715B2 (ja) * 2012-11-06 2016-12-07 ソニー株式会社 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
JP6015532B2 (ja) * 2013-04-08 2016-10-26 マツダ株式会社 車載情報表示装置
JP6318470B2 (ja) * 2013-05-15 2018-05-09 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
JP6174435B2 (ja) 2013-09-25 2017-08-02 富士通コンポーネント株式会社 コンバイナ及び操作検出装置
JP5825328B2 (ja) * 2013-11-07 2015-12-02 コニカミノルタ株式会社 透過型hmdを有する情報表示システム及び表示制御プログラム
EP3109854A4 (en) 2014-02-20 2017-07-26 Sony Corporation Display control device, display control method, and computer program
CN103838378B (zh) * 2014-03-13 2017-05-31 广东石油化工学院 一种基于瞳孔识别定位的头戴式眼睛操控系统
JP2015201100A (ja) * 2014-04-09 2015-11-12 富士通株式会社 既読判断装置、既読判断方法、及び既読判断プログラム
KR20160014418A (ko) 2014-07-29 2016-02-11 삼성전자주식회사 유저 인터페이스 장치 및 유저 인터페이스 방법
US9672747B2 (en) 2015-06-15 2017-06-06 WxOps, Inc. Common operating environment for aircraft operations
CN105035026A (zh) * 2015-09-02 2015-11-11 济源维恩科技开发有限公司 一种基于指纹身份识别的汽车行车电脑系统
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
CN105404394B (zh) * 2015-11-17 2019-02-12 Oppo广东移动通信有限公司 显示界面的显示控制方法及移动终端
JP2017097306A (ja) * 2015-11-27 2017-06-01 株式会社リコー ヘッドマウントディスプレイシステム及びヘッドマウントディスプレイシステムにおける表示制御方法
CN107037592B (zh) * 2017-06-21 2019-06-14 常州快来信息科技有限公司 头戴显示设备的视觉优化系统、智能终端及头戴设备
CN109426419B (zh) * 2017-09-05 2022-06-03 菜鸟智能物流控股有限公司 界面显示方法及相关设备
JP2019105777A (ja) 2017-12-14 2019-06-27 セイコーエプソン株式会社 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP7327320B2 (ja) * 2020-08-11 2023-08-16 トヨタ自動車株式会社 警告通知システム、警告通知方法及び警告通知プログラム

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001242411A (ja) * 1999-05-10 2001-09-07 Asahi Glass Co Ltd ホログラム表示装置
JPH0331033A (ja) 1989-06-29 1991-02-08 Mazda Motor Corp 車両用表示装置
US5293513A (en) * 1990-05-30 1994-03-08 Mitsubishi Denki Kabushiki Kaisha Switching system for automotive vehicle including a reflector positioned below a sight line of a driver
JP3031033B2 (ja) 1992-01-10 2000-04-10 新日本理化株式会社 トランス−1,4−シクロヘキサンジメタノールの製造方法
JPH07257228A (ja) 1994-03-18 1995-10-09 Nissan Motor Co Ltd 車両用表示装置
JP3744984B2 (ja) 1995-10-04 2006-02-15 キヤノン株式会社 情報表示装置
JPH10320167A (ja) * 1997-05-15 1998-12-04 Sharp Corp 仮想空間ウインドウ表示システム
US6208933B1 (en) * 1998-12-04 2001-03-27 Northrop Grumman Corporation Cartographic overlay on sensor video
US6500008B1 (en) * 1999-03-15 2002-12-31 Information Decision Technologies, Llc Augmented reality-based firefighter training system and method
JP3368226B2 (ja) * 1999-03-26 2003-01-20 キヤノン株式会社 情報処理方法及び情報処理装置
JP2002107161A (ja) * 2000-10-03 2002-04-10 Matsushita Electric Ind Co Ltd 移動体用進路誘導装置
JP4649050B2 (ja) * 2001-03-13 2011-03-09 キヤノン株式会社 画像処理装置、画像処理方法、及び制御プログラム
US20040238732A1 (en) * 2001-10-19 2004-12-02 Andrei State Methods and systems for dynamic virtual convergence and head mountable display
US6675091B2 (en) * 2001-11-20 2004-01-06 Siemens Corporate Research, Inc. System and method for tracking, locating, and guiding within buildings
JP2004118418A (ja) 2002-09-25 2004-04-15 Nissan Motor Co Ltd 移動体接近報知装置
US7071970B2 (en) * 2003-03-10 2006-07-04 Charles Benton Video augmented orientation sensor
JP3922245B2 (ja) * 2003-11-20 2007-05-30 日産自動車株式会社 車両周辺監視装置および方法
US7796155B1 (en) * 2003-12-19 2010-09-14 Hrl Laboratories, Llc Method and apparatus for real-time group interactive augmented-reality area monitoring, suitable for enhancing the enjoyment of entertainment events
US6947219B1 (en) * 2004-06-02 2005-09-20 Universal Vision Biotechnology Co., Ltd. Focus adjustable head mounted display system for displaying digital contents and device for realizing the system
US20090040233A1 (en) * 2004-06-10 2009-02-12 Kakuya Yamamoto Wearable Type Information Presentation Device
CA2576010C (en) * 2004-08-03 2011-07-26 Silverbrook Research Pty Ltd Head mounted display with wave front modulator
JP4574473B2 (ja) * 2005-07-11 2010-11-04 キヤノン株式会社 情報処理装置および方法
WO2007021263A1 (en) * 2005-08-10 2007-02-22 Autoliv Asp, Inc. Improved steering apparatus
JP2007094935A (ja) * 2005-09-30 2007-04-12 Omron Corp 情報処理装置および情報処理方法、情報処理システム、プログラム、並びに、記録媒体
US20070194171A1 (en) * 2005-10-03 2007-08-23 Rocket Racing, Inc. Rocket-powered vehicle racing information system
CN101313344B (zh) * 2005-12-20 2010-05-19 松下电器产业株式会社 内容出示装置以及内容出示方法
US7920071B2 (en) * 2006-05-26 2011-04-05 Itt Manufacturing Enterprises, Inc. Augmented reality-based system and method providing status and control of unmanned vehicles
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
EP2028447A4 (en) * 2006-06-12 2012-04-04 Panasonic Corp NAVIGATION DEVICE AND NAVIGATION METHOD
KR20080050669A (ko) * 2006-12-04 2008-06-10 엘지전자 주식회사 차량용 헤드업 디스플레이 장치
US20080147325A1 (en) * 2006-12-18 2008-06-19 Maassel Paul W Method and system for providing augmented reality
EP2132706A1 (de) * 2007-03-08 2009-12-16 Siemens Aktiengesellschaft Verfahren und vorrichtung zur generierung von trackingkonfigurationen für augmented-reality-anwendungen
EP1990674A1 (en) * 2007-05-09 2008-11-12 Harman Becker Automotive Systems GmbH Head-mounted display system
US8055296B1 (en) * 2007-11-06 2011-11-08 Sprint Communications Company L.P. Head-up display communication system and method
JP2009217682A (ja) * 2008-03-12 2009-09-24 Yazaki Corp 車両用表示装置
JP4702437B2 (ja) * 2008-11-25 2011-06-15 トヨタ自動車株式会社 車両用表示装置
US8732592B2 (en) * 2009-06-08 2014-05-20 Battelle Energy Alliance, Llc Methods and systems relating to an augmented virtuality environment
JP2011053468A (ja) * 2009-09-02 2011-03-17 Sony Corp 映像/文字同時表示装置及び頭部装着型ディスプレイ
US8400548B2 (en) * 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
US20120011142A1 (en) * 2010-07-08 2012-01-12 Qualcomm Incorporated Feedback to improve object recognition

Also Published As

Publication number Publication date
WO2006064655A1 (ja) 2006-06-22
US20080141127A1 (en) 2008-06-12
US8327279B2 (en) 2012-12-04
JPWO2006064655A1 (ja) 2008-06-12
CN101080691B (zh) 2010-12-22
CN101080691A (zh) 2007-11-28

Similar Documents

Publication Publication Date Title
JP4268191B2 (ja) 情報提示装置、情報提示方法、プログラム、及び記録媒体
US10705605B2 (en) Image display system, and control apparatus for head-mounted display and operation method therefor
US11024263B2 (en) Method and apparatus for adjusting augmented reality content
KR102289389B1 (ko) 가상 오브젝트 방위 및 시각화
JP4927631B2 (ja) 表示装置、その制御方法、プログラム、記録媒体および集積回路
US9235051B2 (en) Multi-space connected virtual data objects
US20090040233A1 (en) Wearable Type Information Presentation Device
WO2014128773A1 (ja) ジェスチャ登録装置、ジェスチャ登録プログラムおよびジェスチャ登録方法
CN110168615B (zh) 信息处理设备、信息处理方法和存储介质
JP2017537368A (ja) 視線によって制御されるヘッドマウント型ディスプレイ装置、その制御方法、及びその制御のためのコンピュータプログラム
JP6292478B2 (ja) 透過型hmdを有する情報表示システム及び表示制御プログラム
JP6693223B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11450113B1 (en) Method and apparatus for a wearable computer
JPWO2019058492A1 (ja) 表示システム及び表示方法
US20190347864A1 (en) Storage medium, content providing apparatus, and control method for providing stereoscopic content based on viewing progression
US20200211295A1 (en) Methods and devices for transitioning among realities mediated by augmented and/or virtual reality devices
JP2021018575A (ja) 画像処理装置、画像配信システム、および画像処理方法
JP2017097854A (ja) プログラム、記録媒体、コンテンツ提供装置及び制御方法
JP2006178842A (ja) 情報提示装置
JP7094759B2 (ja) システム、情報処理方法及びプログラム
WO2021020130A1 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20240074499A (ko) Xr 디바이스의 시점 기반 콘텐츠 재생 보정 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090120

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090219

R150 Certificate of patent or registration of utility model

Ref document number: 4268191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140227

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees