JP2012053643A - 携帯型情報処理装置、及び携帯型情報処理装置のためのコンピュータプログラム - Google Patents

携帯型情報処理装置、及び携帯型情報処理装置のためのコンピュータプログラム Download PDF

Info

Publication number
JP2012053643A
JP2012053643A JP2010195199A JP2010195199A JP2012053643A JP 2012053643 A JP2012053643 A JP 2012053643A JP 2010195199 A JP2010195199 A JP 2010195199A JP 2010195199 A JP2010195199 A JP 2010195199A JP 2012053643 A JP2012053643 A JP 2012053643A
Authority
JP
Japan
Prior art keywords
distance
range
unit
information
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010195199A
Other languages
English (en)
Other versions
JP5360021B2 (ja
Inventor
Yusuke Miyamoto
侑典 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2010195199A priority Critical patent/JP5360021B2/ja
Priority to PCT/JP2011/069278 priority patent/WO2012029647A1/ja
Publication of JP2012053643A publication Critical patent/JP2012053643A/ja
Application granted granted Critical
Publication of JP5360021B2 publication Critical patent/JP5360021B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】ユーザが視認し易い状態で、ユーザが視認している外界に存在する対象物に関するオブジェクトを表示する携帯型情報処理装置、及び携帯型情報処理装置のためのコンピュータプログラムを提供することを目的とする。
【解決手段】携帯型情報処理装置では、ユーザが視認している外界に存在する対象物に関するオブジェクト102〜114が表示される。例えば、第一のオブジェクトであるオブジェクト104と、第二のオブジェクトであるオブジェクト102とは、表示部における視認性が異なるようにされる。第一のオブジェクトは、携帯型情報処理装置の位置からの距離が、ユーザの頭部の傾きに関する傾斜角情報に対応した所定の距離にある第一の対象物に関するオブジェクトである。第二のオブジェクトは、第一の対象物とは異なる距離にある第二の対象物に関するオブジェクトである。
【選択図】図4

Description

本発明は、携帯型情報処理装置、及び携帯型情報処理装置のためのコンピュータプログラムに関する。
近年、各種の情報処理装置が携帯可能な大きさにまで小型化され利用されている。そして、携帯可能な装置に関する提案がなされている(例えば、特許文献1参照)。特許文献1には、携帯ナビゲーション装置が開示されている。特許文献1の携帯ナビゲーション装置は、表示装置と、音楽を出力するスピーカー手段とを備える。携帯ナビゲーション装置では、まず、目的地の位置情報が入力される。その後、現在地から目的地までの経路を案内する経路画像が表示装置の画面上に表示され、目的地の現在方位と頭部正面方向の現在方位との角度差に応じて楽音の出力条件が変更される。これによって、楽音の音像が目的地の現在方位に定位される。
なお、外部の計測装置によって計測された頭部装着型表示装置の位置姿勢に応じた仮想空間画像を生成して、頭部装着型表示装置の表示部に出力する画像処理方法が提案されている(例えば、特許文献2参照)。特許文献2の画像処理方法によれば、視点位置から視線方向に延長した直線と交差するオブジェクトのうち、最も視点位置に近いオブジェクトが、注視されているオブジェクトとして特定される。そして、特定したオブジェクトが、第1の時間以上注視されている場合、当該オブジェクトに関する情報が表示部上に表示される。
特開2003−177033号公報 特開2005−38008号公報
ところで、ユーザが視認している外界に存在する対象物に関するオブジェクトを表示する携帯型情報処理装置を利用すると、ユーザは、多くのオブジェクトを取得することが可能で、便利である。ただし、ユーザが視認している外界には、多くの対象物が存在する。例えば、携帯型情報処理装置が存在している位置であるユーザの現在位置の近くにある対象物もあれば、遠くにある対象物もある。ここで、携帯型情報処理装置は、所定の場所に固定されて利用されるものではなく、ユーザによって携帯されて利用される場合が多い。そのため、携帯型情報処理装置では、その携帯性が考慮され、携帯型情報処理装置における表示部は、例えば固定して利用されるパーソナルコンピュータ等と比較すると、小さい場合が多い。このような携帯型情報処理装置の表示部に、例えば、現在位置からの距離に関わりなく、多数の対象物に関するオブジェクトが、雑多に表示されると、ユーザが表示されているオブジェクトを好適に視認することが、困難となる。
本発明は、ユーザが視認し易い状態で、ユーザが視認している外界に存在する対象物に関するオブジェクトを表示する携帯型情報処理装置、及び携帯型情報処理装置のためのコンピュータプログラムを提供することを目的とする。
上記従来の課題に鑑みなされた本発明の一側面は、ユーザが視認している外界に存在する対象物に関するオブジェクトそれぞれを、前記外界における前記対象物それぞれの位置に対応して配置した状態で表示する携帯型情報処理装置であって、前記オブジェクトを表示する表示部と、前記携帯型情報処理装置の位置を示す位置情報を取得する位置取得部と、前記ユーザの頭部の上下方向の傾きを示す傾斜角情報を取得する傾斜角取得部と、前記位置取得部で取得された前記位置情報に従って、前記表示部に表示させる前記オブジェクトそれぞれを取得する対象取得手段と、前記位置取得部で取得された前記位置情報によって示される前記位置から、前記対象取得手段で取得された前記オブジェクトに関する対象物までの距離を、前記対象物毎に決定する距離決定手段と、前記距離決定手段で決定された前記対象物毎の各距離のうち、前記傾斜角取得部で取得された前記傾斜角情報に対応した所定の距離にある第一の対象物に関する第一のオブジェクトの前記表示部における視認性と、前記第一の対象物とは異なる距離にある第二の対象物に関する第二のオブジェクトの前記表示部における視認性と、を異ならせるオブジェクト処理手段と、前記第一のオブジェクト及び前記第二のオブジェクトを前記表示部に表示させる表示制御手段と、を備える携帯型情報処理装置である。
これによれば、傾斜角情報に対応した所定の距離にある第一の対象物に関する第一のオブジェクトと、これとは異なる距離にある第二の対象物に関する第二のオブジェクトとの視認性を異ならせて表示することができる。ユーザは、第一のオブジェクトと、第二のオブジェクトとを、好適に区別して視認することができる。
この携帯型情報処理装置は、他の構成をさらに含む携帯型情報処理装置とすることもできる。前記オブジェクト処理手段は、前記傾斜角取得部で取得された前記傾斜角情報が仰角を示す場合、前記距離決定手段で決定された前記対象物までの距離が、前記位置取得部で取得された前記位置情報によって示される前記位置を基準とした所定の第一の距離範囲に含まれる前記第一の対象物に関する前記第一のオブジェクトの前記表示部における視認性と、前記第一の距離範囲に含まれない前記第二の対象物に関する前記第二のオブジェクトの前記表示部における視認性と、を異ならせ、前記傾斜角取得部で取得された前記傾斜角情報が俯角を示す場合、前記距離決定手段で決定された前記対象物までの距離が、前記位置取得部で取得された前記位置情報によって示される前記位置を基準とした所定の範囲であって、前記第一の距離範囲より前記位置情報によって示される前記位置に接近している第二の距離範囲に含まれる前記第一の対象物に関する前記第一のオブジェクトの前記表示部における視認性と、前記第二の距離範囲に含まれない前記第二の対象物に関する前記第二のオブジェクトの前記表示部における視認性と、を異ならせる、ようにしてもよい。これによれば、傾斜角情報が仰角を示す場合、つまりユーザが上を向いて遠くを視認している場合、第一の距離範囲にある第一の対象物に関する第一のオブジェクトに対して、第二のオブジェクトの視認性を異ならせることができる。また、傾斜角情報が俯角を示す場合、つまりユーザが下を向いて近くを視認している場合、第一の距離範囲より携帯型情報処理装置の位置に接近している第二の距離範囲にある第一の対象物に関する第一のオブジェクトに対して、第二のオブジェクトの視認性を異ならせることができる。
また、角度についての角度範囲と距離についての距離範囲との関係が定められた角度距離情報に従い、前記傾斜角取得部で取得された前記傾斜角情報によって示される前記ユーザの頭部の上下方向の傾きの角度を含む前記角度範囲に関係付けられた前記距離範囲を、前記角度距離情報によって特定する角度距離特定手段を備え、前記オブジェクト処理手段は、前記距離決定手段で決定された前記対象物毎の各距離のうち、前記角度距離特定手段によって特定された前記距離範囲にある前記第一の対象物に関する前記第一のオブジェクトの前記表示部における視認性と、前記角度距離特定手段によって特定された前記距離範囲にない前記第二の対象物に関する前記第二のオブジェクトの前記表示部における視認性と、を異ならせる、ようにしてもよい。これによれば、角度距離情報に従い、ユーザの頭部の上下方向の傾きに対応する距離範囲を特定し、第一のオブジェクトと第二のオブジェクトとの視認性を異ならせることができる。
また、前記オブジェクト処理手段は、前記第二のオブジェクトの前記表示部における透明度が、前記第一のオブジェクトの前記表示部における透明度と比較して高い状態とする、ようにしてもよい。これによれば、透明度の変化によって視認性を異ならせることができる。ユーザは、第一のオブジェクトと、第二のオブジェクトとを、透明度の違いによって好適に区別して視認することができる。
また、前記オブジェクト処理手段は、前記第一のオブジェクト及び前記第二のオブジェクトが、前記外界における前記第一の対象物及び前記第二の対象物それぞれの位置に対応して配置されたとき、前記第一のオブジェクト及び前記第二のオブジェクトが前記表示部に重なって表示されることとなる場合、前記第一のオブジェクト及び前記第二のオブジェクトを、前記表示部の表示領域の上下方向にずらして配置する、ようにしてもよい。これによれば、第一のオブジェクトと、第二のオブジェクトとを上下方向にずらして、さらに好適に区別して視認させることができる。
また、前記ユーザの顔面が向いている方位を示す方位情報を取得する方位取得部と、前記方位取得部で取得された前記方位情報に従って、前記対象取得手段で取得された前記オブジェクトから、前記表示部に表示させる前記オブジェクトそれぞれをさらに選択する対象選択手段と、を備え、前記距離決定手段は、前記位置取得部で取得された前記位置情報によって示される前記位置から、前記対象取得手段で取得され且つ前記対象選択手段で選択された前記オブジェクトに関する対象物までの距離を、前記対象物毎に決定する、ようにしてもよい。これによれば、距離を決定するオブジェクトを選択し、効率よく距離を決定するための処理を実行することができる。
また、前記位置取得部で取得された前記位置情報によって示される前記位置を含む全方位における所定の範囲の地図を示す地図情報を取得する地図情報取得手段を備え、前記表示制御手段は、さらに、前記地図情報と、前記方位情報に対応し且つ前記ユーザの視認範囲とされる範囲を示す範囲情報と、を前記表示部に表示する、ようにしてもよい。これによれば、位置取得部で取得された位置情報によって示される位置を基準として、ユーザの視認範囲に対応した範囲をユーザに認識させることができる。
本発明の他の側面は、ユーザが視認している外界に存在する対象物に関するオブジェクトそれぞれを、前記外界における前記対象物それぞれの位置に対応して配置した状態で表示し、前記オブジェクトを表示する表示部と、自装置の位置を示す位置情報を取得する位置取得部と、前記ユーザの頭部の上下方向の傾きを示す傾斜角情報を取得する傾斜角取得部と、を備える携帯型情報処理装置を制御するコンピュータが読み取り可能なコンピュータプログラムであって、前記コンピュータを、前記位置取得部で取得された前記位置情報に従って、前記表示部に表示させる前記オブジェクトそれぞれを取得する対象取得手段と、前記位置取得部で取得された前記位置情報によって示される前記位置から、前記対象取得手段で取得された前記オブジェクトに関する対象物までの距離を、前記対象物毎に決定する距離決定手段と、前記距離決定手段で決定された前記対象物毎の各距離のうち、前記傾斜角取得部で取得された前記傾斜角情報に対応した所定の距離にある第一の対象物に関する第一のオブジェクトの前記表示部における視認性と、前記第一の対象物とは異なる距離にある第二の対象物に関する第二のオブジェクトの前記表示部における視認性と、を異ならせるオブジェクト処理手段と、前記第一のオブジェクト及び前記第二のオブジェクトを前記表示部に表示させる表示制御手段と、して機能させるためのコンピュータプログラムである。
これによれば、本発明の一側面における携帯型情報処理装置を実現することができる。なお、このコンピュータプログラムは、上述した構成をさらに含む携帯型情報処理装置のためのコンピュータプログラムとすることもできる。
本発明によれば、ユーザが視認し易い状態で、ユーザが視認している外界に存在する対象物に関するオブジェクトを表示する携帯型情報処理装置、及び携帯型情報処理装置のためのコンピュータプログラムを得ることができる。
携帯型情報処理装置を示す図であって、携帯型情報処理装置を構成する、ヘッドマウントディスプレイ及びシステムボックスのブロック構成図である。 ヘッドマウントディスプレイ及びシステムボックスの外観図であって、ヘッドマウントディスプレイがユーザに装着された状態を示す図である。 携帯型情報処理装置で実行されるメイン処理のフローチャートである。 頭部の傾斜角が仰角である場合において画像を視認している状態を示す図である。 頭部の傾斜角が俯角である場合において画像を視認している状態を示す図である。 表示画像作成処理のフローチャートである。 オブジェクト同士が重なっている状態を示す図である。 小マップ作成処理のフローチャートである。 角度範囲と距離範囲とが関係付けられた角度距離情報の概念を示す図である。
本発明を実施するための実施形態について、図面を用いて説明する。本発明は、以下に記載の構成に限定されるものではなく、同一の技術的思想において種々の構成を採用することができる。例えば、以下に示す構成の一部は、省略し又は他の構成等に置換してもよい。また、他の構成を含むようにしてもよい。
<携帯型情報処理装置>
携帯型情報処理装置1は、図1に示すように、ヘッドマウントディスプレイ(以下、「HMD」ともいう。)10と、システムボックス50とで構成されている。HMD10とシステムボックス50とは、図2に示すように、所定の信号ケーブル80によって通信可能に接続されている。HMD10は、例えばシースルー型のHMDである。ユーザは、図2に示す状態において、HMD10で表示されている画像を視認しつつ、ユーザが存する外界の像を、表示される画像と重ねて視認することができる。HMD10は、通常の眼鏡と同様のフレーム構造12を有する。HMD10は、フレーム構造12によって、ユーザの顔に支持される。フレーム構造12の所定の位置には、画像表示部14が取り付けられている。画像表示部14は、ユーザが視認する画像を、ユーザの眼、例えば図2に基づけば、左眼に表示する。画像表示部14は、フレーム構造12に取り付けられた状態において、HMD10を装着したユーザの左眼と略同一の高さとなる位置に配置されている。画像表示部14には、ハーフミラー16が固定されている。
HMD10は、画像表示部14等の他、図1に示すように、画像信号受信部18と、傾斜角取得部20と、傾斜角情報送信部22と、方位取得部24と、方位情報送信部26とを備える。画像信号受信部18は、後述するようにシステムボックス50で作成され、システムボックス50から送信されてくる、所定の画像を示す画像信号を受信する。画像表示部14は、網膜走査型ディスプレイによって構成される。網膜走査型ディスプレイは、画像信号受信部18で受信された画像信号に応じた画像光を二次元走査する。画像表示部14は、その走査された画像光をユーザの左眼に導き網膜上に画像を形成する。画像表示部14から出射された画像光は、ユーザの左眼前方の位置に配置されたハーフミラー16で反射して、左眼に導かれる。HMD10を装着しているユーザは、このようにして、所定の画像を視認する。画像表示部14は、網膜走査型ディスプレイの他、液晶ディスプレイ、有機EL(Organic Electroluminescence)ディスプレイその他の装置を用いた構成とすることもできる。
傾斜角取得部20は、例えば加速度センサによって構成される。傾斜角取得部20は、図2に示すようにユーザの頭部に装着されたHMD10の上下方向の傾きについて、水平面(図4及び図5に「水平」と記載の点線参照)とのなす角を示す傾斜角情報を検出し取得する。傾斜角取得部20によって取得される傾斜角情報は、HMD10が図2に示すようにユーザの頭部に支持され、水平な状態に維持されたときを基準の0°とした角度を示すように設定されている。図2に示すようにHMD10を装着したユーザが、例えば上方にある対象物を視認するために、頭部を上下方向の上向きに傾けると、これに対応してHMD10も傾く。同様に、HMD10を装着したユーザが、例えば下方にある対象物を視認するために、頭部を上下方向の下向きに傾けると、これに対応してHMD10も傾く。従って、傾斜角取得部20によって取得される傾斜角情報は、ユーザの頭部の上下方向の傾きについて、水平面とのなす角を示す情報とみなされ、このような情報として取り扱うことができる。傾斜角情報送信部22は、傾斜角取得部20で取得された傾斜角情報を、システムボックス50に送信する通信インターフェースである。傾斜角情報送信部22には、信号ケーブル80が接続される。傾斜角情報は、傾斜角情報送信部22から信号ケーブル80を介してシステムボックス50に送信される。
方位取得部24は、例えば磁気センサによって構成される。方位取得部24は、図2に示すようにユーザの頭部に装着されたHMD10が向いている方位(方角)を示す方位情報を検出し取得する。図2に示すようにHMD10を装着したユーザが、例えば南西にある対象物を視認するために、南西の方角を向くと、これに対応して、HMD10の向きも南西となる。従って、方位取得部24によって取得される方位情報は、ユーザの顔面が向いている方位を示す情報とみなされ、このような情報として取り扱うことができる。方位情報送信部26は、方位取得部24で取得された方位情報を、システムボックス50に送信する通信インターフェースである。方位情報送信部26には、信号ケーブル80が接続される。方位情報は、方位情報送信部26から信号ケーブル80を介してシステムボックス50に送信される。なお、傾斜角情報送信部22及び方位情報送信部26は、ハードウェア的に一つの通信インターフェースとしてもよい。一つの通信インターフェースとした場合、部品点数を少なくし、HMD10の構成をシンプルにすることができる。
システムボックス50は、携帯型情報処理装置1が利用される場合、ユーザの腰等に取り付けられる。システムボックス50は、制御部52と、GPS通信部54と、傾斜角情報受信部56と、方位情報受信部58と、無線通信部60と、画像信号送信部62と、操作部64と、電源スイッチ66とを備える。これら各部は、図2に示すように、システムボックス50を構成する筐体の内部に収納されている。制御部52は、携帯型情報処理装置1を制御し、携帯型情報処理装置1で実行される各種の処理を実行する。制御部52は、ハードウェア的には、例えば、CPUとROMとRAMとを含む。CPUは、演算処理を実行する。ROMは、後述する図3,図6及び図8に示す各処理のためのコンピュータプログラムを含む各種の処理のためのコンピュータプログラムを記憶する。RAMは、CPUがROMに記憶されたコンピュータプログラムを実行する際の作業領域となる。また、制御部52は、グラフィックス・プロセッシング・ユニット(以下、「GPU」ともいう。)と、VRAM(Video RAM)とを含む。GPUは、所定の画像データに対して再生処理を実行し、画像データによって示される画像を作成する。VRAMは、作成された画像を記憶する。制御部52において、例えば、CPUは、ROMに記憶されたコンピュータプログラムを、RAM上に読み出し、読み出したコンピュータプログラムをRAM上で実行する。これによって、各種の機能が実行される。従って、制御部52は、各種の機能手段を構成する。
GPS通信部54は、GPS衛星から位置情報(GPS情報)を受信し取得する。位置情報は、HMD10とシステムボックス50とから構成される携帯型情報処理装置1が存する現在位置を示す。傾斜角情報受信部56は、HMD10の傾斜角情報送信部22から信号ケーブル80を介して送信されてくる傾斜角情報を受信する通信インターフェースである。方位情報受信部58は、HMD10の方位情報送信部26から信号ケーブル80を介して送信されてくる方位情報を受信する通信インターフェースである。傾斜角情報受信部56及び方位情報受信部58には、信号ケーブル80が接続される。なお、傾斜角情報受信部56及び方位情報受信部58は、ハードウェア的に一つの通信インターフェースとしてもよい。一つの通信インターフェースとした場合、部品点数を少なくし、システムボックス50の構成をシンプルにすることができる。無線通信部60は、携帯型情報処理装置1の外部に設けられている所定の装置と、無線通信を実行するための通信インターフェースである。例えば、無線通信部60は、データベース装置90にアクセスし、データベース装置90から所定のデータ、例えばオブジェクトを含むオブジェクトデータを受信する。
画像信号送信部62は、制御部52によって作成され記憶されている画像を含む画像信号を、HMD10に送信する通信インターフェースである。画像信号送信部62から送信された画像信号は、HMD10の画像信号受信部18で受信される。操作部64は、例えば所定のキーによって構成される。操作部64は、システムボックス50に対する所定の指令を入力するための入力インターフェースである。ユーザは、所定の指令を入力する際、操作部64を操作する。電源スイッチ66は、携帯型情報処理装置1への電源の供給を開始し遮断させるためのスイッチである。電源スイッチ66が入れられた場合、システムボックス50に、図1及び図2には図示されていないバッテリーから電源が供給される。バッテリーからの電源は、信号ケーブル80と同様に配置された電源ケーブルを介して、HMD10にも供給される。一方、電源スイッチ66が切られた場合、システムボックス50及び/又はHMD10へのバッテリーからの電源供給は遮断される。
データベース装置90は、地理的情報が登録されたデータベースを記憶する装置である。例えば、所定の地理的な位置に存在する対象物に関するオブジェクト、その対象物が存在する位置の緯度と経度とで構成される位置情報、その対象物に関する画像(写真)データ、その対象物の説明情報等が関連付けられたオブジェクトデータが登録されている。対象物には、例えば、観光スポットなどの所定の場所又は建造物、ショップ、道路(街道)等が含まれる。対象物に関するオブジェクトとしては、対象物のサムネイル画像又は対象物の名称等が例示される。なお、以下の説明では、オブジェクトが、対象物のサムネイル画像である場合を例に説明する。データベース装置90は、地図データを記憶している。
<携帯型情報処理装置で実行される処理>
携帯型情報処理装置1で実行される処理について、図3に示すメイン処理と、図6に示す表示画像作成処理と、図8に示す小マップ作成処理とを説明する。
(メイン処理)
図3に示すメイン処理は、HMD10及びシステムボックス50の電源が入れられた場合に開始される。ユーザが、操作部64を操作し、メイン処理の開始のための指令を入力した場合に開始されるようにしてもよい。メイン処理を開始した制御部52は、方位取得部24によって検出され取得される方位情報を取得する(S100)。制御部52は、方位情報受信部58を制御して方位情報を受信し、これを取得する。方位情報は、方位情報送信部26によって送信される。ここで取得される方位情報は、S100実行時点での、ユーザの頭部に装着されたHMD10が向いている方位を示している。この方位は、上述した通り、S100実行時点での、ユーザの顔面が向いている方位を示すものとして取り扱われる。
制御部52は、傾斜角取得部20によって検出され取得される傾斜角情報を取得する(S102)。制御部52は、傾斜角情報受信部56を制御して傾斜角情報を受信し、これを取得する。傾斜角情報は、傾斜角情報送信部22によって送信される。ここで取得される傾斜角情報は、ユーザの頭部に装着された状態のHMD10の上下方向の傾きについて、S102実行時点での、水平面とのなす角を示している。この傾きは、上述した通り、S102実行時点におけるユーザの頭部の上下方向の傾きについて、S102実行時点での水平面とのなす角を示すものとして取り扱われる。続けて制御部52は、GPS通信部54を制御し、位置情報を取得する(S104)。ここで位置情報は、S104実行時点において、携帯型情報処理装置1(HMD10及びシステムボックス50)が存する現在位置を示している。
例えば、S100で取得された方位情報が、方位「南西」を示しているとする。S102で取得された傾斜角情報が、傾き「15°」又は「−15°」(プラスは仰角を示し、マイナスは俯角を示す。)を示しているとする。S104で取得された位置情報が、「北緯42°、西経75°」を示しているとする。これら情報によれば、携帯型情報処理装置1は、北緯42°、西経75°の位置に存し、HMD10は、水平面に対して上下方向の上向きに15°又は下向きに15°傾斜し、南西を向いていることが特定される。つまり、携帯型情報処理装置1を所持したユーザは、北緯42°、西経75°の位置で、南西を向いて、15°仰角した方向又は15°俯角した方向に視線を向けていることが特定される。
S100〜S104を実行した後、制御部52は、無線通信部60を制御し、データベース装置90にアクセスする。制御部52は、S104で取得された位置情報に基づき、現在位置の周囲に存する対象物を特定し、特定された対象物についてデータベース装置90に登録されているオブジェクトデータを取得する(S106)。オブジェクトデータは、上述した通り、特定された対象物に関するオブジェクトを含む。従って、S106によれば、特定された対象物に関するオブジェクトを含むオブジェクトデータが取得される。現在位置の周囲は、現在位置を中心として、半径X(Xは、任意の数)メートルというように設定される。例えば、視点高さ160cmにおける地平線までの距離である4,500mと設定される。複数の対象物が特定された場合、制御部52は、特定された全ての対象物それぞれについて、オブジェクトデータを取得する。
制御部52は、S104で取得された位置情報によって示される現在位置に従って、この現在位置と、S106で取得されたオブジェクトデータに関する対象物との相対位置を決定し、この対象物までの距離を決定する(S108)。制御部52は、S106で複数のオブジェクトデータが取得されていた場合、取得された全てについて、相対位置及び距離をそれぞれ決定する。制御部52は、S104で取得された位置情報と、S106で取得されたオブジェクトデータに含まれる位置情報とを用いて、S108を実行する。例えば、制御部52は、前述の二個の位置情報から、処理の対象となっているオブジェクトデータに関する対象物は、現在位置を基準としたとき、南の方向に存在していると決定する。同様に、制御部52は、前述の二個の位置情報から、処理の対象となっているオブジェクトデータに関する対象物までの距離は、現在位置から100m離れていると決定する。このS108によれば、S106で取得されたオブジェクトデータに関する対象物それぞれが、現在位置から、何れの方位にどれだけ離間した位置に存在しているかが特定される。この相対位置は、後述する図6のS202において利用される。
続けて制御部52は、表示画像作成処理を実行する(S110)。表示画像作成処理の説明は、後述する。制御部52は、S110の表示画像作成処理で作成された画像データによって示される画像を表示する(S112)。S112で制御部52を構成するGPUは、この画像データを再生処理し、画像データによって示される画像を作成し、同じく制御部52を構成するVRAMに記憶する。制御部52は、画像信号送信部62を制御し、VRAMに記憶されている画像を示す画像信号を、HMD10に送信する。送信された画像信号は、画像信号受信部18で受信される。画像表示部14は、受信された画像信号によって示される画像を、上述した方法で表示する。これによって、ユーザは、表示された画像を視認する。例えば、ユーザの頭部の傾斜角が仰角であって、S102で取得された傾斜角情報が仰角を示すものであった場合、ユーザは、図4に示すような仰角の状態で、同図に示すような画像を視認する。また、ユーザの頭部の傾斜角が俯角であって、S102で取得された傾斜角情報が俯角を示すものであった場合、ユーザは、図5に示す状態で、同図に示すような画像を視認する。なお、図4及び図5に示すユーザが視認する画像において、背景としての街並みを示す風景は、これら図に例示する7個のオブジェクト102〜114に関する7個の対象物が存在している外界の像であって、ユーザがハーフミラー16を通して視認している外界の像を示すものである。
S112を実行した後、制御部52は、終了を示す指令が入力されているかについて判断する(S114)。終了を示す指令は、電源スイッチ66が切られHMD10に対する電源の供給が遮断されることによって入力される。また、終了を示す指令は、ユーザが操作部64を操作することによって入力される。終了を示す指令が入力されていない場合(S114:No)、制御部52は、処理をS100に戻し、上述した各処理を繰り返して実行する。一方、制御部52は、終了を示す指令が入力されている場合(S114:Yes)、メイン処理を終了する。なお、図4又は図5に示すような画像を視認しているユーザは、操作部64を操作し、この画像に含まれるオブジェクト102〜114の何れかを選択することができる。制御部52は、例えば、オブジェクト102〜114から選択されたオブジェクトに関する対象物の説明情報等を、画像表示部14で表示する。ユーザは、対象物の説明情報等を視認する。
(表示画像作成処理)
表示画像作成処理は、図4及び図5に例示するオブジェクト102〜114のようなオブジェクト及び小マップ120を含む画像を作成するための処理である。図3に示すメイン処理のS110で、図6に示す表示画像作成処理を開始した制御部52は、小マップ作成処理を実行する(S200)。小マップ作成処理の説明は、後述する。続けて制御部52は、図3のS106で取得されたオブジェクトデータを対象として、図3のS100で取得された方位情報から、ユーザの正面方向にある対象物に関するオブジェクトデータを選択する(S202)。S202でオブジェクトデータは、図3のS108で決定された個々の対象物に対する相対位置に従い且つユーザの視認範囲(図4及び図5で「視認範囲」と記載の両矢の矢印参照)とされる範囲に従って選択される。ユーザの視認範囲とされる範囲は、通常の人間が視認できる範囲とされている視野範囲である。例えば、図3のS100〜S104で取得された各情報によって、携帯型情報処理装置1を所持したユーザが、北緯42°、西経75°の位置で、南西を向いて、15°仰角した方向又は15°俯角した方向に視線を向けていることが特定されているとする。S202では、このような状態でユーザが視認できるであろう範囲が、図3のS100で取得された方位情報に対応し且つユーザの視認範囲とされる範囲として設定される。なお、ユーザの視認範囲(人間の視野範囲)と、画像表示部14で画像を表示することができる表示領域(画角範囲)とが相違する場合(視認範囲>表示領域)もある。従って、S202では、画像表示部14の表示領域(画角範囲)を考慮するようにしてもよい。この場合、ユーザの視認範囲とされる範囲のうち、画像表示部14の表示領域に対応した範囲が特定される。S202の範囲は、この特定された範囲に基づいて設定される。制御部52は、設定された範囲内に含まれる位置情報を含むオブジェクトデータを、図3のS106で取得されたオブジェクトデータから選択する。
S202を実行した後、制御部52は、S202で選択されたオブジェクトデータに含まれるオブジェクトを、S108において決定された相対位置に従い、外界における対象物の位置に対応させて配置する(S204)。そして、制御部52は、S200の小マップ作成処理で作成された小マップ120を含み、S202で選択されたオブジェクトデータに含まれるオブジェクトが配置された画像を示す画像データを作成する。小マップ120は、図4及び図5に示すような地図画像である。小マップ120の説明は、後述する。なお、S202で選択されたオブジェクトデータが、後述するS208の判断が肯定(S208:Yes)されるような関係である場合、S204では、次のような画像データが作成される。つまり、S204では、現在位置からの距離が近い対象物に関するオブジェクトが手前に配置され、以降、距離が遠くなるに従い、後ろ側に重なった状態で各オブジェクトが配置された画像を示す画像データが作成される。
S205で制御部52は、S202で選択されたオブジェクトデータに関する対象物が、後述する図8に示す小マップ作成処理のS308にて決定される注目範囲の外に存在するかについて判断する。具体的には、制御部52は、図3のS108で決定された対象物までの距離と、S308にて決定される注目範囲の距離範囲とを比較する。対象物が注目範囲の外に存在する場合、制御部52は、S205の判断を肯定する(S205:Yes)。S205が肯定された場合(S205:Yes)、制御部52は、処理をS206に移行する。一方、対象物が注目範囲に存在する場合、制御部52は、S205の判断を否定する(S205:No)。S205が否定された場合(S205:No)、制御部52は、処理をS207に移行する。
S206で制御部52は、対象の対象物、すなわち、注目範囲の外に存在する対象物に関するオブジェクトの透明度を上昇させる。なお、オブジェクトの透明度を上昇させるための処理の例として、注目範囲に存在しないオブジェクトが表示される際の輝度が、注目範囲に存在するオブジェクトが表示される際の輝度よりも暗く設定される。本実施形態では、図2に示すように、ユーザは、ハーフミラー16で反射した画像光を視認する。そして、ユーザは、ハーフミラー16を通して外界の像も同時に視認する。外界の明るさは一定なので、輝度が暗く設定された注目範囲に存在しないオブジェクトは、注目範囲に存在するオブジェクトに対して、透明度が上昇したようにユーザに視認される。これによれば、注目範囲に存在する対象物に関するオブジェクトの視認性と、注目範囲に存在しない対象物のオブジェクトの視認性とを、異ならせることができる。具体的には、注目範囲に存在するオブジェクトの視認性を、注目範囲に存在しない対象物のオブジェクトの視認性と比較して向上させることができる。S206では、S204で作成された画像データが用いられる。その後、制御部52は、処理をS207に移行する。
S207で制御部52は、S202で選択された全てのオブジェクトデータに対して、S205の処理が実行されたかについて判断する。制御部52は、全てのオブジェクトデータに対して、S205の処理が実行された場合、S207の判断を肯定し(S207:Yes)、処理をS208に移行する。一方、制御部52は、S205の処理が実行されていないオブジェクトデータが残っている場合、S207の判断を否定し(S207:No)、処理をS205に戻す。S205〜S207の処理によって、注目範囲に存在に存在しない対象物が透明に見える画像データ、換言すれば、注目範囲に存在する対象物の視認性が向上した画像データが作成される。
続けて制御部52は、S204で作成された画像データによって示される画像におけるオブジェクトの配置において、オブジェクト同士が重なって表示されるかについて判断する(S208)。例えば、S204で作成された画像データが、図7のような状態とは異なり、オブジェクト同士が重ならない状態である場合、制御部52は、S208の判断を否定する(S208:No)。なお、S202で選択されたオブジェクトデータが一個である場合、S204で制御部52は、その一個のオブジェクトデータに含まれるオブジェクトを、S108において決定された相対位置に従い、外界における対象物の位置に対応させて配置し、S208の判断を否定(S208:No)する。S208が否定された場合(S208:No)、制御部52は、表示画像作成処理を終了し、処理を図3のS112に移行する。図3のS112では、S204で作成された画像データによって示される画像が表示される。一方、S204で作成された画像データが、図7のような状態である場合、制御部52は、オブジェクト同士が重なって表示されるとして、S208の判断を肯定する(S208:Yes)。例えば、図7では、オブジェクト102とオブジェクト104とは、重なっている。制御部52は、処理をS209に移行する。なお、図7のような状態である場合、S202では、図7に例示するような7個のオブジェクト102〜114をそれぞれ含む7個のオブジェクトデータが選択されている。S204では、7個のオブジェクト102〜114が、これらのオブジェクトデータに含まれるそれぞれの位置情報に従い、図7のように配置されている。図7に示すユーザが視認する画像において、背景としての街並みを示す風景は、この図に例示する7個のオブジェクト102〜114に関する7個の対象物が存在している外界の像であって、ユーザがハーフミラー16を通して視認している外界の像を示すものである。従って、図7において、背景としての街並みを示す風景は、実際には、S204で作成された画像データとは関連しないものである。
S208を実行した後、制御部52は、現在位置を基準として、近くにあるオブジェクトが下側で、遠くなるほど上側となるようにオブジェクトをずらして配置する(S209)。オブジェクトをずらす上下方向は、画像表示部14の表示領域の上下方向に一致する。S209では、S204で作成され、S206の処理が施された画像データが用いられる。また、S209では、この画像データによって示される画像において、重なり合うオブジェクト同士が対象となる。このとき、注目範囲に存在する対象物があれば、それらの対象物に関するオブジェクトは上下方向の中心近傍に配置される。なお、左右方向の位置は、S204の状態に維持される。そのため、この左右方向に対応する方向について、オブジェクトは、S204の状態が維持され、外界における対象物の位置に対応させて配置されている。そして、注目範囲に存在する対象物よりも近い距離に位置する対象物に関するオブジェクトが下方に、遠い距離に位置する対象物に関するオブジェクトが上方に、それぞれ移動される。S209で実行される処理を、便宜的に図7を用いて説明する。図7に示す各オブジェクト102〜114のうち、例えば、オブジェクト108とオブジェクト110との位置関係は、次の通りとする。つまり、携帯型情報処理装置1が存する現在位置を基準としたとき、オブジェクト110に関する対象物は、オブジェクト108に関する対象物より近い位置に存在している。このような場合、S209によれば、オブジェクト108及びオブジェクト110は、図7に示すように、オブジェクト108がオブジェクト110に対して上側となるようにずらして配置される。
S209を実行した後、制御部52は、表示画像作成処理を終了し、処理を図3のS112に移行する。この場合、図3のS112では、S204、S206及びS209を経て作成された画像データによって示される画像が表示される。例えば、図3のS102で取得された傾斜角情報が仰角を示している場合、S206及びS209が実行されることで、図4に示すような画像を示す画像データが作成され、図3のS112で、図4のように表示される。つまり、注目範囲に存在しないオブジェクトは、透明度が上昇されている。図4では、オブジェクト102,106,110,114の透明度が上昇されている。そして、重なって表示される各オブジェクトは、現在位置から近くにあるオブジェクトを下側とし、遠くになるほど上側に配置されている。ユーザは、このような配置とされた画像を視認する。また、図3のS102で取得された傾斜角情報が俯角を示している場合、S206及びS209が実行されることで、図5に示すような画像を示す画像データが作成され、図3のS112で、図5のように表示される。つまり、注目範囲に存在しないオブジェクトは、透明度が上昇されている。図5では、オブジェクト104,108,112の透明度が上昇されている。そして、重なって表示される各オブジェクトは、現在位置から近くにあるオブジェクトを下側とし、遠くになるほど上側に配置されている。ユーザは、このような配置とされた画像を視認する。なお、図4及び図5に示すオブジェクト102〜114を含む画像は、小マップ120を含む。
(小マップ作成処理)
小マップ作成処理は、図4及び図5に示す小マップ120を作成するための処理である。図6に示す表示画像作成処理のS200で、図8に示す小マップ作成処理を開始した制御部52は、無線通信部60を制御し、データベース装置90にアクセスする。制御部52は、図3のS104で取得された位置情報に基づき、現在位置の周囲の地図画像(地図情報)を示す地図データを取得する(S300)。現在位置の周囲とは、現在位置を含み、現在位置を含む全方位における所定の範囲である。制御部52は、S300で取得された地図データから、現在位置を含む周囲の地図画像である小マップ120を作成する(S302)。制御部52は、図3のS104で取得された位置情報に基づき、S302で作成された小マップ120上に、ユーザの現在位置を示す現在位置情報122を配置する(S304)。
制御部52は、現在位置情報122が配置された小マップ120上に、範囲情報124を配置する(S306)。範囲情報124は、図3のS100で取得された方位情報に対応したユーザの視認範囲とされる範囲を示す。つまり、範囲情報124は、図4のS202で設定される範囲に一致し、上述したように設定される。続けて制御部52は、図3のS102で取得された傾斜角情報に基づき、S306における範囲情報124上に注目範囲情報126を配置する(S308)。制御部52は、注目範囲情報126を配置するに際し、注目範囲情報126によって示される注目範囲を決定する。ここで、注目範囲とは、傾斜角情報に対応した所定の距離に関連する範囲である。人間は、遠くを視認するとき、顔面が上方を向くように頭部を傾斜させる。従って、傾斜角情報が、仰角を示すものであるとき、ユーザは遠くを視認していると判定することができる。逆に、人間は、近くを視認しようとするとき、顔面が下方を向くように頭部を傾斜させる。従って、傾斜角情報が、俯角を示しているとき、ユーザは、比較的近い位置又は近距離にある対象物を視認していると判定することができる。よって、図3のS102で取得された傾斜角情報が仰角を示している場合、制御部52は、現在位置を基準とした所定の第一の距離範囲を注目範囲とする。これに対し、図3のS102で取得された傾斜角情報が俯角を示している場合、制御部52は、現在位置を基準とした所定の第二の距離範囲を注目範囲とする。第一の距離範囲と第二の距離範囲とについて、第二の距離範囲は、第一の距離範囲より現在位置に接近した範囲である。図3のS102で取得された傾斜角情報が水平(0°)を示している場合については、仰角を示していた場合又は俯角を示していた場合の何れか一方と同様に処理されるようにしてもよい。また、S208の処理が省略されるようにしてもよい。
注目範囲情報126は、範囲情報124によって示される範囲のうち、透明にされていないオブジェクトに関する対象物が存在している範囲を示すものである。なお、図4及び図5において、注目範囲情報126は、ハッチングされた部分である。例えば、傾斜角情報が仰角を示すものであった場合、注目範囲情報126が配置された範囲情報124は、図4に示す態様となる。これを視認したユーザは、透明ではないオブジェクト104,108,112が、現在位置から遠くにあることを認識することができる。一方、傾斜角情報が俯角を示すものであった場合、注目範囲情報126が配置された範囲情報124は、図5に示す態様となる。これを視認したユーザは、透明ではないオブジェクト102,106,110,114が、現在位置から近くにあることを認識することができる。
S308を実行した後、制御部52は、小マップ作成処理を終了し、処理を図6のS202に移行する。図6のS204では、オブジェクトの他、小マップ作成処理で作成された小マップ120を含む画像を示す画像データが作成される。
以上、本実施形態の携帯型情報処理装置1によれば、ユーザに対して、例えば図4又は図5に示すような状態でオブジェクト102〜114が配置された画像を表示することができる。図4に示すようにユーザが上を向いて遠くを視認している場合、現在位置から遠くの注目範囲にある対象物に関するオブジェクト104,108,112が視認し易くなるように優先して表示される。一方、図5に示すようにユーザが下を向いて近くを視認している場合、現在位置から近くの注目範囲にある対象物に関するオブジェクト102,106,110,114が視認し易くなるように優先して表示される。従って、ユーザは、優先して表示されるオブジェクトを好適に視認することが可能で、目的のオブジェクトを好適に探し出すことができる。なお、図7に示すように、オブジェクト102〜114が、視認性に関し同一の状態で表示された場合、オブジェクト102〜114のそれぞれは、重なった状態となり、ユーザが目的のオブジェクトを探し出すことが困難となる。
また、携帯型情報処理装置1によれば、ユーザは、図4又は図5に示すようにオブジェクト102〜114と共に表示される現在位置情報122を含む小マップ120によって、現在位置を認識することができる。ユーザは、注目範囲情報126が配置された範囲情報124を含む小マップ120によって、優先して視認することができるオブジェクトに関する対象物の位置と、現在位置との相対的な位置関係を認識することができる。
本実施形態は、次のようにすることもできる。上記では、携帯型情報処理装置1は、HMD10とシステムボックス50とによって構成された。この他、HMD10とシステムボックス50とは、一体で構成してもよい。具体的に、画像表示部14を構成する図2に示すような筐体の内部に、システムボックス50が備える各部が内蔵された構成とすることもできる。この場合、携帯型情報処理装置は、一体的に構成されたHMDとなる。また、HMD10を含まない構成の携帯型情報処理装置としてもよい。つまり、携帯型情報処理装置は、携帯可能な大きさで、所定の表示部を備え、演算処理を実行可能な情報処理装置であればよい。携帯型情報処理装置は、HMDの他、携帯電話機、PDA(Personal Digital Assistant)であってもよい。また、携帯電話機及びPDAが融合した、いわゆるスマートフォンであってもよい。
上記では、注目範囲に存在するオブジェクトの視認性と、注目範囲の外に存在するオブジェクトの視認性とを異ならせる構成として、透明度を例に説明した。この他、例えば、オブジェクトのサイズを異ならせるようにしてもよい。この場合、上記において、透明度を向上させたオブジェクトの画像サイズが、透明度を向上させていないオブジェクトの画像サイズと比較し小さくなる。重なり合うオブジェクトの順序を変更させるようにしてもよい。この場合、現在位置からの距離に基づいた順序ではなく、透明度を向上させたオブジェクトに対して透明度を向上させていないオブジェクトが手前に配置される。
さらに、図6に示す小マップ作成処理のS308での注目範囲の決定は、図9に、その概念を示す角度距離情報に従い、決定するようにしてもよい。角度距離情報は、角度範囲と距離範囲との関係を定めたものである。図9に示すように角度距離情報において角度範囲と距離範囲とは、指数関数的に変化する関係を有する。角度距離情報について、具体的な角度範囲と距離範囲との関係を図9を参照して例示すると、角度範囲A「−10°〜0°」に対して距離範囲A「1m〜10m」が関係付けられ、角度範囲B「0°〜10°」に対して距離範囲B「10m〜100m」が関係付けられている。また、角度範囲C「10°〜20°」に対して距離範囲C「100m〜1000m」が関係付けられている。なお、角度範囲について、マイナスは俯角を示し、プラスは仰角を示す。距離範囲は、現在位置を基準とした位置を示す。例えば距離範囲が「100m〜1000m」は、現在位置から100m〜1000m離れた範囲である。この例では、角度範囲がプラスの方向に大きくなるにつれ、関係付けられる距離範囲の幅が大きくなるように設定されている。つまり、ユーザが遠くを視認しているような場合において、決定される注目範囲は、近くを見ている場合より広い範囲となるようにされている。このような設定は、上述した第一の距離範囲と第二の距離範囲についても同様とすることができる(第一の距離範囲の幅>第二の距離範囲の幅)。
角度距離情報は、テーブルの形式で構成される。角度距離情報は、制御部52がアクセス可能な場所に記憶されている。例えば、制御部52を構成するROMに記憶されている。この他、データベース装置90に記憶されていてもよい。データベース装置90に記憶されている場合、制御部52は、無線通信部60を制御し、データベース装置90にアクセスする。制御部52は、図6のS308において角度距離情報にアクセスする。角度距離情報にアクセスした制御部52は、図3のS102で取得された傾斜角情報によって示される傾き(ユーザの頭部の上下方向の傾きについて、水平面とのなす角)が、角度距離情報に定められた何れの角度範囲に含まれるかを特定する。次に、制御部52は、特定された角度範囲に関係付けられた距離範囲を特定する。制御部52は、現在位置を基準として、特定された距離範囲を注目範囲として決定する。具体的な処理について、上記で例示した角度距離情報に基づき説明する。図3のS102で取得された傾斜角情報による傾きは、15°であるとする。制御部52は、15°に従い、これを含む角度範囲C「10°〜20°」を特定する。次に、制御部52は、特定された角度範囲C「10°〜20°」に関係付けられた距離範囲C「100m〜1000m」を特定し、注目範囲として「100m〜1000m」を決定する。注目範囲を決定した後の処理については、上述した通りであり、その説明は省略する。
この他、携帯型情報処理装置1が、ナビゲーション機能を備えるようにしてもよい。図4を例として具体的に説明する。ユーザは、操作部64を操作し、ナビゲーション機能の開始のための指令を入力する。また、ユーザは、図4に示す画像を視認している状態で、表示されているオブジェクト102〜114のうちの一つを選択する。例えば、ユーザは、オブジェクト112を選択する。制御部52は、GPS通信部54によって取得される位置情報等を用いて、選択されたオブジェクト112に関する対象物を目的地としたナビゲーションを実行する。ユーザは、画像表示部14に表示される案内に従って進行する。
1 携帯型情報処理装置
10 HMD(ヘッドマウントディスプレイ)
14 画像表示部
18 画像信号受信部
20 傾斜角取得部
22 傾斜角情報送信部
50 システムボックス
52 制御部
54 GPS通信部
56 傾斜角情報受信部
60 無線通信部
62 画像信号送信部
80 信号ケーブル
90 データベース装置
102,104,106,108,110,112,114 オブジェクト

Claims (8)

  1. ユーザが視認している外界に存在する対象物に関するオブジェクトそれぞれを、前記外界における前記対象物それぞれの位置に対応して配置した状態で表示する携帯型情報処理装置であって、
    前記オブジェクトを表示する表示部と、
    前記携帯型情報処理装置の位置を示す位置情報を取得する位置取得部と、
    前記ユーザの頭部の上下方向の傾きを示す傾斜角情報を取得する傾斜角取得部と、
    前記位置取得部で取得された前記位置情報に従って、前記表示部に表示させる前記オブジェクトそれぞれを取得する対象取得手段と、
    前記位置取得部で取得された前記位置情報によって示される前記位置から、前記対象取得手段で取得された前記オブジェクトに関する対象物までの距離を、前記対象物毎に決定する距離決定手段と、
    前記距離決定手段で決定された前記対象物毎の各距離のうち、前記傾斜角取得部で取得された前記傾斜角情報に対応した所定の距離にある第一の対象物に関する第一のオブジェクトの前記表示部における視認性と、前記第一の対象物とは異なる距離にある第二の対象物に関する第二のオブジェクトの前記表示部における視認性と、を異ならせるオブジェクト処理手段と、
    前記第一のオブジェクト及び前記第二のオブジェクトを前記表示部に表示させる表示制御手段と、を備える携帯型情報処理装置。
  2. 前記オブジェクト処理手段は、
    前記傾斜角取得部で取得された前記傾斜角情報が仰角を示す場合、前記距離決定手段で決定された前記対象物までの距離が、前記位置取得部で取得された前記位置情報によって示される前記位置を基準とした所定の第一の距離範囲に含まれる前記第一の対象物に関する前記第一のオブジェクトの前記表示部における視認性と、前記第一の距離範囲に含まれない前記第二の対象物に関する前記第二のオブジェクトの前記表示部における視認性と、を異ならせ、
    前記傾斜角取得部で取得された前記傾斜角情報が俯角を示す場合、前記距離決定手段で決定された前記対象物までの距離が、前記位置取得部で取得された前記位置情報によって示される前記位置を基準とした所定の範囲であって、前記第一の距離範囲より前記位置情報によって示される前記位置に接近している第二の距離範囲に含まれる前記第一の対象物に関する前記第一のオブジェクトの前記表示部における視認性と、前記第二の距離範囲に含まれない前記第二の対象物に関する前記第二のオブジェクトの前記表示部における視認性と、を異ならせる、請求項1に記載の携帯型情報処理装置。
  3. 角度についての角度範囲と距離についての距離範囲との関係が定められた角度距離情報に従い、前記傾斜角取得部で取得された前記傾斜角情報によって示される前記ユーザの頭部の上下方向の傾きの角度を含む前記角度範囲に関係付けられた前記距離範囲を、前記角度距離情報によって特定する角度距離特定手段を備え、
    前記オブジェクト処理手段は、前記距離決定手段で決定された前記対象物毎の各距離のうち、前記角度距離特定手段によって特定された前記距離範囲にある前記第一の対象物に関する前記第一のオブジェクトの前記表示部における視認性と、前記角度距離特定手段によって特定された前記距離範囲にない前記第二の対象物に関する前記第二のオブジェクトの前記表示部における視認性と、を異ならせる、請求項1に記載の携帯型情報処理装置。
  4. 前記オブジェクト処理手段は、前記第二のオブジェクトの前記表示部における透明度が、前記第一のオブジェクトの前記表示部における透明度と比較して高い状態とする、請求項1から請求項3の何れか1項に記載の携帯型情報処理装置。
  5. 前記オブジェクト処理手段は、前記第一のオブジェクト及び前記第二のオブジェクトが、前記外界における前記第一の対象物及び前記第二の対象物それぞれの位置に対応して配置されたとき、前記第一のオブジェクト及び前記第二のオブジェクトが前記表示部に重なって表示されることとなる場合、前記第一のオブジェクト及び前記第二のオブジェクトを、前記表示部の表示領域の上下方向にずらして配置する、請求項1から請求項4の何れか1項に記載の携帯型情報処理装置。
  6. 前記ユーザの顔面が向いている方位を示す方位情報を取得する方位取得部と、
    前記方位取得部で取得された前記方位情報に従って、前記対象取得手段で取得された前記オブジェクトから、前記表示部に表示させる前記オブジェクトそれぞれをさらに選択する対象選択手段と、を備え、
    前記距離決定手段は、前記位置取得部で取得された前記位置情報によって示される前記位置から、前記対象取得手段で取得され且つ前記対象選択手段で選択された前記オブジェクトに関する対象物までの距離を、前記対象物毎に決定する、請求項1から請求項5の何れか1項に記載の携帯型情報処理装置。
  7. 前記位置取得部で取得された前記位置情報によって示される前記位置を含む全方位における所定の範囲の地図を示す地図情報を取得する地図情報取得手段を備え、
    前記表示制御手段は、さらに、前記地図情報と、前記方位情報に対応し且つ前記ユーザの視認範囲とされる範囲を示す範囲情報と、を前記表示部に表示する、請求項6に記載の携帯型情報処理装置。
  8. ユーザが視認している外界に存在する対象物に関するオブジェクトそれぞれを、前記外界における前記対象物それぞれの位置に対応して配置した状態で表示し、前記オブジェクトを表示する表示部と、自装置の位置を示す位置情報を取得する位置取得部と、前記ユーザの頭部の上下方向の傾きを示す傾斜角情報を取得する傾斜角取得部と、を備える携帯型情報処理装置を制御するコンピュータが読み取り可能なコンピュータプログラムであって、
    前記コンピュータを、
    前記位置取得部で取得された前記位置情報に従って、前記表示部に表示させる前記オブジェクトそれぞれを取得する対象取得手段と、
    前記位置取得部で取得された前記位置情報によって示される前記位置から、前記対象取得手段で取得された前記オブジェクトに関する対象物までの距離を、前記対象物毎に決定する距離決定手段と、
    前記距離決定手段で決定された前記対象物毎の各距離のうち、前記傾斜角取得部で取得された前記傾斜角情報に対応した所定の距離にある第一の対象物に関する第一のオブジェクトの前記表示部における視認性と、前記第一の対象物とは異なる距離にある第二の対象物に関する第二のオブジェクトの前記表示部における視認性と、を異ならせるオブジェクト処理手段と、
    前記第一のオブジェクト及び前記第二のオブジェクトを前記表示部に表示させる表示制御手段と、して機能させるためのコンピュータプログラム。
JP2010195199A 2010-08-31 2010-08-31 携帯型情報処理装置、及び携帯型情報処理装置のためのコンピュータプログラム Expired - Fee Related JP5360021B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010195199A JP5360021B2 (ja) 2010-08-31 2010-08-31 携帯型情報処理装置、及び携帯型情報処理装置のためのコンピュータプログラム
PCT/JP2011/069278 WO2012029647A1 (ja) 2010-08-31 2011-08-26 携帯型情報処理装置、携帯型情報処理装置のためのコンピュータプログラム、及び表示制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010195199A JP5360021B2 (ja) 2010-08-31 2010-08-31 携帯型情報処理装置、及び携帯型情報処理装置のためのコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2012053643A true JP2012053643A (ja) 2012-03-15
JP5360021B2 JP5360021B2 (ja) 2013-12-04

Family

ID=45772737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010195199A Expired - Fee Related JP5360021B2 (ja) 2010-08-31 2010-08-31 携帯型情報処理装置、及び携帯型情報処理装置のためのコンピュータプログラム

Country Status (2)

Country Link
JP (1) JP5360021B2 (ja)
WO (1) WO2012029647A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013205920A (ja) * 2012-03-27 2013-10-07 Seiko Epson Corp 頭部装着型表示装置
WO2014128810A1 (ja) 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ及び画像表示装置
JP2015521763A (ja) * 2012-08-14 2015-07-30 シャオミ・インコーポレイテッド 移動端末のデスクトップシステム、インタフェースインタラクション方法、装置、プログラム、及び記録媒体
JP2015228095A (ja) * 2014-05-30 2015-12-17 キヤノン株式会社 頭部装着型情報表示装置及び頭部装着型情報表示装置の制御方法
JP2016004340A (ja) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 情報配信システム、頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2016021094A (ja) * 2014-07-11 2016-02-04 ヤフー株式会社 情報表示装置、配信装置、情報表示方法および情報表示プログラム
JP6276434B1 (ja) * 2017-02-03 2018-02-07 株式会社コロプラ 仮想空間における移動を支援するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2018097683A (ja) * 2016-12-14 2018-06-21 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
JPWO2017104198A1 (ja) * 2015-12-14 2018-09-27 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002176661A (ja) * 2000-12-08 2002-06-21 Kawasaki Heavy Ind Ltd 画像表示装置
JP2004219664A (ja) * 2003-01-14 2004-08-05 Sumitomo Electric Ind Ltd 情報表示システム及び情報表示方法
JP2005134242A (ja) * 2003-10-30 2005-05-26 Cad Center:Kk ナビゲーションシステム、ナビゲーション装置、ナビゲーション方法、及びナビゲーションプログラム
JP2007134785A (ja) * 2005-11-08 2007-05-31 Konica Minolta Photo Imaging Inc 頭部装着型の映像表示装置
JP2008203940A (ja) * 2007-02-16 2008-09-04 Hitachi Ltd 立体地図表示システム、立体地図の表示方法、及びそのプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002176661A (ja) * 2000-12-08 2002-06-21 Kawasaki Heavy Ind Ltd 画像表示装置
JP2004219664A (ja) * 2003-01-14 2004-08-05 Sumitomo Electric Ind Ltd 情報表示システム及び情報表示方法
JP2005134242A (ja) * 2003-10-30 2005-05-26 Cad Center:Kk ナビゲーションシステム、ナビゲーション装置、ナビゲーション方法、及びナビゲーションプログラム
JP2007134785A (ja) * 2005-11-08 2007-05-31 Konica Minolta Photo Imaging Inc 頭部装着型の映像表示装置
JP2008203940A (ja) * 2007-02-16 2008-09-04 Hitachi Ltd 立体地図表示システム、立体地図の表示方法、及びそのプログラム

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013205920A (ja) * 2012-03-27 2013-10-07 Seiko Epson Corp 頭部装着型表示装置
US9542070B2 (en) 2012-08-14 2017-01-10 Beijing Xiaomi Technology Co., Ltd. Method and apparatus for providing an interactive user interface
JP2015521763A (ja) * 2012-08-14 2015-07-30 シャオミ・インコーポレイテッド 移動端末のデスクトップシステム、インタフェースインタラクション方法、装置、プログラム、及び記録媒体
US9910281B2 (en) 2013-02-22 2018-03-06 Sony Corporation Head-mounted display
WO2014128810A1 (ja) 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ及び画像表示装置
US9709806B2 (en) 2013-02-22 2017-07-18 Sony Corporation Head-mounted display and image display apparatus
US11885971B2 (en) 2013-02-22 2024-01-30 Sony Corporation Information processing device that displays a virtual object relative to real space
US10317681B2 (en) 2013-02-22 2019-06-11 Sony Corporation Head-mounted display
EP4099136A1 (en) 2013-02-22 2022-12-07 Sony Group Corporation Head- mounted display and image display device
US11513353B2 (en) 2013-02-22 2022-11-29 Sony Corporation Information processing device that displays a virtual object relative to real space
US10534183B2 (en) 2013-02-22 2020-01-14 Sony Corporation Head-mounted display
JP2015228095A (ja) * 2014-05-30 2015-12-17 キヤノン株式会社 頭部装着型情報表示装置及び頭部装着型情報表示装置の制御方法
JP2016004340A (ja) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 情報配信システム、頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2016021094A (ja) * 2014-07-11 2016-02-04 ヤフー株式会社 情報表示装置、配信装置、情報表示方法および情報表示プログラム
JPWO2017104198A1 (ja) * 2015-12-14 2018-09-27 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11042743B2 (en) 2015-12-14 2021-06-22 Sony Corporation Information processing device, information processing method, and program for preventing deterioration of visual recognition in a scene
JP2018097683A (ja) * 2016-12-14 2018-06-21 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
US10515481B2 (en) 2017-02-03 2019-12-24 Colopl, Inc. Method for assisting movement in virtual space and system executing the method
JP2018124907A (ja) * 2017-02-03 2018-08-09 株式会社コロプラ 仮想空間における移動を支援するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP6276434B1 (ja) * 2017-02-03 2018-02-07 株式会社コロプラ 仮想空間における移動を支援するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置

Also Published As

Publication number Publication date
WO2012029647A1 (ja) 2012-03-08
JP5360021B2 (ja) 2013-12-04

Similar Documents

Publication Publication Date Title
JP5360021B2 (ja) 携帯型情報処理装置、及び携帯型情報処理装置のためのコンピュータプログラム
JP7268692B2 (ja) 情報処理装置、制御方法及びプログラム
KR102410802B1 (ko) 마커 포인트 위치를 표시하기 위한 방법, 전자 장치, 및 컴퓨터 판독가능 저장매체
KR101748669B1 (ko) 와치형 단말기 및 그 제어방법
US8498816B2 (en) Systems including mobile devices and head-mountable displays that selectively display content, such mobile devices, and computer-readable storage media for controlling such mobile devices
JP5675470B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
JP5622510B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
JP2018101019A (ja) 表示装置及び表示装置の制御方法
KR20150129546A (ko) 안경형 단말기와 그 안경형 단말기의 제어 방법
KR20170123907A (ko) 이동단말기 및 그 제어방법
US20130185673A1 (en) Electronic Device, Displaying Method And File Saving Method
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
KR101824555B1 (ko) 차량에 장착되어 전방 표시 장치 기능을 수행할 수 있는 이동 단말기, 상기 이동 단말기 구동 방법, 및 상기 이동 단말기와 연동되는 경로 안내 장치
KR20160056133A (ko) 이미지 표시 제어 방법 및 이를 지원하는 장치
US20150154769A1 (en) Wearable map and image display
US11558711B2 (en) Precision 6-DoF tracking for wearable devices
KR20160086684A (ko) 이동 단말기 및 그것의 제어방법
CN108351736B (zh) 可穿戴显示器、图像显示装置和图像显示系统
KR20170059760A (ko) 이동단말기 및 그 제어방법
KR20160041435A (ko) 이동 단말기 및 그것의 제어방법
JP6481456B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
JP2016096513A (ja) 情報処理システム、情報処理方法及びプログラム
JP4710217B2 (ja) 情報提示装置及び情報提示方法、情報提示システム、並びにコンピュータ・プログラム
KR101695695B1 (ko) 이동단말기 및 그 제어방법
JP6828235B2 (ja) 頭部装着型表示装置、頭部装着型表示装置の表示を共有する方法、コンピュータープログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130819

R150 Certificate of patent or registration of utility model

Ref document number: 5360021

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees