JP2015203889A - 情報処理端末、情報処理方法及びコンピュータプログラム - Google Patents

情報処理端末、情報処理方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2015203889A
JP2015203889A JP2014081476A JP2014081476A JP2015203889A JP 2015203889 A JP2015203889 A JP 2015203889A JP 2014081476 A JP2014081476 A JP 2014081476A JP 2014081476 A JP2014081476 A JP 2014081476A JP 2015203889 A JP2015203889 A JP 2015203889A
Authority
JP
Japan
Prior art keywords
touch
user
real
character string
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014081476A
Other languages
English (en)
Other versions
JP6362391B2 (ja
Inventor
渡辺 和宏
Kazuhiro Watanabe
和宏 渡辺
武司 中田
Takeshi Nakada
武司 中田
亘 加来
Wataru Kako
亘 加来
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014081476A priority Critical patent/JP6362391B2/ja
Priority to US14/680,916 priority patent/US9696855B2/en
Publication of JP2015203889A publication Critical patent/JP2015203889A/ja
Application granted granted Critical
Publication of JP6362391B2 publication Critical patent/JP6362391B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】使用者に対して表示が見やすいタッチGUIを可能とするHMDタイプの情報処理端末等を提供する。【解決手段】本発明の情報処理端末は、使用者の頭部前方の映像を撮像する撮像手段と、現実世界の光景に仮想オブジェクトの画像を重畳して表示する表示手段と、現実世界の実在のオブジェクトに対する使用者のタッチを認識するタッチ認識手段と、情報処理手段とを有している。前記情報処理手段は、前記表示手段により現実世界の実在オブジェクトに重畳してタッチ操作のためのグラフィカル・ユーザー・インターフェースを表示させる。前記タッチ認識手段により前記実在オブジェクトに対する使用者のタッチを認識したとき、前記実在オブジェクトに重畳表示している前記グラフィカル・ユーザー・インターフェースへのタッチ操作があったものと判定する。【選択図】図1

Description

本発明は、使用者の頭部に装着し、現実世界の光景に重畳してグラフィックス表示を行う、いわゆる拡張現実(Augmented Reality)表示用のヘッドマウントディスプレイ等の情報処理端末等に関する。
スマートフォン等の近年の情報処理端末で、表示部とタッチ入力部とを一体に構成したタッチ・ディスプレイを備えている。このような情報処理端末では、このタッチ・ディスプレイにより、機能や設定を表示するグラフィカル・ユーザー・インターフェース(以下、「GUI」という)を使用者がタッチして指示する「タッチGUI」が、さまざまな利点を有して、一般的である。
一方、ヘッドマウントディスプレイ(Head Mounted Display 以下、「HMD」という)では、使用者が表示部を頭部に装着するため、表示部とタッチ入力部を一体に構成することができず、タッチ・ディスプレイを採用することができない。
そこで、HMDでタッチGUIを使用するために、たとえば特許文献1が開示する技術のように、腕や手等の現実のオブジェクト上にGUIをプロジェクション投影し、その投影されたGUIへのタッチを検知する方法等が提案されている。
米国特許出願公開第2013/0016070号明細書
しかしながら、腕や手等の現実のオブジェクト上にGUIをプロジェクション表示する場合は、オブジェクトの反射率や周辺環境の明るさ等により、表示が見難くなることがある。また、プロジェクションの投影範囲内に、投影のターゲットとした腕や手等の特定のオブジェクトが確実に存在していなければならない。
本発明は、こうした従来技術における課題に鑑みてなされたものであり、使用者に対して表示が見やすいタッチGUIを可能とするHMDタイプの情報処理端末等を提供することを目的とする。
本発明は、使用者の頭部前方の映像を撮像する撮像手段と、現実世界の光景に仮想オブジェクトの画像を重畳して表示する表示手段と、現実世界の実在のオブジェクトに対する使用者のタッチを認識するタッチ認識手段と、情報処理手段とを備えている。前記情報処理手段は、前記表示手段により現実世界の実在オブジェクトに重畳してタッチ操作のためのグラフィカル・ユーザー・インターフェースを表示させる。また、前記情報処理手段は、前記タッチ認識手段により前記実在オブジェクトに対する使用者のタッチを認識したとき、前記実在オブジェクトに重畳表示している前記グラフィカル・ユーザー・インターフェースへのタッチ操作があったものと判定する。
本発明により、使用者に対して表示が見やすいタッチGUIを可能とするHMDタイプの情報処理端末等が実現する。
本発明の実施形態1に係るHMD100の外観を示す図である。 本実施形態のHMDの構成例を示すブロック図である。 本実施形態のHMDにおける判断・処理の流れを示すフローチャートである。 本発明の実施形態2に係るHMDにおける判断・処理の流れを示すフローチャートである。 本実施形態のHMDが、現実世界の実在オブジェクトに重畳して使用者によるタッチを促す表示をした様子を模式的に表した図である。 本実施形態のHMDが、当該実在オブジェクトに対する使用者のタッチを認識したとき、その認識したタッチ位置に基づきグラフィカル・ユーザー・インターフェースの表示位置を決定する様子を模式的に表した図である。 本発明の実施形態3に係る情報処理端末の一例としてのHMDが、実在のオブジェクトに重畳してキーボードを拡張現実表示し、使用者のタッチを認識した様子を模式的に表した図である。 本実施形態のHMDが、当該タッチにより生成された文字列を無意味文字列として判定したとき、各キーに対応するタッチ位置の割り当てを変更する様子を模式的に表した図である。 本発明の実施形態3に係るHMDにおける判断・処理の流れを示すフローチャートである。 本実施形態における修正候補テーブルの一例を示す図である。
以下、図面を参照して、本発明に係る情報処理端末、情報処理方法及びプログラムの実施形態を詳細に説明する。
[実施形態1]
実施形態1では、本発明を情報処理端末の一例としてのHMDに適用した例について説明する。
HMDには、透明または半透明のハーフミラーにグラフィックスを投影する、いわゆるグラス・シースルー方式と、撮像装置が撮像している現実世界の光景にグラフィックスを電気的に重畳する、いわゆるビデオ・シースルー方式がある。両者のハードウェア構成における相違については後述する。
図1は、本実施形態のHMD100の外観を示す図である。
このHMD100は、当該HMD100を使用者の頭部に装着する頭部装着部101と、使用者の頭部前方の映像を撮像する撮像部102と、グラフィックスを表示する表示部104とを備えている。
頭部装着部101は、本実施形態のHMD100を使用者の頭部に装着させるものであり、側頭装着部121と、アジャスタ122と、長さ調整部123と、後頭装着部124と、額装着部125とを備えている。
HMD100を頭部に装着するには、まず、アジャスタ122で長さ調整部123を緩めた状態で使用者が頭にかぶる。そして、額装着部125を額に密着させてから側頭装着部121と後頭装着部124を各々側頭部、後頭部に密着させるように、アジャスタ122で長さ調整部123を絞める。なお、頭部装着部101は、同図中に示したゴーグルタイプの他に、眼鏡フレームタイプ、ヘルメットタイプ等種々のタイプが利用可能である。
撮像部102はいわゆるデジタルカメラであり、入射窓112L,112Rと、撮像センサー116L,116Rと、光学プリズム117L,117Rとを備えている。この撮像部102は、本実施形態のHMD100を頭部に装着した使用者の頭部が向く方向と略同方向(使用者の視界に相当する方向)を撮像する。具体的には、入射窓112L,112Rを介してHMDの外部から入射した光を光学プリズム117L,117RによってHMD100内部に導き、撮像センサー116L,116Rにより受光して撮像する。
表示部104は、スクリーン110L,110Rと、カラー液晶ディスプレイ114L,114Rと、光学プリズム115L,115Rとを備えている。なお、符号の末尾のL、Rの文字は左眼用、右眼用を示している。この表示部104は、使用者の目の位置に相対するように、眼鏡における眼鏡レンズに相当する位置に設けられたものである。具体的には、カラー液晶ディスプレイ114L,114Rが表示する画像を光学プリズム115L,115Rによって導き、スクリーン110に表示する。
HMD100が前述のビデオ・シースルー型である場合は、スクリーン110L,110Rは原則として透過度を有さず、光学プリズム115L,115Rによって導光されたカラー液晶ディスプレイ114L,114Rからの表示光をそのまま表示する。これに対して、HMD100が前述のグラス・シースルー型である場合は、スクリーン110L,110Rはいわゆるハーフミラーで構成される。すなわち、スクリーン110L,110Rは、一定の透過度を有し、使用者が現実空間の光景を光学的に見ることができるようになっている。同時に、表面または裏面もしくは内部に埋め込まれて設けられたミラーにより、カラー液晶ディスプレイ114L,114Rが表示し、光学プリズム115L,115Rによって導かれたグラフィックスの表示光を使用者の目の方向に反射する。つまり、グラス・シースルー型の場合には、現実空間の光景と仮想オブジェクトの画像(グラフィックス)とが、スクリーン110L,110Rにおいて光学的に重畳される。
表示部104の光学プリズム115L,115Rの出力光と撮像部102の光学プリズム117L,117Rの入力光は使用者の瞳の光軸と一致しており、撮像センサー116L,116Rは、使用者の位置及び頭部の方向にの現実空間の映像を撮像する。
ビデオ・シースルー型HMDの場合には、カラー液晶ディスプレイ114L,114Rには、撮像センサー116L,116Rによって撮像された現実空間の映像と仮想オブジェクトの画像(グラフィックス)とを電気的に重畳(画像合成)した画像が表示される。一方、グラス・シースルー型HMDの場合には、カラー液晶ディスプレイ114L,114Rには、原則として、仮想オブジェクトの画像(グラフィックス)のみが表示される。
図2は本実施形態のHMD100の構成例を示すブロック図である。
HMD100は、さらに、頭部装着部101を含む本体内部に埋め込まれ、前述の図1中には外観としては図示されない表示制御部130、撮像制御部140、CPU150、メモリ160、電源部170、通信部180、タッチ認識部190とを備えている。
表示制御部130は、表示部104の表示制御を行う。たとえば、現実空間の映像に重畳表示(画像合成)する仮想オブジェクトの画像(グラフィックス)の大きさや位置、向き、色彩、透過度、現実空間の映像が変化したことに伴う移動や明度の変更等を制御する。この仮想オブジェクトの画像には、たとえば、使用者の指示を入力するメニュー表示等のグラフィカル・ユーザー・インターフェース、キーボード等の画像が含まれる。
撮像制御部140は、撮像データを用いた所定の演算処理による演算結果に基づいて露光制御、測距制御等を行う。これにより、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理等が行われる。また、撮像部102が光学フィルターを光路上から挿脱する機構や防振機構等を備えている場合は、撮像データその他の条件によりフィルターの挿脱や防振等の制御を行う。
CPU150は、HMD100全体の演算処理を行う。後述するメモリ160に記録されたプログラムを実行することで、本実施形態の各処理を実現する。メモリ160はワーク領域および不揮発性領域より構成される。メモリ160内のワーク領域には、不揮発性領域から読み出されたプログラムやシステム制御用の定数、変数が展開される。また、現実空間に重畳して表示する仮想オブジェクトの画像(グラフィックス)のデータが、表示のために保持される。また、撮像部102により撮像されA/D変換された撮像データが、画像解析や画像処理等の目的で保持される。
電源部170は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなり、HMD100全体に電源を供給する。また、この電源部170は、使用者の操作その他の条件により電源オン、電源オフを切り替える電源スイッチを備える。通信部180は、CPU150の制御に基づき、PC等の情報端末や、LANやインターネットといったネットワークとの通信を行う。
タッチ認識部190は、実在オブジェクトに対する使用者のタッチ操作を認識する。タッチ認識部190は、たとえばCPU150がメモリ160に記憶されたタッチ認識プログラムに基づき撮像部102の撮像映像を演算処理することにより、ソフトウェア的に実現される。あるいは、後述する静電容量の変化を計測する方法による場合には、静電容量測定計等により構成される。
図3は、本実施形態のHMD100における判断・処理の流れを示すフローチャートである。なお、この判断・処理は、CPU150がメモリ160の不揮発性領域に記録されたプログラムをワーク領域に展開して実行することで実現する。
使用者により電源が投入されると、本実施形態のHMD100は、撮像部102により現実空間の撮像を開始する(S301)。そして、CPU150は、撮像された映像中に所定の要件に合致する実在オブジェクトの像があるか否かを判定する(S302)。所定の要件とは、たとえば、使用者から所定の距離(たとえば1メートル)内にあるもの、一定以上の略平坦な領域を有するもの、等である。なお、この実在オブジェクトの存在の判定は、例えばCPU150が、実在オブジェクトの輪郭部分等の位置・距離の座標等を算出することによって行うことができる。CPU150は、左右の撮像センサー116R,116Lが撮像した映像中の実在オブジェクトの位置の差(視差)に応じて、実在オブジェクトの輪郭部分等の位置・距離の座標等を算出することができる。
このような所定の要件に合致する実在オブジェクトが特定できないときは、エラーや警告の表示を行う(S303)。次に、この特定された実在オブジェクトに関連させて、GUIの画像を拡張現実の画像として表示する(S304)。すなわち、CPU150は、撮像された映像中の前記実在オブジェクトの位置に相当するスクリーン110L,110R上の位置を算出し、算出した位置に、GUIのボタン等のグラフィックスを重畳表示させる。なお、HMD100の使用者(装着者)が頭を振る等して撮像された映像中の前記実在オブジェクトの位置が変わったときは、CPU15は、それに伴ってグラフィックスを重畳表示させる位置も変更する。また、使用者(装着者)が前記実在オブジェクトに近付いたり遠ざかったりしたことにより撮像された映像中の前記実在オブジェクトの大きさが変わったときは、CPU150は、それにともなってグラフィックスの重畳表示の大きさも変更する。
次に、前記特定された実在オブジェクトに対する使用者のタッチ操作があったかを判定する(S305)。ここでタッチ操作は、たとえば、以下の具体的な操作を含む。
実在オブジェクトを触れたこと(以下、「タッチダウン」と称する)。実在オブジェクトを触れている状態であること(以下、「タッチオン」と称する)。実在オブジェクトを触れたまま移動していること(以下、「ムーブ」と称する)。実在オブジェクトを2本の指で触れて、その間隔を狭めるように動かすこと(以下、「ピンチイン」と称する)。実在オブジェクトを2本の指で触れて、その間隔を広げるように動かすこと(以下、「ピンチアウト」と称する)。実在オブジェクトへ触れていた指を離したこと(以下、「タッチアップ」と称する)。実在オブジェクトに触れていない状態(以下、「タッチオフ」と称する)。
実在オブジェクトに対する使用者のタッチ操作があったかどうかは、たとえば、静電容量の変化を計測する方法や、実在オブジェクトと使用者の手指との距離を計測する方法等のタッチ認識により判定することが可能である。静電容量の変化を計測するものは、たとえば使用者の指先と使用者の頭部に装着された静電容量測定計と接地した実在オブジェクトとの間で形成される回路の静電容量を測定し、所定以上の変化があったときを「タッチがなされた」と判定するものである。実在オブジェクトと使用者の手指との距離を計測するものは、たとえば撮像センサー116L,116Rが撮像した映像中の手指の位置の差(視差)により、いわゆる三角測量の原理を用いて距離計測を行うことができる。あるいは、使用者の指先又は実在オブジェクトに超音波測距センサーなどを設置し、超音波や音波の反射時間から距離計測を行って、実在オブジェクトと使用者の手指との距離の差が略0となったときを「タッチがなされた」と判定することもできる。または、撮像センサー116L,116Rが撮像した映像中の、使用者の手指により実在オブジェクト上に生じた「影」の濃度(輝度)の変化や、前述の「影」と使用者の手指(手指先端)との距離の変化により、「タッチがなされた」と判定することもできる。これらの技術はいずれも既知であり、実用可能に提供されているものである。
実在オブジェクトに対する使用者のタッチ操作があったと判定したときは、撮像画像における使用者の手指先端の位置を取得する(S306)。ここで、手指先端と判定される箇所が2以上あるときは、その2以上の箇所すべてについて位置を取得する。次に、取得された手指先端の位置に対応する位置に表示(重畳表示)しているグラフィックスを変化させる処理を行なう(S307)。たとえば、「写真」等の画像のグラフィックスを重畳表示しているときに、使用者の2本の指タッチによる「ピンチアウト」操作を検知したときは、当該「写真」等の画像のグラフィックスを拡大する処理を行なう。
また、バーチャル・キーボード等、使用者の1本の指タッチによる操作を前提とするグラフィックスを表示しているときに、2箇所以上の手指先端位置を取得した場合について想定する。このときは、手指先端の位置の移動量が最も大きな位置に対応するグラフィックス要素(バーチャル・キーボードを表示している場合は、その中のキーのひとつ)に対する「タッチダウン」操作があったものとする。このような場合には、たとえば当該グラフィックス要素(たとえば、キーのひとつ)が凹んで見えるようなグラフィックス処理を行なう。
そして、当該操作に対応する、テキスト入力等の情報処理を実施し(S308)、所定の終了条件を満たすか否かを判定する(S309)。たとえば、バーチャル・キーボードの消去に割り当てられた「閉じる」ボタンが使用者のタッチダウン操作により指示されたか否か、すなわち、仮想オブジェクトの画像であるグラフィカル・ユーザー・インターフェースへのタッチ操作があったか否かを判定する。タッチ操作があったときは、仮想オブジェクトの画像であるグラフィカル・ユーザー・インターフェースの重畳表示を消去し(S310)、図3に示す処理を終了する。
本実施形態によれば、現実世界の実在オブジェクトに重畳してタッチ操作のためのグラフィカル・ユーザー・インターフェースを表示をする。そして、実在オブジェクトに対する使用者のタッチを認識したとき、実在オブジェクトに重畳表示しているグラフィカル・ユーザー・インターフェースへのタッチ操作があったものと判定する。このため、実在オブジェクトの反射率や周辺環境の明るさ等に関わらず、使用者にとってグラフィカル・ユーザー・インターフェースの表示が見やすいタッチGUIを実現することができる。
また、本実施形態では、使用者は実在オブジェクトに対してタッチ操作を行うため、確実な触覚的レスポンスを受けることができ、たとえば使用者が空中で行う手指等のジェスチャー操作を撮像して操作入力を判断する方法等に比較して操作性が向上する。また、空中で行うジェスチャー操作等に比較して、タッチしているかタッチしていないかの区別が明確であるため、使用者の操作に対する識別性が向上し、識別誤りに起因する誤動作を低減させることが可能となる。
[実施形態2]
実施形態2では、本発明の情報処理端末の一例としてのHMDが、現実世界の実在オブジェクトに重畳して使用者によるタッチを促す表示をする。そして、当該実在オブジェクトに対する使用者のタッチを認識したとき、その認識したタッチされた位置(タッチ位置)に基づきグラフィカル・ユーザー・インターフェースの表示位置を決定する。なお、本実施形態のHMDは、前述の図1及び図2に示す実施形態1のHMD100と同様に構成されている。
HMDが前述のビデオ・シースルー型HMDである場合は、表示部104に表示する現実世界の光景は撮像部102が撮像したものであるから、表示部104における実在オブジェクトの表示位置座標と撮像された映像中の位置座標とを一致させることは容易である。
これに対して、HMDが前述のグラス・シースルー型HMDである場合は、たとえばスクリーン(ハーフミラー)110R,110Lに外縁を設け、かつ、使用者の目との間の距離を調節することにより撮像部102の撮像画角と使用者の視野角を略一致させている。このようにしても、HMDの装着状態によっては、使用者がスクリーン(ハーフミラー)110L,110Rを通して実在オブジェクトを見たときに視覚的に認識する実在オブジェクトの位置と、撮像された映像中の実在オブジェクトの位置がずれる場合がある。
この場合、実在オブジェクトに相当する位置にグラフィックスを重畳表示される位置と使用者が視覚的に認識する実在オブジェクトの位置がずれることになる。あるいは、使用者がタッチしたと認識するグラフィックスの位置と、撮像された映像中の使用者の手指の位置に基づいて使用者によりタッチされたと判定したグラフィックスの位置がずれることとなる。
このような「ずれ」が生じないようにするためには、使用者がタッチしたと認識するグラフィックスのスクリーン110L,110R上の表示位置の座標と、使用者によりタッチされた位置の撮像された映像中の位置の座標とを一致させる較正処理を行なえばよい。
このため、本実施形態のHMDでは、現実世界の実在オブジェクトに重畳して使用者によるタッチを促す表示をする。そして、当該実在オブジェクトに対する使用者のタッチを認識したとき、その認識したタッチされた位置(タッチ位置)に基づきグラフィカル・ユーザー・インターフェースの表示位置を決定する。これにより、使用者が視覚的に認識する実在オブジェクトの位置と、グラフィカル・ユーザー・インターフェースを表示させるための撮像部102からの映像における実在オブジェクトの位置が一致するように較正している。
図4は、本実施のHMDにおける判断・処理の流れを示すフローチャートである。
使用者により電源が投入されると、本実施形態に係るHMDは、撮像部102により現実空間の撮像を開始する(S401)。そして、CPU150は、所定の要件により、使用者の実在オブジェクトに対するタッチ操作を本実施形態のHMDへの指示・操作として受け付ける処理を開始するかどうかを判定する(S402)。所定の要件とは、たとえば、位置・角度センサー等により本実施形態のHMDを装着した使用者が自ら移動していない(歩行状態でない)ことを検知した場合、等である。当該処理を開始すると判定したときは、CPU150は、まず、スクリーン(ハーフミラー)110L,110R上の所定の位置座標に、使用者の実在オブジェクト上へのタッチを促すグラフィックスの表示を行わせる(S403)。
そして、CPU150は、実在オブジェクトに対する使用者のタッチ操作があったか否かを判定する(S404)。実在オブジェクトに対する使用者のタッチ操作があったと判定したときは、CPU150は、撮像された映像中の使用者の手指先端の位置座標を取得する(S405)。ここで、手指先端と判定される箇所が2以上あるときは、手指先端の位置の移動量が最も大きなものの位置座標を取得する。
この後、CPU150は、撮像された映像中の前記取得された位置座標を、スクリーン(ハーフミラー)110L,110Rの前記タッチを促すグラフィックスを表示させた所定の表示位置の座標に対応させる較正処理を行う(S406)。この後、CPU150は、当該較正された撮像部102による撮像された映像中のタッチ位置に基づき、スクリーン(ハーフミラー)110L,110R上のグラフィカル・ユーザー・インターフェースの表示位置を決定する。
図5Aは、本実施形態のHMDが、現実世界の実在オブジェクトに重畳して使用者によるタッチを促す表示をした状態を表した図である。また、図5Bは、当該実在オブジェクトに対する使用者のタッチを認識したとき、その認識したタッチ位置に基づきグラフィカル・ユーザー・インターフェースの表示位置を決定する様子を模式的に表した図である。
501は、本実施形態のHMD5011を装着した使用者Uと、使用者Uのいる現実世界とを表している。
502は、使用者Uから見た拡張現実表示の様態である。実在オブジェクトであるテーブル5023に、使用者のタッチを促すグラフィックス5022を重畳して表示している。
503は、同じく使用者Uから見た拡張現実表示の様態であり、使用者Uが手指による実在オブジェクトへのタッチにより、あたかもグラフィックス5032をタッチしようとしている様子を表している。
504は、501と同様の視点から503の状況を見た様態を表している。
ここで、使用者Uがタッチしようとしている実在オブジェクト上の位置は、使用者Uから見たとき、使用者にタッチを促すグラフィックスの表示されている位置に対応する筈である。つまり、撮像された映像における、使用者Uがタッチしようとしているポイントの位置座標は、使用者Uから見たときのグラフィックス5032のスクリーン(ハーフミラー)110L,110R上の表示位置の位置座標に対応する筈である。そこで、この対応情報に基づき、撮像された映像中のタッチ位置(手指先端の位置)に対応するスクリーン(ハーフミラー)110L,110R上の位置に表示するGUIがタッチ操作・指示の対象となるようにする。このようにすれば、使用者UのHMDの装着状態が一定である限り、使用者がタッチしたと認識するグラフィックスの位置と、撮像された映像中の手指位置に基づき使用者によりタッチされたと判定したグラフィックスの位置がずれることがなくなる。
すなわち、本実施形態によれば、いわゆるグラス・シースルー型HMDである場合も、使用者がタッチ操作をしたと視覚的に認識する表示部104上の位置座標と、撮像された映像中のタッチ操作の位置座標とを精度よく対応させることができる。これにより、現実世界の実在オブジェクトに対する使用者のタッチ操作を、拡張現実表示したGUIに対するタッチ操作として認識するタッチGUIが可能となる。
[実施形態3]
実施形態3では、本発明の情報処理端末の一例としてのHMDが、仮想オブジェクトの画像である複数のキーを配置したキーボードを表示(キーボード表示)し、表示したキーボードに対する使用者のタッチを認識する。そして、当該タッチの位置(タッチ位置)に対応するキーのキーコードより文字列を生成(文字列生成)し、その生成された文字列が、意味を有する有意味文字列か、意味を有しない無意味文字列かを判定(意味判定)する。無意味文字列と判定した場合には、文字列に含まれる各文字を、それぞれ前記キーボード上で所定のシフト量だけずらして得られる1以上の修正候補文字列を生成(修正候補生成)する。さらに、生成された修正候補文字列が有意味文字列となるときのシフト量に応じて、前記キーボードの、各キーに対応するタッチ位置の割り当てを変更(タッチ位置割り当て)する。なお、本実施形態のHMDは、前述の図1及び図2に示す実施形態1のHMD100と同様に構成されている。
前述の実施形態2に係るHMDによれば、グラス・シースルー型HMDであっても、使用者のタッチ操作があった実在オブジェクト上の位置と、現実世界の光景に重畳表示したグラフィックスの表示位置とが対応付けられている。このため、使用者のHMDの装着状態が一定である限り、使用者は実在オブジェクトに対してタッチ操作をすることで、あたかも重畳表示したグラフィックスに対してタッチ操作をしているような操作・指示を実現することが出来る。
しかし、たとえば使用者が頭を振った等の要因により装着状態が変化すると、使用者に見える実在オブジェクトの位置と、重畳表示したグラフィックスの表示位置にずれを生じてしまう。これのような状態になると、再び使用者がタッチ操作をする位置と、それに対応するGUIの表示位置との間で「ずれ」が生ずる可能性がある。
本実施形態のHMDでは、この「ずれ」を以下のように解消している。
すなわち、本実施形態のHMDでは、ユーザのタッチ操作によって得られたキーコードに対応する文字列が無意味文字列である場合には、文字列に含まれる各文字を、前記キーボード上で所定のシフト量だけずらして得られる1以上の修正候補文字列を生成する。さらに、意味のある文字列か否かに応じて、生成された修正候補文字列が有意味文字列となるときのシフト量に応じて、前記キーボードの、各キーに対応するタッチ位置の割り当てを変更する。
図6Aは、本実施形態のHMDが、実在のオブジェクト(テーブル)に重畳してキーボードを拡張現実表示した状態を表した図である。また、図6Bは、使用者のタッチを認識し、当該タッチにより生成された文字列を無意味文字列として判定したとき、各キーに対応するタッチ位置の割り当てを変更する様子を模式的に表した図である。
601は、本実施形態のHMD6011を装着した使用者Uと、使用者Uのいる現実世界とを表している。
602は、使用者Uが表示部104を介して見た拡張現実表示の様態を表している。この態様では、実在オブジェクトであるテーブル6023に、表示部104によってキーボードのグラフィックス6022を重畳して表示した例について表している。
ここで、使用者Uに対して表示されているキーボードは6022であるが、本実施形態のHMD6011では、表示されているキーボードのグラフィックスの周囲に、いわば架空の、使用者に対して表示しないキー領域を設けている。CPU150は、このキー領域に対応する使用者のタッチ操作についても、表示されているキーボードの各キーに対応するキーコード以外のキーコードを発生させるようにしている。
これを模式的に表したものが603である。603において、斜線を施した領域6034は、使用者Uに対して表示されないが、CPU150は、この領域に対応する実在オブジェクト上の領域がタッチされたときは、その位置に応じたキーコードを発生させる。さらに、CPU150は、発生させたキーコードに対応する文字列を生成する。
604は、使用者Uが、実在オブジェクトに対するタッチ操作(この場合は「タッチダウン」操作)により、「o」のキーコードを発生させるために「o」キーを指示しようとしている様子を表している。
本実施形態のHMDの使用者は、このようにして、たとえばローマ字変換により「こんにちは」と入力しようとするときは、「k」「o」「n」「n」「n」「i」「t」「i」「h」「a」キーを、順次指示しようとする。
ところで、仮に使用者の実在オブジェクトに対するタッチ位置とそれに対応するGUI表示との間で「ずれ」が生じていたとすると、使用者の実在オブジェクトに対するタッチ操作により発生するキーコードは前述の状態とは異なる状態になる。すなわち、たとえば「l」「p」「m」「m」「m」「o」「y」「o」「j」「s」のようなキーコードが発生する。これは、右側への1キー分に相当する「ずれ」が生じていた場合である。
本実施形態のHMDでは、CPU150が、随時、発生したキーコードにより生成される文字列について、それが有意味文字列か無意味文字列かの判定を行う。その判定タイミングは、たとえば、一般的な文字入力システムにおいて、シーケンシャルに発生したキーコードを自動的に文字列変換するタイミングと同期させてもよい。あるいは、「ずれ」が生じる可能性の高い振動等を位置・角度センサー等により検知し、振動等を検知したタイミングと連動させて、文字列が有意味文字列か無意味文字列かの判定を行ってもよい。
なお、表示されているキーボードのグラフィックスの周囲に、いわば架空のキー領域を設け、この領域に対応する使用者のタッチ操作についてもキーコードを発生させるのは以下の理由による。たとえば使用者がキーボード上端の数値キーを実在オブジェクトへのタッチにより指示しようとしながら、タッチ位置とそれに対応するGUI表示との間の「ずれ」により、そのさらに上の位置がタッチ操作されていると認識されていた場合を想定する。このような場合に、架空のキー領域が設けられていないと、そのタッチ指示に対応した「ずれたキーコード」が発生しない。そうすると、使用者がタッチ操作を行った位置がどのくらいずれているかを、発生したキーコードを手掛かりに推定することができなくなる。上述の「架空のキー領域」を設けるのは、仮想キーボードの周縁部に位置するキーのさらに外側が使用者によってタッチ指示されたときもそのタッチ位置に応じたキーコードを発生させるためである。さらに、その「ずれたキーコード」による無意味文字列から、後述する「シフト量」の算出を行うことができるようにするためである。
図7は本実施形態のHMDにおける判断・処理の流れを示すフローチャートである。
ステップS701において、使用者のタッチ操作を検出すると、CPU150は、ステップS702において、所定の条件による文字列判定タイミングかを判断する。文字列判定タイミングでない場合は、CPU150は、入力されたキーコードをメモリ160の一時蓄積領域に格納する(S703)。
文字列判定タイミングであれば、CPU150は、ステップS704において、メモリ160に記憶されている文字列を読み出し、当該文字列が意味を有しない無意味文字列か否かを判定する(意味判定)。すなわち、CPU150は、当該文字列が予め記憶されている辞書データに含まれているかどうかを検索し、その検索結果により無意味文字列か否かの判定を実行する。たとえば、文字列入力がローマ字変換モードであるときに“konnnitiha”と入力されたときは、辞書データに登録されている「こんにちは」にマッチするため、有意味文字列と判定される。また、“lpmmmoyojs”等と入力された場合には、辞書登録されているどの語ともマッチしないため、無意味文字列と判定される。あるいは、そもそもローマ字変換モードにおける入力の場合には、入力されたアルファベット三文字までの組み合わせが、どの「かな」にも変換できないものであれば、無意味と判定することができる。また、有意味文字列であればステップS709に進み、仮名漢字変換を実行する。
一方、無意味文字列であれば、ステップS705に進み、CPU150は、入力された文字列を、キーボード上のキー配列にしたがって所定のシフト量だけずらし、修正候補文字列を作成する(修正候補生成)。シフト量は、1文字右、1文字左、1文字左下、1文字右下、1文字左上、1文字右上、2文字右、…、n文字右等である。修正候補文字列は、一旦、メモリ160の一時蓄積領域に記憶される。
ステップS706において、CPU150は、作成した修正候補文字列が有意味文字列か否かを判定する。有意味文字列でなければ、ステップS705に戻り、次の修正候補文字列を作成する。
なお、ステップS705において、予め複数の修正候補文字列を作成し、作成された修正候補文字列を修正候補テーブルに登録してもよい。当該テーブルは、メモリ160に記憶しておくことができる。CPU150は、当該テーブルに登録されている各候補文字列について、上述の有意味文字列か否かの判定を実行する。
有意味文字列が見つかると、ステップS707に進み、CPU150は、有意味文字列となるときのシフト量を決定し、メモリ160に記憶する。ステップS708において、CPU150は、決定されたシフト量をメモリ160から読み出し、このシフト量に応じて撮像画像における使用者のタッチ位置に対応するキーを変更する。たとえば、シフト量が「1文字右」である場合には、CPU150は、今までFキーに対応させていた撮像画像上のタッチ位置を、Gキーに対応するように変更する。具体的には、各キーについて、撮像部102からの映像中の座標データと、これに対応するキーとの対応関係を管理するキー割り当て(タッチ位置割り当て)テーブルを変更し、メモリ160に記憶する。
ステップS709において、CPU150は、仮名漢字変換処理等の文字入力処理を実行する。たとえば、有意味文字列を仮名漢字変換処理して変換文字候補を表示部104に表示させる。これに応じて、たとえば使用者により「次候補」が指示された場合、CPU150は、次候補を表示部104に表示する。あるいは、使用者により「確定」が指示された場合、CPU150は、文字入力を確定する。
ここで、たとえば、ローマ字変換モードにおいて、使用者が「こんにちは」と入力する場合を例に説明を補足する。使用者が実在オブジェクトへのタッチ操作によりテキスト入力しようとするとき、撮像された映像中の、認識されたタッチ位置に対応するキーのポジションが、たとえば使用者から見たときのキーボードの表示ポジションから、1キー分だけ右にずれていたとする。この場合、「ずれ」がなかったとすれば、ローマ字で“konnnitiha”と入力されるべきところを、「ずれ」のために“lpmmmoyojs”と入力されてしまう。この間、CPU150は、使用者によりキーが打鍵(タッチ)されるごとに、入力されたキーコードをバッファリング(一時蓄積)する(S703)。ここでは“l” “p” “m” “m” “m” “o” “y” “o” “j” “s”が、この順番どおりにバッファリングされる。
所定の条件による文字列判定タイミングで(S702)、CPU150は、バッファリングされた文字列“lpmmmoyojs”が無意味文字列であるか否かを検出する(S704)。この場合は無意味文字列であるため、CPU150は、この無意味文字列“lpmmmoyojs”について、キーコードをキー配列にしたがって所定量だけシフトさせることにより修正候補テーブルを作成する(S705)。
図8は、このようにして作成された修正候補テーブルの一例を示す図である。
CPU150は、修正候補テーブル内の修正候補文字列について、前述の辞書データに登録されている語(有意味文字列)とのマッチングをとる。同図中に示す場合では、「シフト量」が「1文字右」の文字列“konnnitiha”についてマッチング量が最大となるので、CPU150は、修正文字列“konnnitiha” を取得し、そのときの「シフト量」として「1文字右」を取得する。そこで、CPU150は、撮像された映像中のタッチ位置に対応して発生させるキーコードを当該「シフト量」分ずらして再度割り当てる。これにより、撮像された映像中のタッチ位置に対応するキーのポジションと、使用者から見たときのキーボードの表示ポジションの「ずれ」を解消することができる。
本実施形態では、入力されるキーコードより生成される文字列が「無意味文字列」であるとき、それが「有意味文字列」となるときのシフト量を決定する。さらに、決定されたシフト量に基づいて、撮像された映像中のタッチ位置に対応して発生させるキーコードの割り当てを変更する。したがって、振動等により、いわゆるグラス・シースルー型HMDの装着状態が変化した場合であっても、使用者が視覚的に認識する表示部104上のキー・ポジションと、撮像された映像中のタッチ操作の位置座標との対応関係を適切にすることができる。これにより、現実世界の実在オブジェクトに対する使用者のタッチ操作を、拡張現実表示したキーボードに対するタッチ操作として精度よく認識することが可能となる。
[その他の実施形態]
本発明の目的は、以下の処理を実行することによっても達成される。すなわち、上述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置が備えるコンピュータ(またはCPUやMPU等)が記憶媒体等から読み出して実行する処理である。この場合、記憶媒体等から読み出されたプログラム自体が上述した実施形態の機能を実現することになり、そのプログラムも本発明を構成することになる。
100 HMD 101 頭部装着部 102 撮像部 104 表示部
110L,110R スクリーン
112L,112R 入射窓
114L,114R カラー液晶ディスプレイ
115L,115R 光学プリズム
116L,116R 撮像センサー
117L,117R 光学プリズム

Claims (5)

  1. 使用者の頭部前方の映像を撮像する撮像手段と、
    現実世界の光景に仮想オブジェクトの画像を重畳して表示する表示手段と、
    現実世界の実在のオブジェクトに対する使用者のタッチを認識するタッチ認識手段と、
    前記表示手段により現実世界の実在オブジェクトに重畳してタッチ操作のためのグラフィカル・ユーザー・インターフェースを表示させる制御手段と、
    前記タッチ認識手段により前記実在オブジェクトに対する使用者のタッチを認識したとき、前記実在オブジェクトに重畳表示している前記グラフィカル・ユーザー・インターフェースへのタッチ操作があったものと判定する判定手段と、
    を有することを特徴とする情報処理端末。
  2. 前記制御手段は、
    前記表示手段により現実世界の実在オブジェクトに重畳して使用者によるタッチを促す表示をさせ、
    前記タッチ認識手段により前記実在オブジェクトに対する使用者のタッチを認識したとき、その認識したタッチ位置に基づきグラフィカル・ユーザー・インターフェースの表示位置を決定する
    ことを特徴とする請求項1に記載の情報処理端末。
  3. 前記表示手段は、
    複数のキーを配置したキーボードを表示するキーボード表示手段を備え、
    前記タッチ認識手段は、
    前記表示したキーボードに対する使用者のタッチを認識し、当該タッチ位置に対応するキーのキーコードより文字列を生成する文字列生成手段を備え、
    前記判定手段は、
    前記生成された文字列が、意味を有する有意味文字列か、意味を有しない無意味文字列かを判定する意味判定手段と、
    無意味文字列と判定された文字列に含まれる各文字を、それぞれ前記キーボード上で所定のシフト量だけずらして得られる1以上の修正候補文字列を生成する修正候補生成手段と、
    前記生成された修正候補文字列が有意味文字列となるときのシフト量に応じて、前記キーボードの、各キーに対応するタッチ位置の割り当てを変更するタッチ位置割り当て変更手段と
    を有することを特徴とする、請求項2に記載の情報処理端末。
  4. 使用者の頭部前方の映像を撮像する撮像手段と、実世界の光景に仮想オブジェクトの画像を重畳して表示する表示手段と、現実世界の実在のオブジェクトに対する使用者のタッチを認識するタッチ認識手段とを有する情報処理端末における情報処理方法であって、
    前記表示手段により現実世界の実在オブジェクトに重畳してタッチ操作のためのグラフィカル・ユーザー・インターフェースを表示させる制御工程と、
    前記タッチ認識手段により前記実在オブジェクトに対する使用者のタッチを認識したとき、前記実在オブジェクトに重畳表示している前記グラフィカル・ユーザー・インターフェースへのタッチ操作があったものと判定する判定工程と、
    を有することを特徴とする情報処理方法。
  5. コンピュータを、請求項1乃至3の何れか1項に記載の情報処理端末が有する各手段として機能させるためのコンピュータプログラム。
JP2014081476A 2014-04-10 2014-04-10 情報処理端末、情報処理方法及びコンピュータプログラム Active JP6362391B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014081476A JP6362391B2 (ja) 2014-04-10 2014-04-10 情報処理端末、情報処理方法及びコンピュータプログラム
US14/680,916 US9696855B2 (en) 2014-04-10 2015-04-07 Information processing terminal, information processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014081476A JP6362391B2 (ja) 2014-04-10 2014-04-10 情報処理端末、情報処理方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2015203889A true JP2015203889A (ja) 2015-11-16
JP6362391B2 JP6362391B2 (ja) 2018-07-25

Family

ID=54265083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014081476A Active JP6362391B2 (ja) 2014-04-10 2014-04-10 情報処理端末、情報処理方法及びコンピュータプログラム

Country Status (2)

Country Link
US (1) US9696855B2 (ja)
JP (1) JP6362391B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013069447A1 (ja) * 2011-11-08 2015-04-02 ソニー株式会社 センサ装置、解析装置および記憶媒体
JPWO2019176009A1 (ja) * 2018-03-14 2021-02-18 マクセル株式会社 携帯情報端末
JPWO2020039568A1 (ja) * 2018-08-23 2021-08-12 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP2022115022A (ja) * 2021-01-27 2022-08-08 藤沼 伊代子 エア入力システム

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150212647A1 (en) * 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
US10591580B2 (en) * 2014-09-23 2020-03-17 Hewlett-Packard Development Company, L.P. Determining location using time difference of arrival
US10409485B2 (en) * 2014-10-09 2019-09-10 Touchplus Information Corp. Adaptive user input device
US9857863B2 (en) * 2014-10-20 2018-01-02 Seiko Epson Corporation Display apparatus, control method for display apparatus, and program that can switch an operation mode of a display apparatus from a normal operation mode to a battery replacement mode
CN107683497B (zh) 2015-06-15 2022-04-08 索尼公司 信息处理设备、信息处理方法及程序
US10324293B2 (en) * 2016-02-23 2019-06-18 Compedia Software and Hardware Development Ltd. Vision-assisted input within a virtual world
CN105955453A (zh) * 2016-04-15 2016-09-21 北京小鸟看看科技有限公司 一种3d沉浸式环境下的信息输入方法
JP6162299B1 (ja) * 2016-07-28 2017-07-12 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、入力切替方法、及びプログラム
US10650621B1 (en) 2016-09-13 2020-05-12 Iocurrents, Inc. Interfacing with a vehicular controller area network
CN108121438B (zh) * 2016-11-30 2021-06-01 成都理想境界科技有限公司 基于头戴式显示设备的虚拟键盘输入方法及装置
KR101767569B1 (ko) * 2017-02-20 2017-08-11 주식회사 유조이월드 디스플레이되는 영상컨텐츠와 관련된 증강현실 인터랙티브 시스템 및 상기 시스템의 운영방법
US10254846B1 (en) * 2017-03-15 2019-04-09 Meta Company Systems and methods to facilitate interactions with virtual content in an augmented reality environment
US20180284914A1 (en) * 2017-03-30 2018-10-04 Intel Corporation Physical-surface touch control in virtual environment
CN109643182B (zh) * 2017-12-29 2022-01-07 达闼机器人有限公司 信息处理方法、装置、云处理设备及计算机程序产品
US11614793B2 (en) * 2018-02-28 2023-03-28 Logitech Europe S.A. Precision tracking of user interaction with a virtual input device
JP7109540B2 (ja) * 2018-05-30 2022-07-29 株式会社ソニー・インタラクティブエンタテインメント 画像表示システム
CN109508093B (zh) * 2018-11-13 2022-08-09 江苏视睿迪光电有限公司 一种虚拟现实交互方法及装置
US11749018B1 (en) 2019-05-28 2023-09-05 Apple Inc. Eye enrollment for head-mounted enclosure
CN110413111B (zh) * 2019-07-09 2021-06-01 南京大学 一种目标键盘追踪系统及方法
US11144115B2 (en) * 2019-11-01 2021-10-12 Facebook Technologies, Llc Porting physical object into virtual reality

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006086934A (ja) * 2004-09-17 2006-03-30 Canon Inc キー入力装置、その制御方法およびキー入力制御プログラム
WO2012046295A1 (ja) * 2010-10-05 2012-04-12 富士通株式会社 情報処理装置及び入力装置の表示方法
JP2012174208A (ja) * 2011-02-24 2012-09-10 Sony Corp 情報処理装置、情報処理方法、プログラム及び端末装置
JP2013084144A (ja) * 2011-10-11 2013-05-09 Yahoo Japan Corp 情報入力装置、方法及びプログラム
JP2013114375A (ja) * 2011-11-28 2013-06-10 Seiko Epson Corp 表示システム、及び操作入力方法
US8482527B1 (en) * 2012-09-14 2013-07-09 Lg Electronics Inc. Apparatus and method of providing user interface on head mounted display and head mounted display thereof
JP2013225225A (ja) * 2012-04-23 2013-10-31 Kyocera Corp タッチ入力装置,プログラムおよび方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060007056A1 (en) * 2004-07-09 2006-01-12 Shu-Fong Ou Head mounted display system having virtual keyboard and capable of adjusting focus of display screen and device installed the same
US20150121287A1 (en) * 2006-07-03 2015-04-30 Yoram Ben-Meir System for generating and controlling a variably displayable mobile device keypad/virtual keyboard
US20100177035A1 (en) * 2008-10-10 2010-07-15 Schowengerdt Brian T Mobile Computing Device With A Virtual Keyboard
JP5330934B2 (ja) * 2009-08-27 2013-10-30 京セラ株式会社 携帯電子機器及び携帯電子機器の表示方法
US20120120103A1 (en) * 2010-02-28 2012-05-17 Osterhout Group, Inc. Alignment control in an augmented reality headpiece
EP2545426A4 (en) * 2010-03-12 2017-05-17 Nuance Communications, Inc. Multimodal text input system, such as for use with touch screens on mobile phones
CN102812415A (zh) * 2010-03-26 2012-12-05 日本电气株式会社 具有触摸面板功能的移动终端及其输入方法
US9256363B2 (en) * 2010-03-29 2016-02-09 Kyocera Corporation Information processing device and character input method
CN102062946A (zh) * 2010-11-05 2011-05-18 鸿富锦精密工业(深圳)有限公司 具有通信功能的眼镜式显示装置
US8228315B1 (en) * 2011-07-12 2012-07-24 Google Inc. Methods and systems for a virtual input device
US9069164B2 (en) * 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
JP2013172432A (ja) 2012-02-23 2013-09-02 Panasonic Corp 機器制御装置、機器制御方法、機器制御プログラム、及び集積回路
US20140059472A1 (en) * 2012-08-24 2014-02-27 Recon Instruments Inc. Methods and systems for controlling electronic devices
WO2015052588A2 (en) * 2013-10-10 2015-04-16 Itay Katz Systems, devices, and methods for touch-free typing

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006086934A (ja) * 2004-09-17 2006-03-30 Canon Inc キー入力装置、その制御方法およびキー入力制御プログラム
WO2012046295A1 (ja) * 2010-10-05 2012-04-12 富士通株式会社 情報処理装置及び入力装置の表示方法
JP2012174208A (ja) * 2011-02-24 2012-09-10 Sony Corp 情報処理装置、情報処理方法、プログラム及び端末装置
JP2013084144A (ja) * 2011-10-11 2013-05-09 Yahoo Japan Corp 情報入力装置、方法及びプログラム
JP2013114375A (ja) * 2011-11-28 2013-06-10 Seiko Epson Corp 表示システム、及び操作入力方法
JP2013225225A (ja) * 2012-04-23 2013-10-31 Kyocera Corp タッチ入力装置,プログラムおよび方法
US8482527B1 (en) * 2012-09-14 2013-07-09 Lg Electronics Inc. Apparatus and method of providing user interface on head mounted display and head mounted display thereof

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013069447A1 (ja) * 2011-11-08 2015-04-02 ソニー株式会社 センサ装置、解析装置および記憶媒体
JPWO2019176009A1 (ja) * 2018-03-14 2021-02-18 マクセル株式会社 携帯情報端末
JP7155242B2 (ja) 2018-03-14 2022-10-18 マクセル株式会社 携帯情報端末
JPWO2020039568A1 (ja) * 2018-08-23 2021-08-12 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP7317024B2 (ja) 2018-08-23 2023-07-28 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP2022115022A (ja) * 2021-01-27 2022-08-08 藤沼 伊代子 エア入力システム

Also Published As

Publication number Publication date
JP6362391B2 (ja) 2018-07-25
US9696855B2 (en) 2017-07-04
US20150293644A1 (en) 2015-10-15

Similar Documents

Publication Publication Date Title
JP6362391B2 (ja) 情報処理端末、情報処理方法及びコンピュータプログラム
US10585288B2 (en) Computer display device mounted on eyeglasses
US10133407B2 (en) Display apparatus, display system, method for controlling display apparatus, and program
CN109739361B (zh) 基于眼睛跟踪的可见度提高方法和电子装置
CN106066537B (zh) 头戴式显示器和头戴式显示器的控制方法
CN101379455B (zh) 输入装置及其方法
JP6341755B2 (ja) 情報処理装置、方法及びプログラム並びに記録媒体
JP2016031761A5 (ja)
JP2015192436A (ja) 送信端末、受信端末、送受信システム、およびそのプログラム
JP2012108723A (ja) 指示受付装置
KR101709611B1 (ko) 디스플레이와 카메라가 장착된 스마트 안경과 이를 이용한 공간 터치 입력 및 보정 방법
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2009104429A (ja) ヘッドマウントディスプレイ装置及び携帯装置
KR102159767B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US20220113813A1 (en) Glasses-Type Terminal
JP2009129021A (ja) 情報入力システムおよび情報入力方法
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム
KR102312601B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
JP6394108B2 (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP7031112B1 (ja) 眼鏡型端末
JP7080448B1 (ja) 端末装置
JP7478902B2 (ja) ウェアラブル端末装置、プログラムおよび表示方法
JP6669183B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
KR20210125465A (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
JP6065960B2 (ja) 頭部装着型表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180626

R151 Written notification of patent or utility model registration

Ref document number: 6362391

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03