JP2013114375A - 表示システム、及び操作入力方法 - Google Patents

表示システム、及び操作入力方法 Download PDF

Info

Publication number
JP2013114375A
JP2013114375A JP2011258698A JP2011258698A JP2013114375A JP 2013114375 A JP2013114375 A JP 2013114375A JP 2011258698 A JP2011258698 A JP 2011258698A JP 2011258698 A JP2011258698 A JP 2011258698A JP 2013114375 A JP2013114375 A JP 2013114375A
Authority
JP
Japan
Prior art keywords
image
key
unit
indicator
display system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011258698A
Other languages
English (en)
Other versions
JP5927867B2 (ja
Inventor
Shinichi Kobayashi
伸一 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2011258698A priority Critical patent/JP5927867B2/ja
Priority to US13/686,256 priority patent/US9678663B2/en
Publication of JP2013114375A publication Critical patent/JP2013114375A/ja
Application granted granted Critical
Publication of JP5927867B2 publication Critical patent/JP5927867B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • G06F1/1673Arrangements for projecting a virtual keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】操作性及び携帯性が高い表示システム、及び操作入力方法を提供する。
【解決手段】表示システムは、予め定められた物体に接触した指示体の位置を検出するセンサーユニット400と、物体にキー配置を定め、キー配置と指示体の位置との相対位置に基づいて、指示体により操作されたキーを認識する制御装置200と、操作されたキーによる操作入力を受け付ける表示装置100とを備える。
【選択図】図1

Description

本発明は、表示システム、及び操作入力方法に関する。
特許文献1に開示されているヘッドマウントディスプレイ(表示システム)には、入力装置として、ハードウェアキーボードが装備されている。
特開2000−172371号公報
しかしながら、大きさ、重さ、及び持ち運び易さ等の点で、ハードウェアキーボードには携帯性に難点がある。また、スマートフォン、携帯電話等の携帯端末(表示システム)には、入力装置として、タッチパネル又は専用キーが装備されている。しかしながら、携帯端末であるがゆえに、タッチパネル及び専用キーには難点がある。すなわち、操作性を高くするには入力装置は適度に大きくなければならず、一方、携帯性を高くするには入力装置は適度に小さくなければならないという問題がある。
本発明は、前記の点に鑑みてなされたものであり、操作性及び携帯性が高い表示システム、及び操作入力方法を提供することを目的とする。
本発明は、上記の課題を解決するためになされたものであり、予め定められた物体に接触した指示体の位置を検出するセンサーユニットと、前記物体にキー配置を定め、前記キー配置と前記指示体の位置との相対位置に基づいて、前記指示体により操作されたキーを認識する制御装置と、ユーザーの頭部に装着可能であり、前記操作されたキーによる操作入力を受け付ける表示装置と、を備えることを特徴とする表示システムである。
この構成により、制御装置は、物体にキー配置を定め、キー配置と指示体の位置との相対位置に基づいて、指示体により操作されたキーを認識する。これにより、表示システムは、専用の入力装置が不要となるので、操作性及び携帯性を高くすることができる。
また、本発明は、前記表示装置が、画像取り出しエリアを有する画像取り出し部を備え、前記画像取り出し部が、前記画像取り出しエリアに所定画像光を視認可能に提示し、且つ、前記画像取り出しエリアに外界からの入射光を透過させることを特徴とする表示システムである。
これにより、ユーザーは、物体の光学像を画像取り出しエリアに見ることができる。
また、本発明は、前記表示装置が、前記画像取り出しエリアを透過した前記物体の光学像に、前記物体と自装置との相対位置に基づいて、前記所定画像光による前記キー配置を示すキー画像を重ねて表示することを特徴とする表示システムである。
これにより、ユーザーは、表示されたキー画像によりキー配置を確認しながら、操作入力することができる。
また、本発明は、前記表示装置が、前記キー配置を示すキー画像と重ならないよう、他の画像を前記画像取り出しエリアに表示することを特徴とする表示システムである。
これにより、表示装置は、ユーザーが頭を動かした場合でも、表示画像(操作入力画像)とキー画像が重ならないようにすることができる。
また、本発明は、前記表示装置が、前記キー配置を示すキー画像の大きさを調整して表示することを特徴とする表示システムである。
これにより、表示装置は、表示画像(操作入力画像)とキー画像とが重ならないように、見やすい表示にすることができる。
また、本発明は、前記制御装置が、前記物体に予め接触した前記指示体の位置に基づいて、前記キー配置を定めることを特徴とする表示システムである。
これにより、ユーザーは、入力装置にする物体に、適切な大きさのキー配置を定めることができる。
また、本発明は、前記制御装置が、ユーザーによる選択に基づいて、前記キー配置を定めることを特徴とする表示システムである。
これにより、ユーザーは、入力装置にする物体に定めるキー配置を選択することができる。
また、本発明は、前記センサーユニットが、赤外線及び超音波の少なくとも一方を前記指示体に投射し、前記指示体からの反射に基づいて前記指示体の位置を検出することを特徴とする表示システムである。
これにより、ユーザーは、入力装置にする物体をタイピングする指により、操作入力することができる。
また、本発明は、前記センサーユニットが、前記指示体を撮像し、撮像した前記指示体の画像に基づいて、前記指示体の位置を検出することを特徴とする表示システムである。
これにより、センサーユニットは、画像に基づいて、指示体の位置を検出することができる。
また、本発明は、前記表示装置が、前記所定画像光を出力する画像出力部と、前記画像出力部が出力した前記所定画像光を投射する投射光学系と、前記投射光学系により投射された前記所定画像光を前記画像取り出しエリアに導く導光部と、を備えることを特徴とする表示システムである。
この構成により、表示装置が、前記操作入力を受け付ける。これにより、表示装置を頭部に装着したユーザーは、入力装置にする物体に対して、指示体により操作入力することができる。
また、本発明は、表示システムにおける操作入力方法であって、制御装置が、予め定められた物体にキー配置を定めるステップと、センサーユニットが、前記物体に接触したユーザーの指の位置を検出するステップと、制御装置が、前記キー配置と前記指の位置との相対位置に基づいて、前記指により操作されたキーを認識するステップと、ユーザーの頭部に装着可能である表示装置が、前記操作されたキーによる操作入力を受け付けるステップと、を有することを特徴とする操作入力方法である。
この方法により、制御装置は、物体にキー配置を定め、キー配置と指の位置との相対位置に基づいて、指により操作されたキーを認識する。これにより、表示システムは、専用の入力装置が不要となるので、操作性及び携帯性を高くすることができる。
本発明によれば、制御装置は、物体にキー配置を定め、キー配置と指の位置との相対位置に基づいて、指により操作されたキーを認識する。これにより、表示システムは、操作性及び携帯性を高くすることができる。
本発明の一実施形態における、表示システムの構成例を示すブロック図である。 本発明の一実施形態における、表示装置及び制御装置の外観図である。 本発明の一実施形態における、表示装置の構成例を示す平面図である。 本発明の一実施形態における、センサーユニットの外観図である。 本発明の一実施形態における、入力装置にする物体を認識する場合の表示例である。 本発明の一実施形態における、どのような種類の入力装置としてキーボード体を使用するかを選択させるための表示例である。 本発明の一実施形態における、センサーユニットが取り付けられた、キーボード体の外観図である。 本発明の一実施形態における、キーボード体の位置合わせをするための表示例である。 本発明の一実施形態における、キーボード体の光学像にキー画像を重畳した場合の表示例である。
本発明の一実施形態について図面を参照して詳細に説明する。図1には、表示システムの構成例が、ブロック図により示されている。また、図2には、表示装置及び制御装置の外観図が示されている。表示システムは、表示装置100(シースルータイプ・ヘッドマウントディスプレイ、透過型表示装置)と、制御装置200(コントローラー)と、センサーユニット400とを備える。
ユーザーは、表示装置100(眼鏡型)を頭部に装着することにより、表示装置100の画像取り出し部の画像取り出しエリアに表示(提示)された所定画像(例えば、メニュー画像、アイコン画像)を見ることができる。表示装置100の画像取り出し部の画像取り出しエリアは、入射光の少なくとも一部が透過するように構成されている。これにより、ユーザーは、表示装置100を頭部に装着したまま、表示装置100の画像取り出し部の画像取り出しエリアを通して制御装置200を見ることができる。つまり、ユーザーは、入射光による光学像と、表示された所定画像とを同時に観察可能である。
まず、表示装置の構成例を説明する。
表示装置100は、左眼用画像出力部110Aと、右眼用画像出力部110Bと、センサー120とを備える。左眼用画像出力部110Aは、左眼用画像形成部10Aと、画像取り出し部21Aとを備える。左眼用画像形成部10Aは、装着時にユーザーの頭部左側に位置するよう、表示装置100の左側テンプル部に備えられる。左眼用画像形成部10Aには、制御装置200から画像信号が入力される。左眼用画像形成部10Aは、ユーザーの左眼用に所定画像光を形成し、形成した所定画像光を画像取り出し部21Aの画像取り出しエリアに出力する。
画像取り出し部21Aの画像取り出しエリアには、ユーザーの左眼用に所定画像が表示される。画像取り出し部21Aは、装着時にユーザーの左眼前に位置するよう、表示装置100の左側リム部に備えられる。画像取り出し部21Aの画像取り出しエリアは、入射光の少なくとも一部が透過するよう構成されている。これにより、ユーザーの左眼には、入射光による光学像が導かれる。
右眼用画像出力部110Bは、右眼用画像形成部10Bと、画像取り出し部21Bとを備える。右眼用画像形成部10Bは、装着時にユーザーの頭部右側に位置するよう、表示装置100の右側テンプル部に備えられる。右眼用画像形成部10Bには、制御装置200から画像信号が入力される。右眼用画像形成部10Bは、ユーザーの右眼用に所定画像光を形成し、形成した所定画像光を画像取り出し部21Bの画像取り出しエリアに出力する。
画像取り出し部21Bの画像取り出しエリアには、ユーザーの右眼用に所定画像が表示される。画像取り出し部21Bは、装着時にユーザーの右眼前に位置するよう、表示装置100の右側リム部に備えられる。画像取り出し部21Bの画像取り出しエリアは、入射光の少なくとも一部が透過するよう構成されている。これにより、ユーザーの右眼には、入射光による光学像が導かれる。
図3には、表示装置の構成例が、平面図により示されている。左眼用画像出力部110Aと右眼用画像出力部110Bとは互いに左右対称の構成を有するため、ここでは、左眼用画像出力部110Aの構成例についてのみ説明する。
左眼用画像出力部110Aは、左眼用画像形成部10Aと、左眼用導光部20Aとを備える。左眼用画像形成部10Aは、画像生成部11Aと、投射光学系12A(投射レンズ)とを有する。画像生成部11Aは、発光色毎の光源(例えば、発光ダイオード(Light Emitting Diode:LED))と、光変調素子(例えば、液晶表示デバイス)とを備える。
画像生成部11Aには、制御装置200から画像信号が入力される。画像生成部11Aは、光源から射出された赤色光、緑色光及び青色光を光学系により拡散させて、光変調素子に投射する。光変調素子は、制御装置200から入力された画像信号に応じて、赤色光、緑色光及び青色光を空間変調することにより、画像信号に応じた画像光を射出する。投射光学系12は、光変調素子から射出された画像光を、平行な状態の光束にする。
左眼用導光部20Aは、投射光学系12により平行な状態の光束となった画像光を、左眼用導光部20Aが有する画像取り出し部21A(例えば、三角プリズム)の面に形成されている画像取り出しエリアに投射する。ここで、画像取り出し部21Aの面の表裏のうち、装着時にユーザーの左眼310Aに向く側(画像取り出しエリア)には、ミラー層等の反射コーティングが施されている。画像取り出し部21Aの画像取り出しエリアに投射された画像光は、この反射コーティングされた面により、ユーザーの左眼310Aに向けて全反射される。これにより、画像取り出し部21Aの画像取り出しエリア上には、所定画像(例えば、メニュー画像、キー画像)が表示される。一方、画像取り出し部21Aの画像取り出しエリアに外界から入射する光の少なくとも一部は、画像取り出し部21Aの画像取り出しエリアを透過し、ユーザーの左眼310Aに導かれる。これにより、ユーザーには、左眼用画像形成部10Aにより形成された所定画像と、入射光による光学像とが画像取り出し部21Aの画像取り出しエリア上に重畳されて見える。
図1及び図2に戻り、表示システムの構成例及び外観の説明を続ける。以下、画像取り出し部21Aと画像取り出し部21Bとに共通する事項については、符号のローマ字を省略して、「画像取り出し部21」と表記する。
センサー120は、表示装置100の外界に在る物体を撮像する撮像装置である。センサー120は、装着時にユーザーの頭部正面に位置するよう、表示装置100のリム部又はブリッジ部に備えられる。例えば、装着時にユーザーの顔が物体に向いていれば、センサー120は、その物体の外観を撮像し、撮像された画像の画像信号を出力することができる。
なお、センサー120は、複数備えられていてもよい。これにより、センサー120は、表示装置100の外界に在る物体を、複数方向から撮像することができる。
次に、センサーユニットの構成例を説明する。
センサーユニット400は、入力装置としてユーザーにより予め定められた物体(以下、「キーボード体」という)に、予め取り付けられる。このキーボード体が、例えば、長方形の板状物である場合、センサーユニット400は、その板状物のいずれかの隅に取り付けられてもよい。なお、キーボード体の形状は、長方形に限らなくてもよい。
センサーユニット400は、振動検出部410と、位置検出部420と、振動部430と、姿勢検出部440と、通信部450と、電源(不図示)とを備える。電源は、各部に電力を供給する。
振動検出部410は、キーボード体に加えられた振動の強さを検出し、その振動の強さを示す信号を位置検出部420に出力する。例えば、振動検出部410は、キーボード体が、ユーザーの指、タッチペン又は筆記用具などの指示体によりタイピングされたことによる振動と、その振動の強さとを検出する。ここで、振動検出部410は、芯先が出されていないタッチペン(指示棒)等によりキーボード体に加えられた振動の強さを検出してもよい。
位置検出部420は、振動を検出したことを示す信号が入力された場合、センサーユニット400に対する、キーボード体に接触したユーザーの指、タッチペン又は筆記用具などの指示体の相対位置を検出する。以下、一例として、指示体はユーザーの指であるものとして説明を続ける。ここで、位置検出部420は、ユーザーの指に赤外線(InfraRed:IR)を投射し、その指からの反射光に基づいて指の位置を検出する。例えば、位置検出部420は、複数本の赤外線を指に投射することにより、三角測量に基づいて指の位置を検出してもよい。また、例えば、位置検出部420(撮像センサー)は、ユーザーの指を撮像し、撮像した画像に基づいて指の位置を検出してもよい。また、例えば、位置検出部420(超音波センサー)は、ユーザーの指に超音波を投射し、その指からの反射光に基づいて指の位置を検出してもよい。なお、位置検出部420は、これら複数の検出結果を組み合わせてもよい。
ここで、位置検出部420は、キーボード体の位置合わせ(図8を用いて後述する)の際、検出したユーザーの指の位置を、キーボード体上の座標の基準点(例えば、原点)とする。また、位置合わせ以降、位置検出部420は、検出したユーザーの指の位置と、座標の基準点との相対位置を示す信号(以下、「指位置信号」という)を、通信部450に出力する。また、位置検出部420は、振動を検出したことを示す信号が入力された場合、振動の強さを示す信号に応じて、振動部430を振動させる。
振動部430は、位置検出部420により制御された振動の大きさで振動する。これにより、振動部430は、キーボード体に接触したユーザーの指に、タイピングによる振動の強さに応じたクリック感を与えることができる。
姿勢検出部440は、センサーユニット400の姿勢を検出し、検出した姿勢を示す信号(以下、「姿勢信号」という)を、通信部450に出力する。キーボード体にセンサーユニット400が取り付けられている場合、姿勢検出部440は、そのキーボード体の姿勢を検出することになる。姿勢検出部440は、例えば、ジャイロセンサー及び加速度センサーである。
通信部450には、指位置信号及び姿勢信号が入力される。通信部450は、指位置信号及び姿勢信号を、制御装置200に転送する。ここで、転送には、Bluetooth(登録商標)が用いられてもよい。
図4には、センサーユニットの外観図が示されている。図4では、センサーユニット400の形状は、一例として、六面体である。ここで、位置検出部420及び振動検出部410は、一例として、センサーユニット400の同一面に配置される。センサーユニット400がキーボード体に取り付けられる際、位置検出部420及び振動検出部410は、指示体の方向に共に向けられる。一方、振動部430は、振動検出部410が配置されている面とは異なる面に配置されてもよい。これにより、振動検出部410は、振動部430から離され、振動部430による振動を検出しないようにして、指示体による振動のみを検出することができる。
次に、制御装置の構成例を説明する。
制御装置200は、外界に在るキーボード体に仮想的にキー配置を定める。つまり、制御装置200は、キーボード体上の座標と、各キーの座標とを対応付けて記憶する。制御装置200は、指位置信号が示す基準点からの指の相対位置と、各キーの座標(キー配置)とに基づいて、ユーザーの指により操作されたキーを認識する。
また、制御装置200は、操作されたキーに応じた操作入力信号に基づいて、表示装置100を制御する。制御装置200は、操作部210と、認識部220と、制御部230と、記憶部240と、操作ボタン部250と、通信部270とを備える。
操作部210は、その操作面に対して操作入力をするユーザーの指が触れている位置を、操作面上の絶対座標で検出し、検出した絶対座標を示す信号(以下、「座標信号」という)を、制御部230に出力する。操作部210は、例えば、トラックパッドである。
記憶部240は、キー画像(キーボード画像)を、入力装置の種類に対応付けて予め記憶する。ここで、キー画像には、例えば、テンキー(TenKey)画像と、携帯端末用キー(携帯Key:例えば、数字、記号及びローマ字キーの4×3キー配置)画像と、ゲーム端末用キー(GameCTL:例えば、方向キー及び確定(ENTER)キー配置)画像と、QWERTYキーボード(QWERTY)画像とがある。
操作ボタン部250は、操作ボタン群を備える。各操作ボタンは、ユーザーに押下されることにより、押下された操作ボタンに予め対応付けられた処理を示す信号を、制御部230に出力する。ここで、予め対応付けられた処理とは、例えば、画像取り出し部21(図2を参照)の画像取り出しエリアに投射されている画像の輝度を調整する処理である。
通信部270は、指位置信号及び姿勢信号をセンサーユニット400から受信し、認識部220に転送する。
認識部220には、指位置信号及び姿勢信号が、通信部270から入力される。また、認識部220には、撮像された画像の画像信号が、センサー120から入力される。認識部220は、撮像された画像の画像信号に基づいて、キーボード体の大きさ及び形状等を認識する。
認識部220には、記憶部240が予め記憶しているキー画像に対応付けられている入力装置の種類のうち、ユーザーにより選択された入力装置の種類を示す信号が、制御部230から入力される。認識部220は、選択された入力装置の種類を示す信号に基づいて、選択された入力装置のキー画像を、記憶部240から取得する。
認識部220は、キーボード体の光学像の大きさ及び形状と、記憶部240から取得したキー画像の大きさ及び形状とが、画像取り出し部21の画像取り出しエリア上で一致するように、キーボード体の画像の画像信号に基づいて、キー画像を必要に応じて変形させる。
さらに、認識部220は、キーボード体の光学像の表示位置と、記憶部240から取得したキー画像の表示位置とが、画像取り出し部21の画像取り出しエリア上で一致するように、キーボード体の画像の画像信号と、姿勢信号とに基づいて、画像取り出し部21の画像取り出しエリア上のキー画像の位置を補正する。認識部220は、変形及び補正されたキー画像(変形及び補正がされない場合は元のキー画像)を示す画像信号を、制御部230に出力する。これにより、例えば、ユーザーが上を向いた場合、これに応じて、ユーザーにはキー画像が下に移動して見える。また、例えば、キーボード体がユーザーの視界から完全に外れた場合、キー画像は、画像取り出し部21の画像取り出しエリアに投射されない。
認識部220は、指位置信号が示す基準点からの指の相対位置と、各キーの座標とに基づいて、ユーザーの指により操作されたキーを認識する。また、認識部220は、操作されたキーを示す識別情報を、制御部230に通知する。
制御部230は、表示装置100の左眼用画像出力部110A及び右眼用画像出力部110Bに、画像信号を出力する。この画像信号により、左眼用画像出力部110A及び右眼用画像出力部110Bには、メニュー画像等が表示される。なお、左眼用画像出力部110Aに出力される画像信号と、右眼用画像出力部110Bに出力される画像信号とは、その内容(例えば、画像の視差)が異なっていてもよい。例えば、左右の画像に視差がある場合、その画像は、3次元画像となる。
制御部230は、変形及び補正されたキー画像(変形及び補正がされない場合は元のキー画像)を示す画像信号を、認識部220から受信して表示装置100に転送する。これにより、キーボード体の光学像にキー画像が重畳されるよう、画像取り出し部21の画像取り出しエリアにキー画像が投射される。
制御部230には、操作されたキーを示す識別情報が、認識部220から転送される。制御部230は、操作されたキーを示す識別情報に予め対応付けられた処理(例えば、表示装置100に文字を表示させる処理)を実行する。
制御部230には、押下された操作ボタンに予め対応付けられた処理を示す信号が、押下された操作ボタン毎に、操作ボタン部250から入力される。制御部230は、押下された操作ボタンに予め対応付けられた処理を示す信号に基づいて、その対応付けられた処理(例えば、画像の輝度を調整する処理)を実行する。
制御部230には、座標信号が操作部210から入力される。制御部230は、入力された座標信号に基づいて、その座標信号が示す絶対座標に予め対応付けられた処理(例えば、画像取り出し部21の画像取り出しエリア上のカーソル画像を移動させる処理)を実行する。
制御部230は、ユーザーにより入力装置の種類が選択された場合、選択された入力装置の種類を示す信号を、認識部220に転送する。
次に、表示システムの動作手順を説明する。
図5には、入力装置にする物体を認識する場合の表示例が示されている。まず、長方形のキーボード体500が、入力装置としてユーザーにより予め用意されたとする。この板状物500の光学像は、表示装置100の画像取り出し部21の画像取り出しエリアを透過して、ユーザーの目に届く。これにより、ユーザーは、表示装置100を頭部に装着したまま、画像取り出し部21の画像取り出しエリアを通してキーボード体500の光学像を見ることができる。
表示装置100のセンサー120は、キーボード体500の外観を撮像し、撮像された画像の画像信号を、制御装置200の認識部220に出力する。認識部220は、撮像された画像の画像信号に基づいて、キーボード体500の位置、大きさ及び形状等を認識する。また、認識部220は、通信部270から入力された姿勢信号に基づいて、キーボード体500の姿勢を認識する。ここで、認識部220は、キーボード体500の形状(例えば、隅の位置)を示すマーカー画像600−1〜600−4を、画像取り出し部21の画像取り出しエリアに投射させてもよい。
図6には、どのような種類の入力装置としてキーボード体を使用するかを選択させるための表示例が示されている。制御部230は、メニューの一覧を示す画像信号を表示装置100に出力することにより、画像取り出し部21の画像取り出しエリアにメニュー一覧画像700を表示させる。図6では、入力装置の種類をユーザーに選択させるためのメニュー一覧画像700として、メニュー画像710(TenKey)と、メニュー画像720(携帯Key)と、メニュー画像730(GameCTL)と、メニュー画像740(QWERTY)とが表示されている。
ユーザーは、操作部210又は操作ボタン部250を操作することにより、メニュー画像710〜740を選択することができる。ここで、各メニュー画像には、それぞれに対応付けられている入力装置の種類がある。制御部230は、操作部210又は操作ボタン部250から操作入力信号を受信し、受信した操作入力信号を認識部220に転送する。認識部220は、操作入力信号が示す入力装置の種類に対応付けられたキー画像を、記憶部240から取得する。
図7には、センサーユニットが取り付けられた、キーボード体の外観図が示されている。以下では、センサーユニット400は、一例として、キーボード体500の左上の隅に、ユーザーによって取り付けられているものとする。
図8には、キーボード体の位置合わせ(キャリブレーション)をするための表示例が示されている。図6に示すメニュー画像740が選択されたことにより、図8では、メニュー画像740と、メニュー画像740に対応付けられたキー配置を示すキー画像800とが、画像取り出し部21の画像取り出しエリアに投射されている。また、キー画像800を構成するキーのうち、予め定められた一つ以上のキー(図8では、「Q」、「ENTER」)の配置が、枠により示されている。これにより、ユーザーは、枠により示されている各キーを、キーボード体500上のどの位置(座標の基準点)にそれぞれ対応させるかを、指定することができる。
より具体的には、画像取り出し部21の画像取り出しエリアを見ているユーザーは、画像取り出し部21の画像取り出しエリア上でキーボード体500の光学像の左上の隅にキー「Q」を表示させるために、キーボード体500の左上の隅に指を触れたとする。さらに、ユーザーは、画像取り出し部21の画像取り出しエリア上でキーボード体500の光学像の右下の隅にキー「ENTER」を表示させるために、キーボード体500の右下の隅に指を触れたとする。なお、予め定められたキーは、3個以上であってもよい。
この状態で、センサーユニット400は、キーボード体500に触れている指に赤外線を投射し、指からの反射光に基づいて、その指の位置(座標の基準点)を検出する。また、センサーユニット400は、指位置信号及び姿勢信号を、制御装置200(図1を参照)に送信する。
制御装置200の通信部270は、指位置信号を認識部220に転送する。認識部220は、指位置信号に基づいて、キーボード体500に仮想的にキー配置を定める。ここで、認識部220は、ユーザーの指が触れられているキーボード体500の左上の隅をキー「Q」の位置とし、ユーザーの指が触れられているキーボード体500の右上の隅をキー「ENTER」の位置と定める(位置合わせ)。さらに、認識部220は、指位置信号に基づいて定めたキー「Q」及びキー「ENTER」の位置(基準点)に基づいて、他のキーの位置も定める(割付)。
なお、認識部220は、指位置信号に基づかずに、キーボード体500の画像の画像信号、及び姿勢信号に基づいて、キーボード体500の左上の隅をキー「Q」の位置とし、キーボード体500の右下の隅をキー「ENTER」の位置と定めてもよい(位置合わせ)。さらに、認識部220は、定めたキー「Q」及びキー「ENTER」の位置(基準点)に基づいて、他のキーの位置も定める(割付)。
なお、表示装置100は、キー配置を示すキー画像と重ならないよう、他の画像(例えば、操作入力された文字列を表示するための領域を示す画像)を画像取り出し部21の画像取り出しエリアに投射してもよい。また、表示装置100は、ユーザーによる操作入力(モード指定)に基づいて、キー画像の大きさを調整して投射してもよい。
図9には、キーボード体の光学像にキー画像を重畳した場合の表示例が示されている。認識部220は、選択された入力装置の種類を示す信号に基づいて、その選択された入力装置のキー画像を、記憶部240から取得する。
制御装置200の通信部270は、姿勢信号を認識部220に転送する。認識部220は、キーボード体500の光学像の大きさ及び形状と、記憶部240から取得したキー画像810の大きさ及び形状とが、画像取り出し部21の画像取り出しエリア上で一致するように、キーボード体500の画像の画像信号と、姿勢信号とに基づいて、キー画像810を必要に応じて変形させる。例えば、認識部220は、斜視図となるようにキー画像810を変形させてもよい。
さらに、認識部220は、キーボード体500の光学像の表示位置と、記憶部240から取得したキー画像の表示位置とが、画像取り出し部21の画像取り出しエリア上で一致するように、キーボード体500の画像の画像信号と、姿勢信号とに基づいて、画像取り出し部21の画像取り出しエリア上でのキー画像の位置を補正する。認識部220は、変形及び補正されたキー画像810(変形及び補正がされない場合は元のキー画像)を示す画像信号を、制御部230に出力する。
制御部230は、変形及び補正されたキー画像810(変形及び補正がされない場合は元のキー画像)を示す画像信号を、認識部220から受信して表示装置100に転送する。表示装置100の左眼用画像出力部110A(図1を参照)は、制御部230から入力された画像信号に基づいて、画像取り出し部21の画像取り出しエリアにおけるキーボード体500の光学像の位置に、キー画像810を表示する。表示装置100の右眼用画像出力部110Bについても同様である。これにより、キー画像810は、画像取り出し部21の画像取り出しエリアにおいてキーボード体500の光学像に重畳される。なお、表示装置100は、操作入力された文字列を表示するための領域を示す画像(操作入力画像)を表示してもよい。
センサーユニット400は、キーボード体500に触れている(タイピングしている)指に赤外線を投射し、指からの反射光に基づいて、その指の位置を検出する。また、センサーユニット400は、指位置信号及び姿勢信号を、継続的に制御装置200に送信する。
認識部220は、指位置信号が示す基準点からの指の相対位置と、各キーの座標とに基づいて、ユーザーの指により操作(タイピング)されたキーを認識する。また、認識部220は、操作されたキーを示す識別情報を、制御部230に転送する。
制御部230は、操作されたキーを示す識別情報に予め対応付けられた処理を実行する。例えば、制御部230は、操作されたキーに対応付けられた文字を、表示装置100の半画像取り出し部21の画像取り出しエリアに投射させる。すなわち、表示装置100は、操作されたキーによる操作入力を受け付ける。
図9では、ユーザーがキー「E」を操作したことにより、操作入力された文字「E」が操作入力画像900に表示されている状態が示されている。例えば、制御部230は、このようにして操作入力された文字列を、コンピューターネットワーク上で検索(Search)してもよい。
以上のように、表示システムは、キーボード体500に接触した指示体(例えば、ユーザーの指、タッチペン)の位置を検出するセンサーユニット400と、キーボード体500にキー配置を定め、前記キー配置と前記指示体の位置との相対位置に基づいて、前記指示体により操作されたキーを認識する制御装置200と、ユーザーの頭部に装着可能であり、前記操作されたキーによる操作入力を受け付ける表示装置100と、を備える。
この構成により、制御装置は、物体にキー配置を定め、キー配置と指の位置との相対位置に基づいて、指により操作されたキーを認識する。これにより、表示システムは、専用の入力装置が不要となるので、操作性及び携帯性を高くすることができる。
つまり、表示システムは、ユーザーが用意した物体を入力装置にすることで、入力装置を簡略化することができる。ユーザーは、TWITTER(登録商標)、メールなど文字入力が必要な場合、熟練度によらず簡単に文字入力することが可能であり、且つ、表示システムの持ち運びにも不便がない。
表示装置がシースルータイプ・ヘッドマウントディスプレイ(透過型表示装置)である場合、入力装置は、大きい装置である必要がない。これにより、ユーザーは、透過型表示装置により両手が空くという特徴を、最大限に生かすことができる。また、入力装置が必要となった場合に、センサーユニット400を取り付けた物体を、簡単に入力装置にすることができるため、ユーザーは、表示システムを簡便に利用することができる。
また、表示システムは、キーボード体500を操作するキー入力を、ヘッドマウントディスプレイに表示されるソフトウェア・キーボードに反映させながら、文字入力を可能にさせる。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
例えば、センサーユニット400は、ユーザーの指に装着されてもよい。また、例えば、操作部210は、ユーザーの指が触れた操作面上の位置を、操作面上の相対座標で検出してもよい。また、例えば、表示装置100は、ヘッドアップディスプレイ(透過型表示装置)でもよい。
また、例えば、認識部220は、机のような広い平面の一部を仮想的に切り取って、その仮想的に切り取った範囲をキーボード体500としてもよい。
また、例えば、表示装置100は、前記投射光学系、前記導光部、及び前記画像取り出し部の代わりに、瞳分割方式シースルー光学系を備えていてもよいし、半透過鏡方式シースルー光学系を備えていてもよい。また、例えば、表示装置100は、前記投射光学系、前記導光部、及び前記画像取り出し部の代わりに、画像表示装置(特開2008−20770号公報)、頭部装着型ディスプレイ(特許第4636164号公報)、ビーム走査型表示装置(国際公開第2009/041055号)、又は、表示装置(特許第4055283号公報)が備える光学系を備えていてもよい。
なお、以上に説明した表示システムを実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
10A…左眼用画像形成部、10B…右眼用画像形成部、11A…画像生成部、11B…画像生成部、12A…投射光学系、12B…投射光学系、20A…左眼用導光部、21A…画像取り出し部、21B…画像取り出し部、100…表示装置、110A…左眼用画像出力部、110B…右眼用画像出力部、120…センサー、200…制御装置(コントローラー)、210…操作部、220…認識部、230…制御部、240…記憶部、250…操作ボタン、270…通信部、310A…ユーザーの左眼、400…センサーユニット、410…振動検出部、420…位置検出部、430…振動部、440…姿勢検出部、450…通信部、500…キーボード体、600…マーカー画像、700…メニュー一覧画像、710…メニュー画像、720…メニュー画像、730…メニュー画像、740…メニュー画像、800…キー画像、810…キー画像、900…操作入力画像

Claims (11)

  1. 予め定められた物体に接触した指示体の位置を検出するセンサーユニットと、
    前記物体にキー配置を定め、前記キー配置と前記指示体の位置との相対位置に基づいて、前記指示体により操作されたキーを認識する制御装置と、
    ユーザーの頭部に装着可能であり、前記操作されたキーによる操作入力を受け付ける表示装置と、
    を備えることを特徴とする表示システム。
  2. 前記表示装置は、画像取り出しエリアを有する画像取り出し部を備え、
    前記画像取り出し部は、前記画像取り出しエリアに所定画像光を視認可能に提示し、且つ、前記画像取り出しエリアに外界からの入射光を透過させることを特徴とする請求項1に記載の表示システム。
  3. 前記表示装置は、前記画像取り出しエリアを透過した前記物体の光学像に、前記物体と自装置との相対位置に基づいて、前記所定画像光による前記キー配置を示すキー画像を重ねて表示することを特徴とする請求項2に記載の表示システム。
  4. 前記表示装置は、前記キー配置を示すキー画像と重ならないよう、他の画像を前記画像取り出しエリアに表示することを特徴とする請求項2に記載の表示システム。
  5. 前記表示装置は、前記キー画像の大きさを調整して表示することを特徴とする請求項3又は請求項4に記載の表示システム。
  6. 前記制御装置は、前記物体に予め接触した前記指示体の位置に基づいて、前記キー配置を定めることを特徴とする請求項1から請求項5のいずれか一項に記載の表示システム。
  7. 前記制御装置は、ユーザーによる選択に基づいて、前記キー配置を定めることを特徴とする請求項1から請求項6のいずれか一項に記載の表示システム。
  8. 前記センサーユニットは、赤外線及び超音波の少なくとも一方を前記指示体に投射し、前記指示体からの反射に基づいて前記指示体の位置を検出することを特徴とする請求項1から請求項7のいずれか一項に記載の表示システム。
  9. 前記センサーユニットは、前記指示体を撮像し、撮像した前記指示体の画像に基づいて、前記指示体の位置を検出することを特徴とする請求項1から請求項8のいずれか一項に記載の表示システム。
  10. 前記表示装置は、
    前記所定画像光を出力する画像出力部と、
    前記画像出力部が出力した前記所定画像光を投射する投射光学系と、
    前記投射光学系により投射された前記所定画像光を前記画像取り出しエリアに導く導光部と、
    を備えることを特徴とする請求項2から請求項9のいずれか一項に記載の表示システム。
  11. 表示システムにおける操作入力方法であって、
    制御装置が、予め定められた物体にキー配置を定めるステップと、
    センサーユニットが、前記物体に接触した指示体の位置を検出するステップと、
    制御装置が、前記キー配置と前記指示体の位置との相対位置に基づいて、前記指示体により操作されたキーを認識するステップと、
    ユーザーの頭部に装着可能である表示装置が、前記操作されたキーによる操作入力を受け付けるステップと、
    を有することを特徴とする操作入力方法。
JP2011258698A 2011-11-28 2011-11-28 表示システム、及び操作入力方法 Active JP5927867B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011258698A JP5927867B2 (ja) 2011-11-28 2011-11-28 表示システム、及び操作入力方法
US13/686,256 US9678663B2 (en) 2011-11-28 2012-11-27 Display system and operation input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011258698A JP5927867B2 (ja) 2011-11-28 2011-11-28 表示システム、及び操作入力方法

Publications (2)

Publication Number Publication Date
JP2013114375A true JP2013114375A (ja) 2013-06-10
JP5927867B2 JP5927867B2 (ja) 2016-06-01

Family

ID=48467984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011258698A Active JP5927867B2 (ja) 2011-11-28 2011-11-28 表示システム、及び操作入力方法

Country Status (2)

Country Link
US (1) US9678663B2 (ja)
JP (1) JP5927867B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015115038A (ja) * 2013-12-16 2015-06-22 セイコーエプソン株式会社 情報処理装置および情報処理装置の制御方法
JP2015203889A (ja) * 2014-04-10 2015-11-16 キヤノン株式会社 情報処理端末、情報処理方法及びコンピュータプログラム
JP2017157142A (ja) * 2016-03-04 2017-09-07 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
JPWO2019176009A1 (ja) * 2018-03-14 2021-02-18 マクセル株式会社 携帯情報端末
JP7031112B1 (ja) 2020-10-13 2022-03-08 裕行 池田 眼鏡型端末
US11429200B2 (en) 2020-10-13 2022-08-30 Hiroyuki Ikeda Glasses-type terminal
WO2022180894A1 (ja) * 2021-02-24 2022-09-01 合同会社Vessk 触覚拡張情報処理システム、ソフトウエア、方法並びに記録媒体

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6171502B2 (ja) * 2013-04-04 2017-08-02 船井電機株式会社 プロジェクタおよびプロジェクタ機能を有する電子機器
US9857971B2 (en) * 2013-12-02 2018-01-02 Industrial Technology Research Institute System and method for receiving user input and program storage medium thereof
US10599216B2 (en) * 2015-03-02 2020-03-24 Tap Systems Inc. Arbitrary surface and finger position keyboard
KR20180002208A (ko) * 2016-06-29 2018-01-08 엘지전자 주식회사 단말기 및 그 제어 방법
US20180158244A1 (en) * 2016-12-02 2018-06-07 Ayotle Virtual sensor configuration

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242394A (ja) * 1999-02-24 2000-09-08 Nec Corp 仮想キーボードシステム
JP2001142605A (ja) * 1999-11-10 2001-05-25 Shimadzu Corp 入力システム
US6281878B1 (en) * 1994-11-01 2001-08-28 Stephen V. R. Montellese Apparatus and method for inputing data
US20060152434A1 (en) * 2003-06-12 2006-07-13 Frank Sauer Calibrating real and virtual views
JP2009211447A (ja) * 2008-03-05 2009-09-17 Yokogawa Electric Corp 入力システム及びこれを用いた表示システム
JP2010067062A (ja) * 2008-09-11 2010-03-25 Ntt Docomo Inc 入力システム及び入力方法
JP2010152930A (ja) * 2010-03-15 2010-07-08 Fujitsu Ltd コンピュータ
US20100177035A1 (en) * 2008-10-10 2010-07-15 Schowengerdt Brian T Mobile Computing Device With A Virtual Keyboard
JP2011070414A (ja) * 2009-09-25 2011-04-07 Fujitsu Toshiba Mobile Communications Ltd 携帯端末
US20110221657A1 (en) * 2010-02-28 2011-09-15 Osterhout Group, Inc. Optical stabilization of displayed content with a variable lens

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4636164B1 (ja) 1967-09-13 1971-10-23
DE69435274D1 (de) * 1993-08-12 2010-04-08 Seiko Epson Corp Am Kopf montierte Bildanzeige- und eine hiermit ausgestattete Datenverarbeitungsvorrichtung
JP3542397B2 (ja) * 1995-03-20 2004-07-14 キヤノン株式会社 撮像装置
JPH11312033A (ja) 1998-04-28 1999-11-09 Sony Corp 眼鏡型画像表示装置
US6381347B1 (en) * 1998-11-12 2002-04-30 Secugen High contrast, low distortion optical acquistion system for image capturing
JP2000172371A (ja) 1998-12-02 2000-06-23 Sony Corp 情報処理装置
JP4751532B2 (ja) * 2001-07-03 2011-08-17 大日本印刷株式会社 光学系及びそれを用いた装置
JP3731580B2 (ja) * 2003-01-10 2006-01-05 コニカミノルタフォトイメージング株式会社 屈曲光学系を備えたカメラ
DE102004044999A1 (de) * 2004-09-16 2006-04-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Eingabesteuerung für Geräte
JP2007183333A (ja) * 2006-01-05 2007-07-19 Fujinon Sano Kk 撮像装置
JP4872499B2 (ja) 2006-07-14 2012-02-08 ソニー株式会社 回折格子部材、光学装置、及び、画像表示装置
JP5005283B2 (ja) 2006-08-02 2012-08-22 倉敷化工株式会社 防振マウントの製造装置
JP4448844B2 (ja) * 2006-11-22 2010-04-14 富士フイルム株式会社 複眼撮像装置
CN101589327B (zh) 2007-09-26 2012-09-26 松下电器产业株式会社 光束扫描式显示装置、显示方法以及集成电路
US20090136212A1 (en) * 2007-11-28 2009-05-28 Klein Scott V Self contained projection module suitable for retail and method
JP4636164B2 (ja) 2008-10-23 2011-02-23 ソニー株式会社 頭部装着型ディスプレイ
JP5262681B2 (ja) 2008-12-22 2013-08-14 ブラザー工業株式会社 ヘッドマウントディスプレイ及びそのプログラム
GB2466497B (en) * 2008-12-24 2011-09-14 Light Blue Optics Ltd Touch sensitive holographic displays
US8941620B2 (en) * 2010-01-06 2015-01-27 Celluon, Inc. System and method for a virtual multi-touch mouse and stylus apparatus
US20120249587A1 (en) * 2011-04-04 2012-10-04 Anderson Glen J Keyboard avatar for heads up display (hud)

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6281878B1 (en) * 1994-11-01 2001-08-28 Stephen V. R. Montellese Apparatus and method for inputing data
JP2000242394A (ja) * 1999-02-24 2000-09-08 Nec Corp 仮想キーボードシステム
JP2001142605A (ja) * 1999-11-10 2001-05-25 Shimadzu Corp 入力システム
US20060152434A1 (en) * 2003-06-12 2006-07-13 Frank Sauer Calibrating real and virtual views
JP2009211447A (ja) * 2008-03-05 2009-09-17 Yokogawa Electric Corp 入力システム及びこれを用いた表示システム
JP2010067062A (ja) * 2008-09-11 2010-03-25 Ntt Docomo Inc 入力システム及び入力方法
US20100177035A1 (en) * 2008-10-10 2010-07-15 Schowengerdt Brian T Mobile Computing Device With A Virtual Keyboard
JP2011070414A (ja) * 2009-09-25 2011-04-07 Fujitsu Toshiba Mobile Communications Ltd 携帯端末
US20110221657A1 (en) * 2010-02-28 2011-09-15 Osterhout Group, Inc. Optical stabilization of displayed content with a variable lens
JP2010152930A (ja) * 2010-03-15 2010-07-08 Fujitsu Ltd コンピュータ

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015115038A (ja) * 2013-12-16 2015-06-22 セイコーエプソン株式会社 情報処理装置および情報処理装置の制御方法
JP2015203889A (ja) * 2014-04-10 2015-11-16 キヤノン株式会社 情報処理端末、情報処理方法及びコンピュータプログラム
JP2017157142A (ja) * 2016-03-04 2017-09-07 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
JPWO2019176009A1 (ja) * 2018-03-14 2021-02-18 マクセル株式会社 携帯情報端末
JP7155242B2 (ja) 2018-03-14 2022-10-18 マクセル株式会社 携帯情報端末
JP7031112B1 (ja) 2020-10-13 2022-03-08 裕行 池田 眼鏡型端末
JP2022064283A (ja) * 2020-10-13 2022-04-25 裕行 池田 眼鏡型端末
US11429200B2 (en) 2020-10-13 2022-08-30 Hiroyuki Ikeda Glasses-type terminal
WO2022180894A1 (ja) * 2021-02-24 2022-09-01 合同会社Vessk 触覚拡張情報処理システム、ソフトウエア、方法並びに記録媒体
JPWO2022180894A1 (ja) * 2021-02-24 2022-09-01

Also Published As

Publication number Publication date
US9678663B2 (en) 2017-06-13
US20130139093A1 (en) 2013-05-30
JP5927867B2 (ja) 2016-06-01

Similar Documents

Publication Publication Date Title
JP5927867B2 (ja) 表示システム、及び操作入力方法
JP6064316B2 (ja) 透過型表示装置、及び操作入力方法
JP6786792B2 (ja) 情報処理装置、表示装置、情報処理方法、及び、プログラム
JP6251957B2 (ja) 表示装置、頭部装着型表示装置および表示装置の制御方法
JP6149403B2 (ja) 表示装置、および、表示装置の制御方法
JP6111659B2 (ja) 表示装置、および、表示装置の制御方法
US10191282B2 (en) Computer display device mounted on eyeglasses
WO2014128787A1 (ja) 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法
JP6264871B2 (ja) 情報処理装置および情報処理装置の制御方法
KR102360176B1 (ko) 웨어러블 디바이스에서 가상의 입력 인터페이스를 제공하는 방법 및 이를 위한 웨어러블 디바이스
JP6701631B2 (ja) 表示装置、表示装置の制御方法、表示システム、及び、プログラム
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2009104429A (ja) ヘッドマウントディスプレイ装置及び携帯装置
US11080417B2 (en) Private eye-to-eye communications with wearable heads up display
JP2017182228A (ja) 入力装置、入力方法、コンピュータープログラム
US11429200B2 (en) Glasses-type terminal
JP6638392B2 (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP2014154074A (ja) 入力装置、頭部装着型表示装置および入力装置の制御方法
JP2017120302A (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
US11854444B2 (en) Display device and display method
JP7031112B1 (ja) 眼鏡型端末
US20240089362A1 (en) Terminal Device
JP6350705B2 (ja) 表示装置、および、表示装置の制御方法
JP6669183B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2018081415A (ja) 入力装置、入力方法、コンピュータープログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160411

R150 Certificate of patent or registration of utility model

Ref document number: 5927867

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150