JPWO2014045683A1 - 制御装置および記憶媒体 - Google Patents

制御装置および記憶媒体 Download PDF

Info

Publication number
JPWO2014045683A1
JPWO2014045683A1 JP2014536639A JP2014536639A JPWO2014045683A1 JP WO2014045683 A1 JPWO2014045683 A1 JP WO2014045683A1 JP 2014536639 A JP2014536639 A JP 2014536639A JP 2014536639 A JP2014536639 A JP 2014536639A JP WO2014045683 A1 JPWO2014045683 A1 JP WO2014045683A1
Authority
JP
Japan
Prior art keywords
unit
user
function
control
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014536639A
Other languages
English (en)
Other versions
JP6256339B2 (ja
Inventor
佐古 曜一郎
曜一郎 佐古
和田 成司
成司 和田
浩明 小川
浩明 小川
武川 洋
洋 武川
楢原 立也
立也 楢原
高井 基行
基行 高井
宮島 靖
靖 宮島
塚越 郁夫
郁夫 塚越
宏平 浅田
宏平 浅田
和之 迫田
和之 迫田
正資 武田
正資 武田
丹下 明
明 丹下
一英 劔持
一英 劔持
いちご 早川
いちご 早川
貴央 谷亀
貴央 谷亀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2014045683A1 publication Critical patent/JPWO2014045683A1/ja
Application granted granted Critical
Publication of JP6256339B2 publication Critical patent/JP6256339B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】実体オブジェクトの所定の領域に仮想的に操作機能を関連付けることが可能な制御装置および記憶媒体を提供する。【解決手段】ユーザにより操作可能と推定される位置に存在する実体オブジェクトの少なくとも一部を操作領域として検出する検出部と、前記検出部により検出された操作領域に所定の機能を対応付けるよう設定する機能設定部と、前記操作領域と操作体の位置関係に基づいて、前記操作領域に対応付けられた機能を実行する制御部と、を備える、制御装置。【選択図】図1

Description

本開示は、制御装置および記憶媒体に関する。
一般的に、デスクトップ型のパーソナルコンピュータ(PC)では、操作入力用のデバイスとして、机上に配置するキーボードおよびマウスが用いられている。
操作入力用のデバイスに関し、下記特許文献1では、机上のスペースを占拠することなく、入出力を実現することが可能な入出力装置が開示されている。具体的には、特許文献1に記載の入出力装置は、机に設置され、机上に表示画面及び操作キーを投影するプロジェクタと、操作者が行う入力操作を撮影する撮像用ビデオカメラとを有する。操作者は、机上に投影された表示画面に対して入力操作を行う。これにより、机上に様々な表示装置や操作キーボード等を並べる必要が無く、机上をシンプル化することができ、窓口カウンターや机上の美観を向上してイメージアップを図る。
特開2000−298544号公報
ここで、近年普及している携帯電話端末やノートPC等のモバイル端末は、液晶の表示画面をキーボードと折り畳みできるように結合された構造となっている。また、タブレット端末やスマートフォンは、液晶の表示画面に操作画面を表示し、ユーザのタッチ操作を検出している。いずれも、ユーザが把持するモバイル端末であって、キーボード等に相当する操作入力用のデバイスが設けられている。
さらに、モバイル端末の分野では、眼鏡型もしくは頭部装着型の装着ユニットにより、ユーザの目の直前に表示部を配置して表示を行う装置(ヘッドマウンドディスプレイ:HMD)が提案されている。このような装置は、ハンズフリーという最大の特徴を有し、キーボードやマウス等に相当する操作入力用のデバイスによる操作には相容れない装置であった。
しかしながら、音声やジェスチャーによる操作入力だけでは、正確に操作できなかったり、テキスト入力が困難であったりした。また、通常ユーザが慣れ親しんでいる操作とは異なる操作となるので、ユーザにとって操作負担やストレスとなってしまうことが想定される。
そこで、本開示では、実体オブジェクトの所定の領域に仮想的に操作機能を関連付けることが可能な、新規かつ改良された制御装置および記憶媒体を提案する。
本開示によれば、ユーザにより操作可能と推定される位置に存在する実体オブジェクトの少なくとも一部を操作領域として検出する検出部と、前記検出部により検出された操作領域に所定の機能を対応付けるよう設定する機能設定部と、前記操作領域と操作体の位置関係に基づいて、前記操作領域に対応付けられた機能を実行する制御部と、を備える、制御装置を提案する。
本開示によれば、コンピュータを、ユーザにより操作可能と推定される位置に存在する実体オブジェクトの少なくとも一部を操作領域として検出する検出部と、前記検出部により検出された操作領域に所定の機能を対応付けるよう設定する機能設定部と、前記操作領域と操作体の位置関係に基づいて、前記操作領域に対応付けられた機能を実行する制御部、として機能させるためのプログラムが記憶された、記憶媒体を提案する。
以上説明したように本開示によれば、実体オブジェクトの所定の領域に仮想的に操作機能を関連付けることが可能となる。
本開示の一実施形態による制御システムの概要を説明するための図である。 本実施形態によるHMDの内部構成例を示すブロック図である。 第1の実施形態による制御動作の処理を示すフローチャートである。 第1の実施形態による制御動作を説明するための図である。 第2の実施形態による制御動作の処理を示すフローチャートである。 第2の実施形態による制御動作を説明するための図である。 第3の実施形態による制御動作の処理を示すフローチャートである。 第4の実施形態による制御動作の処理を示すフローチャートである。 第4の実施形態による制御動作を説明するための図である。 第5の実施形態による制御動作の処理を示すフローチャートである。 第5の実施形態による制御動作を説明するための図である。 第6の実施形態による制御動作の処理を示すフローチャートである。 第6の実施形態による制御動作を説明するための図である。 操作入力用のデバイスとしてキーボードを選択した場合について説明するための図である。 操作入力用のデバイスとして携帯電話端末を選択した場合について説明するための図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による制御システムの概要
2.HMDの内部構成例
3.各実施形態
3−1.第1の実施形態
3−2.第2の実施形態
3−3.第3の実施形態
3−4.第4の実施形態
3−5.第5の実施形態
3−6.第6の実施形態
4.まとめ
<1.本開示の一実施形態による制御システムの概要>
まず、本開示の一実施形態による制御システムの概要について、図1を参照して説明する。
図1は、本開示の一実施形態による制御システムの概要を説明するための図である。図1に示すように、本実施形態による制御システムは、眼鏡型ディスプレイを有するHMD(Head Mounted Display)1に適用される。
本実施形態によるHMD1(制御装置)は、例えば両側頭部から後頭部にかけて半周回するようなフレームの構造の装着ユニットを持ち、図1に示すように両耳殻にかけられることでユーザに装着される。そしてこのHMD1は、図1に示すような装着状態において、ユーザの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に、左眼用と右眼用の一対の表示部2a、2bが配置される構成とされている。この表示部2には、例えば液晶パネルが用いられ、透過率を制御することで、図1に示すようなスルー状態、即ち透明または半透明の状態とできる。表示部2がスルー状態とされることで、HMD1を眼鏡のようにユーザが常時装着していても、通常の生活には支障がない。
さらに、表示部2は、透明または半透明の状態のまま、テキストや図等の画像を表示することで、現実空間の風景にAR(拡張現実)情報を重畳することができる。
また、表示部2は、撮像レンズ3aで撮像された現実空間の撮像画像を表示部2に表示し、当該現実空間の撮像画像にAR(拡張現実)情報を重畳表示してもよい。また、表示部2は、HMD1が外部機器(デジタルカメラやビデオカメラ、また、携帯電話端末、スマートフォン、パーソナルコンピュータ等の情報処理装置など)から受信したコンテンツや、HMD1の記憶媒体に記憶されるコンテンツを再生表示してもよい。
ここで、表示部2に表示されるコンテンツとしては、例えば映画やビデオクリップなどの動画コンテンツ、デジタルスチルカメラ等で撮像された静止画コンテンツ、電子書籍等のデータであってもよい。また、かかるコンテンツは、ユーザがパーソナルコンピュータ等で作成した画像データ、テキストデータ、表計算データ等のコンピュータユースのデータ、ゲームプログラムに基づくゲーム画像など、表示対象となるあらゆるデータが想定される。
また、ユーザが装着した状態において、ユーザが視認する方向を被写体方向として撮像するように、前方に向けて撮像レンズ3aが配置されている。また撮像レンズ3aによる撮像方向に対して照明を行う発光部4aが設けられる。発光部4aは例えばLED(Light Emitting Diode)により形成される。さらに、ユーザが装着した状態において、ユーザが視認する方向を投影方向として画像を投影するように、前方に向けてプロジェクタ部7が配置されている。
また、図1では左耳側しか示されていないが、装着状態でユーザの右耳孔および左耳孔に挿入できる一対のイヤホンスピーカ5aが設けられる。
また右眼用の表示部2aの右方と、左眼用の表示部2bの左方に、外部音声を集音するマイクロホン6a、6bが配置される。
なお図1は一例であり、HMD1をユーザが装着するための構造は多様に考えられる。一般に眼鏡型、あるいは頭部装着型とされる装着ユニットで形成されればよく、少なくとも本実施の形態としては、ユーザの眼の前方に近接して表示部2が設けられていればよい。また表示部2は、両眼に対応して一対設けられる他、片側の眼に対応して1つ設けられる構成でもよい。
またイヤホンスピーカ5aは、左右のステレオスピーカとせずに、一方の耳にのみ装着するために1つ設けられるのみでもよい。またマイクロホンも、マイクロホン6a、6bのうちの一方でもよい。
また図1は、プロジェクタ部7を含む例としているが、プロジェクタ部7を備えない例も考えられる。さらに、HMD1としてマイクロホン6a、6bやイヤホンスピーカ5aを備えない構成も考えられる。また発光部4aを設けない構成も考えられる。
ここで、通常のHMDは、ハンズフリーという最大の特徴を有し、キーボードやマウス等に相当する操作入力用のデバイスは設けられておらず、ユーザ操作は、例えばHMDに設けられたボタンやスイッチ、音声入力、ジェスチャー入力等により行われる。
しかしながら、上述したように、音声やジェスチャーによる操作入力は、ユーザが慣れ親しんでいる操作とは異なる操作であって、ユーザにとって操作負担やストレスになることが想定される。また、音声やジェスチャーによる操作入力では、正確な操作入力やテキスト入力が困難であった。さらに、音声やジェスチャーによる操作入力では、マウスやキーボード等を操作する際の操作感が得られなかった。
そこで、上記事情を一着眼点にして本開示の各実施形態による制御システムを創作するに至った。本開示の各実施形態による制御システムは、実体オブジェクトの所定の領域に仮想的に操作機能を関連付けることができる。
このような本実施形態による制御システムが適用されるHMD1の内部構成例および操作例について、以下順次説明する。
<2.HMDの内部構成例>
図2は、本実施形態によるHMD1の内部構成例を示すブロック図である。図2に示すように、HMD1は、表示部2、撮像部3、照明部4、音声出力部5、音声入力部6、プロジェクタ部7、システムコントローラ10、撮像制御部11、表示画像処理部12、表示駆動部13、表示制御部14、撮像信号処理部15、音声信号処理部16、画像解析部17、照明制御部18、周囲環境センサ19、撮像対象センサ20、GPS受信部21、日時計数部22、ストレージ部25、通信部26、画像入出力コントロール27、音声入出力コントロール28、および音声合成部29を有する。
(システムコントローラ)
システムコントローラ10は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ、インタフェース部を備えたマイクロコンピュータにより構成され、HMD1の各構成を制御する。
また、システムコントローラ10は、図2に示すように外界の状況を判定する外界状況判定部10aと、外界状況判定部10aの判定結果に従って各部に制御指示を行う動作制御部10bとして機能する。
・外界状況判定部
外界状況判定部10aは、周囲環境センサ19、撮像対象センサ20、GPS受信部21、日時計数部22、画像解析部17、および通信部26により、外界の情報を取得する。外界状況判定部10aは、取得した外界の情報(例えば光強度、時間帯等)に応じて、プロジェクタ部7、撮像部3、または表示部2の照度・輝度・感度を調整するよう制御してもよい。また、本実施形態による外界状況判定部10aは、外界の情報に基づいて、ユーザにより操作可能な位置に存在する実体オブジェクトの少なくとも一部を操作領域として検出する検出部として機能する。
具体的には、例えば外界状況判定部10a(検出部)は、撮像部3によりユーザの周囲を撮像した撮像画像(画像解析部17が撮像画像を解析した解析結果でもよい)に基づいて、撮像部3から所定距離内の実体オブジェクトを抽出する。所定距離内とは、ユーザにより直接的または間接的に操作可能(接触操作、近接操作を含む)と推定される距離内であって、例えばユーザの手が届く距離、またはユーザが把持する操作体(ペンや指し棒)が届く距離である。実体オブジェクトとは、ユーザが触れることのできる実空間に存在する対象物である。例えば、外界状況判定部10a(検出部)は、ユーザの近くにある机や、机に置かれたノートPC、または音楽再生装置等を、実体オブジェクトとして抽出する。そして、外界状況判定部10a(検出部)は、抽出した実体オブジェクトの少なくとも一部の平坦領域を、操作領域として検出する。例えば、閉じられた状態で机に置かれたノートPCが実体オブジェクトとして抽出された場合、外界状況判定部10a(検出部)は、ノートPCの天板部分を操作領域として検出してもよい。
・動作制御部10b
動作制御部10bは、取得した外界の情報や、外界状況判定部10aによる判定結果に応じて、撮像動作や表示動作に関する制御を行う。また、本実施形態による動作制御部10bは、外界状況判定部10a(検出部)により検出された操作領域に、所定の機能を対応付ける(関連付ける)よう設定する機能設定部として機能する。
具体的には、動作制御部10b(機能設定部)は、操作領域と、マウスパッド機能、キーボード機能、テンキー機能、コンテンツ操作機能等の各種操作機能を関連付ける。若しくは、動作制御部10b(機能設定部)は、操作領域を検出した実体オブジェクトの機能と類似する操作機能を関連付けてもよい。例えば、実体オブジェクトとして電卓が抽出され、電卓のテンキー部分が操作領域として検出された場合、動作制御部10b(機能設定部)は、当該操作領域にテンキー機能を関連付ける。
また、動作制御部10bは、関連付けた操作機能に対応する操作部画像(操作画面)を、検出した実体オブジェクトの操作領域に重畳表示/投影するよう制御する制御部として機能する。例えば、机の一部が操作領域として検出され、ここにキーボード機能を関連付けた場合、動作制御部10b(制御部)は、当該操作領域にキーボード画像を重畳表示/投影するよう表示部2またはプロジェクタ部7を制御する。また、動作制御部10bは、表示/投影する操作部画像の大きさを、操作領域の大きさに合わせて制御することもできる。
さらに、動作制御部10bは、操作領域と操作体の位置関係に基づいて、操作領域に対応付けられた(関連付けられた)機能を実行する制御部として機能する。ここで、操作体とは、ユーザの指部等の身体の一部、またはユーザが把持しているペンまたは指し棒であってもよい。
より具体的には、動作制御部10b(制御部)は、外界の情報(例えば撮像画像)に基づいて操作領域と操作体の位置関係を認識し、操作体が操作領域と所定時間重なっているか否かを判断する。そして、所定時間重なっている場合、動作制御部10b(制御部)は、操作領域に関連付けられた操作機能を実行、すなわち、ユーザによる操作入力として受け付ける。
例えば、操作領域にマウスパッド機能が関連付けられた場合、動作制御部10b(制御部)は、当該操作領域上でのユーザの指部の動きに応じて、表示部2に表示するマウスポインタの表示位置を制御する。また、例えば操作領域にキーボード機能が関連付けられた場合、動作制御部10b(制御部)は、当該操作領域の各キーの位置とユーザの指部の位置との関係に基づいて、文字入力を実行する。
これにより、ユーザは、ハンズフリーのHMD1を操作する際に、実空間に存在する実体オブジェクトに触れて操作入力を行うことができる。また、マウス操作やキーボード入力等、ユーザが普段慣れ親しんでいる動きで操作入力を行うことができる。さらに、実体オブジェクトの所定の平坦領域を操作部として活用する際、実体オブジェクトとHMD1は電気的、物理的に接続する必要はないので、両者間の通信接続や配線が不要である。また、実体オブジェクトからHMD1に入力データを送信する必要もないので、実体オブジェクトが例えば無線キーボードやマウスであっても、電源を入れる必要はない。また、実体オブジェクトが壊れたキーボードやマウス等であっても、HMD1により操作領域と検出され、操作機能が関連付けられれば、操作入力用のデバイスとして利用できるので、究極のリサイクルを実現することができる。
(撮像部)
撮像部3は、撮像レンズ3a、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。撮像レンズ3aは、図1に示すように、HMD1をユーザが装着した状態において、ユーザが視認する方向を被写体方向として撮像するように、前方に向けて配置されているので、撮像部3は、表示部2を介してユーザが見ている視界を含む範囲を撮像することができる。
(撮像信号処理部)
撮像信号処理部15は、撮像部3の固体撮像素子によって得られる信号に対するゲイン調整や波形整形を行うサンプルホールド/AGC(Automatic Gain Control)回路や、ビデオA/D(アナログ/デジタル)コンバータを備える。これにより、撮像信号処理部15は、デジタルデータとしての撮像信号を得る。また、撮像信号処理部15は、撮像信号に対してホワイトバランス処理、輝度処理、色信号処理、ぶれ補正処理なども行う。
(撮像制御部)
撮像制御部は、システムコントローラ10からの指示に基づいて、撮像部3及び撮像信号処理部15の動作を制御する。例えば撮像制御部11は、撮像部3、撮像信号処理部15の動作のオン/オフを制御する。また撮像制御部11は撮像部3に対して、オートフォーカス、自動露出調整、絞り調整、ズームなどの動作を実行させるための制御(モータ制御)を行うものとされる。また撮像制御部11はタイミングジェネレータを備え、固体撮像素子及び撮像信号処理部15のサンプルホールド/AGC回路、ビデオA/Dコンバータに対しては、タイミングジェネレータにて生成されるタイミング信号により信号処理動作を制御する。また、このタイミング制御により撮像フレームレートの可変制御も可能とされる。
さらに撮像制御部11は、固体撮像素子及び撮像信号処理部15における撮像感度や信号処理の制御を行う。例えば撮像感度制御として固体撮像素子から読み出される信号のゲイン制御を行ったり、黒レベル設定制御や、デジタルデータ段階の撮像信号処理の各種係数制御、ぶれ補正処理における補正量制御などを行うことができる。撮像感度に関しては、特に波長帯域を考慮しない全体的な感度調整や、例えば赤外線領域、紫外線領域など、特定の波長帯域の撮像感度を調整する感度調整(例えば特定波長帯域をカットするような撮像)なども可能である。波長に応じた感度調整は、撮像レンズ系における波長フィルタの挿入や、撮像信号に対する波長フィルタ演算処理により可能である。これらの場合、撮像制御部11は、波長フィルタの挿入制御や、フィルタ演算係数の指定等により、感度制御を行うことができる。
(画像入出力コントロール)
上記撮像部3で撮像され、撮像信号処理部15で処理された撮像信号(撮像による画像データ)は画像入出力コントロール27に供給される。画像入出力コントロール27は、システムコントローラ10の制御に応じて、画像データの転送を制御する。即ち撮像系(撮像信号処理部15)、表示系(表示画像処理部12)、ストレージ部25、通信部26の間の画像データの転送を制御する。
例えば画像入出力コントロール27は、撮像信号処理部15で処理された撮像信号としての画像データを、表示画像処理部12に供給したり、ストレージ部25に供給したり、通信部26に供給する動作を行う。
また画像入出力コントロール27は、例えばストレージ部25から再生された画像データを、表示画像処理部12に供給したり、通信部26に供給する動作を行う。また画像入出力コントロール27は例えば通信部26で受信された画像データを、表示画像処理部12に供給したり、ストレージ部25に供給する動作を行う。
(表示画像処理部)
表示画像処理部12は、例えばいわゆるビデオプロセッサとされ、供給された画像データに対して各種表示処理を実行できる部位とされる。例えば画像データの輝度レベル調整、色補正、コントラスト調整、シャープネス(輪郭強調)調整などを行うことができる。
(表示駆動部)
表示駆動部13は、表示画像処理部12から供給される画像データを、例えば液晶ディスプレイとされる表示部2において表示させるための画素駆動回路で構成されている。即ち表示部2においてマトリクス状に配置されている各画素について、それぞれ所定の水平/垂直駆動タイミングで映像信号に基づく駆動信号を印加し、表示を実行させる。また表示駆動部13は、表示部2の各画素の透過率を制御して、スルー状態とすることもできる。さらに、表示駆動部13は、表示部2の一部をスルー状態とし、一部にAR情報を表示させてもよい。
(表示制御部)
表示制御部14は、システムコントローラ10の制御に応じて、表示画像処理部12の処理動作や表示駆動部13の動作を制御する。具体的には、表示制御部14は、表示画像処理部12に対して、上述した画像データの輝度レベル調整等を行うよう制御する。また、表示制御部14は、表示駆動部13に対して、表示部2のスルー状態、画像表示状態の切り換えを行うように制御する。
(音声入力部)
音声入力部6は、図1に示したマイクロホン6a、6bと、そのマイクロホン6a、6bで得られた音声信号を増幅処理するマイクアンプ部やA/D変換器を有し、音声データを音声入出力コントロール28に出力する。
(音声入出力コントロール)
音声入出力コントロール28は、システムコントローラ10の制御に応じて、音声データの転送を制御する。具体的には、音声入出力コントロール28は、音声入力部6、音声信号処理部16、ストレージ部25、通信部26の間の音声信号の転送を制御する。例えば音声入出力コントロール28は、音声入力部6で得られた音声データを、音声信号処理部16に供給したり、ストレージ部25に供給したり、通信部26に供給する動作を行う。
また音声入出力コントロール28は例えばストレージ部25で再生された音声データを、音声信号処理部16に供給したり、通信部26に供給する動作を行う。また音声入出力コントロール28は例えば通信部26で受信された音声データを、音声信号処理部16に供給したり、ストレージ部25に供給する動作を行う。
(音声信号処理部)
音声信号処理部16は、例えばデジタルシグナルプロセッサ、D/A変換器などからなる。この音声信号処理部16には、音声入力部6で得られた音声データや、ストレージ部25、あるいは通信部26からの音声データが、音声入出力コントロール28を介して供給される。音声信号処理部16は、供給された音声データに対して、システムコントローラ10の制御に応じて、音量調整、音質調整、音響エフェクト等の処理を行う。そして処理した音声データをアナログ信号に変換して音声出力部5に供給する。なお、音声信号処理部16は、デジタル信号処理を行う構成に限られず、アナログアンプやアナログフィルタによって信号処理を行うものでも良い。
(音声出力部)
音声出力部5は、図1に示した一対のイヤホンスピーカ5aと、そのイヤホンスピーカ5aに対するアンプ回路を有する。また、音声出力部5は、いわゆる骨伝導スピーカとして構成されてもよい。ユーザは、音声出力部5により、外部音声を聞いたり、ストレージ部25で再生された音声を聞いたり、通信部26で受信された音声を聞くことができる。
(ストレージ部)
ストレージ部25は、所定の記録媒体に対してデータの記録再生を行う部位とされる。ストレージ部25は、例えばHDD(Hard Disc Drive)として実現される。もちろん記録媒体としては、フラッシュメモリ等の固体メモリ、固定メモリを内蔵したメモリカード、光ディスク、光磁気ディスク、ホログラムメモリなど各種考えられ、ストレージ部25としては採用する記録媒体に応じて記録再生を実行できる構成とされればよい。
ストレージ部25には、撮像部3で撮像され、撮像信号処理部15で処理された撮像信号としての画像データや、通信部26で受信した画像データが、画像入出力コントロール27を介して供給される。また、ストレージ部25には、音声入力部6で得られた音声データや、通信部26で受信した音声データが、音声入出力コントロール28を介して供給される。
ストレージ部25は、システムコントローラ10の制御に従って、供給された画像データや音声データに対して、記録媒体への記録のためのエンコード処理を行い、記録媒体に記録する。またストレージ部25は、システムコントローラ10の制御に従って、記録媒体から画像データや音声データを再生する。再生した画像データは画像入出力コントロール27へ出力し、また再生した音声データは音声入出力コントロール28へ出力する。
(通信部)
通信部26は外部機器との間でのデータの送受信を行う。通信部26は、外界情報を取得するための構成の一例である。通信部26は、無線LAN、ブルートゥースなどの方式で、例えばネットワークアクセスポイントに対する近距離無線通信を介してネットワーク通信を行う構成としても良いし、対応する通信機能を備えた外部機器との間で直接無線通信を行うものでもよい。
外部機器としては、コンピュータ機器、PDA、携帯電話端末、スマートフォン、ビデオ機器、オーディオ機器、チューナ機器など、情報処理及び通信機能を備えたあらゆる機器が想定される。またインターネット等のネットワークに接続された端末装置、サーバ装置なども通信対象の外部機器として想定される。さらには、ICチップを内蔵した非接触通信ICカード、QRコード等の二次元バーコード、ホログラムメモリなどを外部機器とし、通信部26はこれらの外部機器から情報を読み取る構成とすることも考えられる。さらには他のHMD1も外部機器として想定される。
通信部26には、撮像部3で撮像され、撮像信号処理部15で処理された撮像信号としての画像データや、ストレージ部25で再生した画像データが、画像入出力コントロール27を介して供給される。また、通信部26には、音声入力部6で得られた音声データや、ストレージ部25で再生された音声データが、音声入出力コントロール28を介して供給される。
通信部26は、システムコントローラ10の制御に従って、供給された画像データや音声データに対して、送信のためのエンコード処理、変調処理等を行い、外部機器に送信する。また通信部26は外部機器からのデータ受信動作を行う。受信復調した画像データは画像入出力コントロール27へ出力し、また受信復調した音声データは音声入出力コントロール28へ出力する。
(音声合成部)
音声合成部27は、システムコントローラ10の制御に応じて音声合成を行い、音声信号を出力する。音声合成部27から出力された音声信号は、音声入出力コントロール28を介して音声信号処理部16に供給されて処理された後、音声出力部5に供給され、ユーザに対して音声出力される。
(照明部、照明制御部)
照明部4は、図1に示した発光部4aとその発光部4a(例えばLED)を発光させる発光回路から成る。照明制御部18は、システムコントローラ10の制御に応じて、照明部4に発光動作を実行させる。照明部4における発光部4aが図1に示したように前方に対する照明を行うものとして取り付けられていることで、照明部4はユーザの視界方向に対する照明動作を行うことになる。
(周囲環境センサ)
周囲環境センサ19は、外界情報を取得するための構成の一例である。周囲環境センサ19としては、具体的には例えば照度センサ、温度センサ、湿度センサ、気圧センサ等が想定され、HMD1の周囲環境として、周囲の明るさ、温度、湿度、或いは天候等を検出するための情報を得るセンサとされる。
(撮像対象センサ)
撮像対象センサ20は、外界情報を取得するための構成の一例である。具体的には、撮像対象センサ20は、撮像部3での撮像動作の被写体となっている撮像対象に関する情報を検出するセンサである。例えばHMD1から撮像対象までの距離の情報を検出する測距センサや、焦電センサなどの赤外線センサのように、撮像対象が発する赤外線の特定の波長などの情報やエネルギーを検出するセンサなどが想定される。焦電センサの場合、例えば撮像対象が人や動物などの生体であるか否かの検出が可能となる。さらに、各種UV(Ultra Violet)センサのように、撮像対象が発する紫外線の特定の波長などの情報やエネルギーを検出するセンサも想定される。この場合、例えば撮像対象が蛍光物質や蛍光体であるか否かの検出や、日焼け対策に必要な外界の紫外線量の検出が可能となる。
(GPS受信部)
GPS受信部21は、外界情報を取得するための構成の一例である。具体的には、GPS受信部21は、GPS(Global Positioning System)の衛星からの電波を受信し、現在位置としての緯度・経度の情報を出力する。
(日時計数部)
日時計数部22は、外界情報を取得するための構成の一例である。日時計数部22は、いわゆる時計部として、日時(年月日時分秒)を計数し、現在日時情報を出力する。
(画像解析部)
画像解析部17は、外界情報を取得するための構成の一例である。具体的には、画像解析部17は、画像データを解析し、画像データに含まれる画像の情報を得る。画像解析部17には、画像入出力コントロール27を介して画像データが供給される。画像解析部17において画像解析の対象となる画像データとは、撮像部3、撮像信号処理部15により得られた撮像画像としての画像データや、通信部26で受信された画像データ、あるいはストレージ部25で記録媒体から再生された画像データである。
以上、本実施形態によるHMD1の内部構成について詳細に説明した。なお、外界情報を取得するための構成として周囲環境センサ19、撮像対象センサ20、GPS受信部21、日時計数部22、画像解析部17、及び通信部26を示したが、これらは必ずしも全てを備える必要はない。また、周囲の音声を検知・解析する音声解析部など、他のセンサが設けられても良い。
<3.各実施形態>
上述したように、本実施形態によるHMD1は、ユーザにより操作可能な位置に存在する実体オブジェクトの少なくとも一部を操作領域として検出し、検出された操作領域に所定の機能を対応付ける。そして、HMD1は、撮像画像等に基づいて、検出した操作領域と操作体の位置関係を認識し、操作領域に対応付けられた機能を実行するよう制御することで、ユーザによる操作入力を受け付ける。これにより、本実施形態によるHMD1は、電気的、物理的に接続していない、実空間に存在する実体オブジェクトを操作入力用デバイスとして用いることができる。以下、このような本実施形態によるHMD1の操作例に関し、複数の実施形態を挙げて詳細に説明する。
[3−1.第1の実施形態]
第1の実施形態による制御動作について、図3を参照して説明する。図3は、第1の実施形態による制御動作の処理を示すフローチャートである。
図3に示すように、まず、ステップS103において、外界状況判定部10a(検出部)は、撮像部3により撮像された撮像画像から、撮像部3から所定距離内の実体オブジェクト(以下、オブジェクトと称す)を抽出する。オブジェクトの抽出には、カメラ(撮像部3)の位置や姿勢と撮像画像に映る特徴点の位置とを同時に推定可能なSLAMと称される技術を応用して実空間内に存在する物体(オブジェクト)の3次元位置を表現する環境マップを動的に生成する手法を用いてもよい。単一のカメラを用いたSLAM(Simultaneously Localization and Mapping)技術の基本的な原理については、特開2011−159163号公報や特開2008−304268号公報に説明されている。
また、外界状況判定部10a(検出部)は、予めストレージ部25に記憶されたオブジェクトのパターン(3次元データ等)を参照し、撮像画像とパターンマッチングを行い、各オブジェクトを抽出してもよい。
また、撮像レンズ3aが複数ある場合(ステレオカメラである場合)、外界状況判定部10a(検出部)は、ステレオ視に基づいて、オブジェクトを抽出したり、オブジェクトとの距離を把握したりしてもよい。
また、外界状況判定部10a(検出部)は、撮像部3からオブジェクトまでの距離を、撮像画像を解析する他、撮像対象センサ20により取得された情報に基づいて把握してもよい。
また、外界状況判定部10aは、撮像部3から所定距離内のオブジェクトを複数抽出してもよい。
ここで、図4に第1の実施形態による制御動作を説明するための図を示す。図4に示す例では、表示部2がスルー状態となり、ユーザが実空間の風景を透明の表示部2を介して見ている状態である。なお、動作制御部10bは、表示部2に、撮像部3により撮像された実空間の撮像画像の一部をリアルタイムに表示し、スルー状態の場合とほぼ同様に見えるよう制御してもよい。
また、図4に示す例では、撮像部3の撮像範囲が、表示部2を介して見るユーザの視界の範囲より広い。なお、ユーザの視界の範囲より広い範囲を撮像するために、撮像部3は、撮像レンズに広角レンズを用いてもよいし、複数の撮像レンズを備えてもよい。これにより、撮像部3は、表示部2を介して見えるユーザの視界には入らないユーザの手元にあるオブジェクトも撮像することができる。そして、外界状況判定部10a(検出部)は、撮像部3に撮像された撮像画像に基づいて、例えばユーザの手が届く距離にあるオブジェクト50A、50B、50Cを抽出する。
次いで、ステップS106において、外界状況判定部10a(検出部)は、抽出したオブジェクトのうち、最も平坦領域の面積が大きなオブジェクトの少なくとも一部を操作領域として検出する。操作領域は、ユーザの操作スペースとして活用される。なお、外界状況判定部10a(検出部)は、抽出した各オブジェクトまでの距離を用いて各オブジェクトの平坦領域の面積正規化した上で比較し、最大の平坦領域面積を有するオブジェクトを判断する。
例えば図4に示す例では、抽出されたオブジェクト50A(折り畳まれた状態のノートPC)、50B(卓上扇風機)、50C(コップ)のうち、オブジェクト50Aが、最大の平坦領域(天板部分)を有している。この場合、外界状況判定部10a(検出部)は、オブジェクト50Aの天板部分を操作領域33として検出する。
次に、ステップS109において、動作制御部10bは、外界状況判定部10aにより検出された操作領域に、所定の操作機能、例えばマウスパッド機能を関連付ける。より具体的には、動作制御部10bは、四角形状のマウスパッドを想定し、図4に示す操作領域33に、四角形状のマウスパッドの座標を設定する。
また、動作制御部10bは、マウスパッド機能を関連付けた場合、マウスポインタ31を表示部2に表示する。図4に示す例では、表示部2の大部分がスルー状態であって、表示部2の一部にマウスポインタ31が表示されている。かかるマウスポインタ31は、図4に示すように、現実空間に存在するオブジェクト(例えばオブジェクト50D)を選択する際に用いられる。動作制御部10bは、マウスポインタ31で選択されたオブジェクトに関する情報を、AR情報52として表示部2に重畳表示する。
次いで、ステップS112において、動作制御部10bは、撮像画像に基づいて、ユーザの指部をその画像特徴量(指部の画像特徴量)等から認識し、指部と操作領域が所定時間(例えば略0.5秒等)重なっているか否かを判断する。
次に、指部と操作領域が所定時間重なっていると判断された場合(S112/YES)、ステップS115において、動作制御部10bは、指部の位置に対応する、操作領域に設定した座標位置に基づいて、マウスポインタ31の表示位置を制御する。
このように、ユーザは、マウスパッドの機能が関連付けられたオブジェクト50Aの操作領域33で指部40を動かすことで、マウスポインタ31の表示位置を制御することができる。この際、ユーザは、指部40で操作領域33を触りながらマウスポインタ31の表示位置を制御することができるので、空中で指部を動かす操作よりも、より通常のマウス操作に似た感覚で操作することができる。また、図4に示すように、操作領域33はユーザの視界(表示部2)から外れているので、ユーザは表示部2を見ながらマウスポインタ31の表示位置をブラインド操作できる。
そして、ステップS118において、動作制御部10bは、機能関連付けが解除された否かを判断し、解除された場合(S118/YES)、本動作処理を終了する。例えば、動作制御部10bは、関連付けた操作機能を利用するアプリケーションが終了した場合に解除されたと判断してもよい。また、動作制御部10bは、ユーザが移動した場合に解除されたと判断してもよい。この場合、動作制御部10bは、ユーザが他の場所に移動した後、再度S103〜S109に示す処理を行い、新たに検出した操作領域に操作機能を関連付けてもよい。なお、ユーザの移動は、HMD1に設けられたGPS受信部21により取得された現在位置情報や、加速度センサ(不図示)により取得された値に基づいて判断され得る。
[3−2.第2の実施形態]
上述した第1の実施形態では、操作領域33がユーザの視界(表示部2)から外れているが、本開示の範囲は、操作領域33がユーザの視界(表示部2)に含まれている場合も当然に含む。以下、操作領域33がユーザの視界(表示部2)に含まれる第2の実施形態について、図5〜図6を参照して具体的に説明する。
図5は、第2の実施形態による制御動作の処理を示すフローチャートである。図5に示すステップS103、S106において、外界状況判定部10a(検出部)は、図3を参照して説明した同ステップと同様の処理を行う。
ここで、図6に第2の実施形態による制御動作を説明するための図を示す。図6に示す例では、透明の表示部2を介して見えるユーザの視界の範囲内にあるオブジェクト50Aが、最も平坦領域の面積が大きなオブジェクトとして判断され、オブジェクト50Aの一部(天板部分)が操作領域33として検出されている。また、図6に示す例では、撮像部3は、表示部2を介して見えるユーザの視界を含む範囲を撮像し、撮像画像として出力する。
次に、ステップS110において、動作制御部10bは、外界状況判定部10aにより検出された操作領域に、所定の操作機能、例えば図3のS109で説明した場合と同様にステップマウスパッド機能を関連付けてもよい。動作制御部10bは、例えば四角形状のマウスパッドを想定し、図6に示す操作領域33に、四角形状のマウスパッドの座標を設定する。また、動作制御部10bは、マウスパッド機能を関連付けた場合、マウスポインタ31を表示部2に表示する。図6に示す例では、表示部2の大部分がスルー状態であって、表示部2の一部にマウスポインタ31が表示されている。かかるマウスポインタ31は、第1の実施形態と同様に、現実空間に存在するオブジェクト(例えばオブジェクト50D)を選択する際に用いられる。動作制御部10bは、マウスポインタ31で選択されたオブジェクトに関する情報を、AR情報52として表示部2に重畳表示する。
さらに、動作制御部10bは、操作領域に関連付けた操作機能に対応する操作部画像(操作画面)を、表示部2において操作領域に重畳表示するよう表示制御部14を制御する。具体的には、例えば動作制御部10bは、図6に示すように、四角形状のマウスパッドの画像が操作領域33に重畳表示されるよう制御する。これにより、ユーザは、操作領域33を視認することができる。
続くステップS112〜S118では、図3を参照して説明した同ステップと同様の処理が行われるので、ここでの説明は省略する。
以上説明したように、第2の実施形態では、操作領域33がユーザの視界(表示部2)に含まれ、関連付けられた操作機能に対応する操作部画像が、操作領域33に重畳表示されるよう表示部2に表示される。これにより、ユーザは、操作領域33を視認しながら、操作を行うことができる。また、操作機能に対応する操作部画像(マウスパッド画像、キーボード画像、テンキー画像等)が表示されるので、ユーザは、どのような操作機能が関連付けられたかを直感的に把握することができる。
[3−3.第3の実施形態]
上述した第2の実施形態では、操作領域33に重畳表示する操作部画像を、表示部2に表示しているが、本開示の範囲は、操作部画像を操作領域33に投影する場合も含む。以下、操作部画像を操作領域33に投影する第3の実施形態について、図7を参照して具体的に説明する。
図7は、第3の実施形態による制御動作の処理を示すフローチャートである。図7に示すステップS103、S106において、外界状況判定部10a(検出部)は、図3を参照して説明した同ステップと同様の処理を行う。
次に、ステップS111において、動作制御部10bは、外界状況判定部10aにより検出された操作領域に、所定の操作機能、例えば図5のステップS110で説明した場合と同様にマウスパッド機能を関連付けてもよい。
さらに、動作制御部10bは、操作領域に関連付けた操作機能に対応する操作部画像(操作画面)を、操作領域に投影するようプロジェクタ部7を制御する。具体的には、例えば動作制御部10bは、四角形状のマウスパッドの画像が操作領域33に投影されるようプロジェクタ部7を制御する。これにより、ユーザは、操作領域33を視認することができる。
続くステップS112〜S118では、図3を参照して説明した同ステップと同様の処理が行われるので、ここでの説明は省略する。
以上説明したように、第3の実施形態では、操作部画像を操作領域33に投影することで、ユーザは、操作領域33を直感的に把握することができる。
[3−4.第4の実施形態]
上述した各実施形態では、抽出したオブジェクトのうち、平坦領域が最大のオブジェクトから操作領域を検出していたが、本開示の範囲は、操作用の物理的なスイッチ、ボタン等の操作子(操作部)を有するオブジェクトから優先的に操作領域を検出する場合も含む。以下、操作用の物理的な操作子を有するオブジェクトから操作領域を検出する第4の実施形態について、図8〜図9を参照して具体的に説明する。
図8は、第4の実施形態による制御動作の処理を示すフローチャートである。まず、図8に示すステップS103において、外界状況判定部10a(検出部)は、上述した同ステップと同様に、実体オブジェクトの抽出を行う。
次いで、ステップS107において、外界状況判定部10a(検出部)は、抽出したオブジェクトのうち、平坦領域が所定以上の大きさであるオブジェクトの一部を、操作領域候補として検出する。例えば、図9に示す例では、撮像画像に基づいて抽出された各オブジェクトのうち、オブジェクト50A(ノートPC)、50E(机)、50F(電卓)が、平坦領域が所定以上の大きさであるオブジェクトと判断される。また、各オブジェクトの平坦領域の一部が操作領域候補35A(天板部分)、35E(机の一部)、35F(テンキー部分)として検出される。なお、図9上に示す例では、説明のために操作領域候補35A、35E、35Fを示す破線を図示しているが、表示部2にはこのような破線は表示されず、ユーザは透明の表示部2を介して実空間の風景のみが見える。
次に、ステップS120において、動作制御部10bは、操作領域候補の画像特徴量と、予めストレージ部25に記憶された操作感を有するデバイスの画像特徴量とを比較し、最もマッチ度が高い操作領域を選定する。例えば、ストレージ部25に操作感を有するデバイスの画像特徴量として、キーボード、マウス、テンキー等の画像特徴量が記憶されている場合、動作制御部10bは、図9上に示す電卓(オブジェクト50F)の操作領域候補35Fを操作領域33Fとして選定することができる。
次いで、ステップS123において、動作制御部10bは、選定した操作領域(例えば図9下に示す操作領域33F)内の各ボタン(若しくはスイッチ、キー等の物理的な操作子)に、所定の操作機能、例えばテンキー機能を関連付ける。ここで、関連付ける操作機能は、操作領域33F内の各ボタン(操作子)に応じた機能(文字キーであれば、対応する文字データの入力機能、数字キーであれば、対応する数字データの入力機能等)である。動作制御部10bは、選定した操作領域内の各ボタン(操作子)の画像解析結果に基づいて、各ボタンに応じた機能を判断することができる。
続いて、ステップS126において、動作制御部10bは、ユーザの視界の範囲を含む撮像画像に基づいて、ユーザの指部40をその画像特徴量等から認識し、指部40と操作領域33F内のボタンが所定時間(例えば略0.5秒等)重なっているか否かを判断する。
次に、指部40と操作領域33F内のボタンが所定時間重なっていると判断された場合(S126/YES)、ステップS129において、動作制御部10bは、指部40の位置に対応する、操作領域33F内のボタンに関連付けられたキー機能を実行する。すなわち、指部40が重なっているボタンに関連付けられたテンキーに対応するデータを入力値として受け付ける。また、この際、動作制御部10bは、入力値として受け付けたデータを、表示部2に表示するよう、表示制御部14を制御してもよい。例えば、動作制御部10bは、図9下に示すように、入力値として受け付けたデータを示す画像37を表示部2の一部に表示する。なお、図9下に示す例では、説明のために操作領域33Fを示す点線を図示しているが、表示部2にはこのような点線は表示されず、ユーザは透明の表示部2を介して実空間の風景と、上記画像37のみが見える。
これにより、ユーザは、ハンズフリーのHMD1を装着している場合でも、実空間に存在する電卓やキーボード、マウス、携帯電話端末等を実際に触って操作感を得ながら、データ入力(操作)を行うことができる。また、操作に用いるオブジェクト(操作入力デバイス)は、HMD1と電気的または物理的に接続している必要はないので、両者間の通信接続や配線が不要である。また、操作入力デバイス(例えば図9に示す電卓(オブジェクト50F))は電源を入れる必要がなく、電池残量がなかったり、表示機能や入力機能が壊れていたりしてもよいので、究極のリサイクルを実現することができる。
そして、ステップS118において、動作制御部10bは、機能関連付けが解除された否かを判断し、解除された場合(S118/YES)、本動作処理を終了する。
[3−5.第5の実施形態]
上述した第4の実施形態では、操作領域33の選定を自動的に行っているが(S120参照)、本開示の範囲は、操作領域33の選定をユーザが行う場合も含む。以下、操作領域33の選定をユーザが行う第5の実施形態について、図10〜図11を参照して具体的に説明する。
図10は、第5の実施形態による制御動作の処理を示すフローチャートである。図10に示すステップS103、S107において、外界状況判定部10a(検出部)は、図8を参照して説明した同ステップと同様の処理を行う。
次に、ステップS135において、動作制御部10bは、S107で検出された操作領域候補を、表示部2にAR表示するよう、表示制御部14を制御する。具体的には、例えば図11上に示すように、動作制御部10bは、透明の表示部2から見えるオブジェクト50A(ノートPC)、50E(机)、50F(電卓)の各操作領域候補35A、35E、35Fに重なって見えるようAR画像を表示部2に表示する。ここで、表示部2に表示されるAR画像は、操作領域候補35に重畳する色画像または点滅画像、若しくは、操作領域候補35を囲むように重なる枠画像であってもよい。これにより、HMD1は、検出した操作領域候補をユーザに提示することができる。
次いで、ステップS138において、動作制御部10bは、ユーザの視界の範囲を含む撮像画像に基づいて、ユーザの指部40をその画像特徴量等から認識し、指部40と操作領域候補35が所定時間(例えば略0.5秒等)重なっているか否かを判断する。
次に、指部40と操作領域候補35が所定時間重なっていると判断された場合(S138/YES)、ステップS141において、動作制御部10bは、指部40の位置に対応する操作領域候補35を操作領域33として選定する。例えば、図11中央に示す例では、ユーザの指部40が、操作領域候補35Eと所定時間重なっている場合、動作制御部10bは、操作領域候補35Eを操作領域33Eとして選定することができる。このように、本実施形態では、複数の操作領域候補35のうち、ユーザが任意で指を指したり叩いたりすることで、操作領域を選定することができる。
さらに、動作制御部10bは、ユーザの指示に応じて選定した操作領域に、表示部2において、AR情報として操作部画像(操作画面)が重畳表示されるよう表示制御部14を制御してもよい。具体的には、例えば動作制御部10bは、図11下に示すように、ユーザが透明の表示部2から実空間の風景を見た場合に、キーボード画像38が操作領域33Eに重なって見えるよう表示部2の一部に表示する。なお、図11下に示す例では、説明のために操作領域33Eを示す点線を図示しているが、表示部2にはこのような点線は表示されず、ユーザは透明の表示部2を介して実空間の風景と、上記キーボード画像38のみが見える。
次いで、ステップS144において、動作制御部10bは、AR情報として重畳表示した操作部画像内の各領域と、所定の操作機能を関連付ける。本実施形態では、動作制御部10bは、キーボード画像38内の各領域と、キーボードの各キーの機能とを関連付ける。
続いて、ステップS147において、動作制御部10bは、ユーザの視界の範囲を含む撮像画像に基づいて、ユーザの指部40をその画像特徴量等から認識し、指部40とキーボード画像38の領域が所定時間(例えば略0.5秒等)重なっているか否かを判断する。
次に、指部40とキーボード画像38が所定時間重なっていると判断された場合(S147/YES)、ステップS150において、動作制御部10bは、指部40が重なっているキーボード画像38の領域に関連付けられたキー機能を実行する。すなわち、指部40が重なっているキーボード画像38の領域(キーの画像)に関連付けられたキーに対応するデータを入力値として受け付ける。また、この際、動作制御部10bは、入力値として受け付けたデータを、表示部2に表示するよう、表示制御部14を制御してもよい。例えば、動作制御部10bは、図11に示すように、入力値として受け付けたデータを示す画像39を表示部2の一部に表示する。
これにより、ユーザは、複数の操作領域候補から操作領域を選定し、選定した操作領域を実際に触りながら、データ入力(操作)を行うことができる。なお、本実施形態では、表示部2に操作領域候補を示す表示や操作部画像をAR表示しているが、本実施形態は表示部2でのAR表示に限定されず、第3の実施形態と同様に、プロジェクタ部7により、操作領域候補を示す表示や操作部画像を実空間に投影してもよい。
そして、ステップS118において、動作制御部10bは、機能関連付けが解除された否かを判断し、解除された場合(S118/YES)、本動作処理を終了する。
[3−6.第6の実施形態]
上述した第4の実施形態では、選定した操作領域の画像解析結果に基づいて、各ボタンに応じた機能を関連付け、実行していた。具体的には、数字キーの領域には数字キーの機能を関連付け、数字データを入力値として受け付けていた。しかしながら、本開示による機能の関連付けは、第4の実施形態に限定されず、本開示の範囲には、操作領域が選定されたオブジェクト(操作入力用のデバイス)の種類に応じて、HMD1が有する類似機能を関連付ける場合も含まれる。以下、オブジェクトの種類に応じてHMD1が有する類似機能を関連付ける第6の実施形態について、図12〜図13を参照して具体的に説明する。
図12は、第6の実施形態による制御動作の処理を示すフローチャートである。図12に示すステップS103、S107において、外界状況判定部10a(検出部)は、図8を参照して説明した同ステップと同様の処理を行う。具体的には、外界状況判定部10a(検出部)は、透明の表示部2を介して見えるユーザの視界を含む範囲を撮像部3により撮像した撮像画像に基づいて、図13に示すように、オブジェクト50A、50E、50Gを抽出する(S103)。さらに、外界状況判定部10a(検出部)は、各オブジェクト50A(ノートPC)、50E(机)、50G(音楽プレーヤ)から各々操作領域候補35A、35E、35Gを検出する(S107)。
なお、図13上に示す例では、説明のために操作領域候補35A、35E、35Gを示す破線を図示しているが、表示部2にはこのような破線は表示されず、ユーザは透明の表示部2を介して実空間の風景のみが見える。
次に、ステップS153において、動作制御部10bは、操作領域候補の画像特徴量と、予めストレージ部25に記憶されたHMD1が有する機能に対応するデバイスの画像特徴量とを比較し、最もマッチ度が高いオブジェクトの操作領域を選定する。例えば、ストレージ部25にHMD1が有する機能に対応するデバイスの画像特徴量として、音楽プレーヤ、TVのリモートコントローラ、携帯電話端末、電話機等の画像特徴量が記憶されている場合を想定する。この場合、動作制御部10bは、図13に示す各オブジェクト50A、50E、50Gのうち、音楽プレーヤのマッチ度が高いオブジェクト50Gの操作領域候補35Gを、操作領域33Gとして選定する。
次いで、ステップS156において、動作制御部10bは、選定した操作領域内の各ボタン(物理的な操作子)に、当該操作領域を検出したオブジェクトの機能と類似するHMD1の機能を関連付ける。例えば、図13下に示す例では、操作領域33Gが検出されたオブジェクト50Gは、音楽プレーヤであるので、動作制御部10bは、操作領域33G内の各ボタンに、HMD1が有する音楽再生機能を関連付ける。
続いて、ステップS159において、動作制御部10bは、ユーザの視界の範囲を含む撮像画像に基づいて、ユーザの指部40をその画像特徴量等から認識し、指部40と操作領域33G内のボタンが所定時間(例えば略0.5秒等)重なっているか否かを判断する。
次に、指部40と操作領域33G内のボタンが所定時間重なっていると判断された場合(S159/YES)、ステップS162において、動作制御部10bは、指部40の位置に対応する、操作領域33G内のボタンに関連付けられたキー機能を実行する。すなわち、指部40が重なっているボタンに関連付けられた操作領域33G内の再生ボタンに対応する再生指示を操作入力として受け付けて、動作制御部10bは、音声出力部5から音楽再生を行うよう音声入出力コントロール28を制御する。
また、この際、動作制御部10bは、受け付けた操作入力のフィードバックを表示部2に表示するよう表示制御部14を制御してもよい。例えば、動作制御部10bは、図13下に示すように、再生ボタンの操作に応じて再生している音楽の名称や再生時間を示す画像44を透明の表示部2の一部に表示してもよい。なお、図13下に示す例では、説明のために操作領域33Gを示す点線を図示しているが、表示部2にはこのような点線は表示されず、ユーザは透明の表示部2を介して実空間の風景と、上記画像44のみが見える。
そして、ステップS118において、動作制御部10bは、機能関連付けが解除された否かを判断し、解除された場合(S118/YES)、本動作処理を終了する。
以上、第6の実施形態について説明した。これによれば、例えば操作領域内のボタンが数字キーの場合に、当該数字キーがTV(テレビジョン)のリモートコントローラに設けられている場合は、HMD1の表示部2で再生するTV番組のチャンネル操作機能が関連付けられる。一方、当該数字キーが、携帯電話端末に設けられている場合は、HMD1の電話番号入力機能が関連付けられる。
<3.まとめ>
上述したように、本実施形態による制御システムでは、実体オブジェクトの所定の領域に仮想的に操作機能を関連付けることが可能となる。例えば、ハンズフリーを特徴とするHMD1において、実空間に存在する実体オブジェクトを操作入力用デバイスとして用いることができる。これにより、ユーザは、HMD1の操作を、実空間に存在する実体オブジェクトに触れて行うことができる。この場合、ユーザは、普段慣れ親しんでいるマウス操作やキーボード入力等と似た感覚で操作入力を行うことができる。
また、操作入力用デバイスとして用いるオブジェクトとHMD1は電気的、物理的に接続する必要がないので、両者間の通信接続や配線が不要である。また、実体オブジェクトからHMD1に入力データを送信する必要もないので、実体オブジェクトが例えば無線キーボードやマウスであっても、電源を入れる必要はない。さらに、実体オブジェクトが壊れたキーボードやマウス等であっても、HMD1により操作領域と検出され、操作機能が関連付けられれば操作入力用のデバイスとして利用できるので、究極のリサイクルを実現することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した各実施形態では、透明の表示部2から実空間の風景に重なるよう表示部2の一部にAR情報を表示する旨について、図4や図6等を参照して説明した。また、ユーザの視線方向を被写体方向として撮像した撮像画像を表示し、さらにAR情報を重畳表示することで、図4や図6等に示す場合と同様に見える旨を述べた。しかし本実施形態はこれに限定されず、表示部2にコンテンツ(写真、映像等)が再生され、表示部2の大部分が不透明状態となっている場合でも、実体オブジェクトから操作領域を検出して操作機能が関連付けてもよい。この場合、ユーザは、実体オブジェクトを触ってブラインド操作を行うことができる。
また、操作領域が検出される実体オブジェクトは、机やノードPCの天板等の平坦な領域を有する物体や、キーボードや電卓等の物理的な操作子が設けられた物体の他、キーボードやテンキー等の操作子の絵が示された紙媒体であってもよい。また、操作領域が検出される実体オブジェクトは、手のひら等、身体の一部であってもよい。
また、第5の実施形態では、複数の操作領域候補からユーザが任意で操作領域を選択しているが、本開示の範囲はこれに限定されない。例えば、本実施形態による外界状況判定部10a(検出部)は、ユーザが指示(指で指す、叩く、手で触れる等)したオブジェクトを、ユーザにより操作可能と推定される位置に存在する(所定距離内の)オブジェクトとして抽出し、その一部を操作領域として検出してもよい。
より具体的には、図14上に示すように、実空間にキーボード(実体オブジェクト50H)、および携帯電話端末(実体オブジェクト50I)が存在する場合に、ユーザは、図14中央に示すように、例えばキーボードを指部40で触れて(指して)選択してもよい。この際、外界状況判定部10a(検出部)は、撮像部3により撮影された撮影画像に基づいて、指部40が触れているキーボード(実体オブジェクト50H)を、図14下に示すように、操作領域33Hとして検出する。なお、図14下に示す例では、説明のために操作領域候33Hを示す点線を図示しているが、表示部2にはこのような点線は表示されず、ユーザは透明の表示部2を介して実空間の風景が見える。
そして、動作制御部10bは、検出した操作領域33Hの各キーに、キーボードの各キー機能を関連付ける。これにより、動作制御部10bは、指部40と操作領域33Hのキーが所定時間重なっている場合、指部40が重なっている操作領域33Hのキーに関連付けられたキー機能を実行する。すなわち、指部40が重なっている操作領域33Hのキーに関連付けられたキーに対応するデータを入力値として受け付ける。また、この際、動作制御部10bは、入力値として受け付けたデータを、表示部2に表示するよう、表示制御部14を制御してもよい。例えば、動作制御部10bは、図14下に示すように、入力値として受け付けたデータを示す画像39を表示部2の一部に表示する。
ここで、図14に示す例では、キーボード(実体オブジェクト50H)が選択された場合について説明したが、当然、図15に示すように、ユーザは、携帯電話端末(実体オブジェクト50I)を選択してもよい。この場合も同様に、外界状況判定部10a(検出部)は、撮像部3により撮影された撮影画像に基づいて、指部40が触れている携帯電話端末(実体オブジェクト50I)を、操作領域33Iとして検出する。
そして、動作制御部10bは、検出した操作領域33Iの各キーに、携帯電話端末の入力機能を関連付ける。これにより、動作制御部10bは、指部40と操作領域33Iのキーが所定時間重なっている場合、指部40が重なっている操作領域33Iのキーに関連付けられた入力機能を実行する。すなわち、指部40が重なっている操作領域33Iのキーに関連付けられた入力機能に対応するデータを入力値として受け付ける。また、この際、動作制御部10bは、入力値として受け付けたデータを、表示部2に表示するよう、表示制御部14を制御してもよい。例えば、動作制御部10bは、図15に示すように、入力値として受け付けたデータを示す画像39を表示部2の一部に表示する。なお、図15に示す例では、説明のために操作領域候33Iを示す点線を図示しているが、表示部2にはこのような点線は表示されず、ユーザは透明の表示部2に表示される画像39と、表示部2を介して実空間の風景が見える。
以上図14および図15を参照して説明したように、HMD1の操作入力用デバイスとして、日常的に使用しているキーボードや携帯電話端末も用いることができる。特にキーボードや携帯電話端末には、ユーザが使い慣れている、あるいは使いやすいキー配列(キーアサイン)があって、電気的に壊れてしまっても使い続けたいというユーザのニーズがある。このような場合にも、本開示によれば、使い慣れているが壊れてしまったキーボードや携帯電話端末もHMD1の操作入力用デバイスとして利用することができ、ユーザを満足させることができる。
例えば携帯電話端末を買い替えた際に、キャリアや端末メーカによって使い慣れた買い替え前の携帯電話端末のキー配列やキーアサイン等と少し異なるために非常に使いづらく、買い替えた時の障害になっていた。しかしながら、買い替え前の使い慣れた携帯電話端末をHMD1の操作入力用デバイスとして再利用できれば、利便性が高く、特に携帯電話端末でレポートを作成するユーザにとっては重宝される。
なお、本技術は以下のような構成も取ることができる。
(1)
ユーザにより操作可能と推定される位置に存在する実体オブジェクトの少なくとも一部を操作領域として検出する検出部と、
前記検出部により検出された操作領域に所定の機能を対応付けるよう設定する機能設定部と、
前記操作領域と操作体の位置関係に基づいて、前記操作領域に対応付けられた機能を実行する制御部と、
を備える、制御装置。
(2)
前記検出部は、前記ユーザにより直接的または間接的に操作可能と推定される位置に存在する実体オブジェクトの少なくとも一部を操作領域として検出する、前記(1)に記載の制御装置。
(3)
前記操作体は、前記ユーザの指部、または前記ユーザにより把持される物体である、前記(1)または(2)に記載の制御装置。
(4)
前記検出部は、前記ユーザにより操作可能と推定される位置に存在する実体オブジェクトのうち、操作部が設けられた実体オブジェクトの少なくとも一部を、優先的に前記操作領域として検出する、前記(1)〜(3)のいずれか1項に記載の制御装置。
(5)
前記制御部は、前記検出部により検出された前記操作領域に、仮想的な操作画面を重畳表示するよう表示部を制御する、前記(1)〜(4)のいずれか1項に記載の制御装置。
(6)
前記制御装置は、ヘッドマウンドディスプレイ装置であって、
前記制御部は、前記ヘッドマウンドディスプレイ装置の表示画面に映る実体オブジェクトの前記操作領域に、前記操作画面が重畳表示されるよう制御する、前記(5)に記載の制御装置。
(7)
前記制御装置は、画像投影部をさらに備え、
前記制御部は、前記検出部により検出された前記操作領域に操作画面を投影するよう前記画像投影部を制御する、前記(1)〜(6)のいずれか1項に記載の制御装置。
(8)
前記機能設定部は、前記検出により複数の操作領域が検出された場合、前記ユーザに選択された一の操作領域に、所定の機能を対応付けるよう設定する、前記(1)〜(7)のいずれか1項に記載の制御装置。
(9)
前記機能設定部は、前記操作領域が検出された実体オブジェクトの機能と類似する機能を、当該操作領域の機能として対応付けるよう設定する、前記(1)〜(8)のいずれか1項に記載の制御装置。
(10)
前記検出部は、前記ユーザに指示された実体オブジェクトの少なくとも一部を操作領域として検出する、前記(1)〜(9)のいずれか1項に記載の制御装置。
(11)
コンピュータを、
ユーザにより操作可能と推定される位置に存在する実体オブジェクトの少なくとも一部を操作領域として検出する検出部と、
前記検出部により検出された操作領域に所定の機能を対応付けるよう設定する機能設定部と、
前記操作領域と操作体の位置関係に基づいて、前記操作領域に対応付けられた機能を実行する制御部、
として機能させるためのプログラムが記憶された、記憶媒体。
1 HMD(ヘッドマウンドディスプレイ)
2 表示部
3 撮像部
4 照明部
5 音声出力部
6 音声入力部
7 プロジェクタ部
10 システムコントローラ
10a 外界状況判定部
10b 動作制御部
11 撮像制御部
12 表示画像処理部
13 表示駆動部
14 表示制御部
15 撮像信号処理部
16 音声信号処理部
17 画像解析部
18 照明制御部
19 周囲環境センサ
20 撮像対象センサ
21 GPS受信部
22 日時計数部
25 ストレージ部
26 通信部
27 画像入出力コントロール
28 音声入出力コントロール
29 音声合成部
31 マウスポインタ
33、33A〜33I 操作領域
35、35A〜35G 操作領域候補
38 キーボード画像
50A〜50I オブジェクト(実体オブジェクト)
40 指部
(音声合成部)
音声合成部29は、システムコントローラ10の制御に応じて音声合成を行い、音声信号を出力する。音声合成部29から出力された音声信号は、音声入出力コントロール28を介して音声信号処理部16に供給されて処理された後、音声出力部5に供給され、ユーザに対して音声出力される。
また、操作領域が検出される実体オブジェクトは、机やノートPCの天板等の平坦な領域を有する物体や、キーボードや電卓等の物理的な操作子が設けられた物体の他、キーボードやテンキー等の操作子の絵が示された紙媒体であってもよい。また、操作領域が検出される実体オブジェクトは、手のひら等、身体の一部であってもよい。
より具体的には、図14上に示すように、実空間にキーボード(実体オブジェクト50H)、および携帯電話端末(実体オブジェクト50I)が存在する場合に、ユーザは、図14中央に示すように、例えばキーボードを指部40で触れて(指して)選択してもよい。この際、外界状況判定部10a(検出部)は、撮像部3により撮影された撮影画像に基づいて、指部40が触れているキーボード(実体オブジェクト50H)を、図14下に示すように、操作領域33Hとして検出する。なお、図14下に示す例では、説明のために操作領33Hを示す点線を図示しているが、表示部2にはこのような点線は表示されず、ユーザは透明の表示部2を介して実空間の風景が見える。
そして、動作制御部10bは、検出した操作領域33Iの各キーに、携帯電話端末の入力機能を関連付ける。これにより、動作制御部10bは、指部40と操作領域33Iのキーが所定時間重なっている場合、指部40が重なっている操作領域33Iのキーに関連付けられた入力機能を実行する。すなわち、指部40が重なっている操作領域33Iのキーに関連付けられた入力機能に対応するデータを入力値として受け付ける。また、この際、動作制御部10bは、入力値として受け付けたデータを、表示部2に表示するよう、表示制御部14を制御してもよい。例えば、動作制御部10bは、図15に示すように、入力値として受け付けたデータを示す画像39を表示部2の一部に表示する。なお、図15に示す例では、説明のために操作領33Iを示す点線を図示しているが、表示部2にはこのような点線は表示されず、ユーザは透明の表示部2に表示される画像39と、表示部2を介して実空間の風景が見える。

Claims (11)

  1. ユーザにより操作可能と推定される位置に存在する実体オブジェクトの少なくとも一部を操作領域として検出する検出部と、
    前記検出部により検出された操作領域に所定の機能を対応付けるよう設定する機能設定部と、
    前記操作領域と操作体の位置関係に基づいて、前記操作領域に対応付けられた機能を実行する制御部と、
    を備える、制御装置。
  2. 前記検出部は、前記ユーザにより直接的または間接的に操作可能と推定される位置に存在する実体オブジェクトの少なくとも一部を操作領域として検出する、請求項1に記載の制御装置。
  3. 前記操作体は、前記ユーザの指部、または前記ユーザにより把持される物体である、請求項1に記載の制御装置。
  4. 前記検出部は、前記ユーザにより操作可能と推定される位置に存在する実体オブジェクトのうち、操作部が設けられた実体オブジェクトの少なくとも一部を、優先的に前記操作領域として検出する、請求項1に記載の制御装置。
  5. 前記制御部は、前記検出部により検出された前記操作領域に、仮想的な操作画面を重畳表示するよう表示部を制御する、請求項1に記載の制御装置。
  6. 前記制御装置は、ヘッドマウンドディスプレイ装置であって、
    前記制御部は、前記ヘッドマウンドディスプレイ装置の表示画面に映る実体オブジェクトの前記操作領域に、前記操作画面が重畳表示されるよう制御する、請求項5に記載の制御装置。
  7. 前記制御装置は、画像投影部をさらに備え、
    前記制御部は、前記検出部により検出された前記操作領域に操作画面を投影するよう前記画像投影部を制御する、請求項1に記載の制御装置。
  8. 前記機能設定部は、前記検出により複数の操作領域が検出された場合、前記ユーザに選択された一の操作領域に、所定の機能を対応付けるよう設定する、請求項1に記載の制御装置。
  9. 前記機能設定部は、前記操作領域が検出された実体オブジェクトの機能と類似する機能を、当該操作領域の機能として対応付けるよう設定する、請求項1に記載の制御装置。
  10. 前記検出部は、前記ユーザに指示された実体オブジェクトの少なくとも一部を操作領域として検出する、請求項1に記載の制御装置。
  11. コンピュータを、
    ユーザにより操作可能と推定される位置に存在する実体オブジェクトの少なくとも一部を操作領域として検出する検出部と、
    前記検出部により検出された操作領域に所定の機能を対応付けるよう設定する機能設定部と、
    前記操作領域と操作体の位置関係に基づいて、前記操作領域に対応付けられた機能を実行する制御部、
    として機能させるためのプログラムが記憶された、記憶媒体。
JP2014536639A 2012-09-21 2013-07-09 制御装置および記憶媒体 Active JP6256339B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012208029 2012-09-21
JP2012208029 2012-09-21
PCT/JP2013/068755 WO2014045683A1 (ja) 2012-09-21 2013-07-09 制御装置および記憶媒体

Publications (2)

Publication Number Publication Date
JPWO2014045683A1 true JPWO2014045683A1 (ja) 2016-08-18
JP6256339B2 JP6256339B2 (ja) 2018-01-10

Family

ID=50341009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014536639A Active JP6256339B2 (ja) 2012-09-21 2013-07-09 制御装置および記憶媒体

Country Status (8)

Country Link
US (2) US9791948B2 (ja)
EP (1) EP2899618B1 (ja)
JP (1) JP6256339B2 (ja)
CN (1) CN104620212B (ja)
BR (1) BR112015005692A2 (ja)
IN (1) IN2015DN02046A (ja)
RU (1) RU2015108948A (ja)
WO (1) WO2014045683A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150041453A (ko) * 2013-10-08 2015-04-16 엘지전자 주식회사 안경형 영상표시장치 및 그것의 제어방법
KR101844390B1 (ko) * 2014-01-03 2018-04-03 인텔 코포레이션 사용자 인터페이스 제어를 위한 시스템 및 기법
JP6312712B2 (ja) * 2014-01-15 2018-04-18 マクセル株式会社 情報表示端末、情報表示システム及び情報表示方法
WO2015155841A1 (ja) * 2014-04-08 2015-10-15 日立マクセル株式会社 情報表示方法および情報表示端末
WO2015167515A1 (en) * 2014-04-30 2015-11-05 Longsand Limited Augmented reality without a physical trigger
JP6417702B2 (ja) * 2014-05-01 2018-11-07 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6500477B2 (ja) * 2015-02-12 2019-04-17 セイコーエプソン株式会社 頭部装着型表示装置、制御システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP6427942B2 (ja) * 2014-05-01 2018-11-28 セイコーエプソン株式会社 頭部装着型表示装置、制御システム、および、頭部装着型表示装置の制御方法
US9959591B2 (en) * 2014-07-31 2018-05-01 Seiko Epson Corporation Display apparatus, method for controlling display apparatus, and program
JP2016053907A (ja) * 2014-09-04 2016-04-14 株式会社ニコン プログラム及び電子機器
JP6304145B2 (ja) * 2015-06-30 2018-04-04 京セラドキュメントソリューションズ株式会社 情報処理装置、画像形成装置の設定条件指定方法
FI20155599A (fi) * 2015-08-21 2017-02-22 Konecranes Global Oy Nostolaitteen ohjaaminen
JP6786792B2 (ja) * 2015-12-03 2020-11-18 セイコーエプソン株式会社 情報処理装置、表示装置、情報処理方法、及び、プログラム
JP6947177B2 (ja) * 2016-07-05 2021-10-13 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
DE102016116774A1 (de) * 2016-09-07 2018-03-08 Bundesdruckerei Gmbh Datenbrille zum Interagieren mit einem Nutzer
KR102355135B1 (ko) * 2017-01-16 2022-01-26 소니그룹주식회사 정보 처리 장치, 정보 처리 방법, 및 프로그램
US11334213B2 (en) 2017-05-16 2022-05-17 Koninklijke Philips N.V. Virtual cover for user interaction in augmented reality
US20200143774A1 (en) * 2017-07-26 2020-05-07 Sony Corporation Information processing device, information processing method, and computer program
JP2019164420A (ja) * 2018-03-19 2019-09-26 セイコーエプソン株式会社 透過型頭部装着型表示装置および透過型頭部装着型表示装置の制御方法、透過型頭部装着型表示装置の制御のためのコンピュータープログラム
US10839603B2 (en) 2018-04-30 2020-11-17 Microsoft Technology Licensing, Llc Creating interactive zones in virtual environments
JP2021128350A (ja) 2018-05-09 2021-09-02 ソニーグループ株式会社 情報処理システム、情報処理方法、および記録媒体
US11500452B2 (en) 2018-06-05 2022-11-15 Apple Inc. Displaying physical input devices as virtual objects
US10809910B2 (en) 2018-09-28 2020-10-20 Apple Inc. Remote touch detection enabled by peripheral device
JP6817350B2 (ja) * 2019-02-07 2021-01-20 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
US11137908B2 (en) * 2019-04-15 2021-10-05 Apple Inc. Keyboard operation with head-mounted device
US11275945B2 (en) * 2020-03-26 2022-03-15 Varjo Technologies Oy Imaging system and method for producing images with virtually-superimposed functional elements
WO2021235316A1 (ja) * 2020-05-21 2021-11-25 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
WO2023157057A1 (ja) * 2022-02-15 2023-08-24 マクセル株式会社 ヘッドマウントディスプレイ、ウェアラブル端末、及び紫外線監視方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009245392A (ja) * 2008-03-31 2009-10-22 Brother Ind Ltd ヘッドマウントディスプレイ及びヘッドマウントディスプレイシステム
US20100199232A1 (en) * 2009-02-03 2010-08-05 Massachusetts Institute Of Technology Wearable Gestural Interface
JP2010205031A (ja) * 2009-03-04 2010-09-16 Kddi Corp 入力位置特定方法、入力位置特定システムおよび入力位置特定用プログラム
JP2011170585A (ja) * 2010-02-18 2011-09-01 Sony Corp ポインティングデバイス及び情報処理システム
JP2011198150A (ja) * 2010-03-19 2011-10-06 Fujifilm Corp ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法
JP2011209965A (ja) * 2010-03-29 2011-10-20 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2011227649A (ja) * 2010-04-19 2011-11-10 Sony Corp 画像処理システム、画像処理装置、画像処理方法及びプログラム
JP2011227644A (ja) * 2010-04-19 2011-11-10 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2012014406A (ja) * 2010-06-30 2012-01-19 Canon Inc 情報処理システム、情報処理装置、情報処理方法及びプログラム
JP2012108577A (ja) * 2010-11-15 2012-06-07 Panasonic Corp 3d−ui操作空間協調装置
US8228315B1 (en) * 2011-07-12 2012-07-24 Google Inc. Methods and systems for a virtual input device

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000298544A (ja) 1999-04-12 2000-10-24 Matsushita Electric Ind Co Ltd 入出力装置と入出力方法
WO2007053116A1 (en) * 2005-10-31 2007-05-10 National University Of Singapore Virtual interface system
JP5380789B2 (ja) 2007-06-06 2014-01-08 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US8007110B2 (en) * 2007-12-28 2011-08-30 Motorola Mobility, Inc. Projector system employing depth perception to detect speaker position and gestures
US20100177035A1 (en) * 2008-10-10 2010-07-15 Schowengerdt Brian T Mobile Computing Device With A Virtual Keyboard
US20100199228A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Gesture Keyboarding
US8860693B2 (en) * 2009-07-08 2014-10-14 Apple Inc. Image processing for camera based motion tracking
JP2011159163A (ja) 2010-02-02 2011-08-18 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP5728159B2 (ja) * 2010-02-02 2015-06-03 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
WO2011106798A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
CN102200881B (zh) * 2010-03-24 2016-01-13 索尼公司 图像处理装置以及图像处理方法
US20120195461A1 (en) * 2011-01-31 2012-08-02 Qualcomm Incorporated Correlating areas on the physical object to areas on the phone screen
US9069164B2 (en) 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
JP5780142B2 (ja) * 2011-12-07 2015-09-16 富士通株式会社 画像処理装置、画像処理方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009245392A (ja) * 2008-03-31 2009-10-22 Brother Ind Ltd ヘッドマウントディスプレイ及びヘッドマウントディスプレイシステム
US20100199232A1 (en) * 2009-02-03 2010-08-05 Massachusetts Institute Of Technology Wearable Gestural Interface
JP2010205031A (ja) * 2009-03-04 2010-09-16 Kddi Corp 入力位置特定方法、入力位置特定システムおよび入力位置特定用プログラム
JP2011170585A (ja) * 2010-02-18 2011-09-01 Sony Corp ポインティングデバイス及び情報処理システム
JP2011198150A (ja) * 2010-03-19 2011-10-06 Fujifilm Corp ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法
JP2011209965A (ja) * 2010-03-29 2011-10-20 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2011227649A (ja) * 2010-04-19 2011-11-10 Sony Corp 画像処理システム、画像処理装置、画像処理方法及びプログラム
JP2011227644A (ja) * 2010-04-19 2011-11-10 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2012014406A (ja) * 2010-06-30 2012-01-19 Canon Inc 情報処理システム、情報処理装置、情報処理方法及びプログラム
JP2012108577A (ja) * 2010-11-15 2012-06-07 Panasonic Corp 3d−ui操作空間協調装置
US8228315B1 (en) * 2011-07-12 2012-07-24 Google Inc. Methods and systems for a virtual input device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SOOYOUNG KIM ET AL.: "Using Keyboards with Head Mounted Displays", VRCAI '04, JPN7017001143, 18 June 2004 (2004-06-18), US, pages 336 - 343, XP002674991, ISSN: 0003531573, DOI: 10.1145/1044588.1044662 *

Also Published As

Publication number Publication date
US20150227222A1 (en) 2015-08-13
EP2899618A1 (en) 2015-07-29
JP6256339B2 (ja) 2018-01-10
RU2015108948A (ru) 2016-10-10
WO2014045683A1 (ja) 2014-03-27
EP2899618A4 (en) 2016-04-13
BR112015005692A2 (pt) 2017-07-04
EP2899618B1 (en) 2019-05-15
CN104620212A (zh) 2015-05-13
CN104620212B (zh) 2018-09-18
IN2015DN02046A (ja) 2015-08-14
US20170371439A1 (en) 2017-12-28
US10318028B2 (en) 2019-06-11
US9791948B2 (en) 2017-10-17

Similar Documents

Publication Publication Date Title
JP6256339B2 (ja) 制御装置および記憶媒体
CN106210184B (zh) 移动终端及其控制方法
KR102056193B1 (ko) 이동 단말기 및 그 제어 방법
US10635182B2 (en) Head mounted display device and control method for head mounted display device
US20140123015A1 (en) Information processing system, information processing apparatus, and storage medium
KR20170006559A (ko) 이동단말기 및 그 제어방법
KR20150133056A (ko) 이동 단말기 및 그것의 제어방법
US11500533B2 (en) Mobile terminal for displaying a preview image to be captured by a camera and control method therefor
JP2015041052A (ja) リストバンド型情報処理装置および記憶媒体
KR20150135847A (ko) 글래스 타입 단말기 및 이의 제어방법
KR102364085B1 (ko) 이동 단말기 및 그것의 제어방법
KR20150142516A (ko) 글래스 타입 단말기 및 그것의 제어 방법
KR20160127606A (ko) 이동 단말기 및 그 제어 방법
US9215003B2 (en) Communication apparatus, communication method, and computer readable recording medium
CN107637063A (zh) 用于基于用户的手势控制功能的方法和拍摄装置
CN112835445A (zh) 虚拟现实场景中的交互方法、装置及系统
KR20160017463A (ko) 이동 단말기 및 그 제어 방법
US10884498B2 (en) Display device and method for controlling display device
KR20150091608A (ko) 이동 단말기 및 그 제어 방법
KR20170082228A (ko) 이동 단말기 및 그 제어방법
US20230245456A1 (en) Information processing terminal and remote control method
KR20170046947A (ko) 이동 단말기 및 제어 방법
KR20170085358A (ko) 이동 단말기 및 그 제어방법
KR20160029348A (ko) 글래스형 이동 단말기
KR20150111199A (ko) 이동 단말기 및 그것의 제어방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160518

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171120

R151 Written notification of patent or utility model registration

Ref document number: 6256339

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250