JP2010164784A - ヘッドマウントディスプレイ - Google Patents

ヘッドマウントディスプレイ Download PDF

Info

Publication number
JP2010164784A
JP2010164784A JP2009007104A JP2009007104A JP2010164784A JP 2010164784 A JP2010164784 A JP 2010164784A JP 2009007104 A JP2009007104 A JP 2009007104A JP 2009007104 A JP2009007104 A JP 2009007104A JP 2010164784 A JP2010164784 A JP 2010164784A
Authority
JP
Japan
Prior art keywords
hand
image
mounted display
user
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009007104A
Other languages
English (en)
Inventor
Masahito Saeki
正仁 佐伯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2009007104A priority Critical patent/JP2010164784A/ja
Priority to PCT/JP2009/006695 priority patent/WO2010082270A1/ja
Publication of JP2010164784A publication Critical patent/JP2010164784A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ヘッドマウントディスプレイの動作を指示するための操作に関し、操作性に優れた新たなヘッドマウントディスプレイを提供することを目的とする。
【解決手段】CCDカメラによって撮像された、ヘッドマウントディスプレイの利用者の右手及び左手の輪郭を解析し(S110)、解析結果に基づき(S112、S116,S120,S124)、ヘッドマウントディスプレイと制御ボックスとによって実現される動作を制御する(S114,S118,S122,S126)。
【選択図】図6

Description

本発明は、利用者の眼にコンテンツデータにより示されるコンテンツ画像を視認可能に提示し、この利用者にコンテンツ画像を認識させるヘッドマウントディスプレイに関するものである。
利用者の眼にコンテンツデータにより示されるコンテンツ画像を視認可能に提示し、この利用者にコンテンツ画像を認識させるヘッドマウントディスプレイに関する技術が提案されている。例えば、外界像を観察(視認)可能なシースルー型のヘッドマウントディスプレイにおいて、利用者が、ヘッドマウントディスプレイに備えられた赤外線センサ付近に自身の手を近づけた場合、ヘッドマウントディスプレイに内蔵された液晶シャッタへの電流の通電、遮断を制御するスイッチ制御回路が駆動し、液晶シャッタをオフ状態に設定し、外界像を観察できるようにする技術が提案され、これによって、利用者は、装置に手を触れることなく、映像鑑賞状態(コンテンツ画像を視認している状態)と外界像観察状態とを、容易に切り替えることができるとされている(例えば、特許文献1)。なお、このヘッドマウントディスプレイによれば、赤外線センサの検知距離は10cm以内とすることで、誤動作を回避することができるとされている。
特開平9−5666号公報
ところで、ヘッドマウントディスプレイが利用される場面として、例えば、所定の製品の生産現場が想定される。すなわち、ヘッドマウントディスプレイを用いて製品の組立てに関する作業指示を、これを装着する利用者に提示し、この利用者が、手作業で製品を組み立てるような場面が想定される。したがって、このような場面において、ヘッドマウントディスプレイの動作を指示するための操作を適切かつ効率的に行える構成は有用である。
本発明は、ヘッドマウントディスプレイの動作を指示するための操作に関し、操作性に優れた新たなヘッドマウントディスプレイを提供することを目的とする。
上記課題に鑑みなされた本発明のヘッドマウントディスプレイは、利用者の手を撮像し、撮像した手の画像を解析し、解析の結果得られた利用者の手の態様が、一の態様であると解析された場合、一の動作の実行を制御し、他の態様であると解析された場合、他の動作を制御することとしたものである。
本発明を反映した第1の課題解決手段は、利用者の眼に、コンテンツデータにより示されるコンテンツ画像を視認可能に提示し、前記利用者に前記コンテンツ画像を認識させるヘッドマウントディスプレイであって、前記ヘッドマウントディスプレイの動作を制御する制御手段と、前記利用者の手を撮像する撮像手段と、前記撮像手段が撮像した手の画像を解析する画像解析手段と、を備え、前記制御手段は、前記画像解析手段が、前記撮像手段により撮像された手の画像が手の平を示すものであると解析した場合、前記ヘッドマウントディスプレイの第1動作を制御し、前記撮像手段により撮像された手の画像が手の甲を示すものであると解析した場合、前記ヘッドマウントディスプレイの第2動作を制御することを特徴とするヘッドマウントディスプレイである。
これによれば、ヘッドマウントディスプレイの利用者の手の平と手の甲とを識別することによって、ヘッドマウントディスプレイの各動作を制御することが可能で、ヘッドマウントディスプレイの操作性を向上させることができる。
第2の課題解決手段は、利用者の眼に、コンテンツデータにより示されるコンテンツ画像を視認可能に提示し、前記利用者に前記コンテンツ画像を認識させるヘッドマウントディスプレイであって、前記ヘッドマウントディスプレイの動作を制御する制御手段と、前記利用者の手を撮像する撮像手段と、前記撮像手段が撮像した手の画像を解析する画像解析手段と、を備え、前記制御手段は、前記画像解析手段が、前記撮像手段により撮像された手の画像が右手を示すものであると解析した場合、前記ヘッドマウントディスプレイの第1動作を制御し、前記撮像手段により撮像された手の画像が左手を示すものであると解析した場合、前記ヘッドマウントディスプレイの第2動作を制御することを特徴とするヘッドマウントディスプレイである。
これによれば、ヘッドマウントディスプレイの利用者の右手と左手とを識別することによって、ヘッドマウントディスプレイの各動作を制御することが可能で、ヘッドマウントディスプレイの操作性を向上させることができる。
第3の課題解決手段は、利用者の眼に、コンテンツデータにより示されるコンテンツ画像を視認可能に提示し、前記利用者に前記コンテンツ画像を認識させるヘッドマウントディスプレイであって、前記ヘッドマウントディスプレイの動作を制御する制御手段と、前記利用者の手を撮像する撮像手段と、前記撮像手段が撮像した手の画像を解析する画像解析手段と、を備え、前記制御手段は、前記画像解析手段が、前記撮像手段により撮像された手の画像が右手の平を示すものであると解析した場合、前記ヘッドマウントディスプレイの第1動作を制御し、前記撮像手段により撮像された手の画像が左手の甲を示すものであると解析した場合、前記ヘッドマウントディスプレイの第2動作を制御し、前記撮像手段により撮像された手の画像が左手の平を示すものであると解析した場合、前記ヘッドマウントディスプレイの第3動作を制御し、前記撮像手段により撮像された手の画像が右手の甲を示すものであると解析した場合、前記ヘッドマウントディスプレイの第4動作を制御することを特徴とするヘッドマウントディスプレイである。
これによれば、ヘッドマウントディスプレイの利用者の右手の平と右手の甲と左手の平と左手の甲とを識別することによって、ヘッドマウントディスプレイの各動作を制御することが可能で、ヘッドマウントディスプレイの操作性を向上させることができる。
第4の課題解決手段は、利用者の眼に、コンテンツデータにより示されるコンテンツ画像を視認可能に提示し、前記利用者に前記コンテンツ画像を認識させるヘッドマウントディスプレイであって、前記ヘッドマウントディスプレイの動作を制御する制御手段と、前記利用者の右手及び左手を撮像する撮像手段と、前記撮像手段が撮像した右手及び左手の画像を解析する画像解析手段と、を備え、前記制御手段は、前記ヘッドマウントディスプレイの第5動作を制御している場合に、前記画像解析手段が、前記撮像手段により撮像された手の画像が右手の甲と左手の甲とを示すものであると解析した場合、前記ヘッドマウントディスプレイの第5動作の制御を継続し、前記撮像手段により撮像された手の画像が、右手の平と左手の平とを示すものであると解析した場合と、右手の平と左手の甲とを示すものであると解析した場合と、右手の甲と左手の平とを示すものであると解析した場合と、に前記ヘッドマウントディスプレイの第5動作とは異なる動作を制御することを特徴とするヘッドマウントディスプレイである。
これによれば、ヘッドマウントディスプレイの利用者の右手の平又は右手の甲と、左手の平又は左手の甲との組合せを識別することによって、ヘッドマウントディスプレイの各動作を制御することが可能で、ヘッドマウントディスプレイの操作性を向上させることができる。特に、右手の甲と左手の甲との組合せである場合、実行中の動作が継続される一方、右手と左手の少なくともいずれかの手の平を撮像手段側に向けられた場合、実行中の動作とは異なる動作が制御される。
なお、第1乃至第4の課題解決手段において、「ヘッドマウントディスプレイの動作」は、例えば、コンテンツデータに対するものの他、ヘッドマウントディスプレイへの電源の供給若しくは遮断、その他ヘッドマウントディスプレイにおいて実現される各種動作を含む。また、ヘッドマウントディスプレイは、必ずしも1つの装置である必要はなく、例えば、2つの装置による構成であってもよい。例えば、制御手段と画像解析手段とを別の装置として構成し、ヘッドマウントディスプレイと所定の信号ケーブルで接続した構成とすることもできる。
本発明によれば、ヘッドマウントディスプレイの動作を指示するための操作に関し、操作性に優れた新たなヘッドマウントディスプレイを得ることができる。
(a)乃至(c)は、本発明の実施形態におけるHMDの外観を示す図 本発明の実施形態におけるHMDを装着した状態を示す図 本発明の実施形態におけるCCDカメラの外観を示す図 本発明の実施形態におけるHMDに接続される制御ボックスの機能ブロックを示す図 本発明の実施形態における右手の平及び甲と左手の平及び甲の基準画像データによって示される各基準画像を示す図 本発明の実施形態における第1形態のメイン処理のフローを示す図 (a)及び(b)は、本発明の実施形態における所定の製品の組立作業の内容及びその組立作業に関してHMDによって提示されるコンテンツ画像を示す図 本発明の実施形態における第1形態のパターンマッチング処理のフローを示す図 本発明の実施形態における第2形態のメイン処理のフローを示す図 本発明の実施形態における第2形態のパターンマッチング処理のフローを示す図
本発明を反映した上記課題解決手段を実施するための実施形態について、図面を用いて以下に詳細に説明する。なお、上記課題解決手段は、以下に記載の構成に限定されるものではなく、同一の技術的思想において種々の構成を採用することができる。例えば、以下の説明では、ヘッドマウントディスプレイ本体と、ヘッドマウントディスプレイ本体にコンテンツ画像を提供する制御ボックスと、を接続して構成されたヘッドマウントディスプレイを例に説明するが、これら各装置を一体の装置として構成することもできる。なお、以下の説明において、ヘッドマウントディスプレイ本体を、単にヘッドマウントディスプレイ(Head Mounted Display/以下、「HMD」という。)という。
(ヘッドマウントディスプレイの概要)
図1に、HMDの構成、より具体的には、図1(a)にHMDの上面図、図1(b)にHMDの正面図、図1(c)にHMDの左側面図を示す。また、図2にHMDを利用者が装着した状態を示す。
HMD100は、一端に利用者の耳に当たるモダン102A,102Bが取り付けられたテンプル104A,104Bと、テンプル104A,104Bの他端に兆番112A,112Bを介して連結されたヨロイ106A,106Bと、ヨロイ106A,106Bを連結するフロントフレーム108と、フロントフレーム108の中央部に取り付けられ、利用者の鼻に当接する鼻パッド110と、により骨格部が形成されている。ヨロイ106A,106Bに形成された兆番112A,112Bでテンプル104A,104Bを折りたたむことができる。HMD100の骨格部の構成は、例えば、通常の眼鏡と同様であり、HMD100は、利用者に装着された状態において、モダン102A,102Bと、鼻パッド110と、により利用者の顔に支持される(図2参照)。なお、図1(b)において、モダン102A,102B及びテンプル104A,104Bの描画を省略している。
HMD100の骨格部には、画像提示装置114が、ヨロイ106A付近に配設された取付部122を介して取り付けられている。画像提示装置114は、ヨロイ106A付近に取付部122を介して取り付けられた状態において、HMD100を装着した利用者の左眼118と略同一の高さとなる位置に配設される。画像提示装置114は、制御ボックス200(図2参照。詳細については後述する図4参照)と、所定の信号ケーブル250(図2参照)を介して接続されている。詳細は後述するが、制御ボックス200は、所定の記憶領域(例えば、フラッシュROM206(図4参照))に記憶されたコンテンツデータに対しレンダリング処理を実行し、自装置が備えるHMD接続インターフェース(以下、「I/F」という。)212(図4参照)を制御し、再生処理(レンダリング処理)によって得られたコンテンツ画像を含むコンテンツ画像信号を、信号ケーブル250を介して画像提示装置114に出力(送信)する。画像提示装置114は、制御ボックス200が出力するコンテンツ画像信号を、図1及び2には描画していない入出力I/Fを介して受信し、これを取得する。そして、コンテンツ画像信号に基づくコンテンツ画像を、ハーフミラー116に向けて光学的に出射する。
画像提示装置114から出射されたコンテンツ画像(光線)は、ハーフミラー116で、反射し、利用者の左眼118に入射、換言すれば、視認可能に提示(投影)される。これにより、利用者はコンテンツ画像を認識する。ここで、図1(a)において符号120aは、画像提示装置114から出射されたコンテンツ画像に関する光線を示し、符号120bは、ハーフミラー116で反射し、利用者の左眼118に入射する光線を示す。なお、画像提示装置114は、取得したコンテンツ画像信号に応じた画像光120a,120bを2次元方向に走査し、その走査された画像光120a,120bを利用者の左眼118に導き網膜上にコンテンツ画像を形成する網膜走査型のディスプレイを用いて構成することができる他、液晶ディスプレイ、有機EL(Organic Electroluminescence)ディスプレイその他の装置を用いた構成とすることもできる。
画像提示装置114の上面には利用者の手を撮像可能なCCDカメラ300が取り付けられている(図2参照)。なお、CCDカメラ300の外観を図3に示す。
(制御ボックスの構成)
図4に、制御ボックスの構成を示す機能ブロックを示す。なお、制御ボックス200は、例えば、利用者の腰等に取り付け、利用される。制御ボックス200は、自装置の制御を司るCPU202と、各種プログラムを記憶するプログラムROM204と、コンテンツデータ、右手の平及び甲と左手の平と甲を示す基準画像データその他各種データを記憶する不揮発性のフラッシュロム206と、作業領域としてのRAM208とを備える。
また、制御ボックス200は、CCDカメラ300が接続されるCCDカメラ接続I/F210を備える。CCDカメラ接続I/F210は、CCDカメラ300からの撮像画像データの入力(受信)を、CPU202からの指令に基づき制御するCCDカメラ接続コントローラ2102と、CCDカメラ300によって撮像された画像を記憶するCCDカメラ用VRAM(Video RAM)2104とを搭載する。また、制御ボックス200はHMD100が接続されるHMD接続I/F212を備える。HMD接続I/F212は、CPU202からの指令に基づきHMD100(画像提示装置114)との間の各種データを含む信号の入出力(送受信)を制御するHMD接続コントローラ2122と、画像提示装置114に出力されるコンテンツ画像を記憶するHMD用VRAM2124とを搭載する。さらに、制御ボックス200は、例えば、CCDカメラ300による撮像位置を照らすランプ310と、HMD100及び制御ボックス200の電源スイッチ320とが接続される周辺I/F214と、例えば、キーボード(図4において描画せず)から所定の指示の入力を受け付ける通信部216とを備える。
図5は、フラッシュROM206に記憶される右手の平及び甲と左手の平と甲を示す基準画像データによって示される右手の平の画像と、右手の甲の画像と、左手の平の画像と、左手の甲の画像と、を示すものである。各画像は、後述する手の平判定(図6のS110、詳細には図8参照)において実施されるパターンマッチング処理の判定基準となる画像である。ここで、右手の平及び左手の甲について、各々の外形(輪郭)を比較すると、両者は各々略同一である。同じく右手の甲及び左手の平についても、各々の外形(輪郭)は略同一である。なお、以下の説明において、これら画像を「基準パターン」という。
CPU202は、フラッシュROM206に記憶されているコンテンツデータを再生(レンダリング)するためのプログラムROM204に記憶されたプログラムを、RAM206上で実行することで、コンテンツ画像を取得する。そして、プログラムROM204に記憶されているHMD接続I/F212を制御するためのプログラムをRAM206上で実行し、コンテンツ画像を含むコンテンツ画像信号のHMD100への出力を、HMD接続コントローラ2122に指令する。
また、CPU202は、CCDカメラ300からCCDカメラ接続I/F210を介して入力され、CCDカメラ接続コントローラ2102によってCCDカメラ用VRAM2104に記憶された利用者の手の画像を用いて、プログラムROM204に記憶されている解析用プログラム(例えば、パターンマッチングのためのプログラム)をRAM206上で実行することで、利用者の手の態様について解析する。さらに、CPU202は、プログラムROM204に記憶されているHMD100を制御するためのプログラムをRAM206上で実行し、通信部が受け付けた指示に基づいたHMD100の動作と、解析結果に基づいたHMD100の動作と、を制御する。したがって、CPU202が、コンテンツデータと手の画像等の各種データを用い、プログラムROM204に記憶された各種プログラムをRAM206上で実行することにより、各種機能手段(例えば、制御手段及び画像解析手段)が構成される。
(制御ボックスによって実行される処理の第1形態)
図6に、制御ボックスにおいて実行されるメイン処理の第1形態によるフローを示す。なお、この処理は、HMD100及び制御ボックス200の電源がONされ、コンテンツデータの再生指示が、例えば、通信部216に接続されたキーボードを介して入力され、これをCPU202が取得したことを条件として開始される。詳細には、CPU202は、再生指示の取得を条件として、プログラムROM204に記憶された所定のプログラムをRAM206上で実行し、この処理を開始する。
先ず、CPU202は、フラッシュROM206から、コンテンツデータをRAM208上に読み出し、これに対してレンダリング処理を実行し、所定のコンテンツ画像を生成する。例えば、複数のスライドから構成されるコンテンツデータの内、第1頁目のスライドを示すコンテンツ画像を生成する。そして、CPU202は、生成したコンテンツ画像、例えば、第1頁目のスライドを示すコンテンツ画像をHMD用VRAM2124に記憶し、HMD接続コントローラ2122に対して、HMD用VRAM2124上のコンテンツ画像を含むコンテンツ画像信号の出力を指令する。HMD接続コントローラ2122は、CPU202の指令に基づきHMD接続I/F212を制御し、コンテンツ画像信号をHMD100に送信する(S100)。コンテンツ画像信号を受信した画像提示装置114は、制御ボックス200が送信したコンテンツ画像信号を、図1及び図2には描画していない入出力I/Fを介して受信し、これを取得する。そして、コンテンツ画像信号に基づくコンテンツ画像を提示、詳細には、コンテンツ画像をハーフミラー116に向けて光学的に出射する。これにより、HMD100を装着した利用者は、コンテンツ画像を視認し、認識する。具体的に、利用者は、図7(a)に示すような所定の製品の組立作業に関する作業指図を内容とするコンテンツ画像(第1頁目のスライド)を視認し、認識する。そして、図7(b)に示すように左右両手を用いて所定の製品の組み立てを実施する。
コンテンツデータの再生を開始したCPU202は、CCDカメラ接続コントローラ2102が、CCDカメラ接続I/F210を制御し、受信し、CCDカメラ用VRAM2104に記憶された撮像画像を、CCDカメラ用VRAM2104から読み出し(S102)、撮像画像に利用者の手の色を示す「肌色」で描画された部分があるか否かを判断する(S104)。例えば、撮像画像が、RGB(赤、緑及び青の三原色)で表わされる画像である場合、各色の値の比が所定の範囲にあるか否かで判断する。判断の結果、撮像画像に肌色部分が存在しない場合(S104:No)、CPU202は、処理をS102に戻し、継続して、CCDカメラ用VRAM2104から撮像画像を読み出す。
これに対し、撮像画像に肌色部分が存在する場合(S104:Yes)、CPU202は、撮像画像から肌色部分を抽出し(S106)、抽出した部分の輪郭を抽出する(S108)。そして、CPU202は、S108において抽出した輪郭に対しパターンマッチング処理を実行する(S110)。
図8は、図6のS110において実行されるパターンマッチング処理のフローを示すものである。この処理を開始したCPU202は、先ず、この判定処理の結果を記憶するメモリ領域(RAM208の所定領域)をクリアし(S200)、続けて、S202を実行する。S202でCPU202は、S108(図6参照)で抽出した輪郭(以下、「抽出輪郭」という。)とフラッシュROM206に記憶された右手の平及び左手の甲の各基準パターン(図5参照)との間でパターンマッチング処理を実行する。そして、抽出輪郭と右手の平又は左手の甲の各基準パターンとの間に同一性が認められるか否かを判断する。なお、上述したとおり、右手の平と左手の甲の外形の輪郭は略同一であるため、S202では、これら両方の基準パターンに基づいた判断を行うこととしている。
S202の判断の結果、同一性が認められる場合(S202:Yes)、CPU202は、抽出輪郭が右手の平又は左手の甲の各基準パターンのいずれに一致するかを判断する(S204)。具体的には、CPU202は、親指を除く指の先端部分に爪を示す輪郭が認められるか否かに基づき、S204の判断を行う(図5の右手の平及び左手の甲の各基準パターン参照)。判断の結果、爪を示す輪郭が認められない場合(S204:No)、CPU202は、抽出輪郭が右手の平を示すものであると特定する(S206)。これに対し、爪を示す輪郭が認められた場合(S204:Yes)、CPU202は、抽出輪郭が左手の甲を示すものであると特定する(S208)。
S202の判断の結果、同一性が認められない場合(S202:No)、S210でCPU202は、抽出輪郭と右手の甲の及び左手の平の各基準パターン(図5参照)との間でパターンマッチング処理を実行する。そして、抽出輪郭と右手の甲又は左手の平の各基準パターンとの間に同一性が認められるか否かを判断する。なお、上述したとおり、右手の甲と左手の平の外形の輪郭は略同一であるため、S210では、これら両方の基準パターンに基づいた判断を行うこととしている。
S210の判断の結果、同一性が認められる場合(S210:Yes)、CPU202は、抽出輪郭が右手の甲又は左手の平の各基準パターンのいずれに一致するかを判断する(S212)。具体的には、CPU202は、親指を除く指の先端部分に爪を示す輪郭が認められるか否かに基づき、S212の判断を行う(図5の右手の甲及び左手の平の各基準パターン参照)。判断の結果、爪を示す輪郭が認められない場合(S212:No)、CPU202は、抽出輪郭が左手の平を示すものであると特定する(S214)。これに対し、爪を示す輪郭が認められた場合(S212:Yes)、CPU202は、抽出輪郭が右手の甲を示すものであると特定する(S216)。なお、CPU202は、S210の判断が否定された場合(S210:No)、及びS206、S208,S214,S216を実行した後、この処理を終了し、処理を図6に示すS112に移行する。
説明を図6に戻し、S112でCPU202は、S110で抽出輪郭が右手の平を示すものであると特定(図8のS206参照)されたか否かを判断する。判断の結果、右手の平である場合(S112:Yes)、CPU202は、実行すべき動作として「次のスライドへ進む」を特定し、この動作を制御する(S114)。具体的には、第2頁目のスライドを示すコンテンツ画像を生成する。そして、CPU202は、第2頁目のスライドを示すコンテンツ画像を、上述したS100と同様処理によってHMD100に送信する。これにより、第1頁目のスライドを示すコンテンツ画像を認識していた利用者は、第2頁目のスライドを示すコンテンツ画像を視認し、認識する。例えば、利用者は、図7(b)の作業後に行う、次の作業に関する作業指図書を内容とするコンテンツ画像を視認し、認識する。
S110で特定された抽出輪郭が右手の平を示すものでない場合(S112:No)、CPU202は、S110で抽出輪郭が左手の甲を示すものであると特定(図8のS208参照)されたか否かを判断する(S116)。判断の結果、左手の甲である場合(S116:Yes)、CPU202は、実行すべき動作として現在の「コンテンツ画像信号の送信を継続」を特定し、この動作を制御する(S118)。例えば、第1頁目のスライドを内容とするコンテンツ画像(例えば、図7(a)参照)を含むコンテンツ画像信号がHMD100に送信されていれば、その処理が継続して実行される。これによって、HMD100を装着した利用者に、このコンテンツ画像が継続して提示される。利用者は継続して同一のコンテンツ画像を視認し、認識する。
S110で特定された抽出輪郭が左手の甲を示すものでない場合(S116:No)、CPU202は、S110で抽出輪郭が左手の平を示すものであると特定(図8のS214参照)されたか否かを判断する(S120)。判断の結果、左手の平である場合(S120:Yes)、CPU202は、実行すべき動作として現在の「前のスライドへ戻る」を特定し、この動作を制御する(S122)。例えば、第2頁目のスライドを内容とするコンテンツ画像を含むコンテンツ画像信号がHMD100に送信されていれば、第1頁目のスライドを示すコンテンツ画像(例えば、図7(a)参照)を生成する。そして、CPU202は、第1頁目のスライドを示すコンテンツ画像を、上述したS100と同様処理によってHMD100に送信する。これにより、第2頁目のスライドを示すコンテンツ画像を認識していた利用者は、第1頁目のスライドを示すコンテンツ画像を視認し、認識する。
S110で特定された抽出輪郭が左手の平を示すものでない場合(S120:No)、CPU202は、S110で抽出輪郭が右手の甲を示すものであると特定(図8のS216参照)されたか否かを判断する(S124)。判断の結果、右手の甲である場合(S124:Yes)、CPU202は、実行すべき動作として現在の「再生終了」を特定し、この動作を制御する(S126)。例えば、第2頁目のスライドを内容とするコンテンツ画像を含むコンテンツ画像信号がHMD100に送信されていれば、この送信処理を終了する。これにより、HMD100におけるコンテンツ画像の提示も終了する。なお、抽出輪郭が手の画像を示すものではなく、また、例えば、物を握って作業中等、手の形(抽出輪郭)が、図5の基準パターンのいずれにも該当せず、S110で何らの特定もなされていない場合(図8のS210:No)、CPU202は、S124の判断を否定し(S124:No)、処理をS102に戻す。これにより、作業時の右手、左手と操作時の右手、左手とを明確に区別可能で、誤操作を防止できる。
ここで、上述した抽出輪郭の特定、具体的には、「右手の平」等の特定に関し(図6のS112,S116,S120,S124及び図8のS206,S208,S214,S216参照)、後述するようなフラグを用いた構成を採用することもできる。なお、上述した「次のスライドへ進む」が本発明の「第1動作」に対応する。以下、同様に「コンテンツ画像信号の送信を継続」が「第2動作」に、「前のスライドへ戻る」が「第3動作」に、「再生終了」が「第4動作」に対応する(本発明の第1動作〜第4動作は、本実施形態の各動作に限定されるものではない。本発明の第1動作等は、種々の動作を採用し得る。)。
(制御ボックスによって実行される処理の第2形態)
図9に、制御ボックスにおいて実行されるメイン処理の第2形態によるフローを示す。ここで、この処理は、上述した第1形態のメイン処理と同一の条件の下、開始される。なお、以下の説明において、上述した第1処理形態と同一の処理については、第1処理形態の対応するステップ番号のみ記載することとし、その詳細な説明は省略する。
この処理を開始したCPU202は、先ず、S300の処理を実行し、その後、継続してS302〜S308の処理を実行する。ここで、S300〜S308の各処理は、図6に示す第1形態のメイン処理のS100〜S108に対応する。S308を実行した後、CPU202は処理をS310に移行し、S308で抽出した抽出輪郭に基づきパターンマッチング処理を実行する。
図10は、図9のS310において実行されるパターンマッチング処理のフローを示すものである。この処理を開始したCPU202は、先ず、この判定処理の結果を記憶するメモリ領域(RAM208の所定領域)をクリア、詳細には、右手フラグ及び左手フラグを「0」に初期化し(S400)、続けて、S402を実行する。ここで、S402で実行される判断は、図8に示す第1処理形態において実行されるパターンマッチング処理のS202と同一の処理である。S402の判断が肯定された場合(S402:Yes)に実行されるS404は、図8に示すS204と同一の処理である。S404の判断の結果、抽出輪郭が右手の平を示す場合(S404:No)、CPU202は、右手フラグを「1」にセットし(S406)、抽出輪郭が左手の甲を示す場合(S404:Yes)、左手フラグを「2」にセットする(S408)。なお、フラグ「1」は手の平を示すものであり、フラグ「2」は手の甲を示すものである。その後、CPU202は処理をS410に移行する。
S402の判断が否定された場合(S402:No)、CPU202は処理をS410に移行する。ここで、S410で実行される判断は、図8に示す第1処理形態において実行されるパターンマッチング処理のS210と同一の処理である。S410の判断が肯定された場合(S410:Yes)に実行されるS412は、図8に示すS212と同一の処理である。S412の判断の結果、抽出輪郭が左手の平を示す場合(S412:No)、CPU202は、左手フラグを「1」にセットし(S414)、抽出輪郭が左手の甲を示す場合(S412:Yes)、右手フラグを「2」にセットする(S416)。そして、CPU202は、この第2形態におけるパターンマッチング処理を終了し、処理を図9に示すS312に移行する。
図8に示す第1形態のパターンマッチング処理では、先ず、抽出輪郭と右手の平又は左手の甲との間でパターンマッチング処理を実行し(S202参照)、一致しない場合(S202:No)、抽出輪郭と左手の平又は右手の甲との間でパターンマッチングを実行する(S210参照)。すなわち、片方の手の平又は甲のみを対象とする。これに対し、図10に示す第2形態では、抽出輪郭と右手の平又は左手の甲との間でパターンマッチング処理を実行し(S402参照)、次に、左手の平又は右手の甲との間でパターンマッチング処理を実行する(S410参照)。すなわち、両手の組合せを対象とする。そのため、より多用な処理に対応できる。
説明を図9に戻し、S312でCPU202は、S310のパターンマッチング処理で右手フラグ「2」が特定されるとともに、左手フラグ「2」が特定(図10のS408,S416参照)されたか否かを判断する。換言すれば、S312でCPU202は、S308で抽出された左右両手の抽出輪郭が共に手の甲を示すものであると特定されたか否かを判断する。判断の結果、右手フラグ「2」及び左手フラグ「2」である場合(S312:Yes/図10のS408,S416参照)、CPU202は処理をS302に戻す。すなわち、CPU202は、図6に示す第1形態のS118と同様の処理を実行する。上述した組立作業を例とすれば、両手の甲がCCDカメラ300によって撮像されるような場合、HMD100を装着している利用者は、組立作業を継続して実施していると推定される。そのため、本実施形態の構成では、実行中の動作が継続して実行されるよう制御することとしている。
右手フラグ及び左手フラグの少なくともいずれか一方のフラグが「2」ではなく、S312の判断が否定される場合(S312:No)、CPU202は、S310で右手フラグ「1」が特定されているか否かを判断する(S314)。判断の結果、右手フラグが「1」でない場合(S314:No)、具体的には、右手フラグが「0」である場合(図10のS400参照)、続けて、CPU202は、左手フラグ「1」が特定されているか否かを判断する(S316)。判断の結果、左手フラグが「1」ではない場合(S316:No)、具体的には、左手フラグが「0」である場合(図10のS400参照)、CPU202は処理をS302に戻す。なお、この場合、S308で抽出された抽出輪郭は右手及び左手のいずれにも該当しない。または、物を握って作業中等、手の形(抽出輪郭)が、図5の基準パターンのいずれにも該当しない。これにより、作業時の右手、左手と操作時の右手、左手とを明確に区別可能で、誤操作を防止できる。
これに対し、S316の判断の結果、左手フラグが「1」である場合(S316:Yes/図10のS414参照)、CPU202は、実行すべき動作として「前のスライドへ戻る」を特定する(S318)。すなわち、CPU202は、右手フラグ「0」及び左手フラグ「1」の場合、例えば、S308で抽出された抽出輪郭が左手のみであって、左手の輪郭が手の平を示すものであると特定された場合、CPU202は、「前のスライドへ戻る」を実行すべき動作として特定する。なお、S318は、図6に示す第1処理形態のS122に対応し、例えば、S122に関連して上述した処理が実行される。S122を実行した後、CPU202は処理をS302に戻す。
S314の判断の結果、右手フラグが「1」である場合(S314:Yes/図10のS406参照)、続けて、CPU202は、左手フラグ「1」が特定されているか否かを判断する(S320)。判断の結果、左手フラグが「1」ではない場合(S320:No)、具体的には、左手フラグが「0」である場合(図10のS400参照)、CPU202は、実行すべき動作として「次のスライドへ進む」を特定する(S322)。すなわち、CPU202は、右手フラグ「1」及び左手フラグ「0」の場合、例えば、S308で抽出された抽出輪郭が右手のみであって、右手の輪郭が手の平を示すものであると特定された場合、CPU202は、「次のスライドへ進む」を実行すべき動作として特定する。なお、S322は、図6に示す第1処理形態のS114に対応し、例えば、S114に関連して上述した処理が実行される。
S320の判断の結果、左手フラグが「1」である場合(S320:Yes/図10のS414参照)、CPU202は、実行すべき動作として「再生終了」を特定する(S324)。すなわち、CPU202は、右手フラグ「1」及び左手フラグ「1」の場合、換言すれば、S308で両手の輪郭が抽出され、両手の抽出輪郭が共に手の平を示すものであると特定された場合、CPU202は、「再生終了」を実行すべき動作として特定する(S324)。なお、S324は、図6に示す第1処理形態のS126に対応し、例えば、S126に関連して上述した処理が実行される。なお、S120を実行した後、CPU202は、この処理を終了する。
なお、上述したS312の判断が肯定(S312:Yes)され、実行中の動作が継続される場合が、本発明の「第5動作の制御を継続し」に対応する。また、「次のスライドへ進む」と「前のスライドへ戻る」と「再生終了」とが本発明の「第5動作とは異なる動作」に対応する(本発明の第5動作及びこれと異なる動作は、本実施形態の各動作に限定されるものではない。本発明の第5動作等は、種々の動作を採用し得る。)。
(実施形態の構成に基づく有利な効果)
上記実施形態のHMD100と制御ボックス200による構成によれば、HMD100を装着した利用者の手の状態、詳細には、CCDカメラ300によって撮像された利用者の右手及び左手の状態を解析し(図6のS110、詳細には図8、及び、図9のS310、詳細には図10参照)、解析結果に基づき、HMD100と制御ボックス200とによって実現される動作を制御する構成(図6のS114,S118,S122,S126、図9のS312:No,S318,S322,S324参照)を採用した。
これによれば、HMD100と制御ボックス200とによって実現される動作を、直接装置本体を操作することなく、ハンズフリーで実現することができる。具体的には、利用者は、例えば、所定の製品を組み立てるための第1工程に関する作業指図を内容とするコンテンツ画像を視認している状態において、CCDカメラ300に対し、右手の平を向けることで第2工程に関する作業指図を視認し、認識することができる(図6のS112:Yes、S114参照)。また、CCDカメラ300に対し、左右両方の手の平を向けることでコンテンツの再生を終了さることができる(図9のS314,S320:Yes,S324)。特に、手の平は、作業中に見せることはないため、作業時の手の動きと操作時の手の形状とを明確に区別でき、誤操作を防止できる。
100 HMD
200 制御ボックス
202 CPU
204 プログラムROM
206 フラッシュROM
208 RAM
210 CCDカメラ接続I/F
2102 CCDカメラ接続コントローラ
2104 CCDカメラVRAM
300 CCDカメラ

Claims (4)

  1. 利用者の眼に、コンテンツデータにより示されるコンテンツ画像を視認可能に提示し、前記利用者に前記コンテンツ画像を認識させるヘッドマウントディスプレイであって、
    前記ヘッドマウントディスプレイの動作を制御する制御手段と、
    前記利用者の手を撮像する撮像手段と、
    前記撮像手段が撮像した手の画像を解析する画像解析手段と、を備え、
    前記制御手段は、前記画像解析手段が、前記撮像手段により撮像された手の画像が手の平を示すものであると解析した場合、前記ヘッドマウントディスプレイの第1動作を制御し、前記撮像手段により撮像された手の画像が手の甲を示すものであると解析した場合、前記ヘッドマウントディスプレイの第2動作を制御することを特徴とするヘッドマウントディスプレイ。
  2. 利用者の眼に、コンテンツデータにより示されるコンテンツ画像を視認可能に提示し、前記利用者に前記コンテンツ画像を認識させるヘッドマウントディスプレイであって、
    前記ヘッドマウントディスプレイの動作を制御する制御手段と、
    前記利用者の手を撮像する撮像手段と、
    前記撮像手段が撮像した手の画像を解析する画像解析手段と、を備え、
    前記制御手段は、前記画像解析手段が、前記撮像手段により撮像された手の画像が右手を示すものであると解析した場合、前記ヘッドマウントディスプレイの第1動作を制御し、前記撮像手段により撮像された手の画像が左手を示すものであると解析した場合、前記ヘッドマウントディスプレイの第2動作を制御することを特徴とするヘッドマウントディスプレイ。
  3. 利用者の眼に、コンテンツデータにより示されるコンテンツ画像を視認可能に提示し、前記利用者に前記コンテンツ画像を認識させるヘッドマウントディスプレイであって、
    前記ヘッドマウントディスプレイの動作を制御する制御手段と、
    前記利用者の手を撮像する撮像手段と、
    前記撮像手段が撮像した手の画像を解析する画像解析手段と、を備え、
    前記制御手段は、前記画像解析手段が、前記撮像手段により撮像された手の画像が右手の平を示すものであると解析した場合、前記ヘッドマウントディスプレイの第1動作を制御し、前記撮像手段により撮像された手の画像が左手の甲を示すものであると解析した場合、前記ヘッドマウントディスプレイの第2動作を制御し、前記撮像手段により撮像された手の画像が左手の平を示すものであると解析した場合、前記ヘッドマウントディスプレイの第3動作を制御し、前記撮像手段により撮像された手の画像が右手の甲を示すものであると解析した場合、前記ヘッドマウントディスプレイの第4動作を制御することを特徴とするヘッドマウントディスプレイ。
  4. 利用者の眼に、コンテンツデータにより示されるコンテンツ画像を視認可能に提示し、前記利用者に前記コンテンツ画像を認識させるヘッドマウントディスプレイであって、
    前記ヘッドマウントディスプレイの動作を制御する制御手段と、
    前記利用者の右手及び左手を撮像する撮像手段と、
    前記撮像手段が撮像した右手及び左手の画像を解析する画像解析手段と、を備え、
    前記制御手段は、前記ヘッドマウントディスプレイの第5動作を制御している場合に、前記画像解析手段が、前記撮像手段により撮像された手の画像が右手の甲と左手の甲とを示すものであると解析した場合、前記ヘッドマウントディスプレイの第5動作の制御を継続し、前記撮像手段により撮像された手の画像が、右手の平と左手の平とを示すものであると解析した場合と、右手の平と左手の甲とを示すものであると解析した場合と、右手の甲と左手の平とを示すものであると解析した場合と、に前記ヘッドマウントディスプレイの第5動作とは異なる動作を制御することを特徴とするヘッドマウントディスプレイ。
JP2009007104A 2009-01-15 2009-01-15 ヘッドマウントディスプレイ Pending JP2010164784A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009007104A JP2010164784A (ja) 2009-01-15 2009-01-15 ヘッドマウントディスプレイ
PCT/JP2009/006695 WO2010082270A1 (ja) 2009-01-15 2009-12-08 ヘッドマウントディスプレイ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009007104A JP2010164784A (ja) 2009-01-15 2009-01-15 ヘッドマウントディスプレイ

Publications (1)

Publication Number Publication Date
JP2010164784A true JP2010164784A (ja) 2010-07-29

Family

ID=42339540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009007104A Pending JP2010164784A (ja) 2009-01-15 2009-01-15 ヘッドマウントディスプレイ

Country Status (2)

Country Link
JP (1) JP2010164784A (ja)
WO (1) WO2010082270A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014174747A (ja) * 2013-03-08 2014-09-22 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2016034133A (ja) * 2015-10-08 2016-03-10 セイコーエプソン株式会社 頭部装着型表示装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103018905A (zh) * 2011-09-23 2013-04-03 奇想创造事业股份有限公司 头戴式体感操控显示系统及其方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JPH095666A (ja) * 1995-06-15 1997-01-10 Olympus Optical Co Ltd 頭部装着型映像表示装置
JP2000101898A (ja) * 1998-09-21 2000-04-07 Fuji Photo Film Co Ltd 電子カメラ
JP2008185609A (ja) * 2007-01-26 2008-08-14 Sony Corp 表示装置、表示方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JPH095666A (ja) * 1995-06-15 1997-01-10 Olympus Optical Co Ltd 頭部装着型映像表示装置
JP2000101898A (ja) * 1998-09-21 2000-04-07 Fuji Photo Film Co Ltd 電子カメラ
JP2008185609A (ja) * 2007-01-26 2008-08-14 Sony Corp 表示装置、表示方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014174747A (ja) * 2013-03-08 2014-09-22 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2016034133A (ja) * 2015-10-08 2016-03-10 セイコーエプソン株式会社 頭部装着型表示装置

Also Published As

Publication number Publication date
WO2010082270A1 (ja) 2010-07-22

Similar Documents

Publication Publication Date Title
WO2010107072A1 (ja) ヘッドマウントディスプレイ
JP6488786B2 (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP6459380B2 (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP6094305B2 (ja) 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
WO2017094606A1 (ja) 表示制御装置及び表示制御方法
JP2011114781A (ja) ヘッドマウントディスプレイ装置、及びヘッドマウントディスプレイ装置を用いた画像共有システム
CN111684336A (zh) 使用了视网膜扫描型显示部的图像显示装置及其方法
JP2015046092A (ja) 画像処理装置とこれを有する頭部装着型表示装置
JP2018142857A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2015115848A (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP7238456B2 (ja) 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法
JP2013206412A (ja) ヘッドマウントディスプレイ及びコンピュータプログラム
CN113267896A (zh) 显示系统、控制器、显示系统的控制方法和记录介质
JP6337534B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2010064361A1 (ja) ヘッドマウントディスプレイ
WO2010082270A1 (ja) ヘッドマウントディスプレイ
JP2020071587A (ja) 表示装置、及び、表示装置の制御方法
JP2018042004A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
JP2020135306A (ja) 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法
JP2016109710A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2016038484A (ja) 虚像表示装置及び方法
JP6582374B2 (ja) 表示装置およびその制御方法、並びにコンピュータープログラム
JP6304415B2 (ja) 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
JP2021043300A (ja) 表示システム、情報処理装置の制御プログラム、情報処理装置の制御方法、及び表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130108