JP6398870B2 - ウェアラブル電子機器およびウェアラブル電子機器のジェスチャー検知方法 - Google Patents

ウェアラブル電子機器およびウェアラブル電子機器のジェスチャー検知方法 Download PDF

Info

Publication number
JP6398870B2
JP6398870B2 JP2015105522A JP2015105522A JP6398870B2 JP 6398870 B2 JP6398870 B2 JP 6398870B2 JP 2015105522 A JP2015105522 A JP 2015105522A JP 2015105522 A JP2015105522 A JP 2015105522A JP 6398870 B2 JP6398870 B2 JP 6398870B2
Authority
JP
Japan
Prior art keywords
gesture
unit
detection
indicator
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015105522A
Other languages
English (en)
Other versions
JP2016218899A (ja
Inventor
軌行 石井
軌行 石井
卓 天野
卓 天野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2015105522A priority Critical patent/JP6398870B2/ja
Publication of JP2016218899A publication Critical patent/JP2016218899A/ja
Application granted granted Critical
Publication of JP6398870B2 publication Critical patent/JP6398870B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Description

本発明は、身に付けることができるウェアラブル電子機器に関し、特に、所定のジェスチャーを認識できるウェアラブル電子機器に関する。そして、本発明は、ウェアラブル電子機器のジェスチャー検知方法に関する。
近年、急速に発達した例えばスマートフォン(多機能型携帯電話機)等の携帯端末装置では、一般に、タッチパネルが備えられ、ユーザは、例えば所望の画像を表示させたり、情報を入力したりする等のために、その必要な入力操作を、前記タッチパネルを用いて行っている。しかしながら、例えば、ユーザの手が濡れていたり、汚れていたりする場合等のように、前記タッチパネルにタッチせずに前記入力操作を行いたい場合がある。このため、意思伝達手段の1つの身振りや手振りであるジェスチャーによって前記入力操作を行うことができる機器が研究、開発されており、例えば、特許文献1に開示された技術がある。
この特許文献1に開示された移動コンピューティングデバイスは、赤外線(IR)発光ダイオード(LED)とIR近接センサとを備える、3次元のユーザの動きに関連するデータを取得するように構成されているセンサシステムと、前記センサシステムに通信可能に結合され、前記センサシステムにより取得された前記3次元のユーザの動きに関連するデータの明瞭度と、前記3次元のユーザの動きに関する正しい入力ジェスチャー識別の確率とを示す、前記デバイスのプロパティを識別し、前記デバイスのプロパティに基づいて、前記センサシステムの前記IR LEDまたは前記IR近接センサのうちの少なくとも1つの電力消費を規制するように構成されているセンサ制御装置モジュールとを具備する。
特表2013−534009号公報
ところで、前記特許文献1に開示された前記センサシステムは、ジェスチャーを行う指示体(前記特許文献1ではユーザ)が近接センサの検知領域に存在していることを前提に、IR近接センサによって3次元のユーザの動きに関連するデータ、すなわち、ジェスチャーを取得している。このため、前記特許文献1に開示された前記センサシステムは、前記指示体ではない他の物体が前記近接センサの検知領域内で動いても、ジェスチャーとして検知し、誤検知してしまう。
一方、カメラで画像を生成してこの画像からジェスチャーを検知する技術は、前記検知領域に相当する撮像領域の内で動く物体が指示体であるか否かを画像から判定できるため、上記誤検知を低減できる。しかしながら、この技術は、画像からジェスチャーを検知するためにその画像処理を実施しなければならず、ジェスチャーを検知するための前記画像処理の情報処理が複雑で煩雑であるため、その情報処理量が多くなり、消費電力も増大してしまう。
本発明は、上述の事情に鑑みて為された発明であり、その目的は、画像からジェスチャーを検知する技術に較べて消費電力を低減しつつ、指示体ではない物体の動きによるジェスチャーの誤検知を低減できるウェアラブル電子機器、および、前記ウェアラブル電子機器のジェスチャー検知方法を提供することである。
本発明のウェアラブル電子機器は、検知領域内でのジェスチャーを検知するジェスチャー検知部と、前記検知領域内の物体の有無に応じた信号を出力する物体検出部と、前記検知領域を含む領域を撮像領域として画像を生成する撮像部と、前記物体検出部の出力に基づいて前記物体の存否を検出して前記物体の存在を検出した場合に、非動作状態にある前記撮像部を起動して前記撮像部に画像を生成させ、前記撮像部で撮像された画像に基づいてジェスチャーを行うための指示体の存否を検出して前記指示体の存在を検出した場合に、前記ジェスチャー検知部に前記指示体による前記ジェスチャーを検知させる御部とを備え、前記ジェスチャー検知部は、前記撮像部で撮像された画像を用いることなく指示体によるジェスチャーを検知することを特徴とする。
また、本発明のウェアラブル電子機器のジェスチャー検知方法は、生体における所定の部位に装着部材によって装着されるウェアラブル電子機器のジェスチャー検知方法であって、ジェスチャーの検知領域内の物体の有無に応じた信号を出力する物体検出部の出力に基づいて前記物体の存否を検出し、前記物体の存在を検出した場合に、前記検知領域を含む領域を撮像領域として画像を生成する撮像部を非動作状態から起動して画像を生成させ、前記撮像部で撮像された画像に基づいてジェスチャーを行うための指示体の存否を検出し、前記指示体の存在を検出した場合に、前記検知領域内での前記ジェスチャーを検知するジェスチャー検知部に前記指示体による前記ジェスチャーを検知させ、前記ジェスチャーを検知させる場合では、前記撮像部で撮像された画像を用いることなく指示体によるジェスチャーを検知させることを特徴とする。
本発明にかかるウェアラブル電子機器およびウェアラブル電子機器のジェスチャー検知方法は、画像からジェスチャーを検知する技術に較べて消費電力を低減しつつ、指示体ではない物体の動きによるジェスチャーの誤検知を低減できる。
実施形態におけるウェアラブル電子機器の構造的な構成を示す斜視図である。 実施形態におけるウェアラブル電子機器の構造的な構成を示す正面図である。 実施形態におけるウェアラブル電子機器の構造的な構成を示す上面図である。 実施形態のウェアラブル電子機器におけるディスプレイユニットの構成を示す概略断面図である。 実施形態におけるウェアラブル電子機器の電気的な構成を示すブロック図である。 実施形態のウェアラブル電子機器におけるセンサ部の一例としての近接センサの構成を示す図である。 実施形態のウェアラブル電子機器を装着した場合の正面図である。 実施形態のウェアラブル電子機器を装着した場合の側面図および部分上面図である。 シースルー型の画像表示部を通してユーザが視認する像の一例を示す図である。 実施形態のウェアラブル電子機器におけるセンサ部の一例としての近接センサの出力の一例を示す図である。 ジェスチャーの検知に関し、実施形態のウェアラブル電子機器の動作(メインルーチン)を示すフローチャートである。 実施形態のウェアラブル電子機器の前記動作(メインルーチン)における指示体の存否の判定処理(サブルーチン)を示すフローチャートである。 実施形態のウェアラブル電子機器の前記動作(メインルーチン)におけるジェスチャー検知処理(サブルーチン)を示すフローチャートである。 実施形態のウェアラブル電子機器における指示体の存否の判定処理を説明するための図である。
一態様にかかるウェアラブル電子機器は、検知領域内でのジェスチャーを検知するジェスチャー検知部と、前記検知領域内の物体の有無に応じた信号を出力する物体検出部と、前記検知領域を含む領域を撮像領域として画像を生成する撮像部と、前記物体検出部の出力に基づいて前記物体の存否を検出して前記物体の存在を検出した場合に、非動作状態にある前記撮像部を起動して前記撮像部に画像を生成させる第1制御部と、前記撮像部で撮像された画像に基づいてジェスチャーを行うための指示体の存否を検出して前記指示体の存在を検出した場合に、前記ジェスチャー検知部に前記指示体による前記ジェスチャーを検知させる第2制御部とを備えることを特徴とする。好ましくは、上述のウェアラブル電子機器において、前記ジェスチャー検知部は、2次元マトリクス状に配列された複数の焦電素子を備えるパッシブ型センサを備えて構成される。好ましくは、上述のウェアラブル電子機器において、前記ジェスチャー検知部は、赤外光を照射する赤外線光源と、2次元マトリクス状に配列された複数の焦電素子とを備えるアクティブ型センサを備えて構成される。
このようなウェアラブル電子機器は、撮像部の画像からジェスチャーを検知せずに、ジェスチャー検知部でジェスチャーを検知するので、画像からジェスチャーを検知する技術に較べて情報処理量が少なく消費電力を低減できる。上記ウェアラブル電子機器は、物体検出部の出力に基づいて物体の存否を検出して前記物体の存在を検出した場合に、非動作状態の撮像部を起動させるので、一層、省電力化できる。そして、上記ウェアラブル電子機器は、この撮像部で撮像された画像に基づいて指示体の存否を検出するので、指示体ではない物体の動きによるジェスチャーの誤検知を低減できる。さらに、上記ウェアラブル電子機器は、前記指示体の存在を検出した場合に、前記ジェスチャー検知部に前記ジェスチャーを検知させるので、さらに省電力化できる。
また、他の一態様では、上述のウェアラブル電子機器において、前記第2制御部は、前記撮像部で撮像された画像から、前記指示体を特徴付ける特徴量を抽出し、抽出された特徴量が予め定めた条件に合致するか否かを判定することで、前記検知領域内における前記指示体の存否を検出することを特徴とする。好ましくは、上述のウェアラブル電子機器において、前記特徴量は、指示体の色、指示体の輪郭形状、指示体上の形状パターンおよび指示体に付されたマーカーのうちの少なくとも1つである。
このようなウェアラブル電子機器は、指示体の特徴量で前記指示体の存否を検出するので、指示体の一部の画像からでも指示体の存否を検出できる。特に、前記特徴量が指示体の色である場合には、色を判定する情報処理(色判定情報処理)は、輪郭形状を判定する情報処理(輪郭形状判定情報処理)や、形状パターンを判定する情報処理(形状パターン判定情報処理)に較べて簡易に判定できるので、情報処理量が少なくて済む。
また、他の一態様では、上述のウェアラブル電子機器において、前記第2制御部は、前記撮像部で撮像された画像から、前記指示体を特徴付ける、互いに異なる種類の複数の特徴量を抽出し、抽出された前記複数の特徴量が予め定めた条件に合致する場合には検出結果として前記検知領域内に前記指示体が存在すると判定し、合致しない場合には前記検出結果として前記検知領域内に前記指示体が存在しないと判定することを特徴とする。
このようなウェアラブル電子機器は、特徴量の複数種類で前記指示体の存否を検出するので、より精度良く指示体の存否を検出できる。
また、他の一態様では、これら上述のウェアラブル電子機器において、前記物体検出部は、前記ジェスチャー検知部を兼ねることを特徴とする。
このようなウェアラブル電子機器は、物体検出部がジェスチャー検知部を兼ねるので、部品数を低減でき、小型化できる。
また、他の一態様では、これら上述のウェアラブル電子機器において、前記ジェスチャー検知部は、2次元マトリクス状に配列された複数の焦電素子を備えるセンサ部と、前記センサ部の出力に基づいて前記ジェスチャーを求めるジェスチャー処理部とを備え、前記物体検出部は、前記センサ部における前記複数の焦電素子のうちの少なくとも1つであることを特徴とする。好ましくは、上述のウェアラブル電子機器において、前記センサ部は、パッシブ型またはアクティブ型である。
これによれば、ジェスチャー検知部の焦電素子を物体検出部に流用したウェアラブル電子機器を提供できる。
また、他の一態様では、これら上述のウェアラブル電子機器において、前記第1制御部は、前記第2制御部が前記センサ部の出力をサンプリングする第2サンプリング周期よりも長い第1サンプリング周期で、前記センサ部の出力をサンプリングすることを特徴とする。
このようなウェアラブル電子機器は、物体の存否の検出には、ジェスチャーを検知する場合の第2サンプリング周期よりも長周期の第1サンプリング周期でセンサ部の出力をサンプリングして処理するので、物体の存否の検出とジェスチャーの検知とを同じサンプリング周期で実行する場合に比べて省電力化できる。
また、他の一態様では、これら上述のウェアラブル電子機器において、頭部に装着するための頭部装着部材をさらに備えることを特徴とする。
これによれば、例えばヘッドマウントディスプレイ等のような、頭部に装着されるウェアラブル電子機器を提供できる。
そして、他の一態様にかかるウェアラブル電子機器のジェスチャー検知方法は、生体における所定の部位に装着部材によって装着されるウェアラブル電子機器のジェスチャー検知方法であって、ジェスチャーの検知領域内の物体の有無に応じた信号を出力する物体検出部の出力に基づいて前記物体の存否を検出し、前記物体の存在を検出した場合に、前記検知領域を含む領域を撮像領域として画像を生成する撮像部を非動作状態から起動して画像を生成させ、前記撮像部で撮像された画像に基づいてジェスチャーを行うための指示体の存否を検出し、前記指示体の存在を検出した場合に、前記検知領域内での前記ジェスチャーを検知するジェスチャー検知部に前記指示体による前記ジェスチャーを検知させることを特徴とする。好ましくは、上述のウェアラブル電子機器のジェスチャー検知方法において、前記撮像部で撮像された画像から、前記指示体を特徴付ける特徴量を抽出し、抽出された特徴量が予め定めた条件に合致するか否かを判定することで、前記検知領域内における前記指示体の存否を検出する。好ましくは、上述のウェアラブル電子機器のジェスチャー検知方法において、前記ジェスチャー検知部を兼ねる前記物体検出部の出力を、第1サンプリング周期でサンプリングして前記物体の存否を検出し、前記指示体の存在を検出した場合に、前記物体検出部の出力を、前記第1サンプリング周期よりも短い第2サンプリング周期でサンプリングして前記検知領域内での前記ジェスチャーを検知する。
このようなウェアラブル電子機器のジェスチャー検知方法は、撮像部の画像からジェスチャーを検知せずに、ジェスチャー検知部でジェスチャーを検知するので、画像からジェスチャーを検知する技術に較べて情報処理量が少なく消費電力を低減できる。上記ジェスチャー検知方法は、物体検出部の出力に基づいて物体の存否を検出して前記物体の存在を検出した場合に、非動作状態の撮像部を起動させるので、一層、省電力化できる。そして、上記ジェスチャー検知方法は、この撮像部で撮像された画像に基づいて指示体の存否を検出するので、指示体ではない物体の動きによるジェスチャーの誤検知を低減できる。さらに、上記ジェスチャー検知方法は、前記指示体の存在を検出した場合に、ジェスチャー検知部を動作させて前記ジェスチャー検知部に前記ジェスチャーを検知させるので、さらに省電力化できる。
以下、本発明にかかるより具体的な実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。
本実施形態におけるウェアラブル電子機器は、身に付けることができ、所定のジェスチャーを検知できる電子機器であり、検知領域内でのジェスチャーを検知するジェスチャー検知部と、前記検知領域内の物体の有無に応じた信号を出力する物体検出部と、前記検知領域を含む領域を撮像領域として画像を生成する撮像部と、前記物体検出部の出力に基づいて前記物体の存否を検出して前記物体の存在を検出した場合に、非動作状態にある前記撮像部を起動して前記撮像部に画像を生成させる第1制御部と、前記撮像部で撮像された画像に基づいてジェスチャーを行うための指示体の存否を検出して前記指示体の存在を検出した場合に、前記ジェスチャー検知部に前記指示体による前記ジェスチャーを検知させる第2制御部とを備える。このようなウェアラブル電子機器は、任意の用途の電子機器であって良いが、ここでは、一例として、頭部に装着するための頭部装着部材をさらに備えた、いわゆるヘッドマウントディスプレイ(HMD)である場合について、より具体的に、以下に、説明する。
図1は、実施形態におけるウェアラブル電子機器の構造的な構成を示す斜視図である。図2は、実施形態におけるウェアラブル電子機器の構造的な構成を示す正面図である。図3は、実施形態におけるウェアラブル電子機器の構造的な構成を示す上面図である。図4は、実施形態のウェアラブル電子機器におけるディスプレイユニットの構成を示す概略断面図である。図5は、実施形態におけるウェアラブル電子機器の電気的な構成を示すブロック図である。図6は、実施形態のウェアラブル電子機器におけるセンサ部の一例としての近接センサの構成を示す図である。以下、HMD100の右側および左側とは、HMD100を装着したユーザにとっての右側および左側をいうものとする。
まず、HMD100の構造的な構成について説明する。図1ないし図3に示すように、本実施形態におけるHMD100は、頭部に装着するための頭部装着部材の一例であるフレーム101を備える。上方から見て略コ字状であるフレーム101は、2つの眼鏡レンズ102を取り付ける前方部101aと、前方部101aの両端から後方へと延在する側部101b、101cとを備える。フレーム101に取り付けられた2つの眼鏡レンズ102は、屈折力(光学的パワー、焦点距離の逆数)を有して良く、また、有しなくて良い。
右側(ユーザーの利き目等に応じて左側でもよい)の眼鏡レンズ102の上部において、円筒状の主本体部103がフレーム101の前方部101aに固定されている。主本体部103にはディスプレイユニット104が設けられている。主本体部103内には、後述する制御処理部121からの指示に基づいてディスプレイユニット104の表示制御を司る表示制御部104DR(後述する図5を参照)が配置されている。なお、必要に応じて両眼の前にそれぞれディスプレイユニットが配置されてもよい。
図4において、ディスプレイユニット104は、画像形成部104Aと画像表示部104Bとを備えて構成される。画像形成部104Aは、主本体部103内に組み込まれており、光源104aと、一方向拡散板104bと、集光レンズ104cと、表示素子104dとを備える。一方、いわゆるシースルー型の表示部材である画像表示部104Bは、主本体部103から下方に向かい、片方の眼鏡レンズ102(図1参照)に平行に延在するように配置された全体的に板状であって、接眼プリズム104fと、偏向プリズム104gと、ホログラム光学素子104hとを有している。
光源104aは、表示素子104dを照明する機能を有し、例えば光強度のピーク波長および光強度半値の波長幅で462±12nm(青色光(B光))、525±17nm(緑色光(G光))、635±11nm(赤色光(R光))となる3つの波長帯域の光を発するRGB一体型の発光ダイオード(LED)で構成されている。
表示素子104dは、光源104aからの出射光を画像データに応じて変調して画像を表示するものであり、光が透過する領域となる各画素をマトリクス状に有する透過型の液晶表示素子で構成される。なお、表示素子104dは、反射型であってもよい。
接眼プリズム104fは、基端面PL1を介して入射する表示素子104dからの画像光を、相対する平行な内側面PL2と外側面PL3とで全反射させ、ホログラム光学素子104hを介してユーザの瞳に導く一方、外光を透過させてユーザの瞳に導くものであり、偏向プリズム104gとともに、例えばアクリル系樹脂で形成されている。この接眼プリズム104fと偏向プリズム104gとは、内側面PL2および外側面PL3に対して傾斜した傾斜面PL4、PL5でホログラム光学素子104hを挟み、接着剤で接合される。
偏向プリズム104gは、接眼プリズム104fに接合されて、接眼プリズム104fと一体となって略平行平板となるものである。なお、ディスプレイユニット104とユーザの瞳の間に眼鏡レンズ102(図1参照)を装着すると、通常眼鏡を使用しているユーザでも画像を観察することが可能である。
ホログラム光学素子104hは、表示素子104dから出射される画像光(3原色に対応した波長の光)を回折反射して瞳孔Bに導き、表示素子104dに表示される画像を拡大してユーザの瞳に虚像として導く体積位相型の反射型ホログラムである。このホログラム光学素子104hは、例えば、回折効率のピーク波長および回折効率半値の波長幅で465±5nm(B光)、521±5nm(G光)、634±5nm(R光)の3つの波長域の光を回折(反射)させるように作製されている。ここで、回折効率のピーク波長は、回折効率がピークとなるときの波長のことであり、回折効率半値の波長幅とは、回折効率が回折効率ピークの半値となるときの波長幅のことである。
このような構成のディスプレイユニット104では、光源104aから出射された光は、一方向拡散板104bにて拡散され、集光レンズ104cにて集光されて表示素子104dに入射する。表示素子104dに入射した光は、表示制御部104DRから入力された画像データに基づいて画素ごとに変調され、画像光として出射される。これにより、表示素子104dには、カラー画像が表示される。表示素子104dからの画像光は、接眼プリズム104fの内部にその基端面PL1から入射し、内側面PL2と外側面PL3で複数回全反射されて、ホログラム光学素子104hに入射する。ホログラム光学素子104hに入射した光は、そこで反射され、内側面PL2を透過して瞳孔Bに達する。瞳孔Bの位置では、ユーザは、表示素子104dに表示された画像の拡大虚像を観察することができ、画像表示部104Bに形成される画面として視認することができる。
一方、接眼プリズム104f、偏向プリズム104gおよびホログラム光学素子104hは、外光をほとんど全て透過させるので、ユーザはこれらを介して外界像(実像)を観察できる。したがって、表示素子104dに表示された画像の虚像は、外界像の一部に重なって観察されることになる。このようにして、HMD100のユーザは、ホログラム光学素子104hを介して、表示素子104dから提供される画像と外界像とを同時に観察できる。なお、ディスプレイユニット104が非表示状態の場合、画像表示部104Bは、素通しとなり、外界像のみを観察できる。なお、本実施形態では、光源と液晶表示素子と光学系とを組み合わせてディスプレイユニットが構成されているが、光源と液晶表示素子の組合せに代え、自発光型の表示素子(例えば、有機EL表示素子)が用いられても良い。また、光源と液晶表示素子と光学系の組合せに代えて、非発光状態で透過性を有する透過型有機EL表示パネルが用いられてもよい。
図1ないし図3に戻って、主本体部103の正面には、フレーム101の中央寄りに配置されたセンサ部105(例えば近接センサ105A等)と、側部寄りに配置された撮像部106(例えばカメラ106A等)のレンズ106aと、これらセンサ部105とレンズ106aとの間に配置された照度センサ107とが、前方を向くようにして設けられている。したがって、この図1ないし図3に示す例では、センサ部105の測定方向、撮像部106の光軸および照度センサ107の測定方向とは、互いに同じ方向となっている。
ここで、センサ部105の測定方向、撮像部106の光軸および照度センサ107の測定方向が互いに同じ方向であるとは、近接センサ105Aの検知範囲の中心軸、カメラ106Aの光軸および照度センサ107の測定範囲の中心軸が平行である場合だけでなく、3つの軸が若干交差していても、上記3つの軸が平行である場合と類似した傾向の出力が三者から得られるような位置関係でこれらが配置されている場合も含まれる。
フレーム101の右側の側部101bには、右副本体部108−Rが取り付けられ、フレーム101の左側の側部101cには、左副本体部108−Lが取り付けられている。右副本体部108−Rおよび左副本体部108−Lは、細長い板形状を有しており、それぞれ内側に細長い突起108a−R、108a−Lを有している。この細長い突起108a−Rをフレーム101の側部101bの長孔101dに係合させることで、右副本体部108−Rは、位置決めされた状態でフレーム101に取り付けられ、細長い突起108a−Lをフレーム101の側部101cの長孔101eに係合させることで、左副本体部108−Lは、位置決めされた状態でフレーム101に取り付けられる。
右副本体部108−R内には、地磁気センサ109(図5参照)と、ジャイロおよび加速度センサ110(図5参照)とが配置されている。左副本体部108−L内には、スピーカ(またはイヤホン)111Aおよびマイク111B(図5参照)が配置されている。主本体部103と右副本体部108−Rとは、配線HSで信号伝達可能に接続されており、主本体部103と左副本体部108−Lとは、不図示の配線で信号伝達可能に接続されている。図3に簡略図示するように、右副本体部108−Rは、その後端から延在するコードCDを介して制御ユニットCTUに接続されている。なお、入力される音声に応じてマイク111Bから生成される出力信号に基づいて、音声によって操作されるように、HMD100が構成されてもよい。また、主本体部103と左副本体部108とは、無線接続されるように構成されてもよい。
次に、HMD100の電気的な構成について説明する。図5において、HMD100は、制御ユニットCTUと、撮像部106と、地磁気センサ109と、ジャイロおよび加速度センサ110と、センサ部105と、マイク111Bと、照度センサ107と、画像形成部104Aと、表示制御部104DRと、スピーカ111Aとを備える。制御ユニットCTUは、制御処理部121と、操作部122と、GPS受信部123と、通信部124と、記憶部125と、バッテリ126と、電源回路127とを備える。
撮像部106は、制御処理部121に接続され、制御処理部121の制御に従って、所定の撮像領域CA(図7(B)参照)の画像を生成する装置である。撮像部106は、例えば、被写体の光学像を所定の結像面上に結像する結像光学系、前記結像面に受光面を一致させて配置され、前記被写体の光学像を電気的な信号に変換するイメージセンサ、前記イメージセンサの出力に対し公知の画像処理を施して画像(画像データ)を生成するデジタルシグナルプロセッサ(DSP)等を備えるカメラ106A等である。前記結像光学系は、1または複数のレンズを備えて構成され、その1つとして前記レンズ106aを含む。撮像部106は、前記生成した撮像領域CAの画像データを制御処理部121へ出力する。
地磁気センサ109は、制御処理部121に接続され、地球磁気を測定することで、HMD100における前方の方位を測定する回路である。地磁気センサ109は、前記測定した方位を制御処理部121へ出力する。
ジャイロおよび加速度センサ110は、制御処理部121に接続され、HMD100の姿勢に応じた、X軸回りのロールの角速度、Y軸回りのピッチの角速度、Z軸回りのヨーの角速度、X方向の加速度、Y方向の加速度およびZ方向の加速度それぞれを測定する回路である。ジャイロおよび加速度センサ110は、前記測定した各角速度および各加速度を制御処理部121へ出力する。なお、ジャイロおよび加速度センサ110は、これらを一体化した6軸センサであってもよい。
センサ部105は、制御処理部121に接続され、ジェスチャーを行う指示体の動きを測定するための回路である。前記指示体は、例えば、生体における所定の部位(例えば手や手指等)であって良く、また例えば、ユーザの手で把持した棒状の部材(例えばペンや指し棒等)、ユーザの指や腕に装着部材で装着された棒状の部材等である。センサ部105は、その出力を制御処理部121へ出力する。より具体的には、センサ部105は、例えば、近接センサ105Aである。
本明細書において、「近接センサ」とは、物体、例えば人体の一部(手や指など)がユーザの眼前に近接していることを検知するために、近接センサの検出面前方の近接範囲にある検出領域内に存在しているか否かを検出して信号を出力するものをいう。近接範囲は、操作者の特性や好みに応じて適宜に設定すればよいが、例えば、近接センサの検出面からの距離が200mm以内の範囲とすることができる。近接センサからの距離が200mm以内であれば、ユーザが腕を曲げた状態で、手のひらや指をユーザの視野内に入れたり出したりできるため、手や指を使ったジェスチャーによって容易に操作を行うことができ、また、ユーザ以外の人体や家具等を誤って検出する虞が少なくなる。
近接センサには、パッシブ型とアクティブ型とがある。パッシブ型の近接センサは、物体が近接した際に物体から放射される不可視光や電磁波を検出する検出部を有する。パッシブ型の近接センサとして、接近した人体から放射される赤外線等の不可視光を検出する焦電センサや、接近した人体との間の静電容量変化を検出する静電容量センサ等がある。アクティブ型の近接センサは、不可視光や音波の投射部と、物体に反射して戻った不可視光や音波を受ける検出部とを有する。アクティブ型の近接センサとしては、赤外線を投射して物体で反射された赤外線を受光する赤外線センサや、レーザ光を投射して物体で反射されたレーザ光を受光するレーザセンサや、超音波を投射して物体で反射された超音波を受け取る超音波センサ等がある。なお、パッシブ型の近接センサは、物体に向けてエネルギーを投射する必要がないので、低消費電力性に優れている。アクティブ型の近接センサは、検知の確実性を向上させ易く、例えば、ユーザが、赤外光などの人体から放射される検出光を透過しない手袋をしているような場合でも、ユーザの手の動きを検出できる。複数種類の近接センサが組み合わされても良い。
本実施形態では、近接センサ105Aとして、2次元マトリクス状に配列された複数の焦電素子を備えた焦電センサが用いられている。図6において、近接センサ105Aは、2行2列に配列された4個の焦電素子RA、RB、RC、RDを備えて構成され、人体から放射される赤外光等の不可視光を検出光として受光し、それに対応した信号が各焦電素子RA〜RDそれぞれから出力される。各焦電素子RA〜RDの各出力は、近接センサ105Aの受光面から物体までの距離に応じて強度が変化し、距離が近いほど強度が大きくなる。近接センサ105Aは、各焦電素子RA〜RDの各出力を制御処理部121へ出力する。
そして、本実施形態では、この近接センサ105Aと後述のジェスチャー処理部1212とから、所定の検知領域内でのジェスチャーを検知するジェスチャー検知部の一例が構成されている。また、本実施形態では、前記検知領域内に物体を検出すると信号を出力する物体検出部は、前記ジェスチャー検知部と兼用されている。より具体的には、本実施形態では、近接センサ105Aにおける複数の焦電素子RA〜RDのうちの少なくとも1つは、前記物体検出部の一例として用いられている。
マイク111Bは、制御処理部121に接続され、音の音響振動を電気信号に変換する回路である。マイク111Bは、前記変換した、外部の音を表す前記電気信号を制御処理部121へ出力する。
照度センサ107は、制御処理部121に接続され、照度を測定する回路である。照度センサ107は、前記測定した照度を制御処理部121へ出力する。照度センサ107は、例えば、光電変換することで入射光の光強度に応じた大きさの電流を出力するホトダイオード、および、前記ホトダイオードの電流値を電圧値へ変換するI−V変換回路等の、その周辺回路を備えて構成される。
表示制御部104DRは、制御処理部121に接続され、制御処理部121の制御に従って画像形成部104Aを制御することで、画像形成部104Aに画像を形成させる回路である。画像形成部104Aは、上述した通りである。
スピーカ111Aは、制御処理部121に接続され、制御処理部121の制御に従って音を表す電気信号に応じた音を生成して出力するための回路である。
操作部122は、制御処理部121に接続され、例えば電源のオンオフ等の、予め設定された所定の指示をHMD100に入力する機器であり、例えば、所定の機能を割り付けられた1または複数のスイッチ等である。
GPS受信部123は、制御処理部121に接続され、制御処理部121の制御に従って、地球上の現在位置を測定するための衛星測位システムによって、当該HDM100の位置を測定する装置であり、その測位結果(緯度X、経度Y、高度Z)を制御処理部121へ出力する。なお、GPS受信部123は、DGSP(Differential GSP)等の誤差を補正する補正機能を持ったGPSであっても良い。
通信部124は、制御処理部121に接続され、制御処理部121の制御に従って、外部機器との間でデータの入出力を行う回路であり、例えば、シリアル通信方式であるRS232Cのインターフェース回路、Bluetooth(登録商標)規格を用いたインターフェース回路、IrDA(Infrared Data Asscoiation)規格等の赤外線通信を行うインターフェース回路、および、USB(Universal Serial Bus)規格を用いたインターフェース回路等である。
また、通信部124は、有線または無線によって通信する通信カード等であり、例えばイーサネット環境等の通信ネットワークを介して例えばサーバ装置等の外部装置との間で通信しても良い(イーサネットは登録商標)。このような通信部124は、制御処理部121から入力された転送すべきデータを収容した通信信号を、前記通信ネットワークで用いられる通信プロトコルに従って生成し、この生成した通信信号を前記通信ネットワークを介して外部装置へ送信する。通信部124は、前記通信ネットワークを介して外部装置から通信信号を受信し、この受信した通信信号からデータを取り出し、この取り出したデータを制御処理部121が処理可能な形式のデータに変換して制御処理部121へ出力する。通信部124は、例えば、無線LANの規格の一つであるWi−Fi(Wireless Fidelity)規格で通信信号を送受信する、IEEE802.11b/g/nに対応したWi−Fi Module(通信カード)等を備えて構成される。
バッテリ126は、電力を蓄積し、前記電力を供給する電池である。バッテリ126は、一次電池であってよく、また、二次電池であってよい。電源回路127は、バッテリ126から供給された電力を、電力を必要とする、当該HMD100の各部へ各部に応じた電圧で供給する回路である。
記憶部125は、制御処理部121に接続され、制御処理部121の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、当該HMD100の各部を当該各部の機能に応じて制御する制御プログラムや、前記物体検出部(本実施形態では焦電素子RA〜RDのうちの少なくとも1つ)の出力に基づいて物体の存否を検出して前記物体の存在を検出した場合に、非動作状態の撮像部106を動作させて撮像部106に画像を生成させる制御プログラムや、撮像部106で撮像された画像に基づいてジェスチャーを行うための指示体の存否を検出して前記指示体の存在を検出した場合に、非動作状態の前記ジェスチャー検知部を動作させて前記ジェスチャー検知部に前記指示体による前記ジェスチャーを検知させる制御プログラム等の制御処理プログラムが含まれる。前記各種の所定のデータには、例えば前記指示体を特徴付ける特徴量や、センサ部105の出力をサンプリングする第1および第2サンプリング周期等の、HMD100を制御する上で必要なデータが含まれる。記憶部125は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。そして、記憶部125は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆる制御処理部121のワーキングメモリとなるRAM(Random Access Memory)等を含む。
制御処理部121は、HMD100の各部を当該各部の機能に応じてそれぞれ制御し、前記検知領域内でのジェスチャーを検知し、この検知したジェスチャーに応じた処理を実行するものである。制御処理部121は、例えば、CPU(Central Processing Unit)およびその周辺回路等を備えて構成される。制御処理部121には、制御処理プログラムが実行されることによって、制御部1211、ジェスチャー処理部1212および検知結果利用部1213が機能的に構成される。なお、制御部1211、ジェスチャー処理部1212および検知結果利用部1213の一部または全てをハードウェアで構成してもよい。
制御部1211は、HMD100の各部を当該各部の機能に応じてそれぞれ制御するものである。制御部1211は、前記物体検出部(本実施形態では近接センサ105Aの出力における焦電素子RA〜RDのうちの少なくとも1つ)の出力に基づいて物体の存否を検出して前記物体の存在を検出した場合に、非動作状態の撮像部106を動作させて撮像部106に画像を生成させる。制御部1211は、撮像部106で撮像された画像に基づいて指示体の存否を検出して前記指示体の存在を検出した場合に、ジェスチャー検知動作について非動作状態にある前記ジェスチャー検知部を動作させて前記ジェスチャー検知部に前記指示体による前記ジェスチャーを検知させる。より具体的には、制御部1211は、撮像部106で撮像された画像に基づいて指示体の存否を検出して前記指示体の存在を検出した場合に、ジェスチャー検知動作について非動作状態にあるジェスチャー処理部1212を動作させてジェスチャー処理部1212に前記指示体による前記ジェスチャーを検知させる。制御部1211は、例えば撮像部106の給電をオフ(停止)にすることによって撮像部106を非動作状態とし、撮像部106の給電をオン(実行)にすることによって撮像部106を動作状態とする。また例えば、制御部1211は、撮像部106をスリープ状態にすることによって撮像部106を非動作状態とし、撮像部106をアクティブ状態にすることによって撮像部106を動作状態とする。制御部1211は、例えばジェスチャー処理部1212の給電をオフ(停止)にすることによってジェスチャー処理部1212を非動作状態とし、ジェスチャー処理部1212の給電をオン(実行)にすることによってジェスチャー処理部1212を動作状態とする。この場合、ジェスチャー処理部1212は、制御部1211や検知結果利用部1213が機能的に構成される第1回路とは別体の第2回路に機能的に構成される。また例えば、制御部1211は、ジェスチャー処理部1212をスリープ状態にすることによってジェスチャー処理部1212を非動作状態とし、ジェスチャー処理部1212をアクティブ状態にすることによってジェスチャー処理部1212を動作状態とする。なお、後述するように、本実施形態においては、ジェスチャー検知部は、ジェスチャー処理部1212と近接センサ105Aとで構成され、近接センサ105Aは、常時動作状態にある。したがって、ジェスチャー検知部は、その一部が動作しているが、ジェスチャー検知動作は、行わない状態(ジェスチャー検知動作について非動作状態という)をとり得る。
そして、制御部1211は、前記物体の存否を検出する場合では、ジェスチャー処理部1212にジェスチャーを検知させる場合に近接センサ105Aの出力をサンプリングする第2サンプリング周期よりも長い第1サンプリング周期で、前記近接センサ105Aの出力をサンプリングする。前記第1サンプリング周期は、例えば100ms、200msおよび300ms等であり、前記第2サンプリング周期は、例えば10ms、20mおよび30ms等である。
また、前記指示体の存否の検出では、制御部1211は、撮像部106で撮像された画像から、前記指示体を特徴付ける所定の特徴量を抽出し、抽出された特徴量が予め定めた条件に合致するか否かを判定することで、前記検知領域内における前記指示体の存否を検出する。前記特徴量は、指示体の色、指示体の輪郭形状、指示体上の形状パターンおよび指示体に付されたマーカーのうちの少なくとも1つである。前記特徴量が指示体の色である場合には、例えば、この指示体の色が記憶部125に記憶され、制御部1211は、撮像部106で撮像された画像から、前記指示体の色として記憶部125に記憶された色を持つ領域を検出し、この領域の存否によって指示体の存否を判定する。前記特徴量が指示体の輪郭形状である場合には、例えば、この指示体の輪郭形状が記憶部125に記憶され、制御部1211は、撮像部106で撮像された画像から、前記指示体の輪郭形状として記憶部125に記憶された輪郭形状を持つ領域をパターンマッチングによって検出し、この領域の存否によって指示体の存否を判定する。前記特徴量が指示体上の形状パターンである場合には、例えば、この形状パターンが記憶部125に記憶され、制御部1211は、撮像部106で撮像された画像から、前記指示体上の形状パターンとして記憶部125に記憶された形状パターンを持つ領域をパターンマッチングによって検出し、この領域の存否によって指示体の存否を判定する。前記特徴量がマーカーである場合であって前記マーカーがその色によって特徴付けられている場合には、制御部1211は、上述の特徴量が指示体の色の場合と同様の処理によってマーカーの存否を検出して指示体の存否を検出する。あるいは、前記特徴量がマーカーである場合であって前記マーカーがその形状によって特徴付けられている場合には、制御部1211は、上述の特徴量が輪郭形状や形状パターンの場合と同様の処理によってマーカーの存否を検出して指示体の存否を検出する。このような特徴量の判定では、色を判定する情報処理(色判定情報処理)は、輪郭形状を判定する情報処理(輪郭形状判定情報処理)や、形状パターンを判定する情報処理(形状パターン判定情報処理)に較べて簡易に判定できるので、情報処理量が少なくて済む。
そして、本実施形態では、互いに異なる種類の複数の特徴量を用いており、制御部1211は、撮像部106で撮像された画像から、前記複数の特徴量それぞれを抽出して予め定めた条件に合致するか否かを判定する。より具体的には、前記複数の特徴量を含む領域を全て存在する場合には検出結果として前記検知領域内に前記指示体が存在すると判定し、前記複数の特徴量を含む領域のいずれかが無い場合には前記検出結果として前記検知領域内に前記指示体が存在しないと判定する。さらに具体的には、本実施形態では、前記特徴量は、指示体の色および指示体上の形状パターンであり、制御部1211は、カメラ106Aで撮像された画像から、前記指示体の色として記憶部125に記憶された色を持つ第1領域を検出し、この第1領域を検出した場合に、さらに、この第1領域に対し、前記指示体上の形状パターンとして記憶部125に記憶された形状パターンを持つ第2領域をパターンマッチングによって検出し、この第2領域を検出した場合に前記指示体が存在していると判定し、前記第1および第2領域のうちのいずれかが存在しない場合に前記指示体が存在しないと判定する。
ジェスチャー処理部1212は、センサ部105の出力に基づいて前記指示体によるジェスチャーを求めるものである。より具体的には、本実施形態では、ジェスチャー処理部1212は、近接センサ105Aにおける複数の検知素子としての複数の焦電素子、本実施形態では4個の焦電素子RA〜RDの各出力に基づいて、例えば手や手指の動きによる、予め設定された所定のジェスチャーを判定するものである。ジェスチャー処理部1212は、その判定結果(検知結果)を検知結果利用部1213へ通知する。
検知結果利用部1213は、ジェスチャー処理部1212の判定結果に基づいて所定の処理を実行するものである。例えば、ジェスチャー処理部1212の判定結果がいわゆる「フリック」である場合には、検知結果利用部1213は、表示制御部104DRの表示制御によって画像形成部104Aに形成されている第1画像から第2画像へとページめくりを行うように表示を変更する。また例えば、ジェスチャー処理部1212の判定結果がいわゆる「スライド」である場合には、検知結果利用部1213は、表示制御部104DRの表示制御によって画像形成部104Aに形成されている画像を移動するように表示を変更する。
まず、HMD100における、ジェスチャーを検知する基本動作について説明する。図7は、実施形態のウェアラブル電子機器を装着した場合の正面図である。図7(B)には、図7(A)に示す正面図に加えて近接センサ105Aの検出領域SA(前記ジェスチャー検知部の前記検知領域の一例)とカメラ106Aの撮像領域CAとの関係が示されている。図8は、実施形態のウェアラブル電子機器を装着した場合の側面図および部分上面図である。図8には、ユーザUSの手HDも図示されている。図8(A)は、側面図であり、図8(B)は、部分上面図である。図9は、シースルー型の画像表示部を通してユーザが視認する像の一例を示す図である。図10は、実施形態のウェアラブル電子機器におけるセンサ部の一例としての近接センサの出力の一例を示す図である。図10(A)は、焦電素子RAの出力を示し、図10(B)は、焦電素子RBの出力を示し、図10(C)は、焦電素子RCの出力を示し、図10(D)は、焦電素子RDの出力を示す。図10の各図の横軸は、時間であり、それらの縦軸は、強度(出力レベル)である。ここで、ジェスチャー操作とは、少なくともユーザUSの手HDや指が近接センサ105Aの検出領域SA内に進入または離間する動作であり、近接センサ105Aを介してHMD100の制御処理部121のジェスチャー処理部1212が検知できるものである。
図9に示すように、画像表示部104Bの画面104iは、画像表示部104Bに対向するユーザの眼の有効視野EVに重なるように(ここでは、有効視野EV内に位置するように)配置される。近接センサ105Aの検出領域SAは、画像表示部104Bに対向するユーザの眼の視野内にある。好ましくは、検出領域SAは、ユーザの眼の安定注視野またはその内側の視野内(水平約90°以内、垂直約70°以内)に位置し、さらに好ましくは、安定注視野よりも内側に位置する、有効視野EVまたはその内側の視野内(水平約30°以内、垂直約20°以内)に重なるように位置するように、近接センサ105Aの配置と向きを調整して設置するとよい。近接センサ105Aの検出領域SAは、前記ジェスチャー検知部の前記検知領域の一例である。
図9には、検出領域SAが画面104iに重なっている例が示されている。このように、ユーザUSが頭部装着部材であるフレーム101を頭部に装着した状態で、ユーザUSの眼の視野内に近接センサ105Aの検出領域SAが位置するように設定することで、画面104iを通して手HDを観察しつつ、眼の移動を伴うことなく、近接センサ105Aの検出領域SAへの手の進入と退避とを確実に視認できる。特に、近接センサ105Aの検出領域SAを安定注視野またはその内側の視野内とすることで、ユーザが画面を観察していても検出領域SAを認識しつつ、確実にジェスチャー操作を行うことができる。また、近接センサ105Aの検出領域SAを有効視野EVまたはその内側の視野内とすることで、さらに確実にジェスチャー操作を行うことができる。検出領域SAが画面104iに重なるようにすれば、さらに確実にジェスチャー操作を行うことができる。なお、本実施形態のように、近接センサ105Aが複数の焦電素子RA〜RDを有する場合は、複数の焦電素子RA〜RDの受光領域全体を一つの受光部とみて、その受光部の最大検出範囲を検出領域とみなすものとする。図9のように、近接センサ105Aの検出領域SAが画面104iに重なるように設定されている場合は、検出領域SAを示す画像を画面104iに表示する(例えば、領域SAの範囲を実線で表示する)と、ユーザは、検出領域SAを確実に認識できるので、ジェスチャーによる操作をより確実に行うことができる。
また、図7(B)に示すように、近接センサ105Aの検出領域SAを含むようにカメラ106Aの撮像領域CAが設定される。すなわち、近接センサ105Aとカメラ106Aの検出領域SAとは、検出領域SAが撮像領域CAに含まれるように、フレーム101の主本体部103に配設されている。したがって、撮像部106は、前記ジェスチャー検知部の検知領域を含む領域を撮像領域として画像を生成するものである。
次に、ジェスチャーの検出の基本原理について説明する。なお、以下においては、ユーザUSの手HDによってジェスチャーを行うものとして説明するが、指やその他の部位であってもよく、不可視光を放射できる材料からなる指示具をユーザUSが用いてジェスチャーを行ってもよい。
上述したように、近接センサ105Aは、2行2列に並べられた4個の焦電素子RA〜RDを有する(図6参照)。したがって、ユーザUSが、左右上下いずれの方向から手HDをHMD100の前方に近づけた場合、各焦電素子RA〜RDで検出する信号の出力タイミングが異なる。
例えば、図8および図9を参照して、ユーザUSがHMD100の前方で右方から左方に向かって手HDを移動させたジェスチャーの場合、手HDから放射された不可視光が近接センサ105に入射する。この場合に、最初に不可視光を受光するのは、焦電素子RA、RCである。したがって、図10に示すように、まず、焦電素子RA、RCの信号が立ち上がり、遅れて焦電素子RB、RDの信号が立ち上がる。そして、この後、焦電素子RA、RCの信号が立ち下がって、遅れて焦電素子RB、RDの信号が立ち下がる(図略)。この信号のタイミングをジェスチャー処理部1212が検出し、ジェスチャー処理部1212は、ユーザUSが手HDを右から左へと移動させたジェスチャーを行ったと判定する。
同様に、焦電素子RB、RDの信号が立ち上がり、遅れて焦電素子RA、RCの信号が立ち上がり、その後、焦電素子RB、RDの信号が立ち下がって、遅れて焦電素子RA、RCの信号が立ち下がる場合、ジェスチャー処理部1212は、ユーザUSが手HDを左から右へと移動させたジェスチャーを行ったと判定する。
また同様に、焦電素子RA、RBの信号が立ち上がり、遅れて焦電素子RC、RDの信号が立ち上がり、その後、焦電素子RA、RBの信号が立ち下がって、遅れて焦電素子RC、RDの信号が立ち下がる場合、ジェスチャー処理部1212は、ユーザUSが手HDを上から下へと移動させたジェスチャーを行ったと判定する。
また同様に、焦電素子RC、RDの信号が立ち上がり、遅れて焦電素子RA、RBの信号が立ち上がり、その後、焦電素子RC、RDの信号が立ち下がって、遅れて焦電素子RA、RBの信号が立ち下がる場合、ジェスチャー処理部1212は、ユーザUSが手HDを下から上へと移動させたジェスチャーを行ったと判定する。
また同様に、焦電素子RAの信号が立ち上がり、遅れて焦電素子RB、RCの信号が立ち上がり、さらに遅れて焦電素子RDが立ち上がり、その後、焦電素子RAの信号が立ち下がって、遅れて焦電素子RB、RCの信号が立ち下がって、さらに遅れて焦電素子RDが立ち下がる場合、ジェスチャー処理部1212は、ユーザUSが手HDを右上から左下へと移動させたジェスチャーを行ったと判定する。
また同様に、焦電素子RBの信号が立ち上がり、遅れて焦電素子RA、RDの信号が立ち上がり、さらに遅れて焦電素子RCが立ち上がり、その後、焦電素子RBの信号が立ち下がって、遅れて焦電素子RA、RDの信号が立ち下がって、さらに遅れて焦電素子RCが立ち下がる場合、ジェスチャー処理部1212は、ユーザUSが手HDを左上から右下へと移動させたジェスチャーを行ったと判定する。
また同様に、焦電素子RDの信号が立ち上がり、遅れて焦電素子RB、RCの信号が立ち上がり、さらに遅れて焦電素子RAが立ち上がり、その後、焦電素子RDの信号が立ち下がって、遅れて焦電素子RB、RCの信号が立ち下がって、さらに遅れて焦電素子RAが立ち下がる場合、ジェスチャー処理部1212は、ユーザUSが手HDを左下から右上へと移動させたジェスチャーを行ったと判定する。
また同様に、焦電素子RCの信号が立ち上がり、遅れて焦電素子RA、RDの信号が立ち上がり、さらに遅れて焦電素子RBが立ち上がり、その後、焦電素子RCの信号が立ち下がって、遅れて焦電素子RA、RDの信号が立ち下がって、さらに遅れて焦電素子RBが立ち下がる場合、ジェスチャー処理部1212は、ユーザUSが手HDを右下から左上へと移動させたジェスチャーを行ったと判定する。
次に、上述した基本原理に基づく本実施形態におけるジェスチャーの検出について説明する。図11は、ジェスチャーの検知に関し、実施形態のウェアラブル電子機器の動作(メインルーチン)を示すフローチャートである。図12は、実施形態のウェアラブル電子機器の前記動作(メインルーチン)における指示体の存否の判定処理(サブルーチン)を示すフローチャートである。図13は、実施形態のウェアラブル電子機器の前記動作(メインルーチン)におけるジェスチャー検知処理(サブルーチン)を示すフローチャートである。図14は、実施形態のウェアラブル電子機器における指示体の存否の判定処理を説明するための図である。図14(A)は、指示体の一例である手HDの全体を示す全体画像であり、図14(B)は、前記全体画像のうち、手HDの一部を拡大した一部拡大画像である。
このようなHMD100では、センサ部105の一例である近接センサ105Aの検出領域SAに、指示体の一例である手HDが存在していれば、上述の基本原理によってジェスチャー処理部1212は、手HDによるジェスチャーを検知できる。しかしながら、近接センサ105Aは、検出領域SA内に存在する物体が指示体であるか否かを判別していないので、上述の基本原理のみに基づく処理だけでは、前記指示体ではない他の物体が近接センサ105Aの検出領域SA内で動いても、ジェスチャー処理部1212は、前記指示体ではない他の物体の動きをジェスチャーとして検知し、誤検知してしまう。
そこで、本実施形態では、HMD100は、次のように動作している。このようなHMD100では、ユーザによって図略の電源スイッチがオンされると、制御処理部121は、必要な各部の初期化を実行し、制御処理プログラムの実行によって、制御処理部121には、制御部1211、ジェスチャー処理部1212および検知結果利用部1213が機能的に構成される。
そして、図11において、HMD100は、制御部1211によって初期状態で起動する(S11)。この初期状態では、撮像部106の一例であるカメラ106Aは、非動作状態であり、センサ部105の一例である近接センサ105Aは、動作状態であり、そして、ジェスチャー処理部1212は、非動作状態である。したがって、一例として近接センサ105Aおよびジェスチャー処理部1212から構成されるジェスチャー検知部は、初期状態では、近接センサ105Aのみが動作状態にある半オン状態(換言すれば、ジェスチャー処理部1212のみが非動作状態にある半オフ状態)、つまり、ジェスチャー検知動作について不動作状態となる。
次に、制御部1211は、第1サンプリング周期で近接センサ105Aの出力をサンプリングし、このサンプリングした近接センサ105Aの出力に基づいて物体の存否(物体を検出したか否か)を判定する(S12)。近接センサ105Aの検出領域SAに物体が存在しない場合には、近接センサ105Aは、有意な信号レベルで信号を出力しないので、制御部1211は、近接センサ105Aから信号が出力されているか否かによって、物体の存否を判定できる。例えば、制御部1211は、近接センサ105Aから信号が出力されている場合には物体が存在していると判定し、近接センサ105Aから信号が出力されていない場合には物体が存在していないと判定する。より具体的には、制御部1211は、近接センサ105Aの出力が予め設定された閾値以上であるか否かによって、物体の存否を判定し、制御部1211は、近接センサ105Aの出力が前記閾値以上である場合には物体が存在していると判定し、近接センサ105Aの出力が前記閾値未満である場合には物体が存在していないと判定する。前記閾値は、ノイズによる誤判定を回避するための値である。ここで、近接センサ105Aの出力は、焦電素子RA〜RDの各出力のうちの少なくとも1つであって良い。近接センサ105Aの出力が焦電素子RA〜RDの各出力のうちの複数である場合には、制御部1211は、複数の各出力のうちの少なくとも1つが前記閾値以上である場合には物体が存在していると判定し、複数の各出力のうちの全てが前記閾値未満である場合には物体が存在していないと判定する。前記判定の結果、物体が存在していない場合(No)には、制御部1211は、処理を処理S12へ戻し、次のサンプリングタイミングで処理S12を実行し、物体が存在している場合(Yes)には、制御部1211は、次の処理S13を実行する。
処理S13では、制御部1211は、撮像部106(カメラ106A)を動作状態に切り換え、撮像部106(カメラ106A)によって撮像領域CAの画像を生成し、取得する。なお、上述したように、ジェスチャーを行う指示体であるか否かを判断できるような最低限の画像情報を取得する場合は、撮像部106に求められる負担を軽減できるので、不動作状態にある撮像部106の起動に要する時間も短時間で済む。したがって、ユーザがジェスチャーのために近接センサ105Aの前で一方向に手を振った場合に、撮像部106の撮像範囲を手が通過するまでの間に、撮像部106を起動し必要な情報が得られるような撮像を完了することは十分可能である。
次に、制御部1211は、近接センサ105Aの出力に基づいて検出された物体が指示体であるか否かを判定する指示体の存否の判定処理を実行する(S14)。
この指示体の存否の判定処理を図12を用いて以下に説明する。図12において、制御部1211は、撮像部106(カメラ106A)で取得された画像に、指示体の色の領域があるか否かを判定する。より具体的には、制御部1211は、撮像部106(カメラ106A)で取得された画像から、指示体の色として記憶部125に記憶された色を持つ領域を検出し、この領域の存否によって指示体の色の領域の存否を判定する。この判定の結果、指示体の色の領域が無い場合(No)には、制御部1211は、初期状態に戻し(S24)、図11の処理S12を実行する(S25)。すなわち、処理S12で検出した物体は、指示体ではないと判定され、制御部1211は、初期状態に戻し(S24)、次のサンプリングタイミングで図11の処理S12を実行する(S25)。一方、前記判定の結果、指示体の色の領域がある場合(Yes)には、制御部1211は、次の処理S22を実行する。
処理S22では、制御部1211は、処理S21で検出した指示体の色の領域で、指示体の形状パターンがあるか否かを判定する。より具体的には、制御部1211は、処理S21で検出した指示体の色の領域から、指示体上の形状パターンとして記憶部125に記憶された形状パターンを持つ領域をパターンマッチングによって検出し、この領域の存否によって前記形状パターンの存否を判定する。例えば、手HDの肌色が指示体の色として予め記憶部125に記憶され、手指の節部分の形状が前記指示体上の形状パターンとして予め記憶部125に記憶され、まず、処理S21によって、図14(A)に示すように、撮像部106(カメラ106A)で取得された画像から、手HDの肌色の領域が検出され、次に処理S22で、図14(B)に示すように、この肌色の領域から、手指の節部分の形状に相当する形状パターンが例えばパターンマッチングによって検出される。また例えば、指示体が黒色を除く色の星形(★)のマーカーを付した黒色の棒体である場合には、黒色が指示体の色として予め記憶部125に記憶され、星形(★)が前記指示体上の形状として予め記憶部125に記憶され、まず、処理S21によって、撮像部106(カメラ106A)で取得された画像から、黒色の領域が検出され、次に処理S22で、この黒色の領域から、星形が例えばパターンマッチングによって検出される。この判定の結果、指示体の形状パターンが無い場合(No)には、制御部1211は、初期状態に戻し(S24)、図11の処理S12を実行する(S25)。すなわち、処理S12で検出した物体は、指示体ではないと判定され、制御部1211は、初期状態に戻し(S24)、次のサンプリングタイミングで図11の処理S12を実行する(S25)。一方、前記判定の結果、指示体の形状パターンがある場合(Yes)には、制御部1211は、処理S14の処理としてこの図12に示す指示体の存否の判定処理を実行している場合には、次の処理S15を実行する(S23)。すなわち、処理S12で検出した物体は、指示体であると判定され、制御部1211は、次の処理S15を実行する(S23)。なお、この処理S23において、制御部1211は、後述の処理S33の処理としてこの図12に示す指示体の存否の判定処理を実行している場合には、次の処理S34を実行する。
指示体における1個の特徴量だけを用いて処理S21だけで指示体の存否が判定されても良いが、本実施形態では、指示体における2個の特徴量を用いて処理S21および処理S22の2段階で指示体の存否が判定されている。したがって、指示体の存否がより精度良く判定できる。なお、さらに判定精度を向上させる観点から、さらに他の種類の特徴量が用いられても良い。
図11に戻って、処理S15では、制御部1211は、センサ部105(近接センサ105A)の出力をサンプリングするサンプリング周期を第1サンプリング周期から第2サンプリング周期(第2サンプリング周期<第1サンプリング周期)に切り換え、ジェスチャー処理部1212を動作状態に切り換える。
次に、制御部1211は、撮像部106(カメラ106A)を非動作状態に切り換える(S16)。
次に、制御部1211は、ジェスチャーを検知するジェスチャー検知処理を実行する(S17)。
このジェスチャーの検知処理を図13を用いて以下に説明する。図13において、制御部1211は、機能的にタイマーを制御処理部121に形成し、このタイマーをリセットしてスタートさせる。このタイマーは、この図13に示すジェスチャーの検知処理を実行する時間長を設定するためのものであり、後述するように、このタイマーのタイムアップにより、図13に示すジェスチャーの検知処理の実行が自動的に終了する。
次に、制御部1211は、上述した処理S13と同様に、撮像部106(カメラ106A)を動作状態に切り換え、撮像部106(カメラ106A)によって撮像領域CAの画像を生成し、取得する(S32)。
次に、制御部1211は、上述した処理S14と同様に、この処理S32で取得した画像に対し、指示体の存否の判定処理を実行する(S33)。指示体の存否の判定処理は、図12を用いて説明した上述の通りであるので、ここでは、その説明を省略する。なお、この処理S33での指示体の存否の判定処理では、上述したように、1回、指示体の存否の判定処理が実行されているので、処理S22が省略され、処理S21のみが実行されても良い。すなわち、処理S21の実行の結果、指示体の色の領域がある場合(Yes)には、制御部1211は、処理S22をスキップして(飛ばして)、処理S23を実行する。
次に、制御部1211は、上述した処理S16と同様に、撮像部106(カメラ106A)を非動作状態に切り換える。
次に、制御部1211は、第2サンプリング周期のサンプリングタイミングで近接センサ105Aの出力(各集電素子RA〜RDの各出力)を取得する(S35)。
次に、制御部1211は、ジェスチャー処理部1212によって、近接センサ105Aにおける複数の焦電素子RA〜RDの各出力の立ち上がりタイミングやその立ち下がりタイミングを判定する(S36)。
次に、制御部1211は、ジェスチャー処理部1212によって、ジェスチャーを決定できるか否かを判定する(S37)。上述したように、ジェスチャーは、近接センサ105Aにおける焦電素子RA〜RDそれぞれから出力される各信号の、時系列に並ぶ各立ち上がりタイミングおよび各立ち下がりタイミングに基づいて判定されるので、1回の処理の実行では、ジェスチャーは、判定できない。このため、ジェスチャー処理部1212は、今回の処理で、今回の処理結果と、例えば前回の処理結果や前々回の処理結果等の過去の複数の処理結果と合わせることで、ジェスチャーを決定できるか否かを判定している。
この判定の結果、ジェスチャーを決定できない場合(No)には、制御部1211は、処理を処理S35に戻す。一方、前記判定の結果、ジェスチャーを決定できる場合(Yes)には、制御部1211は、ジェスチャー処理部1212によって、この決定したジェスチャーを検知結果利用部1213へ通知する。このジェスチャー処理部1212から通知を受けると、検知結果利用部1213は、ジェスチャー処理部1212の判定結果に基づいて所定の処理を実行する。例えば、ジェスチャー処理部1212の判定結果がいわゆる「フリック」である場合には、検知結果利用部1213は、表示制御部104DRの表示制御によって画像形成部104Aに形成されている第1画像から第2画像へとページめくりを行うように表示を変更する。
次に、制御部1211は、前記タイマーがタイムアップしたか否かを判定する(S39)。この判定の結果、前記タイマーがタイムアップしていない場合(No)には、制御部1211は、処理を処理S32に戻し、一方、前記判定の結果、前記タイマーがタイムアップしている場合(Yes)には、制御部1211は、次の処理S18を実行する(S40)。
図11に戻って、処理S18では、制御部1211は、初期状態に戻し、処理を処理S12に戻す。なお、センサ部105の出力を第2サンプリング周期でサンプリングし始めたときから、一定時間(例えば、数十秒)経過するまでは、第1サンプリング周期に戻さず第2サンプリング周期でのサンプリングを継続するようにしてもよい。このようにすれば、ユーザの操作性を向上させることができる。また、電源オン直後ではなく、カメラ106A用のアプリケーションプログラムを実行することにより、カメラ106Aを通常の画像撮影に用いている場合は、その状態でのカメラ106Aの撮影データを利用して指示体の存否の判定に使うこともできる。なお、この場合は、ユーザの意思でカメラ106Aを動作させているので、指示体の存否が判明しても直ちに非動作状態にするのではなく、アプリケーションプログラムの終了まで、撮像部106を動作状態に保つことが好ましい。
以上説明したように、本実施形態におけるウェアラブル電子機器の一例としてのHMD100およびこれに実装されたジェスチャー検知方法は、撮像部106(本実施形態ではカメラ105A)の画像からジェスチャーを検知せずに、ジェスチャー検知部(本実施形態では近接センサ105Aおよびジェスチャー処理部1212)でジェスチャーを検知するので、画像からジェスチャーを検知する技術に較べて情報処理量が少なく消費電力を低減できる。上記HMD100およびジェスチャー検知方法は、物体検出部(本実施形態では近接センサ105A)の出力に基づいて物体の存否を検出して前記物体の存在を検出した場合に、非動作状態の撮像部106を動作させるので、一層、省電力化できる。そして、上記HMD100およびジェスチャー検知方法は、この撮像部106で撮像された画像に基づいて指示体の存否を検出するので、指示体ではない物体の動きによるジェスチャーの誤検知を低減できる。さらに、上記HMD100およびジェスチャー検知方法は、前記指示体の存在を検出した場合に、非動作状態のジェスチャー検知部を動作させて前記ジェスチャー検知部に前記ジェスチャーを検知させるので、さらに省電力化できる。
また、上記HMD100およびジェスチャー検知方法は、前記指示体の特徴量で前記指示体の存否を検出するので、指示体の一部の画像からでも指示体の存否を検出できる。
また、上記HMD100およびジェスチャー検知方法は、特徴量の複数種類で前記指示体の存否を検出するので、より精度良く指示体の存否を検出できる。
また、上記HMD100およびジェスチャー検知方法は、前記物体検出部が前記ジェスチャー検知部と兼用されるので、部品数を低減でき、小型化できる。本実施形態では、前記ジェスチャー検知部の焦電素子RA〜RDを前記物体検出部に流用したHMD100が提供される。
また、上記HMD100およびジェスチャー検知方法は、物体の存否の検出には、ジェスチャーを検知する場合の第2サンプリング周期よりも長周期の第1サンプリング周期でセンサ部の出力をサンプリングして処理するので、物体の存否の検出とジェスチャーの検知とを同じサンプリング周期で実行する場合に比べて省電力化できる。
本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。
RA〜RD 焦電素子
100 ヘッドマウントディスプレイ
105 センサ部
105A 近接センサ
106 撮像部
106A カメラ
121 制御処理部
1211 制御部
1212 ジェスチャー処理部
1213 検知結果利用部

Claims (10)

  1. 検知領域内でのジェスチャーを検知するジェスチャー検知部と、
    前記検知領域内の物体の有無に応じた信号を出力する物体検出部と、
    前記検知領域を含む領域を撮像領域として画像を生成する撮像部と、
    前記物体検出部の出力に基づいて前記物体の存否を検出して前記物体の存在を検出した場合に、非動作状態にある前記撮像部を起動して前記撮像部に画像を生成させ、前記撮像部で撮像された画像に基づいてジェスチャーを行うための指示体の存否を検出して前記指示体の存在を検出した場合に、前記ジェスチャー検知部に前記指示体による前記ジェスチャーを検知させる御部とを備え、
    前記ジェスチャー検知部は、前記撮像部で撮像された画像を用いることなく指示体によるジェスチャーを検知すること
    を特徴とするウェアラブル電子機器。
  2. 前記御部は、前記撮像部で撮像された画像から、前記指示体を特徴付ける特徴量を抽出し、抽出された特徴量が予め定めた条件に合致するか否かを判定することで、前記検知領域内における前記指示体の存否を検出すること
    を特徴とする請求項1に記載のウェアラブル電子機器。
  3. 前記御部は、前記撮像部で撮像された画像から、前記指示体を特徴付ける、互いに異なる種類の複数の特徴量を抽出し、抽出された前記複数の特徴量が予め定めた条件に合致する場合には検出結果として前記検知領域内に前記指示体が存在すると判定し、合致しない場合には前記検出結果として前記検知領域内に前記指示体が存在しないと判定すること
    を特徴とする請求項2に記載のウェアラブル電子機器。
  4. 前記物体検出部は、前記ジェスチャー検知部を兼ねること
    を特徴とする請求項1ないし請求項3のいずれか1項に記載のウェアラブル電子機器。
  5. 前記ジェスチャー検知部は、2次元マトリクス状に配列された複数の検知素子を備えるセンサ部と、前記センサ部の出力に基づいて前記ジェスチャーを求めるジェスチャー処理部とを備え、
    前記物体検出部は、前記センサ部における前記複数の検知素子のうちの少なくとも1つであること
    を特徴とする請求項4に記載のウェアラブル電子機器。
  6. 前記御部は、前記ジェスチャーを検知するために前記センサ部の出力をサンプリングする第2サンプリング周期よりも長い第1サンプリング周期で、前記物体の存否を検出するために前記センサ部の出力をサンプリングすること
    を特徴とする請求項5に記載のウェアラブル電子機器。
  7. 頭部に装着するための頭部装着部材をさらに備えること
    を特徴とする請求項1ないし請求項6のいずれか1項に記載のウェアラブル電子機器。
  8. 生体における所定の部位に装着部材によって装着されるウェアラブル電子機器のジェスチャー検知方法であって、
    ジェスチャーの検知領域内の物体の有無に応じた信号を出力する物体検出部の出力に基づいて前記物体の存否を検出し、
    前記物体の存在を検出した場合に、前記検知領域を含む領域を撮像領域として画像を生成する撮像部を非動作状態から起動して画像を生成させ、
    前記撮像部で撮像された画像に基づいてジェスチャーを行うための指示体の存否を検出し、
    前記指示体の存在を検出した場合に、前記検知領域内での前記ジェスチャーを検知するジェスチャー検知部に前記指示体による前記ジェスチャーを検知させ、
    前記ジェスチャーを検知させる場合では、前記撮像部で撮像された画像を用いることなく指示体によるジェスチャーを検知させること
    を特徴とするウェアラブル電子機器のジェスチャー検知方法。
  9. 前記撮像部で撮像された画像から、前記指示体を特徴付ける特徴量を抽出し、抽出された特徴量が予め定めた条件に合致するか否かを判定することで、前記検知領域内における前記指示体の存否を検出すること
    を特徴とする請求項8に記載のウェアラブル電子機器のジェスチャー検知方法。
  10. 前記ジェスチャー検知部を兼ねる前記物体検出部の出力を、第1サンプリング周期でサンプリングして前記物体の存否を検出し、前記指示体の存在を検出した場合に、前記物体検出部の出力を、前記第1サンプリング周期よりも短い第2サンプリング周期でサンプリングして前記検知領域内での前記ジェスチャーを検知すること
    を特徴とする請求項9に記載のウェアラブル電子機器のジェスチャー検知方法。
JP2015105522A 2015-05-25 2015-05-25 ウェアラブル電子機器およびウェアラブル電子機器のジェスチャー検知方法 Expired - Fee Related JP6398870B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015105522A JP6398870B2 (ja) 2015-05-25 2015-05-25 ウェアラブル電子機器およびウェアラブル電子機器のジェスチャー検知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015105522A JP6398870B2 (ja) 2015-05-25 2015-05-25 ウェアラブル電子機器およびウェアラブル電子機器のジェスチャー検知方法

Publications (2)

Publication Number Publication Date
JP2016218899A JP2016218899A (ja) 2016-12-22
JP6398870B2 true JP6398870B2 (ja) 2018-10-03

Family

ID=57581120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015105522A Expired - Fee Related JP6398870B2 (ja) 2015-05-25 2015-05-25 ウェアラブル電子機器およびウェアラブル電子機器のジェスチャー検知方法

Country Status (1)

Country Link
JP (1) JP6398870B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3979046A4 (en) * 2019-08-30 2022-07-27 Guangdong Oppo Mobile Telecommunications Corp., Ltd. CONTROL METHOD, CONTROL DEVICE, ELECTRONIC DEVICE AND STORAGE MEDIA
TWI818305B (zh) * 2020-10-29 2023-10-11 宏達國際電子股份有限公司 頭戴式顯示裝置及其電源管理方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6173625B1 (ja) * 2017-01-04 2017-08-02 京セラ株式会社 電子機器、プログラムおよび制御方法
JP6546632B2 (ja) * 2017-09-11 2019-07-17 京セラ株式会社 電子機器、プログラムおよび制御方法
JPWO2019082527A1 (ja) * 2017-10-23 2020-11-19 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN108989553A (zh) 2018-06-29 2018-12-11 北京微播视界科技有限公司 场景操控的方法、装置及电子设备
CN109871179B (zh) * 2019-02-25 2023-06-06 努比亚技术有限公司 手势方向的识别方法、识别装置、移动终端及存储介质
KR102613391B1 (ko) * 2021-12-26 2023-12-13 주식회사 피앤씨솔루션 제스처를 이용해 동공 간 거리를 자동 조절하는 증강현실 글래스 장치 및 증강현실 글래스 장치를 위한 제스처를 이용한 동공 간 거리 자동 조절 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9575544B2 (en) * 2011-11-07 2017-02-21 Qualcomm Incorporated Ultrasound based mobile receivers in idle mode
US9389690B2 (en) * 2012-03-01 2016-07-12 Qualcomm Incorporated Gesture detection based on information from multiple types of sensors
JP2013206412A (ja) * 2012-03-29 2013-10-07 Brother Ind Ltd ヘッドマウントディスプレイ及びコンピュータプログラム
US9600123B2 (en) * 2012-10-18 2017-03-21 Sharp Kabushiki Kaisha Optical sensor and electronic apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3979046A4 (en) * 2019-08-30 2022-07-27 Guangdong Oppo Mobile Telecommunications Corp., Ltd. CONTROL METHOD, CONTROL DEVICE, ELECTRONIC DEVICE AND STORAGE MEDIA
TWI818305B (zh) * 2020-10-29 2023-10-11 宏達國際電子股份有限公司 頭戴式顯示裝置及其電源管理方法

Also Published As

Publication number Publication date
JP2016218899A (ja) 2016-12-22

Similar Documents

Publication Publication Date Title
JP6398870B2 (ja) ウェアラブル電子機器およびウェアラブル電子機器のジェスチャー検知方法
US10643390B2 (en) Head mounted display, method for controlling head mounted display, and computer program
US10635182B2 (en) Head mounted display device and control method for head mounted display device
US20200076998A1 (en) Portable eye tracking device
US9360935B2 (en) Integrated bi-sensing optical structure for head mounted display
CN103529929B (zh) 手势识别系统及可识别手势动作的眼镜
US20170017299A1 (en) Portable eye tracking device
JP6105953B2 (ja) 電子機器、視線入力プログラムおよび視線入力方法
US11212377B2 (en) Electronic device comprising camera device and method
US10380914B2 (en) Imaging gloves including wrist cameras and finger cameras
CN109923499B (zh) 便携式眼睛追踪装置
US20140321700A1 (en) Light sensing module and system
JP6617974B2 (ja) 電子機器、電子機器の制御方法及びその制御プログラム
WO2009144685A2 (en) Human interface electronic device
US11947728B2 (en) Electronic device for executing function based on hand gesture and method for operating thereof
JP6607254B2 (ja) ウェアラブル電子機器、ウェアラブル電子機器のジェスチャー検知方法およびウェアラブル電子機器のジェスチャー検知プログラム
US11216066B2 (en) Display device, learning device, and control method of display device
US10884498B2 (en) Display device and method for controlling display device
KR102630632B1 (ko) 배경 정보 획득 방법 및 이를 지원하는 전자 장치
CN205507231U (zh) 多通道交互虚拟现实眼镜
JP2016115125A (ja) ウェアラブル検索システム
CN115777091A (zh) 检测装置及检测方法
US20230244301A1 (en) Augmented reality device for changing input mode and method thereof
WO2016052061A1 (ja) ヘッドマウントディスプレイ
US20220375172A1 (en) Contextual visual and voice search from electronic eyewear device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180820

R150 Certificate of patent or registration of utility model

Ref document number: 6398870

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees