JP2018092206A - 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 - Google Patents

頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 Download PDF

Info

Publication number
JP2018092206A
JP2018092206A JP2016232379A JP2016232379A JP2018092206A JP 2018092206 A JP2018092206 A JP 2018092206A JP 2016232379 A JP2016232379 A JP 2016232379A JP 2016232379 A JP2016232379 A JP 2016232379A JP 2018092206 A JP2018092206 A JP 2018092206A
Authority
JP
Japan
Prior art keywords
image
user
candidate
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016232379A
Other languages
English (en)
Other versions
JP6790769B2 (ja
Inventor
由貴 藤巻
Yuki Fujimaki
由貴 藤巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016232379A priority Critical patent/JP6790769B2/ja
Priority to US15/801,916 priority patent/US10296105B2/en
Publication of JP2018092206A publication Critical patent/JP2018092206A/ja
Application granted granted Critical
Publication of JP6790769B2 publication Critical patent/JP6790769B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】指示体による入力の精度を向上させ、使用者の使い勝手を向上させる頭部装着型表示装置、プログラム及び制御方法を提供する。【解決手段】頭部装着型表示装置(HMD)は、外景を透過し、外景とともに視認できるように画像を表示領域に表示する画像表示部と、使用者の身体の一部を含む指示体を検出するカメラ及び検出制御部151と、検出制御部151が指示体を検出する領域を示す検出範囲画像を表示領域に表示させ、検出制御部151が検出する指示体の動き、形状及び位置の少なくともいずれかに対応する入力内容の候補を、表示領域において検出範囲画像に対応する位置に表示させる表示制御部153とを備える。【選択図】図5

Description

本発明は、頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法に関する。
従来、指示体の動き等を検出して、検出した指示体の動き等に対応した処理を実行する装置が知られている(例えば、特許文献1参照)。
特許文献1は、手話者の指文字を撮像して、撮像した画像データを処理して手話者の指文字を認識する手話認識装置を開示する。
特開2012−252581号公報
ところで、使用者の頭部に装着され、外景に重ねて画像を視認させる頭部装着型表示装置は、表示される画像によって外景の視認性が低下する場合があるため、頭部装着型表示装置の操作部を操作し難い場合があった。このため、入力の精度が高く、使い勝手のよい入力方法が求められていた。
本発明は、指示体による入力の精度を向上させ、使用者の使い勝手を向上させることを目的とする。
上記課題を解決するため、本発明は、使用者の頭部に装着される頭部装着型表示装置であって、外景を透過し、前記外景とともに視認できるように画像を表示領域に表示する表示部と、前記使用者の動作に対応付けられた指示体を検出する検出部と、前記検出部が前記指示体を検出する検出エリアを示す画像を前記表示領域に表示させ、前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応する入力内容の候補を、前記表示領域において前記検出エリアを示す前記画像に対応する位置に表示させる表示制御部と、を備える。
本発明によれば、検出部が検出した指示体の動き、形状及び位置のいずれかに対応する入力内容の候補が、検出エリアを示す画像に対応する位置に表示されるので、指示体による入力の精度を向上させることができる。また、使用者は、指示体により入力を行うことができるので、使用者の使い勝手を向上させることができる。
また、本発明は、前記表示制御部は、前記候補を前記表示領域の候補表示エリアに表示させ、前記候補表示エリアを示す画像を、前記検出エリアを示す前記画像に対応する位置、又は前記検出エリアにおいて検出された前記指示体に対応する位置に表示させる。
本発明によれば、候補表示エリアを示す画像が、検出エリアを示す画像に対応する位置、又は検出エリアにおいて検出された指示体に対応する位置に表示される。このため、候補表示エリアに表示された候補を選択する操作が簡易になる。
また、本発明は、前記表示制御部は、前記検出部が前記候補表示エリアに対応する位置で前記指示体を検出した場合に、検出された前記指示体の動き、形状及び位置の少なくともいずれかに基づき、前記候補表示エリアに表示された複数の前記候補のいずれかを選択する。
本発明によれば、指示体の動き、形状及び位置の少なくともいずれかにより、複数の候補のいずれかを選択することができる。
また、本発明は、前記表示制御部は、前記検出部が前記候補表示エリアに表示される前記候補の文字に対応する位置で前記指示体を検出した場合に、検出された前記指示体の動き、形状及び位置の少なくともいずれかに基づき、前記候補表示エリアに表示された複数の前記候補の文字のいずれかを選択する。
本発明によれば、指示体の動き、形状及び位置の少なくともいずれかに基づき、候補として表示された複数の文字からいずれかを選択することができる。
また、本発明は、前記表示制御部は、前記検出エリアを示す前記画像の周囲に複数の前記候補を表示させ、前記検出部により検出された前記指示体の移動方向が前記候補を表示させたいずれかの方向に対応する場合に、対応する前記候補を選択する。
本発明によれば、候補を表示させた方向に指示体を移動させることで、移動させた方向に表示された候補を選択することができる。
また、本発明は、前記表示制御部は、前記検出部により検出された前記指示体の形状が、予め設定された時間以上同一の形状である場合に、前記候補を表示させる。
本発明によれば、指示体の形状が予め設定された時間以上同一の形状である場合に、候補が表示される。このため、使用者の意図する候補が表示される確率を高めることができる。
また、本発明は、表示制御部は、前記検出エリアを示す画像として、前記使用者の左手を含む指示体を検出する検出エリアを示す画像と、前記使用者の右手を含む指示体を検出する検出エリアを示す画像とを表示させる。
本発明によれば、使用者の左手を含む指示体の検出エリアを示す画像と、右手を含む指示体の検出エリアを示す画像とがそれぞれに表示される。このため、検出部が検出した指示体が左手を含む指示体であるのか、右手を含む指示体であるのかを判定する必要がなくなり、候補を表示する時間を短縮し、使用者の意図する候補が表示される確率を高めることができる。
また、本発明は、音声を入力する音声入力部を備え、前記検出部は、前記音声入力部が予め設定された音声を入力した場合に、前記指示体を検出する。
本発明によれば、予め設定された音声により、頭部装着型表示装置に、指示体の検出を開始させることができる。
また、本発明は、前記指示体としての前記使用者の手指の予め設定された動きの軌跡を示すジェスチャーと、前記候補とを対応付けたジェスチャー登録辞書と、前記手指の予め設定された形状を示すハンドサインと、前記候補とを対応付けたハンドサイン登録辞書との少なくとも一方を記憶する記憶部を備え、前記表示制御部は、前記検出部が検出する前記手指の動き又は形状と、前記ジェスチャー登録辞書又は前記ハンドサイン登録辞書とのマッチングにより前記ジェスチャー又は前記ハンドサインを選択し、選択した前記ジェスチャー又は前記ハンドサインに対応する前記候補を表示させる。
本発明によれば、使用者の手指の動き又は形状に基づいてジェスチャー又ハンドサインを特定し、特定したジェスチャー又はハンドサインに対応する候補を表示させることができる。
上記課題を解決するため、本発明は、外景を透過し、前記外景とともに視認できるように画像を表示領域に表示する表示部と、使用者の動作に対応付けられた指示体を検出する検出部とを備え、前記使用者の頭部に装着される頭部装着型表示装置に搭載されたコンピューターが実行するプログラムであって、コンピューターに、前記検出部が前記指示体を検出する検出エリアを示す画像を前記表示領域に表示させる手順と、前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応する入力内容の候補を、前記表示領域において前記検出エリアを示す前記画像に対応する位置に表示させる手順と、を実行させるプログラム。
本発明によれば、検出部が検出した指示体の動き、形状及び位置のいずれかに対応する入力内容の候補が、検出エリアを示す画像に対応する位置に表示されるので、指示体による入力の精度を向上させることができる。また、使用者は、身体の一部を含む指示体により入力を行うことができるので、使用者の使い勝手を向上させることができる。
上記課題を解決するため、本発明は、外景を透過し、前記外景とともに視認できるように画像を表示領域に表示する表示部と、使用者の動作に対応付けられた指示体を検出する検出部とを備え、前記使用者の頭部に装着される頭部装着型表示装置の制御方法であって、前記検出部が前記指示体を検出する検出エリアを示す画像を前記表示領域に表示させるステップと、前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応する入力内容の候補を、前記表示領域において前記検出エリアを示す前記画像に対応する位置に表示させるステップと、を有する。
本発明によれば、検出部が検出した指示体の動き、形状及び位置のいずれかに対応する入力内容の候補が、検出エリアを示す画像に対応する位置に表示されるので、指示体による入力の精度を向上させることができる。また、使用者は、身体の一部を含む指示体により入力を行うことができるので、使用者の使い勝手を向上させることができる。
HMDの外観図。 HMDの光学系の構成を示す要部平面図。 画像表示部の構成を示す斜視図。 HMDのブロック図。 制御装置の機能ブロック図。 制御部の動作を示すフローチャート。 HMDを装着した使用者の視界を示す図である。 左右の検出範囲画像内に使用者の手指が表示された状態を示す図。 候補表示領域の表示例を示す図。 制御部の動作を示すフローチャート。 候補表示領域の他の表示例を示す図。
図1は、本発明を適用したHMD(Head Mounted Display:頭部装着型表示装置)100の外観構成を示す外観図である。
HMD100は、使用者の頭部に装着され、使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備える表示装置である。画像表示部20を頭部に装着した者を使用者という。
制御装置10は、図1に示すように平たい箱形のケース10A(筐体又は本体ともいえる)を備える。ケース10Aは、ボタン11、LEDインジケーター12、トラックパッド14、上下キー15、切替スイッチ16及び電源スイッチ18の各部を備える。ボタン11、トラックパッド14、上下キー15、切替スイッチ16及び電源スイッチ18は、使用者により操作される被操作部である。また、LEDインジケーター12は、例えばHMD100の動作状態を示す副表示部として機能する。使用者は、被操作部を操作することにより、HMD100を操作できる。制御装置10は、HMD100のコントローラーとして機能する。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22、左表示ユニット24、右導光板26及び左導光板28を備える。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20の装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。
右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、画像表示部20の装着状態において使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態において使用者の左眼の眼前に位置し、左眼に画像を視認させる。
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、使用者が画像表示部20を装着する装着状態で、使用者の眉間に対応する。前部フレーム27は、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態で使用者の鼻に当接する鼻当て部を設けてもよい。この場合、鼻当て部と、右保持部21及び左保持部23とにより画像表示部20を使用者の頭部に保持できる。また、右保持部21及び左保持部23に、画像表示部20の装着状態において使用者の後頭部に接するベルト(図示略)を連結してもよく、この場合、ベルトによって画像表示部20を使用者の頭部に保持できる。
右表示ユニット22は、右導光板26による画像の表示を実現する。右表示ユニット22は、右保持部21に設けられ、装着状態において使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示を実現する。左表示ユニット24は、左保持部23に設けられ、装着状態において使用者の左側頭部の近傍に位置する。
本実施形態の右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、例えばプリズムであり、右表示ユニット22及び左表示ユニット24が出力する画像光を、使用者の眼に導く。
右導光板26及び左導光板28の表面に、調光板(図示略)を設けてもよい。調光板は、光の波長域により透過率が異なる薄板上の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、使用者の眼の側と反対の側である前部フレーム27の表側を覆うように配置される。この調光板の光学特性を適宜選択することにより、可視光、赤外光及び紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。
画像表示部20は、右表示ユニット22及び左表示ユニット24がそれぞれ生成する画像光を、右導光板26及び左導光板28に導く。右導光板26及び左導光板28に導かれた画像光は使用者の右眼と左眼に入射して、使用者に虚像を視認させる。これにより、画像表示部20は画像を表示する。
使用者の前方から、右導光板26及び左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、虚像を構成する画像光及び外光が入射することとなり、虚像の視認性が外光の強さに影響される。このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択又は調整することによって、虚像の視認のしやすさを調整できる。典型的な例では、HMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を用いることができる。また、調光板を用いると、右導光板26及び左導光板28を保護し、右導光板26及び左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、又は、右導光板26及び左導光板28のそれぞれに対し着脱可能としてもよく、複数種類の調光板を交換して装着可能としてもよく、調光板を省略してもよい。
カメラ61は、画像表示部20の前部フレーム27に配設される。カメラ61の構成及び配置は、使用者が画像表示部20を装着した状態で視認する外景方向を撮像するように決められる。例えば、カメラ61は、前部フレーム27の前面において、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61は、前部フレーム27の端部ER側に配置されるが、カメラ61を端部EL側に配置してもよく、また、右導光板26と左導光板28との連結部に配置してもよい。カメラ61は、本発明の「検出部」に相当する。
カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。本実施形態のカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景(実空間)を撮像する。別の表現では、カメラ61は、使用者の視界と重なる範囲又は方向を撮像し、使用者が注視する方向を撮像する。カメラ61の画角の方向及び広さは適宜設定可能である。本実施形態では、後述するように、カメラ61の画角が、使用者が右導光板26及び左導光板28を通して視認する外界を含む。より好ましくは、カメラ61の画角は、右導光板26及び左導光板28を透過して視認可能な使用者の視界の全体を撮像できるように設定される。
カメラ61は、制御部150(図5)が備える撮像制御部147の制御に従って撮像を実行する。カメラ61は、撮像画像データを、後述するインターフェイス211を介して制御部150に出力する。
HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する距離センサー(図示略)を備えてもよい。距離センサーは、例えば、前部フレーム27において右導光板26と左導光板28との連結部分に配置できる。この場合、画像表示部20の装着状態において、距離センサーの位置は、水平方向では使用者の両眼のほぼ中間であり、鉛直方向では使用者の両眼より上である。距離センサーの測定方向は、例えば、前部フレーム27の表側方向とすることができ、言い換えればカメラ61の撮像方向と重複する方向である。距離センサーは、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する構成とすることができる。距離センサーは、制御部150の制御に従い、三角測距処理や時間差に基づく測距処理を実行すればよい。また、距離センサーは、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサーは、制御部150の制御に従い、超音波の反射までの時間差に基づき測距処理を実行すればよい。
図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
図2に示すように、右表示ユニット22及び左表示ユニット24は、左右対称に構成される。右表示ユニット22は、使用者の右眼REに画像を視認させる構成として、画像光を発するOLED(Organic Light Emitting Diode)ユニット221と、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251とを備える。画像光Lは、右光学系251により右導光板26に導かれる。
OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。OLED駆動回路225は、制御部150(図5)の制御に従って、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。この基板には温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
また、左表示ユニット24は、使用者の左眼LEに画像を視認させる構成として、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。
OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、制御部150(図5)の制御に従って、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。この基板には、温度センサー239が実装される。
左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281(反射面)が形成される。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
この構成によれば、HMD100は、シースルー型の表示装置として機能する。すなわち、使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
図1に戻り、制御装置10及び画像表示部20は、接続ケーブル40により接続される。接続ケーブル40は、ケース10Aの下部に設けられるコネクター(図示略)に着脱可能に接続され、左保持部23の先端から、画像表示部20の内部に設けられる各種回路に接続する。接続ケーブル40は、デジタルデータを伝送するメタルケーブル又は光ファイバーケーブルを有し、アナログ信号を伝送するメタルケーブルを有していてもよい。接続ケーブル40の途中には、コネクター46が設けられる。コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46及び制御装置10は、例えばアナログ音声信号を伝送するラインで接続される。図1に示す構成例では、ステレオヘッドホンを構成する右イヤホン32と左イヤホン34、及びマイク63を有するヘッドセット30が、コネクター46に接続される。
制御装置10と画像表示部20とを無線接続してもよい。例えば、Bluetooth(登録商標)、無線LAN(Wi−Fi(登録商標)を含む)等の規格に準拠した無線通信により、制御装置10と画像表示部20とが制御信号やデータを相互に送受信する構成としてもよい。
マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声インターフェイス182(図4)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。マイク63は、本発明の「音声入力部」に相当する。
制御装置10は、使用者により操作される被操作部として、ボタン11、LEDインジケーター12、トラックパッド14、上下キー15、切替スイッチ16、及び電源スイッチ18を備える。これらの被操作部はケース10Aの表面に配置される。
ボタン11は、制御装置10を操作するためのキーやスイッチを備え、これらのキーやスイッチは押圧操作により変位する。例えば、ボタン11は、制御装置10が実行するオペレーティングシステム143(図5参照)等に関する操作を行うためのメニューキー、ホームキー、「戻る」キーを含む。
LEDインジケーター12は、HMD100の動作状態に対応して点灯し、又は点滅する。上下キー15は、右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。切替スイッチ16は、上下キー15の操作に対応する入力を切り替えるスイッチである。電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチであり、例えばスライドスイッチである。
トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式或いは他の方式を採用できる。トラックパッド14への接触(タッチ操作)は、タッチセンサー(図示略)により検出される。トラックパッド14にはLED表示部17が設置される。LED表示部17は複数のLEDを備え、それぞれのLEDの光はトラックパッド14を透過して、操作用のアイコン等を表示する。このアイコン等はソフトウェアボタンとして機能する。
図3は、画像表示部20の構成を示す斜視図であり、画像表示部20を使用者の頭部側から見た要部構成を示す。この図3は、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右導光板26及び左導光板28の裏側が見えている。
図3では、使用者の右眼REに画像光を照射するハーフミラー261、及び左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
カメラ61は、画像表示部20において右側の端部に配置され、使用者の両眼が向く方向、すなわち使用者にとって前方を撮像する。カメラ61の光軸は、右眼RE及び左眼LEの視線方向を含む方向とされる。使用者がHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば、使用者が両眼で、使用者の前方に位置する対象物を注視する場合、使用者から対象物までの距離は、30cm〜10m程度であることが多く、1m〜4m程度であることが、より多い。そこで、HMD100について、通常使用時における使用者から対象物までの距離の上限、及び下限の目安を定めてもよい。この目安は調査や実験により求めてもよいし使用者が設定してもよい。カメラ61の光軸、及び画角は、通常使用時における対象物までの距離が、設定された上限の目安に相当する場合、及び下限の目安に相当する場合に、この対象物が画角に含まれるように設定されることが好ましい。
一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。注視点が使用者の前方に位置する対象物であるとき、使用者の視野において、右眼RE及び左眼LEのそれぞれの視線を中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。さらに、使用者が右導光板26及び左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶことができる。図1及び図2に示す本実施形態の構成で、実視野は、右導光板26及び左導光板28を透過して使用者が視認する実際の視野に相当する。実視野は、視野角及び安定注視野より狭いが、有効視野より広い。
カメラ61の画角は、使用者の視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角が、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角が、使用者の実視野よりも広いことがより好ましい。さらに好ましくは、画角が、使用者の安定注視野よりも広く、最も好ましくは、画角が使用者の両眼の視野角よりも広いことがより好ましい。
カメラ61が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。
図4は、HMD100を構成する各部の構成を示すブロック図である。
制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、メモリー118及び不揮発性記憶部121が接続される。また、メインプロセッサー140には、入力装置としてトラックパッド14及び操作部110が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111、磁気センサー113が接続される。また、メインプロセッサー140には、GPS受信部115、通信部117、ビーコン受信部119、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192及びFPGA194が接続される。これらは外部とのインターフェイスとして機能する。
メインプロセッサー140は、制御装置10が内蔵するコントローラー基板120に実装される。コントローラー基板120には、メインプロセッサー140に加えて、メモリー118、不揮発性記憶部121等が実装されてもよい。本実施形態では、6軸センサー111、磁気センサー113、GPS受信部115、通信部117、メモリー118、不揮発性記憶部121、音声コーデック180等がコントローラー基板120に実装される。また、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、FPGA194、及びインターフェイス196をコントローラー基板120に実装した構成であってもよい。
メモリー118は、メインプロセッサー140がプログラムを実行する場合に、実行されるプログラム、及び処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するプログラムや、メインプロセッサー140がプログラムを実行して処理する各種データを記憶する。
メインプロセッサー140は、トラックパッド14から入力される操作信号に基づいて、トラックパッド14の操作面に対する接触操作を検出し、操作位置を取得する。
操作部110は、ボタン11及びLED表示部17を含む。操作部110は、ボタン11が有するボタンやスイッチ等の操作子が操作された場合に、操作された操作子に対応する操作信号をメインプロセッサー140に出力する。
LED表示部17は、メインプロセッサー140の制御に従って、LEDインジケーター12の点灯、及び消灯を制御する。また、LED表示部17は、トラックパッド14の直下に配置されるLED(図示略)、及びこのLEDを点灯させる駆動回路を含む構成であってもよい。この場合、LED表示部17は、メインプロセッサー140の制御に従って、LEDを点灯、点滅、消灯させる。
6軸センサー111は、3軸加速度センサー及び3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー113は、例えば、3軸の地磁気センサーである。
6軸センサー111及び磁気センサー113は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。また、6軸センサー111及び磁気センサー113は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。
GPS受信部115は、図示しないGPSアンテナを備え、GPS衛星から送信されるGPS信号を受信する。GPS受信部115は、受信したGPS信号をメインプロセッサー140に出力する。また、GPS受信部115は、受信したGPS信号の信号強度を計測し、メインプロセッサー140に出力する。信号強度には、例えば、受信信号強度(RSSI:Received Signal Strength Indication)、電界強度、磁界強度、信号雑音比(SNR: Signal to Noise ratio)等の情報を用いることができる。
通信部117は、外部の機器との間で無線通信を実行する。通信部117は、アンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、又はこれらが統合されたデバイスで構成される。通信部117は、例えば、Bluetooth、無線LAN(Wi−Fiを含む)等の規格に準拠した無線通信を行う。
音声インターフェイス182は、音声信号を入出力するインターフェイスである。本実施形態では、音声インターフェイス182は、接続ケーブル40に設けられたコネクター46(図1)を含む。コネクター46はヘッドセット30に接続される。音声インターフェイス182が出力する音声信号は右イヤホン32、及び左イヤホン34に入力され、これにより右イヤホン32及び左イヤホン34が音声を出力する。また、ヘッドセット30が備えるマイク63は、音声を集音して、音声信号を音声インターフェイス182に出力する。マイク63から音声インターフェイス182に入力される音声信号は、外部コネクター184に入力される。
音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード及びデコードを行う。音声コーデック180はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及びその逆の変換を行うD/Aコンバーターを備えてもよい。例えば、本実施形態のHMD100は、音声を右イヤホン32及び左イヤホン34により出力し、マイク63で集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換して、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。
外部コネクター184は、メインプロセッサー140と通信する外部の装置を接続するコネクターである。外部コネクター184は、例えば、外部の装置をメインプロセッサー140に接続して、メインプロセッサー140が実行するプログラムのデバッグや、HMD100の動作のログの収集を行う場合に、この外部の装置を接続するインターフェイスである。
外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。
USB(Universal Serial Bus)コネクター188は、USB規格に準拠したコネクターとインターフェイス回路とを備える。USBコネクター188は、USBメモリーデバイス、スマートフォン、コンピューター等を接続できる。USBコネクター188のサイズや形状、適合するUSB規格のバージョンは適宜に選択、変更可能である。
センサーハブ192及びFPGA194は、インターフェイス(I/F)196を介して、画像表示部20を接続される。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得してメインプロセッサー140に出力する。また、FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信するデータの処理、及びインターフェイス196を介した伝送を実行する。
HMD100は、バイブレーター19を備える。バイブレーター19は、モーター、偏心した回転子(いずれも図示略)を備え、その他の必要な構成を備えてもよい。バイブレーター19は、メインプロセッサー140の制御に従って上記モーターを回転させることにより、振動を発生する。HMD100は、例えば、操作部110に対する操作を検出した場合、HMD100の電源がオン/オフされる場合、或いはその他の場合に、所定の振動パターンでバイブレーター19により振動を発生する。
画像表示部20の右表示ユニット22及び左表示ユニット24は、それぞれ、制御装置10に接続される。図1に示すように、HMD100では左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24のそれぞれが制御装置10に接続される。
右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)211、インターフェイス211を介して制御装置10から入力されるデータを受信する受信部(Rx)213、及びEEPROM215が実装される。
インターフェイス211は、受信部213、EEPROM215、温度センサー217、カメラ61、照度センサー65、及びLEDインジケーター67を、制御装置10に接続する。
EEPROM(Electrically Erasable Programmable Read−Only Memory)215は、各種のデータをメインプロセッサー140が読み取り可能に記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22又は左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれ、出荷後はメインプロセッサー140がEEPROM215のデータを利用して処理を行える。
カメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データ、又は撮像結果を示す信号を制御装置10に出力する。
照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するよう配置される。照度センサー65は、受光量(受光強度)に対応する検出値を出力する。
LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
温度センサー217は、温度を検出し、検出温度に対応する電圧値又は抵抗値を、検出値として出力する。温度センサー217は、OLEDパネル223(図2)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は、主としてOLEDパネル223の温度を検出する。
受信部213は、インターフェイス211を介してメインプロセッサー140が送信するデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データを、OLED駆動回路225(図2)に出力する。
左表示ユニット24は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)231、インターフェイス231を介して制御装置10から入力されるデータを受信する受信部(Rx)233が実装される。また、表示ユニット基板210には、6軸センサー235及び磁気センサー237が実装される。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を、制御装置10に接続する。
6軸センサー235は、3軸加速度センサー及び3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMUを採用してもよい。
磁気センサー237は、例えば、3軸の地磁気センサーである。
温度センサー239は、温度を検出し、検出温度に対応する電圧値又は抵抗値を、検出値として出力する。温度センサー239は、OLEDパネル243(図2)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は、主としてOLEDパネル243の温度を検出する。
また、温度センサー239が、OLEDパネル243又はOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
右表示ユニット22が備えるカメラ61、照度センサー65、温度センサー217、及び左表示ユニット24が備える6軸センサー235、磁気センサー237、温度センサー239は、センサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定及び初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。また、センサーハブ192は、予め設定されたタイミングで、右表示ユニット22及び左表示ユニット24が備える各センサーの検出値を、メインプロセッサー140に出力する。センサーハブ192は、各センサーの検出値を、メインプロセッサー140に対する出力のタイミングに合わせて一時的に保持する機能を備えてもよい。また、センサーハブ192は、各センサーの出力値の信号形式、又はデータ形式の相違に対応し、統一されたデータ形式のデータに変換して、メインプロセッサー140に出力する機能を備えてもよい。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯又は点滅させる。
制御装置10は、電源部130を備え、電源部130から供給される電力により動作する。電源部130は、充電可能なバッテリー132、及びバッテリー132の残容量の検出およびバッテリー132への充電の制御を行う電源制御回路134を備える。電源制御回路134はメインプロセッサー140に接続され、バッテリー132の残容量の検出値、又は電圧の検出値をメインプロセッサー140に出力する。また、電源部130が供給する電力に基づき、制御装置10から画像表示部20に電力を供給してもよい。また、電源部130から制御装置10の各部及び画像表示部20への電力の供給状態を、メインプロセッサー140が制御可能な構成としてもよい。
図5は、制御装置10の制御系を構成する記憶部122、及び制御部150の機能ブロック図である。図5に示す記憶部122は、不揮発性記憶部121(図4)により構成される論理的な記憶部であり、EEPROM215を含んでもよい。また、制御部150、及び制御部150が有する各種の機能部は、メインプロセッサー140がプログラムを実行することによって、ソフトウェアとハードウェアとの協働により形成される。制御部150、及び制御部150を構成する各機能部は、例えば、メインプロセッサー140、メモリー118及び不揮発性記憶部121により構成される。
制御部150は、記憶部122が記憶するデータを利用して各種処理を実行し、HMD100を制御する。
記憶部122は、制御部150が処理する各種のデータを記憶する。具体的には、記憶部122は、設定データ123、コンテンツデータ124、パターン認識辞書125及び音声パターン辞書126を記憶する。
設定データ123は、HMD100の動作を設定する各種の設定値を含む。また、制御部150がHMD100を制御する際にパラメーター、行列式、演算式、LUT(LookUp Table)等を用いる場合、これらを設定データ123に含めてもよい。
コンテンツデータ124は、制御部150の制御によって画像表示部20が表示する表示画像や映像を含むコンテンツのデータであり、画像データ又は映像データを含む。また、コンテンツデータ124は、音声データを含んでもよい。また、コンテンツデータ124は複数の画像の画像データを含んでもよく、この場合、これら複数の画像は同時に画像表示部20に表示される画像に限定されない。
また、コンテンツデータ124は、コンテンツを画像表示部20により表示する際に、制御装置10によって使用者の操作を受け付けて、受け付けた操作に応じた処理を制御部150が実行する、双方向型のコンテンツであってもよい。この場合、コンテンツデータ124は、操作を受け付ける場合に表示するメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理等を定めるデータ等を含んでもよい。
パターン認識辞書125は、ジェスチャー認識辞書125Aと、ハンドサイン認識辞書125Bとを備える。
ジェスチャー認識辞書125Aは、ジェスチャーを特定するための情報と、文字や記号を示す情報(以下、文字情報という)とを対応付けて登録した辞書である。ジェスチャーは、予め設定された手の形状(形態)を予め設定された順番に行う手指の動きの軌跡である。ジェスチャーを特定するための情報として、各形状(形態)における指の位置や形状等を示すデータがジェスチャーごとに辞書に登録される。例えば、ジェスチャーが、握った手を開く動作、すなわち「グー」の状態の手を開いて「パー」の状態にする動作であると仮定する。この場合、ジェスチャーを特定するための情報には、手や指の変化前の形状や位置を示す情報と、変化後の形状や位置を示す情報とが含まれる。また、手や指の変化前や変化後の形状や位置を示す情報には、例えば、各指の位置等を示す情報が含まれる。具体的には、手のひらが閉じられた状態での各指の位置等を示す情報と、手のひらが開いた状態での各指の位置等を示す情報とが含まれる。
また、ハンドサイン認識辞書125Bは、ハンドサインを特定するための情報と、文字情報とを対応付けて登録した辞書である。ハンドサインは、予め設定された手や指の形状や位置を示し、ハンドサインを特定するための情報は、手や指の位置や形状を示す情報である。
また、記憶部122は、音声パターン辞書126を記憶する。
音声パターン辞書126は、予め設定された音声データを登録した辞書である。音声パターン辞書126には、例えば、指を鳴らす動作であるフィンガースナップの音声データや、例えば、トラックパッド14等を叩くノック音の音声データが登録される。
制御部150は、オペレーティングシステム(OS)143、画像処理部145、撮像制御部147、操作制御部149、検出制御部151及び表示制御部153の機能を有する。検出制御部151は、本発明の「検出部」に相当する。
オペレーティングシステム143の機能は、記憶部122が記憶する制御プログラムの機能であり、その他の各部は、オペレーティングシステム143上で実行されるアプリケーションプログラムの機能である。
画像処理部145は、画像表示部20により表示する画像又は映像の画像データに基づいて、右表示ユニット22及び左表示ユニット24に送信する信号を生成する。画像処理部145が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。
また、画像処理部145は、必要に応じて、画像データの解像度を右表示ユニット22及び左表示ユニット24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部145は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、又は2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部145は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、接続ケーブル40を介して画像表示部20に送信する。
画像処理部145は、メインプロセッサー140がプログラムを実行して実現される構成のほか、メインプロセッサー140と別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。
撮像制御部147は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶部122に一時的に記憶する。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部147は撮像画像データをカメラ61から取得して、記憶部122に一時的に記憶する。
操作制御部149は、トラックパッド14及び操作部110における操作を検出し、操作に対応するデータを出力する。操作制御部149は、例えば、操作部110のボタン等が操作された場合、操作内容を示す操作データを生成して、表示制御部153に出力する。表示制御部153は、操作制御部149から入力される操作データに従って画像表示部20の表示状態を変更する。
また、操作制御部149は、トラックパッド14における操作を検出した場合に、トラックパッド14における操作位置の座標を取得する。操作制御部149は、操作位置の軌跡を生成する。操作位置の軌跡は、トラックパッド14のタッチ操作が解除されない間、すなわち操作体がトラックパッド14に接触した状態が継続する間の操作位置の軌跡である。
検出制御部151は、カメラ61の撮像画像データから使用者の動作に対応付けられた指示体を検出する。指示体は、例えば、使用者の手や指(以下、手指という)を用いることができる。また、指示体には、使用者の手指や腕に装着された部材を用いることができる。例えば、使用者の指に装着された指輪や、使用者の腕に装着された時計やバンド等を指示体として用いることができる。これらの指示体は、使用者が身につける物であるため、使用者が手指や腕を動かせば、手指や腕の動きに応じて指示体も一体に(一緒に)動く。
検出制御部151は、記憶部122から撮像画像データを取得し、取得した撮像画像データに撮像された使用者の手や指の領域(以下、手指領域という)を検出する。また、検出制御部151は、検出した手指領域に写った手指の形状や位置を特定し、特定した手指の形状や位置を、パターン認識辞書125に登録された情報と比較して、ジェスチャーやハンドサインを検出する。
具体的には、検出制御部151は、取得した撮像画像データから使用者の手指が撮像された領域を検出する。検出制御部151は、例えば、肌色抽出処理により、撮像画像データの領域から肌色領域を抽出し、しきい値処理により、抽出した肌色領域の画素値をしきい値と比較して手指領域を検出する。また、検出制御部151は、エッジ検出処理により、求めた手指領域の輪郭を抽出し、輪郭の凹凸による特徴点マッチングや曲率判定を用いて手指の形状や位置を検出する。また、検出制御部151は、連続して撮像される撮像画像データのそれぞれから手指の形状や位置を検出し、手指の形状や位置の変化、すなわち動きを検出する。検出制御部151は、手指の形状や位置を検出すると、検出した手指の形状や位置を、パターン認識辞書125に登録された情報と比較して、ジェスチャーやハンドサインを検出する。
本実施形態では、検出制御部151が、指示体としての使用者の手指を検出する場合について説明するが、検出制御部151が検出する指示体は、使用者の腕全体であってもよい。また、使用者が指示棒等を手に持っている場合、この指示棒を指示体として検出してもよいし、指示棒を含む使用者の手指や腕全体を検出してもよい。また、指示体として、使用者の手指に嵌められた指輪や、使用者の腕(手首)に装着された時計やバンド、使用者の爪等を用いてもよい。
また、使用者が身に付けた指輪や時計、バンドを検出し、検出した指輪や時計、バンドよりも使用者の体から離れた側を手指と判定して、ジェスチャーやハンドサインを判定してもよい。これにより、複雑な手指認識を行わなくても簡易に手指を認識することができ、ジェスチャーやハンドサインの認識にかかる時間を短縮し、ジェスチャーやハンドサインの認識精度を高めることができる。
表示制御部153は、右表示ユニット22及び左表示ユニット24を制御する制御信号を生成し、この制御信号により、右表示ユニット22及び左表示ユニット24のそれぞれによる画像光の生成及び射出を制御する。具体的には、表示制御部151は、OLED駆動回路225、245を制御して、OLEDパネル223、243による画像の表示を実行させる。表示制御部151は、画像処理部145が出力する信号に基づきOLED駆動回路225、245がOLEDパネル223、243に描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。
また、表示制御部153は、検出制御部151が検出する手指の動きや、形状及び位置の少なくともいずれかに対応する入力内容の候補を、後述する表示領域310に表示させる。表示制御部151は、検出制御部151が検出する手指の動きや、形状及び位置を、パターン認識辞書125に登録されたジェスチャーやハンドサインを特定するための情報と比較し、少なくとも一部が一致するジェスチャーやハンドサインを選択する。表示制御部153は、選択したジェスチャーやハンドサインに対応付けられた文字情報の示す文字の画像を入力内容の候補として表示させる。
表示制御部153が表示させる入力内容の候補は、文字や記号に限定されるものではない。例えば、表示制御部153が表示領域310にソフトウェアキーボードの画像を表示させ、検出制御部151が撮像画像データから手指の位置を検出して、選択されたキーを検出する構成であると仮定する。この場合、表示制御部153は、検出制御部151が検出した手指の位置に表示されたキーを入力内容の候補として表示してもよい。
HMD100は、コンテンツの供給元となる種々の外部機器を接続するインターフェイス(図示略)を備えてもよい。例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスであってもよく、無線通信インターフェイスで構成してもよい。この場合の外部機器は、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。この場合、HMD100は、これらの外部機器から入力されるコンテンツデータに基づく画像や音声を出力できる。
図6は、制御部150の動作を示すフローチャートである。特に、図6は、使用者のジェスチャーやハンドサインを検出して、検出したジェスチャーやハンドサインに対応する文字や記号を入力する動作を示すフローチャートである。
制御部150は、まず、予め設定された操作を受け付けたか否かを判定する(ステップS1)。予め設定された操作には、例えば、ボタン11や、上下キー15、トラックパッド14の操作が含まれる。
また、制御部150は、使用者の頭部の動きを画像表示部20に搭載された6軸センサー235により検出し、予め設定された頭部の動きが検出された場合に、予め設定された操作を受け付けたと判定してもよい。例えば、制御部150は、6軸センサー235の検出値に基づいて、うなずきや首振りといった頭部の動きを検出した場合に、予め設定された操作を受け付けたと判定してもよい。
また、制御部150は、カメラ61が撮像した撮像画像データから使用者の手指領域を検出し、予め設定されたジェスチャーやハンドサインが検出された場合に、予め設定された操作を受け付けたと判定してもよい。
また、制御部150は、マイク63から入力される音声信号に基づき、予め設定された操作を受け付けたか否かを判定してもよい。制御部150は、マイク63から入力される音声信号を、音声パターン辞書126から取得した音声パターンと比較する。制御部150は、音声パターン辞書126に登録されたフィンガースナップやノック音に一致する音声信号が入力された場合に、予め設定された操作を受け付けたと判定してもよい。
制御部150は、予め設定された操作を受け付けていないと判定した場合(ステップS1/NO)、予め設定された操作を受け付けるまで待機し、他に実行可能な処理があれば、この実行可能な処理を実行する。また、制御部150は、予め設定された操作を受け付けたと判定した場合(ステップS1/YES)、検出範囲画像320を表示領域310に表示させる(ステップS2)。検出範囲画像320及び表示領域310について、図7を参照しながら説明する。検出範囲画像320は、本発明の「検出エリアを示す画像」に相当する。
図7は、HMD100を装着した使用者の視界300を示す図である。
HMD100の右導光板26及び左導光板28は、外界から入射される光を透過する。このため使用者は、外景を視認することができる。外景とは、使用者の眼に画像表示部20越しに見える景色である。図7には、先生が黒板を使って授業を行っている授業風景が外景として視認される場合を示す。すなわち、図7は、HMD100を装着した生徒の視界300を示す。
また、HMD100の使用者は、表示領域310に表示される拡張現実の画像を視認する。拡張現実の画像は、右表示ユニット22及び左表示ユニット24により使用者の両眼に導かれた画像光が使用者の網膜に結像することによって視認される。表示領域310は、HMD100が画像を表示することができる領域をいう。使用者は、表示領域310内では、HMD100の表示する拡張現実の画像と外景とを視認する。また、使用者は、表示領域310の外側では、外景を視認する。
なお、図7には、説明のため表示領域310を示す矩形の画像を示したが、使用者が表示領域310を示す画像を視認することはない。
図7には、拡張現実の画像として、検出範囲画像320が表示された状態を示す。検出範囲画像320は、制御部150が使用者の手や指を検出する範囲を示す画像である。制御部150は、カメラ61の撮像画像データから、この検出範囲画像320に対応する領域を抽出し、抽出した領域から手指領域を検出する。検出範囲画像320を表示領域310に表示させることで、表示領域310の全体から手指を検出する必要がなくなり、手指の検出時間を短縮することができる。
また、図7には、検出範囲画像320として、左検出範囲画像321と右検出範囲画像322の2つの画像が表示された状態を示す。左検出範囲画像321は、使用者の左の手指の検出範囲を示す検出範囲画像320である。また、右検出範囲画像322は、使用者の右の手指の検出範囲を示す検出範囲画像320である。例えば、使用者の左手と右手とによって示されるハンドサインやジェスチャーを検出した場合、制御部150は、左検出範囲画像321と右検出範囲画像322との2つの検出範囲画像320を表示領域310に表示させる。
制御部150は、左検出範囲画像321に対応する撮像画像データの範囲から検出した手指領域を使用者の左手の手指と判定する。また、制御部150は、右検出範囲画像322に対応する撮像画像データの範囲から検出した手指領域を使用者の右手の手指と判定する。このため、制御部150は、検出した手指が右手の手指であるのか、左手の手指であるのかを判定する必要がなくなり、手指の認識にかかる時間を短縮することができる。また、左右の手指を誤って認識する誤認識の発生を低減することができる。
図7には、検出範囲画像320として、左検出範囲画像321と右検出範囲画像322とを示したが、1つの検出範囲画像320を表示領域310に表示する構成であってもよい。制御部150は、この検出範囲画像320に対応する撮像画像データの領域から使用者の左右の手指を検出してもよい。
また、図7には、左検出範囲画像321及び右検出範囲画像322として円形の画像を表示させたが、検出範囲画像320の形状は円形に限定されるものではない。例えば、検出範囲画像320として、矩形の画像であってもよいし、多角形の画像であってもよい。
また、検出範囲画像320の画像サイズは、カメラ61が撮像する撮像画像データに写った使用者の手指のサイズよりも大きくなるように予め設定される。
使用者は、表示領域310に検出範囲画像320が表示されると、入力したい文字や記号に対応したハンドサインや、ジェスチャーを手指により行う。このとき、使用者は、左右の手指が左検出範囲画像321及び右検出範囲画像322内にそれぞれ表示されるようにハンドサインやジェスチャーを行う。
使用者が行うハンドサインやジェスチャーは、左右の手指がそれぞれ1つの文字や記号を表すものであってもよいし、左手指が母音を示し、右手指が子音を示す等、両手の組み合わせで1つの文字を表すものであってもよい。
図8は、左検出範囲画像321及び右検出範囲画像322内に使用者の手指が表示された状態を示す図である。
次に、制御部150は、カメラ61に撮像を実行させ、カメラ61の生成する撮像画像データを取得する(ステップS3)。制御部150は、取得した撮像画像データから、検出範囲画像320に対応する領域を抽出する。制御部150は、キャリブレーションにより生成したパラメーターを使用して、検出範囲画像320に対応する領域を特定し、特定した領域を撮像画像データから抽出する。抽出した撮像画像データを抽出データという。
制御装置10は、カメラ61の撮像画像データ上での位置と、画像表示部20が画像を表示する表示領域310上での位置とを対応付けるためのキャリブレーションを、この処理フローの開始前に予め実行する。本実施形態では、次の方法によりキャリブレーションを行う。
制御部150は、画像表示部20にキャリブレーション用画像を表示させながら、キャリブレーション用画像に対応した参照実物体を、カメラ61の撮像画像データから認識し、追跡する。この状態で、使用者が、トラックパッド14等のユーザーインターフェイスを介してキャリブレーション用画像の位置を画像表示部20上で移動させる。そして、使用者が、キャリブレーション用画像と参照実物体とが重なる(位置、大きさ、向きの少なくとも1つがほぼ一致する)ように知覚したタイミングにて、ユーザーインターフェイスを介して制御部150に通知する。制御部150は、取得した通知に応じて、当該タイミングでの参照実物体の検出結果(撮像画像データ上の位置)と、画像表示部20上でのキャリブレーション用画像の表示位置とを対応付けるパラメーターを生成する。
次に、制御部150は、撮像画像データから抽出データを抽出すると、抽出データに対して任意の公知技術を実行し、手指領域を検出する検出処理を実行する(ステップS4)。
例えば、制御部150は、肌色抽出処理により、抽出した領域した撮像画像データの領域から肌色領域を抽出し、しきい値処理により、抽出した肌色領域の画素値をしきい値と比較して手指領域を求める。また、制御部150は、エッジ検出処理により、求めた手指領域の輪郭を抽出し、輪郭の凹凸による特徴点マッチングや曲率判定を用いて手指を検出する。
また、制御部150は、連続する複数の撮像画像データの差分を求め、求めた差分に基づいて動きのある領域(動領域)を特定し、特定した動領域を手指領域として抽出してもよい。また、制御部150は、例えば、BoostingやSVM(Support Vector Machine)等、一般的に顔検出に用いられているものと同様の手法を用いて手指領域を検出してもよい。
次に、制御部150は、検出処理により手指領域が検出されたか否かを判定する(ステップS5)。制御部150は、手指領域が検出されなかった場合(ステップS5/NO)、ステップS7の処理に移行する。また、制御部150は、手指領域を検出した場合(ステップS5/YES)、検出された手指領域の撮像画像データ(以下、手指画像データという)を記憶部122に記憶させる(ステップS6)。そして、制御部150は、予め設定された枚数の撮像画像データに対して検出処理を実行したか否かを判定する(ステップS7)。この予め設定された枚数の撮像画像データは、連続して撮像された撮像画像データであってもよいし、連続して撮像された撮像画像データから所定の枚数ごとに取り出した撮像画像データであってもよい。なお、カメラ61の撮像によって得られる1フレーム画像分の撮像画像データを1枚と表記する。制御部150は、予め設定された枚数の撮像画像データに対して検出処理を実行していない場合(ステップS7/NO)、ステップS3に戻り、記憶部122から撮像画像データを新たに取得する。そして、制御部150は、取得した撮像画像データに対して検出処理を実行する(ステップS4)。
また、制御部150は、予め設定された枚数の撮像画像データに対して検出処理を実行した場合(ステップS7/YES)、ステップS6において記憶部122に記憶させた手指画像データを取得する。そして、制御部150は、取得した手指画像データが複数枚ある場合、これらの手指画像データを比較して、手指の位置や形状に変化があるか否かを判定する(ステップS8)。
制御部150は、手指の形状や位置に変化がある、すなわち、手指に動きがあると判定した場合(ステップS8/YES)、ジェスチャー認識辞書125Aを参照して、入力候補の文字(以下、候補文字という)を選択する。
例えば、制御部150は、連続して撮像される撮像画像データから手指の形状や位置特定して手指の動きを追跡し、追跡した手指の動きに対応する文字を特定する。より詳細には、制御部150は、手指が検出範囲画像320内において撮像され始めた時点をジェスチャーの開始時、手指が検出範囲画像320から外に出た時点をジェスチャーの終了時として、一連の動きを追跡する。そして、制御部150は、ジェスチャー認識辞書125Aに登録されたジェスチャーを特定するための情報と、追跡した手指の動きとのマッチング処理を行って、マッチング結果が条件を満たすジェスチャーを選択する(ステップS9)。
例えば、制御部150は、手指の変化前の形状や位置や、手指の変化後の形状や位置を、ジェスチャーを特定するための情報と比較する。そして、制御部150は、変化前の手指の形状や位置や、変化後の手指の形状や位置と少なくとも一部が一致するジェスチャーを選択する(ステップS9)。そして、制御部150は、選択したジェスチャーを示す画像を候補表示領域330に表示させると共に、このジェスチャーに対応付けられた文字を候補文字として候補表示領域330に表示させる(ステップS10)。
また、制御部150は、手指の位置や形状に変化がない、すなわち、手指に動きがないと判定する場合(ステップS8/NO)、ハンドサイン認識辞書125Bを参照して、候補文字を選択する。制御部150は、検出した手指の形状や位置を、ハンドサインを特定するための情報と比較して、検出した手指の形状や位置に少なくとも一部が一致するハンドサインを選択する(ステップS11)。そして、制御部150は、選択したハンドサインを示す画像を候補表示領域330に表示させ、このハンドサインに対応付けられた候補文字を候補表示領域330に表示させる(ステップS12)。
制御部150は、同一の手指の形状が予め設定された時間以上、継続して検出された場合に、検出された手指の形状や位置に基づいてハンドサインを選択してもよい。同一の手指の形状が予め設定された時間以上、継続して検出された場合にハンドサインを選択することで、使用者が意図した候補文字が候補表示領域330に表示される確率を高めることができる。
図9は、候補表示領域330の表示例を示す図である。候補表示領域330は、本発明の「候補表示エリア」に対応する。
候補表示領域330は、検出範囲画像320に対応する位置、又は検出範囲画像320において検出された手指に対応する位置に表示される。候補表示領域330は、左候補表示領域331と、右候補表示領域332とを有する。左候補表示領域331は、左検出範囲画像321に対応する位置、又は左検出範囲画像321において検出された手指に対応する位置に表示される。また、右候補表示領域332は、右検出範囲画像322に対応する位置、又は右検出範囲画像322において検出された手指に対応する位置に表示される。
図9には、左候補表示領域331を左検出範囲画像321の周囲に表示し、右候補表示領域332を右検出範囲画像322の周囲に表示した例を示す。左検出範囲画像321の周囲とは、左検出範囲画像321の近傍であって、左候補表示領域331と左検出範囲画像321とが対応付けられていると使用者が認識できる距離の範囲である。この距離は、使用者が予め設定した距離を用いてもよい。右検出範囲画像322の周囲も同様である。左候補表示領域331は、撮像画像データに撮像された左の手指の動きや形状、位置等に基づいて選択したジェスチャーやハンドサインを表示する領域である。右候補表示領域332は、撮像画像データに撮像された右の手指の動きや形状、位置等に基づいて選択したジェスチャーやハンドサインを表示する領域である。
左候補表示領域331及び右候補表示領域332の表示位置は、図9に示す例に限定されるものではない。例えば、左候補表示領域331を左検出範囲画像321に接するように表示し、右候補表示領域332を右検出範囲画像322に接するように表示してもよい。
また、左候補表示領域331の少なくとも一部が左検出範囲画像321に重なるように左候補表示領域331を表示し、右候補表示領域332の少なくとも一部が右検出範囲画像322に重なるように右候補表示領域332を表示してもよい。また、検出された手指に対応する位置として、例えば、使用者の手指のうち、人指し指等の予め設定された指の指先の位置に左候補表示領域331及び右候補表示領域332を表示してもよい。このように候補表示領域330を検出範囲画像320の近傍に表示することで、使用者は、視線を移動させることなく、手指の近傍に表示される候補文字を選択することができる。
図10に示すフローチャートを参照して、ジェスチャーやハンドサイン検出による文字入力の動作を引き続き説明する。
次に、制御部150は、カメラ61に撮像を実行させ、カメラ61の生成する撮像画像データを取得する(ステップS13)。制御部150は、キャリブレーションにより生成したパラメーターを使用して、候補表示領域330に対応する撮像画像データの領域を特定し、特定した領域に対して抽出処理を実行して手指領域を抽出する。制御部150は、ステップS4で実行した抽出処理と同様の処理を行って、特定した撮像画像データの領域から手指領域を検出する検出処理を実行する。制御部150は、検出処理を実行すると、撮像画像データから手指領域を検出したか否かを判定する(ステップS14)。
制御部150は、手指領域を検出できなかった場合(ステップS14/NO)、ステップS13に戻り撮像画像データを取得し(ステップS13)、検出処理を再度実行する。
また、制御部150は、手指領域が検出された場合(ステップS14/YES)、この手指領域が検出された撮像画像データの領域に基づいて、選択された候補表示領域330の領域を特定する。すなわち、制御部150は、手指領域が検出された撮像画像データの領域に対応する候補表示領域330の領域を特定する。そして、制御部150は、特定した候補表示領域330の領域に表示された候補文字が選択されたと判定する(ステップS15)。以下、選択されたと判定した候補文字を選択文字という。制御部150は、選択文字を記憶部122に記憶させる(ステップS16)。そして、制御部150は、カメラ61の撮像画像データを取得し(ステップS17)、検出範囲画像320に対応する撮像画像データの領域に対して検出処理を実行して(ステップS18)、手指領域を検出する。制御部150は、手指領域が検出された場合(ステップS19/YES)、図6に示すステップS6に戻り、手指画像データを記憶部122に記憶させる。その後、制御部150は、ステップS7以降の処理を繰り返す。また、制御部150は、手指領域が検出されなかった場合(ステップS19/NO)、前回の手指領域の検出から所定時間を経過したか否かを判定する(ステップS20)。前回の手指領域の検出から所定時間を経過していない場合(ステップS20/NO)、制御部150は、ステップS17に戻り、撮像画像データを取得して検出処理を実行する(ステップS17)。
また、制御部150は、前回の手指領域の検出から所定時間を経過した場合(ステップS20/YES)、記憶部122から選択文字を読み出す。ここで、制御部150が記憶部122から読み出す選択文字は、1文字である場合もあれば、複数個、すなわち文字列である場合もある。制御部150は、選択文字を読み出すと、読み出した選択文字に基づいて対応する処理を実行する(ステップS21)。例えば、制御部150は、アプリケーションプログラムとしてウェブブラウザーが起動されている場合には、ウェブブラウザーの検索欄に、選択文字を入力する。また、制御部150は、メールアプリを起動している場合、例えば、メールの宛て先や本文に、選択文字を入力する。
上述したフローチャートでは、ステップS15において、手指領域が検出された候補表示領域330の領域に表示した候補文字を、選択された候補文字と判定した。これ以外に、制御部150は、1枚又は複数枚の撮像画像データに基づいて、手指の動きや、形状、位置を特定し、特定した手指の動きや、形状、位置に基づき選択された候補文字を判定してもよい。
例えば、制御部150は、候補表示領域330に表示する複数の候補文字にそれぞれ番号を付し、この番号を候補文字と共に候補表示領域330に表示させる。
使用者は、選択する候補文字に対応する番号の指文字を作り、指文字を作った手指が候補表示領域330に重なるようにする。制御部150は、撮像画像データから手指領域を検出し、検出した手指領域に写った手指の形状を特定して、選択された候補文字を判定する。また、使用者は、選択する候補文字に対応する番号に対応付けられたジェスチャーを行ってもよい。制御部150は、連続して撮像される複数枚の撮像画像データから手指領域を検出して手指の動きを検出し、パターン認識辞書125を参照してジェスチャーを特定する。そして、制御部150は、特定したジェスチャーに対応付けられた番号を判定して、候補文字を選択する。
図11は、候補表示領域330の他の表示例を示す図である。
図11には、左検出範囲画像321の上下左右の4方向に対応する方向に左候補表示領域331をそれぞれ表示し、右検出範囲画像322の上下左右の4方向に対応する方向に右候補表示領域332をそれぞれ表示した例を示す。
使用者は、入力したい候補文字が表示された候補表示領域330の方向に手指を移動させる。制御部150は、カメラ61の撮像画像データを取得し、上下左右の候補表示領域330に対応する撮像画像データの各領域から、上述した方法により手指領域を検出する。制御部150は、手指領域が検出された場合、この手指領域を検出した候補表示領域330に表示した候補文字が選択されたと判定する。使用者は、入力したい文字が表示された方向に手指を移動させればよいので、候補文字の選択を容易に行うことができる。
図11には、検出範囲画像320の上下左右の4方向に候補表示領域330を表示させた場合を示したが、選択される候補文字の数に応じて候補表示領域330を表示させる方向を変更してもよい。例えば、候補文字として2つの文字を選択した場合、検出範囲画像320の上下方向、又は左右方向に候補表示領域330を表示させることができる。
また、制御部150は、候補文字と、使用者が実際に選択した選択文字とを対応付けて記憶部122に記憶させてもよい。制御部150は、候補文字として、記憶部122に記憶させた候補文字を選択した場合、この候補文字に対応付けられた選択文字を候補表示領域330に候補文字として表示させてもよい。このように、候補文字と、選択文字とを対応付けて記憶部122に記憶させることで、ジェスチャーやハンドサインの認識精度を向上させることができる。また、使用者が作る手や指の形に癖があっても、使用者の意図した文字や記号の候補を候補表示領域330に表示させることができる。
以上説明したように本実施形態のHMD100は、画像表示部20と、カメラ61と、検出制御部151と、表示制御部153とを備える。
画像表示部20は、外景を透過し、外景とともに視認できるように画像を表示領域310に表示する。カメラ61及び検出制御部151は、使用者の動作に対応付けられた指示体を検出する。表示制御部153は、検出制御部151が指示体を検出する範囲を示す検出範囲画像320を表示領域310に表示させる。また、表示制御部153は、検出制御部151が検出する指示体の動き、形状及び位置の少なくともいずれかに対応する入力内容の候補を、表示領域310において検出範囲画像320に対応する位置に表示させる。
従って、検出制御部151が検出した指示体の動き、形状及び位置のいずれかに対応する入力内容の候補が、検出範囲画像320に対応する位置に表示される。このため、指示体による入力の精度を向上させることができる。また、使用者は、身体の一部を含む指示体により入力を行うことができるので、使用者の使い勝手を向上させることができる。
また、表示制御部153は、候補表示領域330に候補文字を表示させ、候補表示領域330を、検出範囲画像320に対応する位置、又は検出範囲画像320において検出された指示体に対応する位置に表示させる。
従って、候補表示領域330に表示された候補文字を選択する操作が簡易になる。
また、表示制御部153は、検出制御部151が候補表示領域330に対応する位置で指示体を検出した場合に、検出された指示体の動き、形状及び位置の少なくともいずれかに基づき、候補表示領域330に表示された複数の候補のいずれかを選択する。
従って、指示体の動き、形状及び位置の少なくともいずれかにより、複数の候補文字の中からいずれかを選択することができる。
また、表示制御部153は、検出制御部151が候補表示領域330に表示される候補文字に対応する位置で指示体を検出した場合に、検出された指示体の動き、形状及び位置の少なくともいずれかに基づき、候補表示領域330に表示された複数の候補の文字のいずれかを選択する。
従って、指示体の動き、形状及び位置の少なくともいずれかに基づき、複数の候補文字の中からいずれかを選択することができる。
また、表示制御部153は、検出範囲画像320の周囲に複数の候補を表示させ、検出制御部151により検出された指示体の移動方向が候補を表示させたいずれかの方向に対応する場合に、対応する候補を選択する。
従って、候補文字を表示させた方向に指示体を移動させることで、移動させた方向に表示された候補を選択することができる。
また、表示制御部153は、検出制御部151により検出された指示体の形状が、予め設定された時間以上同一の形状である場合に、候補文字を表示させる。
従って、使用者の意図する候補文字が表示される確率を高めることができる。
また、表示制御部153は、検出範囲画像320として、使用者の左手を含む指示体を検出する左検出範囲画像321と、使用者の右手を含む指示体を検出する右検出範囲画像322とを表示させる。
従って、検出制御部151が検出した指示体が左手を含む指示体であるのか、右手を含む指示体であるのかを判定する必要がなくなり、候補文字を表示する時間を短縮し、使用者の意図する候補が表示される確率を高めることができる。
上述した実施形態は本発明の好適な実施の形態である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形実施が可能である。
例えば、上述した実施形態は、カメラ61の撮像画像データを用いて使用者の手指を検出したが、使用者の手指の検出方法はこの方法に限定されるものではない。例えば、HMD100に赤外線を撮像するカメラを搭載し、使用者の手に付けたデバイスから出力される赤外線をこのカメラにより撮像して、使用者の手指の動きや、形状、位置等を検出してもよい。
また、使用者の指にセンサーを付けて、このセンサーにより使用者の手指の動きや、形状、位置等を検出し、センサーにより検出される手指の動きや、形状、位置等を近距離無線通信によりHMD100に送信してもよい。
また、ジャイロセンサーや加速度センサー等の慣性センサーを使用者の手指に装着し、慣性センサーにより動きとして計測される情報から逆算して、手指の動きや形状、位置等を求めてもよい。
また、上述した実施形態では、カメラ61の撮像画像データに写った使用者の手や指を検出したが、使用者の腕を含む手指を検出してもよい。例えば、使用者は、手旗信号によってHMD100に入力する文字や記号を表現する。HMD100の制御部150は、カメラ61の撮像画像データから腕を含む手指が写った領域を検出し、検出した領域に写った腕の位置を特定する。また、制御部150は、連続して撮像される撮像画像データから腕を含む手指が写った領域を検出して、この領域に写った腕の位置を特定することで、腕の動きを検出して、対応する手旗信号を特定し、候補文字を候補表示領域330に表示させる。
また、上述した説明では、ボタン11や、上下キー15、トラックパッド14の操作や、予め設定された頭部の動き、予め設定された音声の入力をトリガーとして、HMD100がジェスチャーやハンドサインの検出を開始する場合について説明した。これら以外のトリガーとして、HMD100が使用者の頭部に装着された場合に、HMD100がジェスチャーやハンドサインの検出を開始するようにしてもよい。
例えば、HMD100の画像表示部20に装着検出部(図示略)を設ける。装着検出部は、例えば、画像表示部20に設けられた6軸センサー235や磁気センサー237の検出値に基づいて、HMD100が使用者の頭部に装着されたことを検出してもよい。また、HMD100の画像表示部20にハードスイッチを設け、HMD100が使用者の頭部に装着され、ハードスイッチの状態が切り替わったことを装着検出部が検出して、HMD100が使用者の頭部に装着されたことを検出してもよい。
また、上述した実施形態では、カメラ61の撮像画像データから手指領域を検出して候補表示領域330の領域を特定した。これ以外の動作として、制御部150は、手指領域を検出して、対応する候補表示領域330の領域を特定した後に、特定した領域に表示させた候補文字を点滅させる。そして、制御部150は、使用者の頭部の動き、例えば、うなずき動作を検出した場合に、この候補文字が選択されたと判定してもよい。また、使用者が首を左右に振る動きが検出された場合には、再度、カメラ61の撮像画像データを取得して手指領域を検出するとよい。
また、上述した実施形態では、制御装置10が画像表示部20と有線接続される構成を例示したが、本発明はこれに限定されず、制御装置10に対して画像表示部20が無線接続される構成であってもよい。この場合の無線通信方式は通信部117が対応する通信方式として例示した方式を採用してもよいし、その他の通信方式であってもよい。
また、制御装置10が備える一部の機能を画像表示部20に設けてもよく、制御装置10を複数の装置により実現してもよい。すなわち、制御装置10は、箱形のケース10Aを備える構成に限定されない。例えば、制御装置10に代えて、使用者の身体、着衣又は、使用者が身につける装身具に取り付け可能なウェアラブルデバイスを用いてもよい。この場合のウェアラブルデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等であってもよい。
さらに、上記の実施形態では、画像表示部20と制御装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明した。本発明はこれに限定されず、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。
また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼LEに対応して画像を表示する表示部と、使用者の右眼REに対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び当該部分に対し位置決めされる部分を装着部とすることができる。
また、画像光を使用者の眼に導く光学系として、右導光板26及び左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。本発明はこれに限定されず、右導光板26及び左導光板28の全面又は大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
さらに、本発明の光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
また、図4、図5等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部150が実行するプログラムは、不揮発性記憶部121又は制御装置10内の他の記憶装置(図示略)に記憶されてもよい。また、外部の装置に記憶されたプログラムを通信部117や外部コネクター184を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部110が使用者インターフェイス(UI)として形成されてもよい。
また、図6及び図10に示すフローチャートの処理単位は、HMD100の制御部150の処理を理解容易にするために、主な処理内容に応じて分割したものであり、処理単位の分割の仕方や名称によって本発明が制限されることはない。また、制御部150の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。
1…システム、10…制御装置、10A…ケース、11…ボタン、12、67…LEDインジケーター、14…トラックパッド、15…上下キー、16…切替スイッチ、17…LED表示部、18…電源スイッチ、19…バイブレーター、20…画像表示部(表示部)、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、46…コネクター、61…カメラ(検出部)、63…マイク(音声入力部)、65…照度センサー、100…HMD(表示装置)、110…操作部、111…6軸センサー、113…磁気センサー、115…GPS受信部、117…通信部、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、122…記憶部、123…設定データ、124…コンテンツデータ、125…パターン認識辞書、125A…ジェスチャー認識辞書、125B…ハンドサイン認識辞書、126…音声パター辞書、130…電源部、132…バッテリー、134…電源制御回路、140…メインプロセッサー、143…オペレーティングシステム、145…画像処理部、147…撮像制御部、149…操作制御部、151…検出制御部(検出部)、153…表示制御部、180…音声コーデック、182…音声インターフェイス、184…外部コネクター、186…外部メモリーインターフェイス、188…USBコネクター、192…センサーハブ、194…FPGA、196…インターフェイス、200…ビーコン装置、211…インターフェイス、213…受信部、215…EEPROM、217…温度センサー、221…OLEDユニット、223…OLEDパネル、225…OLED駆動回路、231…インターフェイス、233…受信部、235…6軸センサー、237…磁気センサー、239…温度センサー、241…OLEDユニット、243…OLEDパネル、245…OLED駆動回路、251…右光学系、252…左光学系、261、281…ハーフミラー、300…視界、310…表示領域、320…検出範囲画像、321…左検出範囲画像、322…右検出範囲画像、330…候補表示領域、331…左候補表示領域、332…右候補表示領域。

Claims (11)

  1. 使用者の頭部に装着される頭部装着型表示装置であって、
    外景を透過し、前記外景とともに視認できるように画像を表示領域に表示する表示部と、
    前記使用者の動作に対応付けられた指示体を検出する検出部と、
    前記検出部が前記指示体を検出する検出エリアを示す画像を前記表示領域に表示させ、前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応する入力内容の候補を、前記表示領域において前記検出エリアを示す前記画像に対応する位置に表示させる表示制御部と、
    を備える頭部装着型表示装置。
  2. 前記表示制御部は、前記候補を前記表示領域の候補表示エリアに表示させ、前記候補表示エリアを、前記検出エリアを示す前記画像に対応する位置、又は前記検出エリアにおいて検出された前記指示体に対応する位置に表示させる請求項1記載の頭部装着型表示装置。
  3. 前記表示制御部は、前記検出部が前記候補表示エリアに対応する位置で前記指示体を検出した場合に、検出された前記指示体の動き、形状及び位置の少なくともいずれかに基づき、前記候補表示エリアに表示された複数の前記候補のいずれかを選択する請求項2記載の頭部装着型表示装置。
  4. 前記表示制御部は、前記検出部が前記候補表示エリアに表示される前記候補の文字に対応する位置で前記指示体を検出した場合に、検出された前記指示体の動き、形状及び位置の少なくともいずれかに基づき、前記候補表示エリアに表示された複数の前記候補の文字のいずれかを選択する請求項3記載の頭部装着型表示装置。
  5. 前記表示制御部は、前記検出エリアを示す前記画像の周囲に複数の前記候補を表示させ、前記検出部により検出された前記指示体の移動方向が前記候補を表示させたいずれかの方向に対応する場合に、対応する前記候補を選択する請求項1から4のいずれか1項記載の頭部装着型表示装置。
  6. 前記表示制御部は、前記検出部により検出された前記指示体の形状が、予め設定された時間以上同一の形状である場合に、前記候補を表示させる請求項1から5のいずれか1項記載の頭部装着型表示装置。
  7. 表示制御部は、前記検出エリアを示す画像として、前記使用者の左手を含む指示体を検出する検出エリアを示す画像と、前記使用者の右手を含む指示体を検出する検出エリアを示す画像とを表示させる請求項1から6のいずれか1項記載の頭部装着型表示装置。
  8. 音声を入力する音声入力部を備え、
    前記検出部は、前記音声入力部が予め設定された音声を入力した場合に、前記指示体を検出する請求項1から7のいずれか1項記載の頭部装着型表示装置。
  9. 前記指示体としての前記使用者の手指の予め設定された動きの軌跡を示すジェスチャーと、前記候補とを対応付けたジェスチャー登録辞書と、前記手指の予め設定された形状を示すハンドサインと、前記候補とを対応付けたハンドサイン登録辞書との少なくとも一方を記憶する記憶部を備え、
    前記表示制御部は、前記検出部が検出する前記手指の動き又は形状と、前記ジェスチャー登録辞書又は前記ハンドサイン登録辞書とのマッチングにより前記ジェスチャー又は前記ハンドサインを選択し、選択した前記ジェスチャー又は前記ハンドサインに対応する前記候補を表示させる請求項1から8のいずれか1項記載の頭部装着型表示装置。
  10. 外景を透過し、前記外景とともに視認できるように画像を表示領域に表示する表示部と、使用者の動作に対応付けられた指示体を検出する検出部とを備え、前記使用者の頭部に装着される頭部装着型表示装置に搭載されたコンピューターが実行するプログラムであって、
    コンピューターに、
    前記検出部が前記指示体を検出する検出エリアを示す画像を前記表示領域に表示させる手順と、
    前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応する入力内容の候補を、前記表示領域において前記検出エリアを示す前記画像に対応する位置に表示させる手順と、
    を実行させるプログラム。
  11. 外景を透過し、前記外景とともに視認できるように画像を表示領域に表示する表示部と、使用者の動作に対応付けられた指示体を検出する検出部とを備え、前記使用者の頭部に装着される頭部装着型表示装置の制御方法であって、
    前記検出部が前記指示体を検出する検出エリアを示す画像を前記表示領域に表示させるステップと、
    前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応する入力内容の候補を、前記表示領域において前記検出エリアを示す前記画像に対応する位置に表示させるステップと、
    を有することを特徴とする頭部装着型表示装置の制御方法。
JP2016232379A 2016-11-30 2016-11-30 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 Active JP6790769B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016232379A JP6790769B2 (ja) 2016-11-30 2016-11-30 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
US15/801,916 US10296105B2 (en) 2016-11-30 2017-11-02 Head-mounted display device, computer program, and control method for head-mounted display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016232379A JP6790769B2 (ja) 2016-11-30 2016-11-30 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法

Publications (2)

Publication Number Publication Date
JP2018092206A true JP2018092206A (ja) 2018-06-14
JP6790769B2 JP6790769B2 (ja) 2020-11-25

Family

ID=62565562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016232379A Active JP6790769B2 (ja) 2016-11-30 2016-11-30 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法

Country Status (1)

Country Link
JP (1) JP6790769B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019244645A1 (ja) * 2018-06-20 2019-12-26 ソニー株式会社 プログラム、認識装置、及び、認識方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008052590A (ja) * 2006-08-25 2008-03-06 Toshiba Corp インターフェース装置及びその方法
JP2012146236A (ja) * 2011-01-14 2012-08-02 Olympus Corp ジェスチャ入力装置
JP2013164834A (ja) * 2012-01-13 2013-08-22 Sony Corp 画像処理装置および方法、並びにプログラム
JP2014186361A (ja) * 2013-03-21 2014-10-02 Sony Corp 情報処理装置、操作制御方法及びプログラム
WO2014181380A1 (ja) * 2013-05-09 2014-11-13 株式会社ソニー・コンピュータエンタテインメント 情報処理装置およびアプリケーション実行方法
WO2015030264A1 (ja) * 2013-08-30 2015-03-05 国立大学法人山梨大学 クリック動作検出装置,方法およびプログラム
US20150277573A1 (en) * 2014-03-27 2015-10-01 Lg Electronics Inc. Display device and operating method thereof
WO2016185845A1 (ja) * 2015-05-21 2016-11-24 日本電気株式会社 インタフェース制御システム、インタフェース制御装置、インタフェース制御方法、及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008052590A (ja) * 2006-08-25 2008-03-06 Toshiba Corp インターフェース装置及びその方法
JP2012146236A (ja) * 2011-01-14 2012-08-02 Olympus Corp ジェスチャ入力装置
JP2013164834A (ja) * 2012-01-13 2013-08-22 Sony Corp 画像処理装置および方法、並びにプログラム
JP2014186361A (ja) * 2013-03-21 2014-10-02 Sony Corp 情報処理装置、操作制御方法及びプログラム
WO2014181380A1 (ja) * 2013-05-09 2014-11-13 株式会社ソニー・コンピュータエンタテインメント 情報処理装置およびアプリケーション実行方法
WO2015030264A1 (ja) * 2013-08-30 2015-03-05 国立大学法人山梨大学 クリック動作検出装置,方法およびプログラム
US20150277573A1 (en) * 2014-03-27 2015-10-01 Lg Electronics Inc. Display device and operating method thereof
WO2016185845A1 (ja) * 2015-05-21 2016-11-24 日本電気株式会社 インタフェース制御システム、インタフェース制御装置、インタフェース制御方法、及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019244645A1 (ja) * 2018-06-20 2019-12-26 ソニー株式会社 プログラム、認識装置、及び、認識方法
US11493997B2 (en) 2018-06-20 2022-11-08 Sony Corporation Program, recognition apparatus, and recognition method

Also Published As

Publication number Publication date
JP6790769B2 (ja) 2020-11-25

Similar Documents

Publication Publication Date Title
US11310483B2 (en) Display apparatus and method for controlling display apparatus
US10643390B2 (en) Head mounted display, method for controlling head mounted display, and computer program
US10635182B2 (en) Head mounted display device and control method for head mounted display device
US10296105B2 (en) Head-mounted display device, computer program, and control method for head-mounted display device
CN108508603B (zh) 头部佩戴型显示装置及其控制方法、以及记录介质
CN108376029B (zh) 显示系统
US10782531B2 (en) Head-mounted type display device and method of controlling head-mounted type display device
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
US10261327B2 (en) Head mounted display and control method for head mounted display
US10296104B2 (en) Display device, method of controlling display device, and program
JP2019128693A (ja) 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP6776578B2 (ja) 入力装置、入力方法、コンピュータープログラム
JP2018084886A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
US10884498B2 (en) Display device and method for controlling display device
JP2018206080A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2019109849A (ja) 透過型頭部装着型表示装置、表示制御方法、およびコンピュータープログラム
JP6790769B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
US20170285765A1 (en) Input apparatus, input method, and computer program
JP2019053644A (ja) 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP2018091882A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2018200415A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2017182460A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
JP2017134630A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2017182413A (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP2019053714A (ja) 頭部装着型表示装置、及び頭部装着型表示装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201019

R150 Certificate of patent or registration of utility model

Ref document number: 6790769

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150