JP2017083916A - ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末 - Google Patents

ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末 Download PDF

Info

Publication number
JP2017083916A
JP2017083916A JP2014049096A JP2014049096A JP2017083916A JP 2017083916 A JP2017083916 A JP 2017083916A JP 2014049096 A JP2014049096 A JP 2014049096A JP 2014049096 A JP2014049096 A JP 2014049096A JP 2017083916 A JP2017083916 A JP 2017083916A
Authority
JP
Japan
Prior art keywords
unit
notification
gesture recognition
command
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014049096A
Other languages
English (en)
Inventor
義朗 平原
Yoshiro Hirahara
義朗 平原
片桐 哲也
Tetsuya Katagiri
哲也 片桐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2014049096A priority Critical patent/JP2017083916A/ja
Priority to PCT/JP2015/050539 priority patent/WO2015136952A1/ja
Publication of JP2017083916A publication Critical patent/JP2017083916A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems

Abstract

【課題】ユーザーが直観的にジェスチャーの位置を正せるように案内するジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末を提供する。
【解決手段】ユーザーが装着または保持して用いるジェスチャー認識装置1は、連続して画像を撮像する撮像部42と、撮像部42の向きの変化を検出する検出部43と、撮像部42により撮像された画像を用いて、所定の対象を追跡する追跡部44と、追跡部44による追跡の可否を判断する判断部45と、判断部45の判断結果により対象の追跡が不可の場合、検出部43により検出された撮像部42の向きの変化量を算出して、追跡が不可となった原因を特定する特定部46と、特定部46により特定された原因に基づく通知を行う通知部47と、を備える。
【選択図】図3

Description

本発明は、ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末に関する。
近年、ウェアラブルコンピューターの一つとしてヘッドマウントディスプレイ(HMD:Head Mounted Display)が開発されている。ヘッドマウントディスプレイは、ユーザーの頭部に装着して利用される表示装置である。ユーザーは、ヘッドマウントディスプレイを頭部に装着した状態で、目前に表示された画像情報等の各種コンテンツを見ることができる。
このようなヘッドマウントディスプレイの中には、小型カメラを使用してユーザーの身体の一部を撮像し、その身体の動き(ジェスチャー)を、ヘッドマウントディスプレイに対する入力操作として認識できるものがある。
特許文献1には、ヘッドマウントディスプレイを用いた例ではないが、天井に小型カメラを設置しておき、小型カメラの下で行われたユーザーのジェスチャーを撮像、認識することによって、コンピューターに入力するコマンドを決定する技術が記載されている。
特許文献1のように小型カメラが固定カメラとして使用される場合には、ユーザーの身体が小型カメラの視野外へ動かされたとき、ユーザーに対してジェスチャーの位置を正すように促すことができる。
特開2013−196482号公報
しかし、ヘッドマウントディスプレイを用いる場合には、小型カメラはヘッドマウントディスプレイに搭載されるため、ユーザーの頭部が揺れると小型カメラも揺れてしまう。そのため、ユーザーの身体が小型カメラの視野外へ移ったときに、小型カメラが動いたのかユーザーの身体が動いたのか区別できない。そのため、ジェスチャーの位置を正すための具体的な方法を示さずに、ジェスチャーの位置を正すよう促しても、ユーザーはジェスチャーの位置をどのように正せばよいのか判断できない。
本発明は、上記事情に鑑みてなされたものであり、ユーザーが直観的にジェスチャーの位置を正せるように案内するジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末を提供することを目的とする。
(1)ユーザーが装着または保持して用いるジェスチャー認識装置であって、連続して画像を撮像する撮像部と、前記撮像部の向きの変化を検出する検出部と、前記撮像部により撮像された画像を用いて、所定の対象を追跡する追跡部と、前記追跡部による追跡の可否を判断する判断部と、前記判断部の判断結果により前記対象の追跡が不可の場合、前記検出部により検出された前記向きの変化量を算出して、追跡が不可となった原因を特定する特定部と、前記特定部により特定された前記原因に基づく通知を行う通知部と、を備えるジェスチャー認識装置。
(2)前記通知部は、前記特定部により特定された前記原因に応じて異なる通知を行う、上記(1)に記載のジェスチャー認識装置。
(3)前記通知部が行う通知には、表示による通知、音声による通知、および振動による通知の少なくともいずれか一つの通知が含まれる、上記(1)または(2)に記載のジェスチャー認識装置。
(4)前記追跡部は、前記撮像部の視野内に設定された認識領域内において前記対象を追跡する、上記(1)〜(3)のいずれかに記載のジェスチャー認識装置。
(5)前記追跡部により追跡された前記対象の動きに従ってコマンドを決定するコマンド決定部を、さらに備え、前記通知部は、前記コマンド決定部によりコマンドが決定される際に前記対象の追跡が不可となった場合に、通知を行う、上記(1)〜(4)のいずれかに記載のジェスチャー認識装置。
(6)上記(1)〜(5)のいずれかに記載のジェスチャー認識装置を備える、ヘッドマウントディスプレイ。
(7)上記(1)〜(5)のいずれかに記載のジェスチャー認識装置を備える、携帯端末。
本発明によれば、所定の対象(ユーザーの身体の一部)の追跡ができなくなった場合には、その原因を特定し、特定した原因に基づく適切な通知を行っている。この通知によって、ユーザーは、ヘッドマウントディスプレイにより正しくジェスチャーを認識できるようにするために、頭部をどの方向に動かせばよいのか、手をどの方向に動かせばよいのか、容易に判断できる。このようにして、ユーザーは直観的にジェスチャーの位置を正せるようになる。
本実施形態に係るヘッドマウントディスプレイ(HMD)装置の外観例を示す図である。 HMD装置のハードウェア構成例を示すブロック図である。 HMD装置の機能構成例を示すブロック図である。 ジェスチャー認識処理の手順を示すフローチャートである。 警告処理の手順を示すフローチャートである。 (A)対象が右方向へ移動したときの状態例を示す図である。(B)対象がジェスチャー認識エリアの右側へ外れたときの通知例(通知A)を示す図である。 (A)対象がジェスチャー認識エリアの左側へ外れたときの通知例(通知A)を示す図である。(B)対象がジェスチャー認識エリアの上側へ外れたときの通知例(通知A)を示す図である。(C)対象がジェスチャー認識エリアの下側へ外れたときの通知例(通知A)を示す図である。(D)対象がジェスチャー認識エリアの左上側へ外れたときの通知例(通知A)を示す図である。 (A)対象がジェスチャー認識エリアの右上側へ外れたときの通知例(通知A)を示す図である。(B)対象がジェスチャー認識エリアの左下側へ外れたときの通知例(通知A)を示す図である。(C)対象がジェスチャー認識エリアの右下側へ外れたときの通知例(通知A)を示す図である。 (A)ユーザーの頭部が左方向を向いたときの状態例を示す図である。(B)対象がジェスチャー認識エリアの右側へ外れたときの通知例(通知B)を示す図である。 (A)対象がジェスチャー認識エリアの左側へ外れたときの通知例(通知B)を示す図である。(B)対象がジェスチャー認識エリアの上側へ外れたときの通知例(通知B)を示す図である。(C)対象がジェスチャー認識エリアの下側へ外れたときの通知例(通知B)を示す図である。(D)対象がジェスチャー認識エリアの左上側へ外れたときの通知例(通知B)を示す図である。 (A)対象がジェスチャー認識エリアの右上側へ外れたときの通知例(通知B)を示す図である。(B)対象がジェスチャー認識エリアの左下側へ外れたときの通知例(通知B)を示す図である。(C)対象がジェスチャー認識エリアの右下側へ外れたときの通知例(通知B)を示す図である。 ジェスチャー認識エリアの変形例を示す図である。 本発明を携帯端末に適用する例について説明するための図である。
以下、添付した図面を参照して、本発明の実施形態を説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
図1は、本実施形態に係るヘッドマウントディスプレイ(HMD)装置の外観例を示す図である。図2は、HMD装置のハードウェア構成例を示すブロック図である。
以下、図1、図2を参照して、HMD装置1の概略構成、特にハードウェア構成について説明する。
<HMD装置1(ハードウェア構成)>
本実施形態に係るHMD装置1は、ユーザー(以下「観察者」とも称する)の頭部に装着して使用される画像表示装置である。たとえば、HMD装置1は、視力矯正用のメガネを模した構造で構成されている。すなわち、HMD装置1は、左右一対のテンプルL1、L2と、ブリッジBと、左右一対の透明部材G1、G2とを備えて構成される。
テンプルL1、L2は、たとえば、弾性素材から構成される長尺棒状の部材である。テンプルL1、L2のそれぞれの一方端部には、ユーザーの耳に掛けられる耳掛け部分が設けられ、他方端部には、透明部材G1、G2が固定される。また、ユーザーの片方の耳に掛けられる耳掛け部分付近には、制御ユニットUが装着されている。
ブリッジBは、左右一対の透明部材G1、G2を互いに連結するための短尺棒状の部材である。ブリッジBの両端には、透明部材G1、G2が固定される。左右一対の透明部材G1、G2は、一定の間隔を空けて保持される。
透明部材G1、G2は、HMD装置1を装着したユーザーが外界を観察できるように、外界からの光を透過してユーザーの眼に届けることが可能な透明な材料(ガラス、プラスチック、フィルムなど)により形成される。
本実施形態では、ユーザーの右眼に対応する透明部材G1の上部には、撮像装置11が設けられ、透明部材G1に重なるように表示装置12が設けられている。
撮像装置11は、カメラレンズの光軸方向(以下では、「撮像方向」とも称する)の外界を撮像する。撮像装置11は、カメラレンズの光軸がユーザーの視線方向に略一致するように、HMD装置1に対し固定的に保持されている。これによって撮像装置11は、ユーザーの前方視野内を撮影することが可能となる。たとえば、撮像装置11は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサーを備えたデジタルカメラあるいはビデオカメラである。撮像装置11の撮像によって、たとえば、JPEG、MPEG2/4等の撮像画像(または、所定のフレームレートで撮像された動画)が生成され、有線で接続された制御ユニットUに送信される。なお、本実施形態では、撮像装置11として、パーソナル用途のウェブカメラ(画角が約72度)が用いられる。
表示装置12は、所定の画像(映像)等の各種コンテンツを透明部材G1、G2上に表示する。また、表示装置12は、外界からの光に付加的に重畳させる画像(たとえば、AR画像:Augmented Reality)を表示してもよい。たとえば、表示装置12は、ユーザーの視線方向に存在する人物の近くに、名前、勤務先などの情報を含むポップアップ画像があたかも存在するかのように表示することもできる。なお、表示装置12は、図1に示すような単眼式ではなく、双眼式でもよい。
また、図1には示していないが、撮像装置11の近傍には、慣性センサー13が設けられる。慣性センサー13は、HMD装置1の揺れを検出し、そのときの撮像装置11の揺れ量の算出に必要なデータを提供するセンサーである。たとえば、慣性センサー13は、加速度センサー、ジャイロセンサー等により構成される。なお、慣性センサー13は、撮像装置11の揺れ量の算出に必要なデータを提供可能なものであれば、どのような形態、名称、構造のものであってもよい。
制御ユニットUは、撮像装置11と、表示装置12と、慣性センサー13とを制御し、全体としてヘッドマウントディスプレイとして機能させるために必要な構成を有する。たとえば、制御ユニットUは、撮像装置11から送信されてきた撮像画像(動画)からユーザーのジェスチャーを認識し、認識されたジェスチャーに応じたコマンドを実行し、その結果を表示装置12に表示させる等の処理を行う。制御ユニットUの具体的な構成については後述する。
(制御ユニットUの具体的な構成)
次に、制御ユニットUの具体的な構成について説明する。
図2に示すとおり、制御ユニットUは、CPU(Central Processing Unit)31と、メモリー32と、ストレージ33と、入力装置34と、表示コントローラー35とを備える。
CPU31は、プログラムにしたがって上記各部の制御や各種の演算処理を実行するプロセッサ等から構成される制御回路であり、HMD装置1の各機能は、それに対応するプログラムをCPU31が実行することにより発揮される。
メモリー32は、作業領域として一時的にプログラムおよびデータを記憶する高速アクセス可能な主記憶装置である。メモリー32には、たとえば、DRAM(Dymamic Random Access Memory)、SDRAM(Synchronous Dymamic Random Access Memory)、SRAM(Static Random Access Memory)等が採用される。
ストレージ33は、オペレーティングシステムを含む各種プログラムや各種データを格納する大容量の補助記憶装置である。ストレージ33には、たとえば、フラッシュメモリー等が採用される。
入力装置34は、HMD装置1の電源投入などの指示を入力するための物理的なキーやボタンにより構成される。また、入力装置34として、外部のコントローラー(たとえば、スマートフォン、リモートコントローラーなど)を利用してもよい。
表示コントローラー35は、所定の画像(映像)等の各種コンテンツや、AR画像などを、表示装置12に表示させる。たとえば、表示コントローラー35は、所定の表示周期毎にメモリー32から所定の画像を読み出して、表示装置12へ入力するための信号に変換するとともに、水平同期信号、垂直同期信号などのパルス信号を生成する。
以上のようなハードウェア構成を有するHMD装置1は、以下の機能構成を有する。
図3は、HMD装置の機能構成例を示すブロック図である。
<HMD装置1(機能構成)>
図3に示すとおり、HMD装置1は、機能構成として、制御部41と、撮像制御部42と、揺れ検出部43と、追跡部44と、追跡可否判断部45と、原因特定部46と、通知部47と、コマンド決定部48と、表示制御部49と、アプリケーション部50とを有する。
以下、各機能部41〜50について具体的に説明する。なお、各機能部41〜48、50は、CPU31が、ストレージ33にインストールされているプログラムをメモリー32に読み出して実行することにより実現され、表示制御部49は、表示コントローラー35により実現される。また、これに限らず、各機能部41〜48、50は、ASIC等のハードウェアにより実現されてもよい。
制御部41は、HMD装置1全体を制御する。
撮像制御部42は、撮像装置11を制御して、外界を連続して撮像する。これにより、撮像画像(動画)が生成される。
揺れ検出部43は、HMD装置1を装着しているユーザーが揺れたときの撮像装置11の向き(たとえば、カメラレンズの光軸方向)の変化を検出する。たとえば、揺れ検出部43は、慣性センサー13のセンサー値を取得して、撮像装置11の向きの変化を検出する。
追跡部44は、ユーザーのジェスチャーを認識するために、所定の対象(たとえば、ユーザーの手、指先など)を追跡する。たとえば、追跡部44は、予めユーザーのジェスチャーを認識する領域(以下では「ジェスチャー認識領域」と称する)を設定しておき、そのジェスチャー認識領域内において所定の対象を追跡する。本実施形態では、ジェスチャー認識領域は、撮像装置11の視野内に設定される。
追跡可否判断部45は、追跡部44による追跡の可否を判断する。
原因特定部46は、追跡可否判断部45の判断結果により所定の対象の追跡が不可の場合、揺れ検出部43により検出された撮像装置11の向きの変化量を算出して、追跡が不可となった原因を特定する。たとえば、原因特定部46は、撮像装置11の向きの変化量が閾値以上である場合には、ユーザーの身体が揺れて撮像装置11が動いたことが原因で追跡不可になったと特定する。一方、撮像装置11の向きの変化量が閾値未満である場合には、所定の対象の動き(ジェスチャー)そのものが原因で所定の対象が追跡不可になったと特定する。
通知部47は、原因特定部46により特定された原因に基づく通知を行う。たとえば、通知部47は、原因特定部46により特定された原因に応じて異なる通知を行う。なお、通知部47が行う通知には、表示(表示装置12)による通知、音声(不図示のスピーカー)による通知、および振動(不図示の小型振動機)による通知の少なくともいずれか一つの通知が含まれる。
コマンド決定部48は、追跡部44により追跡された所定の対象の動き(ジェスチャー)に従って、HMD装置1に対するユーザーの指示内容、すなわち、コマンドを決定する。
表示制御部49は、所定の画像(映像)等の各種コンテンツや、AR画像などを、表示装置12に表示させる。
アプリケーション部50は、コマンド決定部48により決定されたコマンドに対応する処理を実行する。たとえば、アプリケーション部50は、表示画面の拡大処理、縮小処理や、コンテンツの再生、一時停止、停止などの処理を実行する。
各機能部41〜50の詳細な動作については以下に詳述する。
<HMD装置1の動作>
図4は、ジェスチャー認識処理の手順を示すフローチャートである。図5は、警告処理の手順を示すフローチャートである。図6(A)は、対象が右方向へ移動したときの状態例を示す図である。図6(B)、図7(A)〜(D)、図8(A)〜(C)は、それぞれ、対象がジェスチャー認識エリアの右側、左側、上側、下側、左上側、右上側、左下側、右下側へ外れたときの通知例(通知A)を示す図である。図9(A)は、ユーザーの頭部が左方向を向いたときの状態例を示す図である。図9(B)、図10(A)〜(D)、図11(A)〜(C)は、それぞれ、対象がジェスチャー認識エリアの右側、左側、上側、下側、左上側、右上側、左下側、右下側へ外れたときの通知例(通知B)を示す図である。
以下、図4〜図11を参照して、ジェスチャー認識処理および警告処理の手順について説明する。
(ジェスチャー認識処理)
HMD装置1は、電源が投入されたタイミングで、図4に示すジェスチャー認識処理を開始する。ただし、ジェスチャー認識処理を開始するタイミングは、これに限定されず、入力装置34に対してジェスチャー認識処理を開始するための操作がなされたときに、ジェスチャー認識処理を開始してもよい。また、HMD装置1がユーザーの頭部に装着されたことを検知したときにジェスチャー認識処理を開始してもよい。
なお、ジェスチャー認識処理の開始直後において、制御部41は、HMD装置1の制御に必要な各種パラメータをキャリブレーションしておく。たとえば、慣性センサー13の基準値の登録やジェスチャー認識エリアの設定などが行われる。本実施形態では、制御部41は、慣性センサー13からセンサー値を取得し、撮像装置11の向きの基準値としてメモリー32に登録する。また、制御部41は、撮像装置11の視野全体(撮像画像の全領域)を、ジェスチャー認識エリアとして設定する。
[ステップS101]
キャリブレーション後、HMD装置1は、撮像制御部42として機能し、所定のフレームレートで連続して外界を撮像する(所定数分のフレーム)。具体的には、HMD装置1は、撮像装置11を制御して撮像を開始することにより、カメラレンズの光軸方向の撮像画像(動画)を生成する。そして、HMD装置1は、生成した撮像画像(動画)をメモリー32やストレージ33に記憶する。なお、撮像装置11が撮像中において、ユーザーは、HMD装置1に認識させるべく身体の一部(たとえば、手)を動かして、ジェスチャー動作を行える。このようなジェスチャー動作の例としては、親指と人差し指を閉じた状態から広げるピンチアウト、逆に親指と人差し指を広げた状態から閉じるピンチイン、手あるいは伸ばした人差し指をずらす仕草のスライド、広げた手あるいは指で叩くタップ、それを連続的に叩くダブルタップ、大きく手を左右にあるいは上下に動かすスワイプなどがあげられる。
[ステップS102]
HMD装置1は、揺れ検出部43として機能し、慣性センサー13からセンサー値を取得する。たとえば、HMD装置1は、慣性センサー13から三軸方向の加速度を取得する。なお、ステップS102では、HMD装置1は、ステップS101において1フレーム分の撮像画像が生成される毎にセンサー値を取得し、フレームごとに撮像画像とセンサー値を対応づけてメモリー32などに記憶する。
[ステップS103]
HMD装置1は、追跡部44として機能し、一般的なパターンマッチング手法により所定の対象(たとえば、ユーザーの手)を追跡する。このとき、HMD装置1は、追跡可否判断部45として機能して、所定の対象について追跡可であるか追跡不可であるか判別する。具体的には、HMD装置1は、ステップS101において生成された撮像画像(各フレーム)の中から、予め用意しておいた「手」のテンプレート画像と同一または類似する特徴(色や形状)を持つ領域を探す。そして、HMD装置1は、連続する全てのフレーム間での「手」の移動量を算出する。HMD装置1は、連続する全てのフレーム間での「手」の移動量が所定量未満である場合には、「手」を追跡できると判断する。一方、HMD装置1は、連続する少なくとも一つのフレーム間での「手」の移動量が所定量以上である場合、または、「手」が存在しないフレームがあってフレーム間での「手」の移動量を算出できない場合には、「手」を追跡できないと判断する。
HMD装置1は、「手」を追跡できると判断した場合には、所定の対象を追跡可と判定し(ステップS103:YES)、処理をステップS105に進める。一方、HMD装置1は、「手」を追跡できないと判断した場合には、所定の対象を追跡不可と判定し(ステップS103:NO)、処理をステップS104に進める。
[ステップS104]
HMD装置1は、ジェスチャーのやり直しをユーザーに促すための警告処理を実行する。警告処理の詳細については後述する。
[ステップS105]
HMD装置1は、揺れ検出部43として機能し、撮像装置11の向き(たとえば、カメラレンズの光軸方向)の変化を検出する。たとえば、揺れ検出部43は、ステップS102において取得された全てのフレームのセンサー値のうち、最初と最後のフレーム間でのセンサー値の差分を求め、所定量未満である場合には、撮像装置11の向きに変化はないと判断する。一方、HMD装置1は、最初と最後のフレーム間でのセンサー値の差分が所定量以上である場合には、撮像装置11の向きに変化があると判断する。
HMD装置1は、撮像装置11の向きに変化がないと判断した場合には(ステップS105:NO)、ステップS106の処理を省略して、処理をステップS107に進める。一方、HMD装置1は、撮像装置11の向きに変化があると判断した場合には(ステップS105:YES)、処理をステップS106に進める。
[ステップS106]
HMD装置1は、揺れ検出部43として機能し、所定の対象が移動した軌跡について、撮像装置11の向きの変化量を考慮して補正する。すなわち、HMD装置1は、連続する全てのフレーム間での「手」の移動量を、実際に「手」が移動した分の移動量に変換する。具体的には、HMD装置1は、連続するフレーム間で、撮像画像内における「手」の移動量(ベクトル)と、撮像装置11の向きの変化量(ベクトル)とを合成すればよい。
[ステップS107]
HMD装置1は、コマンド決定部48として機能し、ステップS103において算出された「手」の移動量、もしくは、ステップS106において補正された「手」の移動量から、ユーザーのジェスチャーを認識する。そして、HMD装置1は、認識したジェスチャーに従って、HMD装置1に対するユーザーの指示内容、すなわち、コマンドを決定する。なお、ジェスチャーとコマンドは、1対1の関係で対応づけて所定のテーブルに予め登録されており、HMD装置1は、認識したジェスチャーに対応付けられているコマンドを当該テーブルから読み出せばよい。
[ステップS108]
HMD装置1は、コマンド決定部48として機能し、ステップS107において決定されたコマンドが正規のコマンドであるか否か判別する。具体的には、HMD装置1は、ステップS107において認識されたジェスチャーに対応するコマンドが存在しない場合や、その時点において制限されている制御を指示するコマンドである場合に、正規のコマンドではないと判定する。一方、HMD装置1は、ステップS107において認識されたジェスチャーに対応するコマンドが、その時点において実行可能な制御を指示するコマンドである場合には、正規のコマンドと判定する。
HMD装置1は、正規のコマンドと判定した場合には(ステップS108:YES)、処理をステップS109に進め、正規のコマンドではないと判定した場合には(ステップS108:NO)、処理をステップS110に進める。
[ステップS109]
HMD装置1は、アプリケーション部50として機能し、コマンド決定部48により決定されたコマンドに対応する処理を実行する。たとえば、HMD装置1は、ステップS107において決定されたコマンドが、ピンチアウト、ピンチインなどのジェスチャーに対応するコマンドである場合には、拡大処理、縮小処理などを実行する。また、HMD装置1は、ステップS107において決定されたコマンドが、スライド、タップ、ダブルタップなどのジェスチャーに対応するコマンドである場合には、コンテンツの再生、一時停止、停止などの処理を実行する。
[ステップS110]
HMD装置1は、通知部47および表示制御部49として機能し、ユーザーのジェスチャーに対応する処理を実行できない旨のエラーを通知する。たとえば、HMD装置1は、「同位置でジェスチャーをやり直して下さい」などのメッセージを表示装置12に表示させる。
[ステップS111]
HMD装置1は、制御部41として機能し、ジェスチャー認識処理を終了する指示がユーザーによりなされたか否か判別する。具体的には、HMD装置1は、入力装置34に対してジェスチャー認識処理を終了する操作がなされたか否かに応じて判別すればよい。
HMD装置1は、ジェスチャー認識処理を終了する指示がなされていない場合には(ステップS111:NO)、処理をステップS101に戻し、ジェスチャー認識処理を継続する。一方、HMD装置1は、ジェスチャー認識処理を終了する指示がなされた場合には(ステップS111:YES)、ジェスチャー認識処理を終了する。
(警告処理S104)
次に、警告処理(ステップS104)の詳細について説明する。
上記のジェスチャー認識処理において処理がステップS104へ進むと、HMD装置1は、警告処理を開始する。
[ステップS201]
HMD装置1は、揺れ検出部43として機能し、撮像装置11の向き(たとえば、カメラレンズの光軸方向)の変化を検出する。たとえば、揺れ検出部43は、ステップS102において取得された全てのフレームのセンサー値のうち、最初と最後のフレーム間でのセンサー値の差分を求め、所定量未満である場合には、撮像装置11の向きに変化はないと判断する。一方、HMD装置1は、最初と最後のフレーム間でのセンサー値の差分が所定量以上である場合には、撮像装置11の向きに変化があると判断する。
HMD装置1は、撮像装置11の向きに変化がないと判断した場合には(ステップS201:NO)、処理をステップS202に進める。一方、HMD装置1は、撮像装置11の向きに変化があると判断した場合には(ステップS201:YES)、処理をステップS206に進める。
[ステップS202]
HMD装置1は、コマンド決定部48として機能し、ステップS103において算出された「手」の移動量から、ユーザーのジェスチャーを認識する。そして、HMD装置1は、認識したジェスチャーに従って、HMD装置1に対するユーザーの指示内容、すなわち、コマンドを決定する。ただし、ステップS103において「手」の移動量が算出できなかった場合には、所定の対象(たとえば、ユーザーの手)がジェスチャー認識エリアの外へ出るような動きを含むジェスチャーである可能性が高い。そこで、HMD装置1は、「手」がジェスチャー認識エリア内を移動している間に撮像された各フレーム間での「手」の移動量から、ユーザーのジェスチャーを認識し、対応するコマンドを決定する。
[ステップS203]
HMD装置1は、コマンド決定部48として機能し、ステップS202において決定されたコマンドが正規のコマンドであるか否か判別する。具体的には、HMD装置1は、ステップS202において認識されたジェスチャーに対応するコマンドが存在しない場合や、その時点において制限されている制御を指示するコマンドである場合に、正規のコマンドではないと判定する。一方、HMD装置1は、ステップS202において認識されたジェスチャーに対応するコマンドが、その時点において実行可能な制御を指示するコマンドである場合には、正規のコマンドと判定する。
HMD装置1は、正規のコマンドと判定した場合には(ステップS203:YES)、処理をステップS204に進め、正規のコマンドではないと判定した場合には(ステップS203:NO)、処理をステップS205に進める。
[ステップS204]
HMD装置1は、アプリケーション部50として機能し、コマンド決定部48により決定されたコマンドに対応する処理を実行する。たとえば、HMD装置1は、ステップS203において決定されたコマンドが、スワイプなどのジェスチャーに対応するコマンドである場合には、表示中のページをめくる処理などを実行する。
[ステップS205]
HMD装置1は、通知部47および表示制御部49として機能し、撮像装置11は動いていないが、所定の対象(たとえば、ユーザーの手)がジェスチャー認識エリアから外れたこと(図6(A)に示す状態であること)をユーザーに知らせるための通知Aを行う。
たとえば、図6(A)に示すようにユーザーからみてジェスチャー認識エリアの右側に対象が外れた場合には、HMD装置1は、表示装置12を制御して、表示画面の右側に手を模した画像を表示する(図6(B))。これにより、ユーザーは、手がジェスチャー認識エリアの右側に外れたことを容易に把握でき、直観的にジェスチャーの位置を左側に移動させればよいことがわかる。
また、ユーザーからみてジェスチャー認識エリアの左側に対象が外れた場合には、HMD装置1は、表示装置12を制御して、表示画面の左側に手を模した画像を表示する(図7(A))。これにより、ユーザーは、手がジェスチャー認識エリアの左側に外れたことを容易に把握でき、直観的にジェスチャーの位置を右側に移動させればよいことがわかる。
また、ユーザーからみてジェスチャー認識エリアの上側に対象が外れた場合には、HMD装置1は、表示装置12を制御して、表示画面の上側に手を模した画像を表示する(図7(B))。これにより、ユーザーは、手がジェスチャー認識エリアの上側に外れたことを容易に把握でき、直観的にジェスチャーの位置を下側に移動させればよいことがわかる。
同様に、ユーザーからみてジェスチャー認識エリアの下側、左上側、右上側、左下側、右下側に対象が外れた場合には、HMD装置1は、表示画面の下側、左上側、右上側、左下側、右下側に手を模した画像を表示する(図7(C)、図7(D)、図8(A)、図8(B)、図8(C))。このように、HMD装置1は、ジェスチャー認識エリアから対象が外れた側に、警告のための画像を表示し、ユーザーが直感的に動作を戻す方向を確認できるようにする。
以上のような通知Aの後、HMD装置1は、制御部41として機能し、処理をジェスチャー認識処理に戻す。
[ステップS206]
HMD装置1は、揺れ検出部43として機能し、所定の対象が移動した軌跡について、撮像装置11の向きの変化量を考慮して補正する。すなわち、HMD装置1は、連続する全てのフレーム間での「手」の移動量を、実際に「手」が移動した分の移動量に変換する。具体的には、HMD装置1は、連続するフレーム間で、撮像画像内における「手」の移動量(ベクトル)と、撮像装置11の向きの変化量(ベクトル)とを合成すればよい。
ただし、ステップS103において「手」の移動量が算出できなかった場合には、所定の対象(たとえば、ユーザーの手)がジェスチャー認識エリアの外へ出るような動きを含むジェスチャーである可能性が高い。そこで、HMD装置1は、「手」がジェスチャー認識エリア内を移動している間に撮像された各フレーム間での「手」の移動量のみを、実際に「手」が移動した分の移動量に変換する。
[ステップS207]
HMD装置1は、コマンド決定部48として機能し、ステップS206において補正された「手」の移動量から、ユーザーのジェスチャーを認識する。そして、HMD装置1は、認識したジェスチャーに従って、HMD装置1に対するユーザーの指示内容、すなわち、コマンドを決定する。
[ステップS208]
HMD装置1は、コマンド決定部48として機能し、ステップS207において決定されたコマンドが正規のコマンドであるか否か判別する。具体的には、HMD装置1は、ステップS207において認識されたジェスチャーに対応するコマンドが存在しない場合や、その時点において制限されている制御を指示するコマンドである場合に、正規のコマンドではないと判定する。一方、HMD装置1は、ステップS207において認識されたジェスチャーに対応するコマンドが、その時点において実行可能な制御を指示するコマンドである場合には、正規のコマンドと判定する。
HMD装置1は、正規のコマンドと判定した場合には(ステップS208:YES)、処理をステップS209に進め、正規のコマンドではないと判定した場合には(ステップS208:NO)、処理をステップS210に進める。
[ステップS209]
HMD装置1は、アプリケーション部50として機能し、コマンド決定部48により決定されたコマンドに対応する処理を実行する。たとえば、HMD装置1は、ステップS207において決定されたコマンドが、スワイプなどのジェスチャーに対応するコマンドである場合には、表示中のページをめくる処理などを実行する。
[ステップS210]
HMD装置1は、通知部47および表示制御部49として機能し、撮像装置11が動いたことにより、所定の対象(たとえば、ユーザーの手)がジェスチャー認識エリアから外れたこと(図9(A)に示す状態であること)をユーザーに知らせるための通知Bを行う。
たとえば、図9(A)に示すようにユーザーが左方向を向いたことにより対象がジェスチャー認識エリアの右側に外れた場合には、HMD装置1は、表示装置12を制御して、表示画面の右側に矢印を模した画像を表示する(図9(B))。これにより、ユーザーは、撮像装置11が左方向を向いていることを容易に把握でき、直観的に頭部を右方向に向ければよいことがわかる。
また、ユーザーが右方向を向いたことにより対象がジェスチャー認識エリアの左側に外れた場合には、HMD装置1は、表示装置12を制御して、表示画面の左側に矢印を模した画像を表示する(図10(A))。これにより、ユーザーは、撮像装置11が右方向を向いていることを容易に把握でき、直観的に頭部を左方向に向ければよいことがわかる。
また、ユーザーが下方向を向いたことにより対象がジェスチャー認識エリアの上側に外れた場合には、HMD装置1は、表示装置12を制御して、表示画面の上側に矢印を模した画像を表示する(図10B)。これにより、ユーザーは、撮像装置11が下方向を向いていることを容易に把握でき、直観的に頭部を上方向に向ければよいことがわかる。
同様に、ユーザーが上方向、右下方向、左下方向、右上方向、左上方向を向いたことにより対象がジェスチャー認識エリアから外れた場合には、HMD装置1は、表示装置12を制御して、表示画面の下側、左上側、右上側、左下側、右下側に矢印を模した画像を表示する(図10(C)、図10(D)、図11(A)、図11(B)、図11(C))。このように、ユーザーがある方向を向いたことにより対象がジェスチャー認識エリアから外れた場合には、ユーザーが向いた方向の反対側に画像を表示する。したがって、ユーザーは直感的に、頭部を向ける方向を確認できる。
以上のような通知Bの後、HMD装置1は、制御部41として機能し、処理をジェスチャー認識処理に戻す。
以上のジェスチャー認識処理および警告処理がHMD装置1において実行されることにより、所定の対象(ユーザーの身体の一部)の追跡ができなくなった場合には、その原因を特定し、特定した原因に基づく適切な通知A、Bを行っている。この通知A、Bによって、ユーザーは、HMD装置1により正しくジェスチャーを認識できるようにするために、頭部をどの方向に動かせばよいのか、手をどの方向に動かせばよいのか、容易に判断できる。このようにして、ユーザーは直観的にジェスチャーの位置を正せるようになる。
上記した各フローチャートの各処理単位は、HMD装置1の理解を容易にするために、主な処理内容に応じて分割したものである。処理ステップの分類の仕方やその名称によって、本願発明が制限されることはない。HMD装置1で行われる処理は、さらに多くの処理ステップに分割することもできる。また、1つの処理ステップが、さらに多くの処理を実行してもよい。
<変形例>
なお、上記の実施形態は、本発明の要旨を例示することを意図し、本発明を限定するものではない。多くの代替物、修正、変形例は当業者にとって明らかである。
たとえば、上記実施形態では、撮像装置11の視野全体(撮像画像の全領域)を、ジェスチャー認識エリアとして設定している。しかし、本発明は、これに限定されず、撮像装置11の視野内の一部の領域を、ジェスチャー認識エリアとして設定してもよい。
図12は、ジェスチャー認識エリアの変形例を示す図である。図12の破線で囲んだ領域のように、ユーザーの右手によるジェスチャーを認識しやすくするために、撮像装置11の視野内右側の領域を、ジェスチャー認識エリアとして設定してもよい。ジェスチャー認識エリアは、透明部材G1、G2上に表示してもよいし、表示しなくてもよい。
また、本発明は、ユーザーが装着または保持して用いる機器であって、ユーザーのジェスチャーを認識可能な機能を有していれば、任意の機器に適用可能である。したがって、本発明は、上記実施形態のHMD装置1に適用する例に限らない。
図13は、本発明を携帯端末に適用する例について説明するための図である。図13に示すように、本発明をユーザーが手に保持して用いる携帯端末60に適用することもできる。ここで携帯端末には、スマートフォン、タブレットPC、PDA(Personal Digital Assistant)等の、各種情報やコンテンツを表示可能な表示画面と撮像装置とを有する携帯情報端末装置が含まれる。
本発明を携帯端末60に適用する場合、携帯端末60は、上記実施形態と同様の構成を有し、ユーザーの顔の動きをジェスチャーとして認識する。そして、携帯端末60は、ジェスチャー認識エリアから顔が外れた場合に、携帯端末60を保持しているユーザーの手(すなわち、撮像装置11)が動いたのか、ユーザーの顔(ジェスチャー)が動いたのか区別可能なようにユーザーに通知を行う。
また、通知部47は、原因特定部46により特定された原因に応じて異なる警告音を出力するようにしてもよい。また、通知部47、原因特定部46により特定された原因に応じて異なる振動パターンをモーターなどにより発生させてもよい。
また、上記実施形態および変形例では、HMD装置1は、シースルー型の画像表示装置としている。しかし、本発明は、これに限定されず、HMD装置1は、非透過型の画像表示装置であってもよい。
以上のHMD装置1の構成は、上記の実施形態および変形例の特徴を説明するにあたって主要構成を説明したのであって、上記の構成に限られない。また、一般的なHMD装置1が備える構成を排除するものではない。
また、上記したHMD装置1の各機能構成は、各機能構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。各機能構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、一つの構成要素がさらに多くの処理を実行するように分類することもできる。
また、上記したHMD装置1の各機能構成の処理は、専用のハードウェア回路によっても実現することもできる。この場合には、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
また、HMD装置1を動作させるプログラムは、USBメモリー、フレキシブルディスク、CD−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、メモリー32やストレージ33等に転送され記憶される。また、このプログラムは、たとえば、単独のアプリケーションソフトとして提供されてもよいし、HMD装置1の一機能としてその各装置のソフトウェアに組み込んでもよい。
1 HMD装置、
11 撮像装置、
12 表示装置、
13 慣性センサー、
31 CPU、
32 メモリー、
33 ストレージ、
34 入力装置、
35 表示コントローラー、
41 制御部、
42 撮像制御部、
43 揺れ検出部、
44 追跡部、
45 追跡可否判断部、
46 原因特定部、
47 通知部、
48 コマンド決定部、
49 表示制御部、
50 アプリケーション部、
60 携帯端末、
U 制御ユニット。

Claims (7)

  1. ユーザーが装着または保持して用いるジェスチャー認識装置であって、
    連続して画像を撮像する撮像部と、
    前記撮像部の向きの変化を検出する検出部と、
    前記撮像部により撮像された画像を用いて、所定の対象を追跡する追跡部と、
    前記追跡部による追跡の可否を判断する判断部と、
    前記判断部の判断結果により前記対象の追跡が不可の場合、前記検出部により検出された前記向きの変化量を算出して、追跡が不可となった原因を特定する特定部と、
    前記特定部により特定された前記原因に基づく通知を行う通知部と、を備えるジェスチャー認識装置。
  2. 前記通知部は、前記特定部により特定された前記原因に応じて異なる通知を行う、請求項1に記載のジェスチャー認識装置。
  3. 前記通知部が行う通知には、表示による通知、音声による通知、および振動による通知の少なくともいずれか一つの通知が含まれる、請求項1または請求項2に記載のジェスチャー認識装置。
  4. 前記追跡部は、前記撮像部の視野内に設定された認識領域内において前記対象を追跡する、請求項1〜3のいずれか一項に記載のジェスチャー認識装置。
  5. 前記追跡部により追跡された前記対象の動きに従ってコマンドを決定するコマンド決定部を、さらに備え、
    前記通知部は、前記コマンド決定部によりコマンドが決定される際に前記対象の追跡が不可となった場合に、通知を行う、請求項1〜4のいずれか一項に記載のジェスチャー認識装置。
  6. 請求項1〜5のいずれか一項に記載のジェスチャー認識装置を備える、ヘッドマウントディスプレイ。
  7. 請求項1〜5のいずれか一項に記載のジェスチャー認識装置を備える、携帯端末。
JP2014049096A 2014-03-12 2014-03-12 ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末 Pending JP2017083916A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014049096A JP2017083916A (ja) 2014-03-12 2014-03-12 ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末
PCT/JP2015/050539 WO2015136952A1 (ja) 2014-03-12 2015-01-09 ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014049096A JP2017083916A (ja) 2014-03-12 2014-03-12 ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末

Publications (1)

Publication Number Publication Date
JP2017083916A true JP2017083916A (ja) 2017-05-18

Family

ID=54071406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014049096A Pending JP2017083916A (ja) 2014-03-12 2014-03-12 ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末

Country Status (2)

Country Link
JP (1) JP2017083916A (ja)
WO (1) WO2015136952A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021521512A (ja) * 2018-05-03 2021-08-26 マイクロソフト テクノロジー ライセンシング,エルエルシー 手の位置に基づいたモーダル制御の開始
US11586294B2 (en) 2020-12-02 2023-02-21 Jvckenwood Corporation Video display apparatus, method for controlling video display apparatus, and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112016005648T5 (de) 2015-12-11 2018-08-30 Sony Corporation Datenverarbeitungsvorrichtung, datenverarbeitungsverfahren und programm
JP6668170B2 (ja) * 2016-06-07 2020-03-18 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、およびコンピュータプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010098354A (ja) * 2008-10-14 2010-04-30 Panasonic Corp 撮像装置
JP2012010162A (ja) * 2010-06-25 2012-01-12 Kyocera Corp カメラ装置
JP5766957B2 (ja) * 2011-01-14 2015-08-19 オリンパス株式会社 ジェスチャ入力装置
JP2013065112A (ja) * 2011-09-15 2013-04-11 Omron Corp ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021521512A (ja) * 2018-05-03 2021-08-26 マイクロソフト テクノロジー ライセンシング,エルエルシー 手の位置に基づいたモーダル制御の開始
JP7252252B2 (ja) 2018-05-03 2023-04-04 マイクロソフト テクノロジー ライセンシング,エルエルシー 手の位置に基づいたモーダル制御の開始
US11586294B2 (en) 2020-12-02 2023-02-21 Jvckenwood Corporation Video display apparatus, method for controlling video display apparatus, and program

Also Published As

Publication number Publication date
WO2015136952A1 (ja) 2015-09-17

Similar Documents

Publication Publication Date Title
KR102458665B1 (ko) 디바이스를 이용한 화면 처리 방법 및 장치
US20200097093A1 (en) Touch free interface for augmented reality systems
US10477090B2 (en) Wearable device, control method and non-transitory storage medium
JP7092028B2 (ja) 情報処理装置、情報処理方法、及びプログラム
EP2634727A2 (en) Method and portable terminal for correcting gaze direction of user in image
EP3062286B1 (en) Optical distortion compensation
EP3144775B1 (en) Information processing system and information processing method
CN110546601B (zh) 信息处理装置、信息处理方法和程序
CN106066537B (zh) 头戴式显示器和头戴式显示器的控制方法
US9442571B2 (en) Control method for generating control instruction based on motion parameter of hand and electronic device using the control method
JP2015114818A (ja) 情報処理装置、情報処理方法及びプログラム
JP6341755B2 (ja) 情報処理装置、方法及びプログラム並びに記録媒体
KR102361025B1 (ko) 웨어러블 글래스 및 웨어러블 글래스를 통하여 영상을 디스플레이하는 방법
WO2015136952A1 (ja) ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末
US9148537B1 (en) Facial cues as commands
US10389947B2 (en) Omnidirectional camera display image changing system, omnidirectional camera display image changing method, and program
US20180059811A1 (en) Display control device, display control method, and recording medium
KR101695695B1 (ko) 이동단말기 및 그 제어방법
JP6686319B2 (ja) 画像投影装置及び画像表示システム
JP6756103B2 (ja) 電子機器、表示システム、表示装置、撮像装置、表示制御方法及びプログラム
JP6155893B2 (ja) 画像処理装置、及びプログラム
WO2017168622A1 (ja) 撮像画像共有システム、撮像画像共有方法及びプログラム
JP6079418B2 (ja) 入力装置および入力プログラム
US11733789B1 (en) Selectively activating a handheld device to control a user interface displayed by a wearable device
US20220350997A1 (en) Pointer-based content recognition using a head-mounted device