JP6144743B2 - ウェアラブル装置 - Google Patents

ウェアラブル装置 Download PDF

Info

Publication number
JP6144743B2
JP6144743B2 JP2015193140A JP2015193140A JP6144743B2 JP 6144743 B2 JP6144743 B2 JP 6144743B2 JP 2015193140 A JP2015193140 A JP 2015193140A JP 2015193140 A JP2015193140 A JP 2015193140A JP 6144743 B2 JP6144743 B2 JP 6144743B2
Authority
JP
Japan
Prior art keywords
control signal
display
body motion
display object
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015193140A
Other languages
English (en)
Other versions
JP2017068572A (ja
Inventor
光 猫塚
光 猫塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2015193140A priority Critical patent/JP6144743B2/ja
Priority to US15/280,776 priority patent/US10120444B2/en
Publication of JP2017068572A publication Critical patent/JP2017068572A/ja
Application granted granted Critical
Publication of JP6144743B2 publication Critical patent/JP6144743B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0331Finger worn pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • User Interface Of Digital Computer (AREA)

Description

この発明は、ユーザの身体に身に付けられ、該身体の動作に基づいて操作が可能なウェアラブル装置に関する。
近年、複数の計測電極を用いて、ユーザの生体電位を計測する生体電位計測部と、ユーザの生体電位からユーザの第1の動作に対応する動作を検出する動作検出部と、動作検出部が第1の動作に対応する動作を検出した時、計測したユーザの生体電位に対応するユーザ動作を判定する動作判定部と、判定したユーザの動作に対応する操作を決定し、決定した操作を制御対象機器本体に対して送信する機器制御部とを備える、生体電位入力センサ装置が開示されている。(特許文献1)。
特開2015−2939号公報
身体の動作に基づいて操作が可能なウェアラブル装置においては、ユーザの意図しない動作によっては、該動作に基づく誤操作がなされないことが望ましい。
本発明の目的は、ユーザの意図しない動作によって誤操作がなされる可能性を低減したウェアラブル装置を提供することにある。
1つの態様に係るウェアラブル装置は、ユーザの上肢に装着され、該上肢の身体動作を検出する検出部と、前記検出部の検出結果から、前記上肢の身体動作を推定し、当該身体動作に基づく制御信号を生成する制御部と、を備えるウェアラブル装置であって、前記制御部は、前記身体動作として、前記上肢における指の身体動作、手の身体動作、腕の身体動作、の内の少なくとも2つの身体動作を第1所定時間内に推定すると、当該2つの身体動作を一連の身体動作として認識し、該一連の身体動作に基づく第1制御信号を前記制御信号として生成する。
本発明によれば、ユーザの意図しない動作によって誤操作がなされる可能性を低減したウェアラブル装置を提供することができる。
本発明に係るウェアラブル装置1と外部の表示機器2とから形成される入力システム100を示す図である。 本発明に係るウェアラブル装置1の機能について説明する図である。 制御部16によって推定可能な身体動作の種類を例示したものである。 制御部16によって推定される身体動作の一例を説明する図である。 本実施形態に係るウェアラブル装置1によって実行される機能の第1例を示す図である。 本実施形態に係るウェアラブル装置1によって実行される機能の第2例を示す図である。 本実施形態に係るウェアラブル装置1によって実行される機能の第3例を示す図である。 外部の表示機器の他の変形例を示す図である。 ウェアラブル装置の他の変形例を示す図である。
本出願に係るウェアラブル装置を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下の説明においては、同様の構成要素に同一の符号を付すことがある。さらに、重複する説明は省略することがある。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。
図1は、本発明に係るウェアラブル装置1と外部の表示機器2とから形成される入力システム100を示す図である。図1に示すように、ウェアラブル装置1は、表示機器2と有線または無線接続されることにより通信できる。表示機器2は、ウェアラブル装置1との通信によって、ウェアラブル装置1から制御信号を受信し、当該制御信号に基づき、例えば表示内容を変更する。表示機器2は、例えば、テレビ、スマートフォン、ノートパソコン等である。
図1に示すように、ウェアラブル装置1は、ユーザの上肢における前腕に装着されている。ここで本明細書において、上肢とは、ヒトの腕や手を意味し、上腕、前腕、又は手(或いは指)を含めているものとする。ここで図1に示すように、ユーザ、ウェアラブル装置1及び表示機器2を含む空間において三次元直交座標系が定義される。ユーザは、表示機器2の正面に対面しており、表示機器2の表示面(表示領域21)に直交するX軸方向を向いている。
ウェアラブル装置1は、ユーザの上肢に着脱可能に装着されるものであり、例えば、リストバンド型や腕時計型である。ウェアラブル装置1は、例えば、ユーザの上肢に対して密着可能とするような、柔軟性と伸縮性を有する素材で大半の部分が形成されている。
次に、図2を用いて、本発明に係るウェアラブル装置1の機能について説明する。図2は、本発明に係るウェアラブル装置1の機能ブロックを示す図である。図2に示すように、ウェアラブル装置1は、生体電位検出部11、加速度センサ12、方位センサ13、通信部14、記憶部15、制御部16を備える。
生体電位検出部11は、電気的に接続された複数の生体電極を用いて、ユーザの身体に生じる生体電位を検出する。生体電位は、例えば、ユーザの身体の動作に起因して生じる筋電位である。生体電位検出部11による筋電位の検出手法には、公知の種々の手法が適用されて良い。生体電位検出部11は、検出した筋電位、例えば、検出した電位の大きさ、又は電位の変化量、に基づく情報を制御部16へ出力する。ウェアラブル装置1が図1に示すようなリストバンド型や腕時計型である場合には、生体電極は、ウェアラブル装置1における内側の面(ユーザの皮膚に接触する側の面)に配置される。
加速度センサ12は、ウェアラブル装置1に作用する加速度の方向及び大きさを検出する。加速度センサ12は、検出した加速度の方向及び大きさに基づく情報を制御部16へ出力する。
方位センサ13は、例えば、地磁気の向きを検出し、当該地磁気の向きに基づいてウェアラブル装置1の向き(方位)を検出する。方位センサ13は、検出したウェアラブル装置1の方位に基づく情報を制御部16へ出力する。
通信部14は、無線により通信できる。通信部14は、近距離無線通信方式をサポートできる。近距離無線通信方式は、Bluetooth(登録商標)、無線LAN(IEEE802.11)、ZigBee(登録商標)、赤外線通信、可視光通信、NFC(Near Field Communication)等を含む。通信部14は、複数の通信方式をサポートしてもよい。通信部6は、例えば、2G、3G、4G等のセルラーフォンの通信規格をサポートしてもよい。ウェアラブル装置1は、無線通信機能を有する表示機器2と無線通信接続を行うことにより、各種信号の送受信を行うことが出来る。
なお、通信部14は、表示機器2と有線接続されることによって通信しても良い。この場合、ウェアラブル装置1は、表示機器2が接続されるコネクタを備える。コネクタは、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタは、Dockコネクタのような専用の端子でもよい。
記憶部15は、フラッシュメモリ等の不揮発性を有する記憶装置からなり、各種のプログラムやデータを記憶する。記憶部15に記憶されるプログラムには、制御プログラムが含まれる。記憶部15は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されてもよい。この場合、制御プログラムは、記憶媒体に記憶されていてもよい。また、制御プログラムは、無線通信または有線通信によってサーバ装置や、表示機器2から取得されてもよい。
制御部16は、演算処理装置を含む。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、FPGA(Field−Programmable Gate Array)、及びコプロセッサを含むが、これらに限定されない。制御部16は、ウェアラブル装置1の動作を統括的に制御できる。ウェアラブル装置1各種機能は、制御部16の制御に基づいて実現される。
具体的には、制御部16は、記憶部15に記憶されているプログラムに含まれる命令を実行できる。制御部16は、記憶部15に記憶されているデータを必要に応じて参照できる。制御部16は、データ及び命令に応じて機能部を制御する。制御部16は、機能部を制御することによって、各種機能を実現する。機能部は、例えば、通信部14を含むが、これらに限定されない。制御部16は、動作推定部16aを含む。制御部16は、制御プログラムを実行することによって、動作推定部16aを実現する。動作推定部16aは、生体電位検出部11又は加速度センサ12又は方位センサから出力される情報に基づいて、ユーザの身体動作を推定する。
次に、ウェアラブル装置1がユーザの前腕に装着されている場合に、制御部16によって推定可能な身体動作の種類について説明する。図3は、制御部16によって推定可能な身体動作の種類を例示したものである。ウェアラブル装置1によって推定される上肢の身体動作の主体は、指、手、腕に分類される。また、図3には、各身体動作を推定可能な検出部の種類を示している。
指の動作は、第1〜5指(親指、人差し指、中指、薬指、小指)の内の少なくとも1つの指を曲げる動作(パターン1)、第1〜5指の内の少なくとも1つの指を伸展させる動作(パターン2)、第1〜5指の内の少なくとも2つの指を互いに近づける、若しくは接触させる動作(パターン3)、第1〜5指の内の少なくとも2つの指を互いに離間させる動作を含む。パターン1の動作において、第1〜5指の全てを曲げる動作、或いは、第2〜5指を曲げる動作は、即ち、手を握る動作ともいえる。パターン2の動作において、第1〜5指の全てを伸展させる動作は、即ち、手を開く動作ともいえる。パターン3の動作において、第1指(親指)と第2〜5指の何れかとを互いに接触させる動作は、即ち、摘まむ動作ともいえる。なお、パターン1〜4の各動作は、生体電位検出部11の検出結果に基づいて制御部16により推定されることができる。この場合、パターン1〜4の各動作を司る身体部位に生体電極が取り付けられるよう、当該生体電極がウェアラブル装置1に配置されているとよい。また、パターン1〜4の動作は、指を構成する1以上の関節の曲げ、及び伸展を伴うものであってもよいし、伴わないものであってもよい。
手の動作は、掌屈動作(パターン5)、背屈動作(パターン6)、橈屈動作(パターン7)、尺屈動作(パターン8)を含む。掌屈動作は、手首を手のひら側に曲げる身体動作である。背屈動作は、手首を手の甲側に曲げる身体動作である。橈屈動作は、前腕を構成する橈骨のある側(親指側)に手首の関節を曲げる身体動作である。例えば、右側の上肢における橈屈動作は、右前腕における手の甲側が上になり、手のひら側が下となっている場合において、手首を左側に曲げることと同じである。尺屈動作は、前腕を構成する尺骨のある側(小指側)に手首の関節を曲げる身体動作である。例えば、右側の上肢における尺屈動作は、右前腕における手の甲側が上になり、手のひら側が下となっている場合において、手首を右側に曲げることと同じである。なお、パターン5〜8の各動作は、生体電位検出部11の検出結果に基づいて制御部16により推定されることができる。この場合、パターン5〜8の各動作を司る身体部位に生体電極が取り付けられるよう、当該生体電極がウェアラブル装置1に配置されているとよい。また、パターン5〜8の各動作が組み合わさってなされる、前腕の長手方向を軸として手首を回転させる動作も、生体電位検出部11の検出結果に基づいて制御部16により推定されることができる。
腕の動作は、前腕の回内動作(パターン9)、前腕の回外動作(パターン10)、胴体に前腕を近づける動作(パターン11)、胴体から前腕を遠ざける動作(パターン12)、肩を軸とした腕の移動動作(パターン12)を含む。前腕の回内動作は、手の甲がユーザの顔側を向くように、前腕を回旋させる身体動作である。例えば、右側の上肢の場合、右前腕を軸として該右前腕を反時計回りに旋回させる動作である。前腕の回外動作は、手のひらがユーザの顔側を向くように、前腕を回旋させる身体動作である。例えば、右側の上肢の場合、右前腕を軸として該右前腕を時計回りに旋回させる動作である。胴体に前腕を近づける動作は、例えば、肘を支点として前腕と上腕とを互いに近づける動作(腕の曲げ動作)である。胴体から前腕を遠ざける動作は、例えば、肘を支点として前腕と上腕とを互いに離す動作(腕の伸展動作)である。肩を軸とした腕の移動動作は、肘を支点とした腕の曲げを伴うことなく(或いは、所定角度以上の腕の曲げを伴うことなく)、指又は手又は腕を移動させる動作であり、例えば、指先で任意に軌道を描く動作である。
パターン9、10の各動作は、生体電位検出部11の検出結果に基づいて制御部16により推定されることができる。この場合、パターン9、10の各動作を司る身体部位に生体電極が取り付けられるよう、当該生体電極がウェアラブル装置1に配置されているとよい。また、パターン9〜12の各動作は、上述した、加速度センサ12の検出結果に基づいて制御部16により推定されることもできる。この場合、制御部16は、パターン9〜13の各動作に基づいてウェアラブル装置1に作用する加速度の方向及び大きさの変化に基づいて、当該動作がなされたことを検出する。また、パターン9〜12の各動作は、上述した、方位センサ13の検出結果に基づいて制御部16により推定されることもできる。この場合、制御部16は、パターン9〜12の各動作によるウェアラブル装置1の方位の変化に基づいて、当該動作がなされたことを検出する。
以上によれば、ウェアラブル装置1の生体電位検出部11、加速度センサ12、方位センサ13は、ユーザの上肢の身体動作を検出する検出部に含まれる。
図4は、制御部16によって推定される身体動作の一例を説明する図である。図4(a)は、第1の身体動作M1を示し、図4(b)は、第2の身体動作M2を示している。図4(a)に示すように、第1の身体動作M1は、第1〜5指の内の少なくとも2つの指を互いに接触させる身体動作M11(図3のパターン3に該当する身体動作)と、胴体に前腕を近づける動作M12(図3のパターン11に該当する身体動作)と、の2つの身体動作を第1所定時間内に行う、一連の身体動作である。第1所定時間は、例えば、1秒と設定されてよい。また、第1の身体動作M1は、身体動作M11と身体動作M12とが同時になされるものであってもよい。また、第1の身体動作M1は、身体動作M11と身体動作M12の内の一方と他方とが第1所定時間内に順次なされるものであってもよい。制御部16は、身体動作M11と身体動作M12とを第1所定時間内に推定すると、当該2つの身体動作を一連の身体動作、即ち身体動作M1として認識する。
図4(b)に示すように、第2の身体動作M2は、第1〜5指の内の少なくとも2つの指を互いに接触させる身体動作M21(図3のパターン4に該当する身体動作)と、胴体から前腕を遠ざける動作M22(図3のパターン12に該当する身体動作)と、の2つの身体動作を第1所定時間内に行う、一連の身体動作である。第1所定時間は、例えば、1秒と設定されてよい。また、第2の身体動作M2は、身体動作M21と身体動作M22とが同時になされるものであってもよい。また、第2の身体動作M2は、身体動作M21と身体動作M22の一方と他方とが第1所定時間内に順次なされるものであってもよい。制御部16は、身体動作M21と身体動作M22とを第1所定時間内に推定すると、当該2つの身体動作を一連の身体動作、即ち身体動作M2として認識する。
図5は、本実施形態に係るウェアラブル装置1によって実行される機能の第1例を示す図である。本機能は、制御部16が上述した制御プログラムを実行することによって実現される。図5には、外部の表示機器2の表示領域21が示されている。なお、第1例では、ウェアラブル装置1と外部の表示機器2とが無線通信接続を行っているものとする。
ステップS11に示すように、表示領域21には、表示オブジェクトOB1と表示オブジェクトOB2とが表示されている。表示オブジェクトOB1、OB2は、それぞれ、ユーザによる実行操作に基づいて、予め対応付けられている所定のアプリケーションを実行可能なアイコンである。表示オブジェクトOB1は、音楽再生アプリケーションに関するアイコンであり、表示オブジェクトOB2は、ブラウザアプリケーションに関するアイコンである。しかしながら、表示オブジェクトOB1、OB2は、所定のアプリケーションに関するアイコンである必要はなく、他のあらゆる種類の画像であってもよい。
ここで、表示領域21は、仮想の三次元空間としてユーザに視認されるような表示態様となっており、当該三次元空間における奥行き方向が、ユーザにとっての前方(図1におけるX軸方向)に対応している場合が例示されている。表示オブジェクトOB1は、表示オブジェクトOB2よりも大きな画像として表示領域21に表示されていることにより、ユーザは、表示オブジェクトOB1がオブジェクトOB2より手前側に表示されているように視認する。また、ステップS11に示す例とは異なるが、表示オブジェクトOB1がオブジェクトOB2の一部に重なって表示されることによって、表示オブジェクトOB1がオブジェクトOB2より手前側に表示されているような表示態様が取られてもよい。なお、ステップS11における、表示オブジェクトOB1、OB2の表示態様(画像の大きさや表示位置)は、外部の表示機器2によって制御されてもよいし、ウェアラブル装置1によって制御されてもよい。
ステップS11に示すように、表示領域21には、ヒトの手を模した画像(手オブジェクトOBH)が表示されている。手オブジェクトOBHは、表示領域21において、表示オブジェクトOB1、OB2よりも手前側に表示されている。手オブジェクトOBHは、例えば、加速度センサ12の検出結果に基づいて推定されるユーザの手の位置の移動に基づいて、表示位置が移動可能な画像である。手オブジェクトOBHは、例えば、生体電位検出部11の検出結果に基づいて推定されるユーザの手の身体動作(手の形状の変化)に基づいて、表示の形状が変化可能な画像である。例えば、ウェアラブル装置1は、生体電位検出部11の検出結果に基づいて、ユーザの手の動作を推定すると、当該手の動作に基づく手の形態情報を外部の表示機器2に送信し、外部の表示機器2は、受信した形態情報に基づいて手オブジェクトOBHの形状を変化させる。ステップS11の例では、ユーザが人差し指を伸展させたことに基づき、手オブジェクトOBHの人差し指が伸展された状態が示されている。また、ユーザの所定の身体動作(例えば、指の曲げ動作)に基づき、手オブジェクトOBHの人差し指の指先を中心とした所定の範囲AとX軸方向において少なくとも一部が重なる表示オブジェクトが選択可能となっている構成が例示されている。ステップS11においては、表示オブジェクトOB1、OB2の双方が範囲Aに重なっているため、双方とも、ユーザの所定の身体動作によって、選択され得る。
ステップS11に示す状態において、ユーザが図4に示した第1の身体動作M1を上記の第1所定時間内に行うと、制御部16は、上記の検出部の検出結果に基づいて第1の身体動作M1を認識する。制御部16は、第1の身体動作M1の身体動作に基づく第1制御信号を生成し、当該第1制御信号を通信部14によって、表示機器2へ送信させる。ここで、第1制御信号は、表示機器2の表示領域21中の表示オブジェクトを選択するための制御信号である。なお、身体動作M1は、身体動作M11と身体動作M12との2つの身体動作を第1所定時間内に行う身体動作(図4参照)であり、身体動作M12によって腕がユーザの胴体に近づく方向、或いは、身体動作M12によって指又は手が移動する方向は、X軸方向におけるマイナス方向と一致する。即ち、身体動作M1は、ユーザの前方からユーザの胴体により近い位置へ手を引く動作となる。
表示機器2は、ウェアラブル装置1から第1制御信号を受信すると、ステップS12に示すように、第1制御信号に基づいて、表示オブジェクトの選択処理を行う。ステップS12に示すように、表示機器2は、選択処理によって表示オブジェクトOB2を選択状態とし、当該表示オブジェクトOB2が手オブジェクトOBHによって掴まれている表示に表示態様を変更している。上述したように、身体動作M1は、ユーザの前方からユーザの胴体により近い位置(X軸方向におけるマイナス方向)へ手を引く動作であり、当該身体動作に基づいて、選択された表示オブジェクトOB2は、あたかもユーザに近い位置に引っ張られたかのように、選択状態となる前よりも大きな画像として表示される。表示オブジェクトOB2が選択状態となっている状態、即ち、身体動作M1を終えた状態において、例えば、ユーザが前腕の回外動作(図3のパターン10に該当する身体動作)を連続して行った場合に、当該回外動作に基づいて表示オブジェクトOB2に対応付けられたブラウザアプリケーションが起動される。
以上のように、ウェアラブル装置1は、ユーザの上肢に装着され、該上肢の身体動作を検出する検出部と、前記検出部の検出結果から、前記上肢の身体動作を推定し、当該身体動作に基づく制御信号を生成する制御部と、を備えるウェアラブル装置であって、前記制御部は、前記身体動作として、前記上肢における指の身体動作、手の身体動作、腕の身体動作、の内の少なくとも2つの身体動作を第1所定時間内に推定すると、当該2つの身体動作を一連の身体動作として認識し、該一連の身体動作に基づく第1制御信号を前記制御信号として生成する。これにより、上肢における指の身体動作、手の身体動作、腕の身体動作、の内の1つの身体動作のみによって制御信号を生成する場合に比して、ユーザの意図しない動作によって制御信号が生成されて誤操作がなされてします可能性を低減することができる。
なお、第1例では、上記2つの身体動作からなる一連の身体動作として、第1〜5指の内の少なくとも2つの指を互いに接触させる身体動作M11と、胴体に前腕を近づける身体動作M12と、の2つの身体動作を第1所定時間内に行う身体動作を例示したが、一連の動作はこれに限定されない。一連の身体動作は、図3に示した、指の各パターンの身体動作と手の各パターンの身体動作とで適宜組み合わされた、あらゆる身体動作であってよい。また、一連の身体動作は、指の各パターンの身体動作と腕の各パターンの身体動作とで適宜組み合わされた、あらゆる身体動作であってよい。また、一連の身体動作は、手の各パターンの身体動作と腕の各パターンの身体動作とで適宜組み合わされた、あらゆる身体動作であってよい。例えば、一連の身体動作は、指の曲げ動作(図3のパターン1に該当する身体動作)と、掌屈動作(図3のパターン5に該当する身体動作)と、の2つの身体動作を第1所定時間内に行う動作(第2の身体動作)であってよい。例えば、一連の身体動作は、第1〜5指の全てを曲げる、即ち、握る動作(図3のパターン3に該当する身体動作)と、前腕の回外動作(図3のパターン10に該当する身体動作)と、の2つの身体動作を第1所定時間内に行う動作(第3の身体動作)であってよい。また、一連の身体動作は、2つの身体動作の組み合わせに限定されず、3つ以上の身体動作の組み合わせによって構成されて良い。例えば、一連の身体動作は、第1〜5指の全てを曲げる、即ち、握る動作(図3のパターン3に該当する身体動作)と、前腕の回外動作(図3のパターン10に該当する身体動作)と、の2つの身体動作を行った後に、手を開く動作を続けて行うもの(第4の身体動作)であってよい。
第1例では、身体動作M11と身体動作M12との2つの身体動作を第1所定時間内に行う一連の身体動作に基づいて、所定のアプリケーションに関するアイコンを選択する処理を実行する構成を例示したが、一連の身体動作に基づいて実行する処理はこれに限定されない。例えば、上記第2の身体動作に基づいて、表示領域21に表示される所定の画像を第2の身体動作の動作方向(下方向)へのスクロールする処理が実行されてもよい。例えば、上記第3の身体動作に基づいて、表示領域21の表示を非表示する画面OFF処理や、所定の機能を制限する処理や、所定のデータファイルを消去する処理等が実行されてもよい。例えば、上記第4の身体動作に基づいて、所定のデータファイルを消去する処理等が実行されてもよい。
図6は、本実施形態に係るウェアラブル装置1によって実行される機能の第2例を示す図である。本機能は、制御部16が上述した制御プログラムを実行することによって実現される。図6には、外部の表示機器2の表示領域21が示されている。なお、第2例では、ウェアラブル装置1と外部の表示機器2とが無線通信接続を行っているものとする。
ステップS21は、第1例のステップS11(図5参照)と同様の状態である。ステップS21においては、表示オブジェクトOB1、OB2の双方が手オブジェクトOBHの人差し指の指先の位置に基づく範囲Aに重なっているため、双方とも、ユーザの所定の身体動作によって、選択され得る状態となっている。
ステップS21に示す状態において、ユーザが人差し指と親指とを接触させる身体動作M11(図4参照)を行うと、制御部16は、上記の検出部の検出結果に基づいて身体動作M11を認識する。制御部16は、身体動作M11の身体動作に基づく第2制御信号を生成し、当該第2制御信号を通信部14によって、表示機器2へ送信させる。ここで、第2制御信号は、表示機器2の表示領域21中の表示オブジェクトを選択するための制御信号である。
表示機器2は、ウェアラブル装置1から第2制御信号を受信すると、ステップS22に示すように、第2制御信号に基づいて、表示オブジェクトの選択処理を行う。ステップS22に示すように、表示機器2は、選択処理によって表示オブジェクトOB1を選択状態とし、当該表示オブジェクトOB1が手オブジェクトOBHによって掴まれている表示に表示態様を変更している。表示オブジェクトOB2が選択状態となっている状態、即ち、身体動作M11を終えた状態において、例えば、ユーザが前腕の回外動作(図3のパターン10に該当する身体動作)を連続して行った場合に、当該回外動作に基づいて表示オブジェクトOB1に対応付けられた音楽再生アプリケーションが起動される。
第1例において、制御部16は、第1〜5指の内の少なくとも2つの指を互いに接触させる身体動作M11と、胴体に前腕を近づける身体動作M12と、の2つの身体動作を第1所定時間内に推定すると、当該2つの身体動作を一連の身体動作M1として認識し、該一連の身体動作に基づく第1制御信号を生成する構成を有するのに対し、第2例では、制御部16は、身体動作M11と身体動作M12の内の一方の身体動作のみ(上記の例では身体動作M11)を第1所定時間内に推定した場合には、当該一方の身体動作に基づく第2制御信号を生成する構成を有する。また、第1、2例では、第1制御信号に基づいて、表示オブジェクトOB2(第1表示オブジェクト)が選択され、第2制御信号に基づいて、表示オブジェクトOB1(第2表示オブジェクト)が選択される構成を有する。これにより、第1、2例のような、複数の表示オブジェクト(OB1、OB2)の双方が、一の操作によって選択され得る位置に表示されていたとしても、ユーザは、一の身体動作に他の身体動作を組み合わせるか否かによって、それぞれを確実に選択することが出来る。
また、第1、2例に示したように、身体動作M11に基づいて生成される第2制御信号は、表示領域21に表示される複数の表示オブジェクトOB1、OB2の内の表示オブジェクトOB1(第2表示オブジェクト)を選択するための制御信号であり、身体動作M11と身体動作M12とからなる一連の身体動作M1に基づいて生成される第1制御信号は、複数の表示オブジェクトOB1、OB2の内の、表示領域21における奥行き方向(X軸方向)において、表示オブジェクトOB1(第2表示オブジェクト)よりも奥側に表示される表示オブジェクトOB2(第1表示オブジェクト)を選択するための制御信号である。これにより、身体動作M11のみのような小さな(シンプルな)動作によって、ユーザにより近い表示オブジェクトを選択可能にし、身体動作M1のような、身体動作M11のみの場合よりも大きな(或いは複雑な)動作によって、ユーザからより離れて表示されている表示オブジェクトを選択可能にするため、ユーザにとってイメージし易い操作を実現できる。
図7は、本実施形態に係るウェアラブル装置1によって実行される機能の第3例を示す図である。本機能は、制御部16が上述した制御プログラムを実行することによって実現される。図7には、外部の表示機器2の表示領域21が示されている。なお、第3例では、ウェアラブル装置1と外部の表示機器2とが無線通信接続を行っているものとする。
ステップS31は、第1例のステップS12(図5参照)と同様の状態、即ち、表示オブジェクトOB21が選択されている状態である。
ステップS31に示す状態において、ユーザが図4に示した第2の身体動作M2を上記の第1所定時間内に行うと、制御部16は、上記の検出部の検出結果に基づいて第2の身体動作M2を認識する。制御部16は、第2の身体動作M1の身体動作に基づく制御信号を生成し、当該制御信号を通信部14によって、表示機器2へ送信させる。ここで、第2の身体動作M2に基づく制御信号は、表示オブジェクトの選択状態を解除するとともに当該表示オブジェクトの表示位置を所定距離移動させるための制御信号である。なお、身体動作M2は、身体動作M21と身体動作M22との2つの身体動作を第1所定時間内に行う身体動作(図4参照)であり、身体動作M22によって腕がユーザの胴体に遠ざかる方向、或いは、身体動作M22によって指又は手が移動する方向は、X軸方向におけるプラス方向(表示領域21における奥行き方向)と一致する。即ち、第2の身体動作M2は、ユーザの前方からユーザの胴体により遠い位置へ手を押す動作となる。第2の身体動作M2は、上記の第1の身体動作M1と同様、指の身体動作、手の身体動作、腕の身体動作、の内の少なくとも2つの身体動作を第1所定時間内に行う一連の身体動作であるため、当該第2の身体動作M2に基づいて生成される制御信号を第1制御信号と称することにする。
表示機器2は、ウェアラブル装置1から第1制御信号を受信すると、ステップS32aに示すように、第1制御信号に基づいて、表示オブジェクトOB2の選択状態を解除するとともに、当該表示オブジェクトOB2の表示位置を表示領域21の奥行き方向における、表示オブジェクトOB1よりも奥側(X軸プラス方向側)に移動させる。
一方、ステップS31に示す状態において、ユーザが人差し指と親指とを離間させる身体動作M21(図4参照)を行うと、制御部16は、上記の検出部の検出結果に基づいて身体動作M21を認識する。制御部16は、身体動作M21の身体動作に基づく制御信号を生成し、当該制御信号を通信部14によって、表示機器2へ送信させる。ここで、身体動作M21に基づく制御信号は、表示オブジェクトの選択状態を解除するとともに当該表示オブジェクトの表示位置を所定距離移動させるための制御信号である。身体動作M21は、上記の身体動作M11と同様、指の身体動作、手の身体動作、腕の身体動作、の内の少なくとも1つの身体動作であるため、当該身体動作M21に基づいて生成される制御信号を第2制御信号と称することにする。
表示機器2は、ウェアラブル装置1から第1制御信号を受信すると、ステップS32bに示すように、第2制御信号に基づいて、表示オブジェクトOB2の選択状態を解除するとともに、当該表示オブジェクトOB2の表示位置を表示領域21の奥行き方向における、表示オブジェクトOB1よりも手前側(X軸マイナス方向側)に移動させる。
以上のように、身体動作M21に基づいて生成される第2制御信号は、表示領域21に表示される表示オブジェクトの表示位置を第2距離移動させるための制御信号であり、身体動作M21と身体動作M22とからなる一連の身体動作M2に基づいて生成される第2制御信号は、表示オブジェクトの表示位置を前記第2距離よりも大きい第1距離移動させるための制御信号である。これにより、身体動作M21のみのような小さな(シンプルな)動作によって、より小さい距離だけ表示オブジェクトの表示位置を移動可能にし、身体動作M2のような、身体動作M21のみの場合よりも大きな(或いは複雑な)動作によって、より大きい距離だけ表示オブジェクトの表示位置を移動可能にするため、ユーザにとってイメージし易い操作を実現できる。
(変形例1)
上記の実施例では、指の身体動作、手の身体動作、腕の身体動作、の内の少なくとも2つの身体動作を第1所定時間内に行う一連の身体動作に基づいて生成される第1制御信号と、当該少なくとも2つの身体動作の内の一方の身体動作のみに基づいて生成される第2制御信号と、によって、仮想の三次元空間の奥行き方向において互いに異なる位置に表示された表示オブジェクトの選択対象を異ならせる構成を示した。また、第1制御信号と第2制御信号とによって、表示オブジェクトの表示位置の移動距離を異ならせる構成を示した。しかしながら、このような構成に限定されず、上記一連の身体動作の検出時間によって、三次元空間の奥行き方向において互いに異なる位置に表示された表示オブジェクトの選択対象を異ならせる構成、又は、表示オブジェクトの表示位置の移動距離を異ならせる構成としてもよい。即ち、ウェアラブル装置1において、制御部は、一連の身体動作を認識すると、当該一連の身体動作がなされた時間を計時し、当該時間に基づいて制御信号を生成してもよい。
例えば、図5のステップS11又は図6のステップS21に示す状態において、制御部16は、身体動作M11と身体動作M12との2つの身体動作を第1所定時間内に行う一連の身体動作M1を推定すると、当該身体動作M1がなされた時間を計時し、当該時間が所定時間(例えば1秒)以上である場合には、三次元空間の奥行き方向においてより奥側(X軸プラス方向側)の表示オブジェクトを選択し(図5のステップS12と同様の処理)、一方で、所定時間未満である場合には、三次元空間の奥行き方向においてより手前側(X軸マイナス方向側)の表示オブジェクトを選択するようにしてもよい(図6のステップS22と同様の処理)。
また、図7のステップS31に示す状態において、制御部16は、身体動作M21と身体動作M22との2つの身体動作を第1所定時間内に行う一連の身体動作M2を推定すると、当該身体動作M1がなされた時間を計時し、当該時間が所定時間(例えば1秒)未満である場合には、表示オブジェクトの表示位置の移動距離をより大きくし(図7のステップS32aと同様の処理)、所定時間以上である場合には、表示オブジェクトの表示位置の移動距離をより小さくするようにしてもよい(図7のステップS32bと同様の処理)。
また、ウェアラブル装置1において、制御部16は、一連の身体動作を認識すると、当該一連の身体動作に基づく、上肢の所定箇所の変位量を推定し、当該変位量に基づいて制御信号を生成してもよい。ここで、上肢の所定箇所とは、例えば、ウェアラブル装置1が装着された部分であってもよいし、所定の指や手であってもよい。上肢におけるウェアラブル装置1が装着された部分を所定箇所とした場合、ウェアラブル装置1は、身体動作がなされたときの加速度センサ12の検出値の変化に基づいて、当該所定箇所の変位量を推定してもよい。
例えば、図5のステップS11又は図6のステップS21に示す状態において、制御部16は、身体動作M11と身体動作M12との2つの身体動作を第1所定時間内に行う一連の身体動作M1を推定すると、当該身体動作M1に基づく、上肢の所定箇所の変位量を推定し、変位量が所定距離(例えば5cm)以上である場合には、三次元空間の奥行き方向においてより奥側(X軸プラス方向側)の表示オブジェクトを選択し(図5のステップS12と同様の処理)、変位量が所定距離未満である場合には、三次元空間の奥行き方向においてより手前側(X軸マイナス方向側)の表示オブジェクトを選択するようにしてもよい(図6のステップS22と同様の処理)。
また、ウェアラブル装置1において、制御部16は、身体動作M11と身体動作M12との2つの身体動作を第1所定時間内に行う一連の身体動作M1を推定すると、当該身体動作M1に基づく、上肢の所定箇所の変位量を推定し、変位量が所定距離(例えば5cm)以上である場合には、表示オブジェクトの表示位置の移動距離をより大きくし(図7のステップS32aと同様の処理)、変位量が所定距離未満である場合には、表示オブジェクトの表示位置の移動距離をより小さくするようにしてもよい(図7のステップS32bと同様の処理)。
また、ウェアラブル装置1において、制御部16は、一連の身体動作を認識すると、当該一連の身体動作に基づく、上肢の所定箇所の向きの変化量を推定し、当該変化量に基づいて制御信号を生成してもよい。ここで、上肢の所定箇所とは、例えば、ウェアラブル装置1が装着された部分であってもよい。上肢におけるウェアラブル装置1が装着された部分を所定箇所とした場合、ウェアラブル装置1は、身体動作がなされたときの加速度センサ12の検出値の変化や方位センサの検出値の変化に基づいて、当該所定箇所の方向の変化量を推定してもよい。
例えば、図5のステップS11又は図6のステップS21に示す状態において、制御部16は、身体動作M11と身体動作M12との2つの身体動作を第1所定時間内に行う一連の身体動作M1を推定すると、当該身体動作M1に基づく、上肢の所定箇所の向きの変化量を推定し、変化量が所定角度(例えば15度)以上である場合には、三次元空間の奥行き方向においてより奥側(X軸プラス方向側)の表示オブジェクトを選択し(図5のステップS12と同様の処理)、変位量が所定角度未満である場合には、三次元空間の奥行き方向においてより手前側(X軸マイナス方向側)の表示オブジェクトを選択するようにしてもよい(図6のステップS22と同様の処理)。
また、ウェアラブル装置1において、制御部16は、身体動作M11と身体動作M12との2つの身体動作を第1所定時間内に行う一連の身体動作M1を推定すると、当該身体動作M1に基づく、上肢の所定箇所の向きの変化量を推定し、変化量が所定角度(例えば15度)以上である場合には、表示オブジェクトの表示位置の移動距離をより大きくし(図7のステップS32aと同様の処理)、変位量が所定角度未満である場合には、表示オブジェクトの表示位置の移動距離をより小さくするようにしてもよい(図7のステップS32bと同様の処理)。
(変形例2)
上記の実施例では、外部の表示機器2がテレビ、スマートフォン、ノートパソコン等であることを例示したが、これに限定されない。表示機器2は、例えば、図8に示すようなヘッドマウントディスプレイ(或いはメガネ型の端末)であっても良い。ヘッドマウントディスプレイ2は、メガネのレンズに相当する部分の一部(表示領域21)に画像を表示する。
(変形例3)
上記の実施例では、上肢の身体動作を検出する検出部は、生体電位検出部11、加速度センサ12、方位センサ13である場合である場合を示したが、上肢の身体動作を検出可能な撮像部であってもよい。例えば、図9に示すように、本実施形態に係るウェアラブル装置は、ヘッドマウントディスプレイ3であって、ヘッドマウントディスプレイ3の正面部には、ユーザの上肢の身体動作を検出可能な撮像部としての光学カメラ31(撮像部)であったり、或いは撮像部としての赤外線カメラ(赤外線の照射機能も有する)32が設けられる。また、ヘッドマウントディスプレイ3は、メガネのレンズに相当する部分の一部(表示領域33)に画像を表示する。制御部16は、撮像部が取得する撮像画像を解析することによりユーザの上肢の身体動作を検出することができる。また、上記までの実施例では、生成された制御信号を外部の表示機器に送信する通信部14を備え、制御部16は、制御信号として、外部の表示機器の表示内容の制御する表示制御信号を生成する構成を例示してきたが、本変形例では、必ずしも通信部を備えている必要はなく、ウェアラブル装置1は、表示部33を備え、制御部16は、撮像部としての光学カメラ31又は赤外線カメラ32の検出結果に基づいて、指の身体動作、手の身体動作、腕の身体動作、の内の少なくとも2つの身体動作を第1所定時間内に行う一連の身体動作を推定し、当該一連の身体動作に基づく制御信号を、表示部33の表示内容の制御する表示制御信号として生成してよい。
以上に、本発明に係る実施形態を説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。さらに、本明細書において開示される全ての技術的事項は、矛盾しないように再配置可能であり、複数の構成部を1つに組み合わせたり、或いは分割したりすることが可能である。
上記の実施形態では、ウェアラブル装置1の構成と動作について説明したが、これに限定されず、各構成要素を備える方法やプログラムとして構成されても良い。また、上記に例示したように、ウェアラブル装置1と他の電子機器とから形成されるネットワークシステムとして構成されても良い。
1 ウェアラブル装置
2 表示機器
11 生体電位検出部
12 加速度センサ
13 方位センサ
14 通信部
15 記憶部
16 制御部

Claims (8)

  1. ユーザの上肢に装着され、該上肢の身体動作を検出する検出部と、
    前記検出部の検出結果から、前記上肢の身体動作を推定し、当該身体動作に基づく制御信号を生成する制御部と、
    前記制御信号を外部の表示機器に送信する通信部と、を備え、
    前記制御部は、
    前記身体動作として、前記上肢における指の身体動作、手の身体動作、腕の身体動作、の内の少なくとも2つの身体動作を一連の身体動作として推定すると、第1制御信号を生成し、
    前記身体動作として、前記上肢における指の身体動作、手の身体動作、腕の身体動作、の内の1つの身体動作を推定すると、第2制御信号を生成し、
    前記第2制御信号は、前記外部の表示機器が表示する表示オブジェクトの表示位置を第2距離移動させるための制御信号であり、
    前記第1制御信号は、前記表示オブジェクトの表示位置を前記第2距離よりも大きい第1距離移動させるための制御信号である
    ウェアラブル装置。
  2. 表示部と、
    上肢の身体動作を検出する検出部と、
    前記検出部の検出結果から、前記上肢の身体動作を推定し、当該身体動作に基づく制御信号を生成する制御部と、
    前記制御部は、
    前記身体動作として、前記上肢における指の身体動作、手の身体動作、腕の身体動作、の内の少なくとも2つの身体動作を一連の身体動作として推定すると、第1制御信号を生成し、
    前記身体動作として、前記上肢における指の身体動作、手の身体動作、腕の身体動作、の内の1つの身体動作を推定すると、第2制御信号を生成し、
    第2制御信号は、前記表示部が表示する表示オブジェクトの表示位置を第2距離移動させるための制御信号であり、
    第1制御信号は、前記表示オブジェクトの表示位置を前記第2距離よりも大きい第1距離移動させるための制御信号である
    ウェアラブル装置。
  3. 前記第2制御信号は、選択状態である前記表示オブジェクトの該選択状態を解除するとともに該表示オブジェクトの表示位置を第2距離移動させるための制御信号であり、
    前記第1制御信号は、選択状態である前記表示オブジェクトの該選択状態を解除するとともに該表示オブジェクトの表示位置を前記第2距離よりも大きい第1距離移動させるための制御信号である
    請求項1又は2に記載のウェアラブル装置。
  4. 前記第2制御信号は、前記表示オブジェクトを、所定の表示方向における他の表示オブジェクトよりも手前側に表示させるための制御信号であり、
    前記第1制御信号は、前記表示オブジェクトを、前記表示方向における他の表示オブジェクトよりも奥側に表示させるための制御信号である
    請求項1から3の何れか一項に記載のウェアラブル装置。
  5. 制御部は、前記身体動作として、前記上肢における指の身体動作、手の身体動作、腕の身体動作、の内の少なくとも2つの身体動作を第1所定時間内に推定すると、当該2つの身体動作を一連の身体動作として推定する
    請求項1から4の何れか一項に記載のウェアラブル装置。
  6. 前記制御部は、
    前記身体動作として、前記上肢における指の身体動作、手の身体動作、腕の身体動作、の内の少なくとも2つの身体動作を一連の身体動作として推定すると、第3制御信号を生成し、
    前記身体動作として、前記上肢における指の身体動作、手の身体動作、腕の身体動作、の内の1つの身体動作を推定すると、第4制御信号を生成し、
    所定の前記身体動作に基づいて複数の表示オブジェクトが選択可能になっている状態において、
    前記第4制御信号は、前記複数の表示オブジェクトの内の第2表示オブジェクトを選択するための制御信号となり
    前記第3制御信号は、前記複数の表示オブジェクトの内の、所定の表示方向において前記第2表示オブジェクトよりも奥側に表示される第1表示オブジェクトを選択するための制御信号となる
    請求項1から5の何れか一項に記載のウェアラブル装置。
  7. 所定の前記身体動作に基づいて表示オブジェクトを選択するための選択範囲に前記複数の表示オブジェクトの少なくとも一部が重なっている状態において、
    前記第4制御信号は、前記複数の表示オブジェクトの内の前記第2表示オブジェクトを選択するための制御信号となり、
    前記第3制御信号は、前記複数の表示オブジェクトの内の前記第1表示オブジェクトを選択するための制御信号となる
    請求項6に記載のウェアラブル装置。
  8. 前記選択範囲は、前記検出部の検出結果から推定されるユーザの上肢の位置に基づいて定められる
    請求項7に記載のウェアラブル装置。
JP2015193140A 2015-09-30 2015-09-30 ウェアラブル装置 Active JP6144743B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015193140A JP6144743B2 (ja) 2015-09-30 2015-09-30 ウェアラブル装置
US15/280,776 US10120444B2 (en) 2015-09-30 2016-09-29 Wearable device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015193140A JP6144743B2 (ja) 2015-09-30 2015-09-30 ウェアラブル装置

Publications (2)

Publication Number Publication Date
JP2017068572A JP2017068572A (ja) 2017-04-06
JP6144743B2 true JP6144743B2 (ja) 2017-06-07

Family

ID=58409168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015193140A Active JP6144743B2 (ja) 2015-09-30 2015-09-30 ウェアラブル装置

Country Status (2)

Country Link
US (1) US10120444B2 (ja)
JP (1) JP6144743B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11188287B2 (en) * 2017-12-27 2021-11-30 Sony Corporation Display control apparatus, display control method, and computer program
US11099647B2 (en) * 2018-08-05 2021-08-24 Pison Technology, Inc. User interface control of responsive devices
US10802598B2 (en) * 2018-08-05 2020-10-13 Pison Technology, Inc. User interface control of responsive devices
US11422692B2 (en) * 2018-09-28 2022-08-23 Apple Inc. System and method of controlling devices using motion gestures
US11157086B2 (en) * 2020-01-28 2021-10-26 Pison Technology, Inc. Determining a geographical location based on human gestures
US20210232224A1 (en) * 2020-01-28 2021-07-29 Pison Technology, Inc. Human-machine interface
US11199908B2 (en) 2020-01-28 2021-12-14 Pison Technology, Inc. Wrist-worn device-based inputs for an operating system
CN113359971A (zh) * 2020-03-06 2021-09-07 中光电创境股份有限公司 显示控制方法、显示控制系统及穿戴式装置
WO2022060586A1 (en) * 2020-09-16 2022-03-24 Sterling Labs Llc Changing a dimensional representation of a content item

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5381158A (en) * 1991-07-12 1995-01-10 Kabushiki Kaisha Toshiba Information retrieval apparatus
JP2000284879A (ja) * 1999-01-29 2000-10-13 Square Co Ltd ゲーム装置、ビデオゲームにおけるコマンド入力方法、及び、その方法を実現するためのプログラムを記録したコンピュータ読み取り可能な記録媒体
US6544123B1 (en) * 1999-10-29 2003-04-08 Square Co., Ltd. Game apparatus, command input method for video game and computer-readable recording medium recording programs for realizing the same
JP2002358149A (ja) * 2001-06-01 2002-12-13 Sony Corp ユーザ入力装置
JP5262681B2 (ja) * 2008-12-22 2013-08-14 ブラザー工業株式会社 ヘッドマウントディスプレイ及びそのプログラム
JP2013250637A (ja) * 2012-05-30 2013-12-12 Toshiba Corp 認識装置
JP5962403B2 (ja) * 2012-10-01 2016-08-03 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
US9690376B2 (en) * 2012-11-01 2017-06-27 Eyecam, Inc. Wireless wrist computing and control device and method for 3D imaging, mapping, networking and interfacing
JP6030430B2 (ja) * 2012-12-14 2016-11-24 クラリオン株式会社 制御装置、車両及び携帯端末
JP5857991B2 (ja) * 2013-03-19 2016-02-10 カシオ計算機株式会社 情報表示装置、方法及びプログラム
US20150248159A1 (en) * 2013-06-19 2015-09-03 Florida State University Research Foundation, Inc. Piezoresistive sensors and methods
WO2014208074A1 (ja) * 2013-06-24 2014-12-31 パナソニックIpマネジメント株式会社 生体電位入力インタフェースシステム、生体電位入力センサ装置、生体電位入力方法、およびそのプログラム
JP2015002939A (ja) 2013-06-24 2015-01-08 パナソニック株式会社 生体電位入力インタフェースシステム、生体電位入力センサ装置、生体電位入力方法、およびそのプログラム
JP6259225B2 (ja) * 2013-08-22 2018-01-10 アルパイン株式会社 電子機器およびこれに接続された携帯端末のジェスチャ認識操作方法、車載システム
JP5991498B2 (ja) * 2014-07-08 2016-09-14 パナソニックIpマネジメント株式会社 筋電位計測装置及び筋電位計測方法

Also Published As

Publication number Publication date
JP2017068572A (ja) 2017-04-06
US10120444B2 (en) 2018-11-06
US20170090555A1 (en) 2017-03-30

Similar Documents

Publication Publication Date Title
JP6144743B2 (ja) ウェアラブル装置
US11009951B2 (en) Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display
US10649549B2 (en) Device, method, and system to recognize motion using gripped object
US9367139B2 (en) Systems, articles, and methods for gesture identification in wearable electromyography devices
US9389694B2 (en) Systems, articles, and methods for gesture identification in wearable electromyography devices
KR101844390B1 (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
US9372535B2 (en) Systems, articles, and methods for electromyography-based human-electronics interfaces
EP2959394B1 (en) Methods and devices that combine muscle activity sensor signals and inertial sensor signals for gesture-based control
JP2010108500A (ja) 着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法
US20150057770A1 (en) Systems, articles, and methods for human-electronics interfaces
US20110148755A1 (en) User interface apparatus and user interfacing method based on wearable computing environment
EP3441849A1 (en) Pointing input device for personal computer based on fingers ' movements
CN106326881B (zh) 用于实现人机交互的手势识别方法和手势识别设备
WO2015091638A1 (en) Method for providing user commands to an electronic processor and related processor program and electronic circuit.
CN109828672B (zh) 一种用于确定智能设备的人机交互信息的方法与设备
WO2019082853A1 (ja) 画像処理装置、画像処理方法およびプログラム
WO2023227072A1 (zh) 在虚拟现实场景中确定虚拟光标方法、装置、设备和介质
JP2010086367A (ja) 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置
Karasawa et al. Simultaneous recognition of hand shape and two-axis wrist bending using wearable wrist contour measuring device
KR102595257B1 (ko) 제스처 인식에 기반한 모바일 로봇의 인간추종 및 상호작용 시스템 및 방법
EP4345584A1 (en) Control device, control method, and program
CN115857696A (zh) 一种设备交互方法、可穿戴设备和存储介质
US20210055815A1 (en) Information processing system
CN204288119U (zh) 一种应用图形软件技术实现的操控系统
KR20190022019A (ko) 웨어러블 마우스 및 그 동작방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170511

R150 Certificate of patent or registration of utility model

Ref document number: 6144743

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150