JP2015088161A - ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム - Google Patents

ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム Download PDF

Info

Publication number
JP2015088161A
JP2015088161A JP2014087684A JP2014087684A JP2015088161A JP 2015088161 A JP2015088161 A JP 2015088161A JP 2014087684 A JP2014087684 A JP 2014087684A JP 2014087684 A JP2014087684 A JP 2014087684A JP 2015088161 A JP2015088161 A JP 2015088161A
Authority
JP
Japan
Prior art keywords
state
wrist
flag
dorsiflexion
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014087684A
Other languages
English (en)
Other versions
JP6344032B2 (ja
Inventor
萌 山田
Moe Yamada
萌 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014087684A priority Critical patent/JP6344032B2/ja
Priority to US14/471,485 priority patent/US9639164B2/en
Publication of JP2015088161A publication Critical patent/JP2015088161A/ja
Application granted granted Critical
Publication of JP6344032B2 publication Critical patent/JP6344032B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition

Abstract

【課題】ユーザの意図しない装置の動作を起こりにくくするジェスチャ入力装置、ジェスチャ入力方法およびジェスチャ入力プログラムを提供する。【解決手段】手首を観測し、前記手首の状態を示す状態情報を出力する状態観測部201と、前記状態情報に基づいて、前記手首が背屈状態であるか否かを判定する判定部411と、前記手首が背屈状態であるか否かに応じて、所定の処理を行う処理部501と、を備え、手首を含む手のジェスチャが入力され、処理部は、手首が背屈状態の場合、ジェスチャに応じた制御を行う。【選択図】図1

Description

本発明は、ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラムに関する。
近年、センサを搭載した装置によってユーザの身体の形状や動き(ジェスチャ)、または音声を認識し、ジェスチャや音声等によりテレビやゲーム機、パーソナルコンピュータ(PC)などの装置を操作することが可能となっている。
また、スマートグラスや腕時計型デバイスなど、人の頭部や手首などに身に着けて使用する装着型の装置(ウェアラブルデバイス)が登場してきている。
特開平2005−63090号公報 特開平8−315154号公報 特開平2001−216069号公報
Jungsoo Kim, Jiasheng He, Kent Lyons, and Thad Starner, "The Gesture Watch: A Wireless Contact-free Gesture based Wrist Interface", In Proceedings of the 2007 11th IEEE International Symposium on Wearable Computers (ISWC '07). IEEE Computer Society, Washington, DC, USA, pp.1-8, 2007. Zhou Ren, Junsong Yuan, and Zhengyou Zhang, "Robust hand gesture recognition based on finger-earth mover's distance with a commodity depth camera", In Proceedings of the 19th ACM international conference on Multimedia (MM '11), ACM, New York, NY, USA, pp. 1093-1096, 2011. 齋藤央 , 赤池英夫, 角田博保, "単発音を利用したハンドジェスチャインタラクションの提案と評価",ヒューマンインタフェースシンポジウム論文集, 1533D, pp. 355-358, 2012.
ジェスチャを認識する装置において、ユーザの動作を装置を操作するため動作として認識すべきかそれ以外の通常の動作として認識すべきかの判断が難しい。
それ故、疲れて腕を下ろしたり、かゆみを感じて体を掻くなどの通常の動作を装置への操作と認識してしまい、装置がユーザの意図しない動作をするという問題がある。
本発明の課題は、ユーザの意図しない装置の動作を起こりにくくすることである。
実施の形態のジェスチャ入力装置は、観測部、判定部、および処理部を備える。
前記観測部は、手首を観測し、前記手首の状態を示す状態情報を出力する。
前記判定部は、前記状態情報に基づいて、前記手首が背屈状態であるか否かを判定する。
前記処理部は、前記手首が背屈状態であるか否かに応じて、所定の処理を行う。
他の実施の形態のジェスチャ入力装置は、観測部、判定部、および処理部を備える。
前記観測部は、足首を観測し、前記足首の状態を示す状態情報を出力する。
前記判定部は、前記状態情報に基づいて、前記足首が底屈状態であるか否かを判定する。
前記処理部は、前記足首が底屈状態であるか否かに応じて、所定の処理を行う。
他の実施の形態のジェスチャ入力装置は、観測部、判定部、および処理部を備える。
前記観測部は、唇を観測し、前記唇の状態を示す状態情報を出力する。
前記判定部は、前記状態情報に基づいて、前記唇が巻き込み状態であるか否かを判定する。
前記処理部は、前記唇が巻き込み状態であるか否かに応じて、所定の処理を行う。
実施の形態のジェスチャ入力装置によれば、ユーザの意図しない装置の動作が起こりにくくなる。
実施の形態に係るシステムの構成図である。 実施の形態に係るシステムの第1の構成例である。 実施の形態に係るシステムの第2の構成例である。 実施の形態に係るシステムの第3の構成例である。 実施の形態に係るシステムの第4の構成例である。 実施の形態に係るフラグ管理処理のフローチャートである。 実施の形態に係る処理装置の構成図である。 NFCタグの検出を示す図である。 実施の形態に係る表示装置を示す図である。 実施の形態に係る表示装置を示す図である。 実施の形態に係る表示装置を示す図である。 実施の形態に係る表示装置を示す図である。 実施の形態に係る表示装置を示す図である。 実施の形態に係る表示装置を示す図である。 実施の形態に係る表示装置を示す図である。 実施の形態に係る処理装置の第1の構成例である。 第1の構成例の処理装置のフラグ制御処理のフローチャートである。 実施の形態に係る処理装置の第2の構成例である。 第2の構成例の処理装置のフラグ制御処理のフローチャートである。 手首の背屈角を示す図である。 脱力時と随意可動時の手首の状態を示す図である。 脱力時と随意可動時の背屈角のデータを示す図である。 脱力時と随意可動時の背屈角の平均値のグラフである。 脱力時と随意可動時の背屈角の差の平均値のグラフである。 手首の背屈状態の検出方法(その1)を示す図である。 手首の背屈状態の検出方法(その2)を示す図である。 手首の背屈状態の検出方法(その3)を示す図である。 手首の背屈状態の検出方法(その4)を示す図である。 手首の背屈状態の検出方法(その5)を示す図である。 手首の背屈状態の検出方法(その6)を示す図である。 手首の背屈状態の検出方法(その7)を示す図である。 手首の背屈状態の検出方法(その8)を示す図である。 手首の背屈状態の検出方法(その9)を示す図である。 手首の背屈状態の検出方法(その10)を示す図である。 手首の背屈状態の検出方法(その11)を示す図である。 手首の背屈状態の検出方法(その12)を示す図である。 手首の背屈状態の検出方法(その13)を示す図である。 手首の背屈状態の検出方法(その14)を示す図である。 手首の背屈状態の検出方法(その15)を示す図である。 手首の背屈状態の検出方法(その16)を示す図である。 掌部の構成図である。 腕輪の断面図である。 手首の背屈状態の検出方法(その17)を示す図である。 手首の背屈状態の検出方法(その18)を示す図である。 手首の掌屈角を示す図である。 足首の底屈角を示す図である。 脱力時と随意可動時の足首の状態を示す図である。 足首の底屈状態の検出方法を示す図である。 唇の巻き込み状態を示す図である。 唇の巻き込み状態の検出方法を示す図である。 実施の形態に係る巻き込み状態の検出処理のフローチャートである。 手の状態の検出方法(その1)を示す図である。 手の状態の検出方法(その2)を示す図である。 手の形状を示す図である。 手の形状を示す図である。 手の形状を示す図である。 手の形状を示す図である。 手の形状の検出方法(その1)を示す図である。 手の形状の検出方法(その2)を示す図である。 手の形状の検出方法(その3)を示す図である。 手の形状の検出方法(その4)を示す図である。 実施の形態に係るシステムの第5の構成例である。 第5の構成例の処理装置の構成図である。 第5の構成例のシステムのフラグ管理処理のフローチャートである。 補助IDの処理の詳細なフローチャートである。 第5の構成例の処理装置のフラグ制御処理のフローチャートである。 フラグの受信処理の詳細なフローチャートである。 補助IDの受信処理の詳細なフローチャートである。 実施の形態に係るシステムの第6の構成例である。 第6の構成例の処理装置のフラグ制御処理のフローチャートである。 形状の判定処理の詳細なフローチャートである。 手首の向きを示す図である。 手首の向きを示す図である。 手首の向きを示す図である。 手首の向きを示す図である。 背屈状態および掌屈状態に応じた処理を示す図である。 掌屈状態における手の形状と背屈状態におけるジェスチャに応じた処理を示す図である。 掌屈状態における手の形状の検出方法を示す図である。 背屈状態と掌屈状態を用いるシステムのフラグ管理処理のフローチャートである。 背屈の処理の詳細なフローチャートである。 掌屈の処理の詳細なフローチャートである。 背屈状態と掌屈状態を用いるシステムのフラグ制御処理のフローチャートである。 背屈状態および底屈状態に応じた処理を示す図である。 背屈状態および巻き込み状態に応じた処理を示す図である。 情報処理装置(コンピュータ)の構成図である。
以下、図面を参照しながら実施の形態について説明する。
図1は、実施の形態に係るシステムの構成図である。
システム101は、身体状態観測装置201、センサ情報取得装置301、フラグ管理装置401、および処理装置501を備える。
身体状態観測装置201は、ユーザ(操作者)の身体の所定の部位を観測し、身体状態情報をセンサ情報取得装置301および処理装置501に送信する。身体状態情報は、例えば、身体の所定の部位の状態(形状)を示す情報である。
身体状態観測装置201は、センサ情報取得装置301および処理装置501と有線または無線で接続し、通信可能となっている。
身体状態観測装置201は、例えば、プッシュスイッチ、カメラ、温度センサ、または測距センサなどである。
身体状態観測装置201は、例えば、手首、足首、または頭部を観測し、それらの形状や状態を示す身体状態情報を送信する。また、身体状態観測装置201は、所定の部位の姿勢または所定の部位に加えられる外力を計測し、所定の部位の姿勢または所定の部位に加えられる外力を示す他の身体状態情報を送信する。また、身体状態観測装置201は、手または足を観測し、手の形状または足指の形状を示す形状情報を送信する。
センサ情報取得装置301は、身体状態観測装置201から身体状態情報を取得し、該情報をフラグ管理装置401に送信する。センサ情報取得装置301は、身体状態観測装置201から他の身体状態情報を取得し、該情報をフラグ管理装置401に送信する。センサ情報取得装置301は、身体状態観測装置201およびフラグ管理装置401と有線または無線で接続し、通信可能となっている。
フラグ管理装置401は、フラグ判定部411およびフラグ通知部421を備える。
フラグ管理装置401は、センサ情報取得装置301および処理装置501と有線または無線で接続し、通信可能となっている。
フラグ判定部411は、センサ情報取得装置301から身体状態情報および他の身体状態情報を受信し、これら情報に基づいて、ユーザが所定の身体状態であるか否か判定する。フラグ判定部411は、判定結果に基づいてフラグの状態を設定し、フラグをフラグ通知部421に送信する。また、フラグ判定部411は、形状情報から手の形状を判定し、補助IDを設定し、補助IDをフラグ通知部421に送信する。
フラグは、処理装置501において、所定の処理を実施するか否かの判断に用いられる制御情報である。
フラグ通知部421は、フラグ判定部411から判定結果を受信し、該判定結果に基づいて、処理装置501にフラグを通知する。フラグ通知部421は、フラグ判定部411から補助IDを受信し、処理装置501に補助IDを通知する。
処理装置501は、フラグ通知部421からフラグを受信し、該フラグに基づいて、所定の処理を実施する。また、処理装置501は、身体状態観測装置201から身体状態情報を受信し、身体状態情報、補助ID、およびフラグに基づいて、所定の処理を実施する。
処理装置501は、身体状態観測装置201およびフラグ管理装置401と有線または無線で接続し、通信可能となっている。
処理装置501は、例えば、ジェスチャ認識装置または表示装置である。また、処理装置501は、例えば、パーソナルコンピュータ(PC),スマートフォン、ヘッドマウントディスプレイ(HMD)、腕時計型デバイス、家電装置、照明装置、ゲーム機などである。
尚、処理装置501の数は、1つに限られず任意の数でよい。
また、身体状態観測装置201、センサ情報取得装置301、フラグ管理装置401、および処理装置501は、それぞれ物理的に異なる装置であってもよいし、これら装置を含む一体型の装置であってもよい。
以下、複数のシステムの構成例について説明する。
図2は、実施の形態に係るシステムの第1の構成例である。
システム1101は、手首装着型デバイス1601および処理装置1501を備える。
手首装着型デバイス1601は、背屈検出スイッチ1201およびマイクロプロセッサ1602を備える。手首装着型デバイス1601は、手首に装着して使用される装置である。
背屈検出スイッチ1201は、手首の背屈を検出するスイッチである。背屈検出スイッチ1201は、手首が背屈しているか否かを示す信号(身体状態情報)をマイクロプロセッサ1602に出力する。背屈検出スイッチ1201は、図1の身体状態観測装置201に対応する。
マイクロプロセッサ1602は、スイッチ変化取得部1301、フラグ判定部1411、およびフラグ通知部1421を備える。
スイッチ変化取得部1301は、背屈検出スイッチ1201から身体状態情報を受信し、該情報をフラグ判定部1411に送信する。スイッチ変化取得部1301は、図1のセンサ情報取得装置301に対応する。
フラグ判定部1411およびフラグ通知部1421は、図1のフラグ判定部411およびフラグ通知部421に対応し、同様の機能を有するので説明は省略する。
処理装置1501は、図1の処理装置501に対応し、同様の機能を有するので説明は省略する。
システムの第1の構成例では、背屈検出スイッチ(身体状態観測装置)、スイッチ変化取得部(センサ情報取得装置)、フラグ判定部並びにフラグ通知部(フラグ管理装置)が同一の装置(手首装着型デバイス)に含まれている。
図3は、実施の形態に係るシステムの第2の構成例である。
システム2101は、手首装着型デバイス2601、PC2602、および処理装置2501を備える。
手首装着型デバイス2601は、背屈検出スイッチ2201を備える。手首装着型デバイス2601は、手首に装着して使用される装置である。
背屈検出スイッチ2201は、手首の背屈を検出するスイッチである。背屈検出スイッチ2201は、手首が背屈しているか否かを示す信号(身体状態情報)をPC2602に出力する。背屈検出スイッチ2201は、図1の身体状態観測装置201に対応する。
PC2602は、スイッチ変化取得部2301、フラグ判定部2411、およびフラグ通知部2421を備える。
スイッチ変化取得部2301は、背屈検出スイッチ2201から身体状態情報を受信し、該情報をフラグ判定部2411に送信する。スイッチ変化取得部2301は、図1のセンサ情報取得装置301に対応する。
フラグ判定部2411およびフラグ通知部2421は、図1のフラグ判定部411およびフラグ通知部421に対応し、同様の機能を有するので説明は省略する。
処理装置2501は、図1の処理装置501に対応し、同様の機能を有するので説明は省略する。
システムの第2の構成例では、スイッチ変化取得部(センサ情報取得装置)、フラグ判定部並びにフラグ通知部(フラグ管理装置)が同一の装置(手首装着型デバイス)に含まれている。
図4は、実施の形態に係るシステムの第3の構成例である。
システム3101は、手首装着型デバイス3601、スマートフォン3401、および処理装置3501を備える。
手首装着型デバイス3601は、背屈検出スイッチ3201およびマイクロプロセッサ3602を備える。手首装着型デバイス3601は、手首に装着して使用される装置である。
背屈検出スイッチ3201は、手首の背屈を検出するスイッチである。背屈検出スイッチ3201は、手首が背屈しているか否かを示す信号(身体状態情報)をマイクロプロセッサ3602に出力する。背屈検出スイッチ3201は、図1の身体状態観測装置201に対応する。
マイクロプロセッサ3602は、スイッチ変化取得部3301を備える。
スイッチ変化取得部3301は、背屈検出スイッチ3201から身体状態情報を受信し、該情報をスマートフォン3401に送信する。スイッチ変化取得部3301は、図1のセンサ情報取得装置301に対応する。
スマートフォン3401は、フラグ判定部3411およびフラグ通知部3421を備える。スマートフォン3401は、図1のフラグ管理装置401に対応する。
フラグ判定部3411およびフラグ通知部3421は、図1のフラグ判定部411およびフラグ通知部421に対応し、同様の機能を有するので説明は省略する。
処理装置3501は、図1の処理装置501に対応し、同様の機能を有するので説明は省略する。
システムの第3の構成例では、背屈検出スイッチ(身体状態観測装置)およびスイッチ変化取得部(センサ情報取得装置)が同一の装置(手首装着型デバイス)に含まれている。
図5は、実施の形態に係るシステムの第4の構成例である。
システム4101は、カメラ4201、画像取得用PC4301、フラグ管理用PC4401、および処理装置4501を備える。
カメラ4201は、手の画像、詳細には手首の背屈を撮影する撮像装置である。カメラ4201は、撮影した画像(身体状態情報)を画像取得用PC4301に送信する。カメラ4201は、図1の身体状態観測装置201に対応する。
画像取得用PC4301は、カメラ4201から身体状態情報を受信し、フラグ管理用PC4401に送信する。画像取得用PC4301は、図1のセンサ情報取得装置301に対応する。また、画像取得用PC4301は、フラグ管理用PC4401とネットワーク(例えば、Wide Area Network(WAN)またはLocal Area Network(LAN))を介して接続している。
フラグ管理用PC4401は、フラグ判定部4411およびフラグ通知部4421を備える。フラグ管理用PC4401は、図1のフラグ管理装置401に対応する。
フラグ判定部4411およびフラグ通知部4421は、図1のフラグ判定部411およびフラグ通知部421に対応し、同様の機能を有するので説明は省略する。
処理装置4501は、図1の処理装置501に対応し、同様の機能を有するので説明は省略する。
システムの第4の構成例では、カメラ(身体状態観測装置)、画像取得用PC(センサ情報取得装置)、フラグ管理用PC(フラグ管理装置)、および処理装置がそれぞれ物理的に異なる装置となっている。
図6は、実施の形態に係るフラグ管理処理のフローチャートである。
ステップS601において、フラグ判定部411は、初期値として、変数j=0、フラグ=終了に設定する。
ステップS602において、フラグ管理処理を終了する場合、フラグ管理処理を終了し、フラグ管理処理を終了しない場合、制御はステップS603に進む。例えば、外部から処理終了の指示を受信した場合や、センサ情報取得装置301または処理装置501の電源がオフの場合にフラグ管理処理は終了する。
ステップS603において、フラグ判定部411は、センサ情報取得装置301から身体状態情報を受信する。
ステップS604において、フラグ判定部411は、身体状態情報に基づいて、ユーザが所定の身体状態であるか否か判定する。ユーザが所定の身体状態である場合、制御はステップS605に進み、ユーザが所定の身体状態でない場合、制御はステップS608に進む。フラグ判定部411は、例えば、ユーザの手首が背屈状態、ユーザの足首が底屈状態、またはユーザの唇が巻き込み状態の場合、所定の身体状態であると判断する。尚、背屈状態、底屈状態、および巻き込み状態の詳細については後述する。
ステップS605において、フラグ判定部411は、j=1であるか否か判定する。j=1の場合、制御はステップS606に進み、j=1でない場合、制御はステップS607に進む。
ステップS606において、フラグ判定部411は、フラグ=継続中に設定する。フラグ判定部411は、フラグをフラグ通知部421に送信する。
ステップS607において、フラグ判定部411は、フラグ=開始、j=1に設定する。フラグ判定部411は、フラグをフラグ通知部421に送信する。
ステップS608において、フラグ判定部411は、j=1であるか否か判定する。j=1の場合、制御はステップS609に進み、j=1でない場合、制御はステップS602に戻る。
ステップS609において、フラグ判定部411は、フラグ=終了、j=0に設定する。フラグ判定部411は、フラグをフラグ通知部に421に送信する。
ステップS610において、フラグ通知部421は、フラグを処理装置501に送信する。尚、フラグ通知部421は、フラグ=開始またはフラグ=終了の場合にのみ、フラグを送信するようにしてもよい。
図7は、実施の形態に係る処理装置の構成図である。
処理装置501は、フラグ受信部511、記憶部521、処理状態判定部531、処理実行部541、および状態変化通知部551を備える。
フラグ受信部511は、フラグ通知部421からフラグ522を受信し、記憶部521に格納する。
記憶部521は、データを格納する記憶装置である。記憶部521は、例えば、Random Access Memory(RAM)、磁気ディスク装置、または不揮発性メモリなどである。
記憶部521は、フラグ522を格納する。
処理状態判定部531は、フラグ522に基づいて処理状態を判定し、処理状態を処理実行部541および状態変化通知部551に通知する。処理状態判定部531は、例えば、フラグ=開始の場合に処理状態=開始と判定する。
処理実行部541は、通知された処理状態に基づいて、所定の処理を実行する。例えば、処理実行部541は、処理状態=開始の場合にジャスチャの認識や処理装置501が有する若しくは処理装置501と接続する表示装置(不図示)の画面の表示などの所定の処理を実行する。
処理状態=開始となるのは、フラグ=開始の場合であり、フラグ=開始となるのは、身体が所定の状態(ユーザの手首が背屈状態または掌屈状態、ユーザの足首が底屈状態、またはユーザの唇が巻き込み状態)の場合ある。したがって、身体が所定の状態である場合に処理状態=開始となる。よって、ユーザが身体を所定の状態(ユーザの手首が背屈状態または掌屈状態、ユーザの足首が底屈状態、またはユーザの唇が巻き込み状態)にするか否かで、所定の処理の実行を制御できる。
尚、所定の処理としては、下記(1)〜(5)のようなものがある。
(1)ハードウェアの制御
処理装置501の電源をオンまたはオフにする。無線(例えば、Bluetooth(登録商標)やWireless Fidelity(Wi-Fi))の接続を行う。
(2)情報の出力
画面に情報を表示する。音を出す。振動させる。印刷する。外部機器に有線/無線で情報を送信する。
(3)状態の変化
アイコンの透過度を変える。音量を変える。振動の強さを変える。形状を変える。情報を初期化する。座標の原点とする。操作対象を変える。タイマをスタート/停止させる。操作者を切り替える。
(4)情報の入力
Near field communication(NFC)タグ/バーコード/2次元コードの読取り。同一部位のジェスチャ認識。音声認識。手書き文字認識。タッチパネルやボタンの入力認識。個人認証。
(5)情報の更新
ニュース、位置情報、天気、または交通情報の更新。メールの受信。
状態変化通知部551は、処理状態の変化に応じてユーザに通知を行う。例えば、状態変化通知部551は、処理装置501を振動させたり、処理装置501が有する若しくは処理装置501と接続する表示装置(不図示)の画面を点滅させる等を行う。また、状態変化通知部551は、フラグを取得し、フラグの状態に基づいて、所定の処理を行ってもよい。
また、処理装置501は、例えば、手首が背屈状態であるか否か、すなわち処理状態=開始であるか否かに応じて下記のような処理を行ってもよい。
・背屈状態の場合のみ音声入力の認識期間とする。
・背屈状態の場合のみ手書き文字を認識する。
・背屈状態の場合のみRFIDタグを読取る。
・背屈状態の期間のみ音声や手書き、タグで命令を認識し、その後の身体動作で命令の実行や取り消しを選択する、何もせずに背屈を終了した場合は取り消しとする。
・背屈状態となってから一定時間の間のみHMDや腕時計型デバイスに情報を提示し、背屈状態で手首を振ると表示時間を延長する。
・背屈状態の場合のみHMDに表示される情報の透過度を下げ、手首を振る回数に応じて透過度を下げる(はっきりと見えるようになる)。
・背屈状態の場合のみ処理装置の電源をオンにする。
・図8に示すように、背屈状態の間に複数のNFCタグ591−1〜591−6をタッチすることにより検出した複数のNFCタグ591−1〜591−6を1つのグループとして設定する。
・背屈状態の間に検出したスイッチや二次元コード等を1つのグループとして設定する。
・背屈状態の場合のみ腕時計型デバイスのタッチパネルを操作可能とする。
次に、表示装置の複数の例を示す。
上述のように、表示装置は、処理装置501に設けられていても良いし、処理装置501と有線または無線により接続しても良い。表示装置は、例えば、液晶ディスプレイ、電子ペーパー、またはLight Emitting Diode(LED)などである。表示装置は、平面形状でも良いし曲面形状でも良い。表示装置には、ユーザの状態、例えば、背屈状態であるか否かなどの情報が表示される。
図9A〜9Gは、実施の形態に係る表示装置を示す図ある。
図9Aにおいて、表示装置561−1は、ベルト562−1によって、手首の内側に取り付けられている。
図9Bにおいて、表示装置561−2は、ベルト562−2によって、手首の外側に取り付けられている。
図9Cにおいて、表示装置561−3は、腕輪型であり手首に取り付けられている。腕輪型の表示装置561−3において、情報を表示する表示部分は表示装置561−3の全周に設けられていても良いし、一部分に設けられていても良い。
図9Dにおいて、表示装置561−4は、グローブ563−4の手の平側に設けられている。
図9Eにおいて、表示装置561−5は、グローブ563−4の手の甲側に設けられている。
図9Fにおいて、表示装置561−6は、靴564−6の甲に設けられている。尚、靴564−6は、処理装置501に対応する。
図9Gにおいて、表示装置561−7は、靴下565−7の足首部分に設けられている。尚、靴下565−7は、処理装置501に対応する。
表示装置561は、図9A〜9Eに示すように、手または手首に設けられるだけでなく、図9F、9Gに示すように、足に設けられていても良い。
次に、処理装置の2つの構成例について説明する。
図8は、実施の形態に係る処理装置の第1の構成例である。
図8は、処理装置がジェスチャを認識する装置である場合の構成を示す。
処理装置1501は、フラグ受信部1511、記憶部1521、ジェスチャ認識状態判定部1531、ジェスチャ認識処理部1541、および状態変化通知部1551を備える。
フラグ受信部1511は、フラグ通知部421からフラグ1522を受信し、記憶部1521に格納する。フラグ受信部1511は、図7のフラグ受信部511に対応する。
記憶部1521は、データを格納する記憶装置である。記憶部1521は、例えば、Random Access Memory(RAM)、磁気ディスク装置、または不揮発性メモリなどである。
記憶部1521は、フラグ1522を格納する。記憶部1521は、図7の記憶部521に対応する。
ジェスチャ認識状態判定部1531は、フラグ1522に基づいて、処理状態が「開始」または「終了」であるか判定し、判定した処理状態をジェスチャ認識処理部1541および状態変化通知部1551に通知する。
ジェスチャ認識状態判定部1531は、図7の処理状態判定部531に対応する。
ジェスチャ認識処理部1541は、通知された処理状態に基づいて、ジャスチャの認識を行う。ジェスチャ認識処理部1541には、身体状態観測装置201または他の装置(不図示)から、身体の所定の部位の形状、状態、および/または動きを示す情報(ジェスチャ)が入力される。尚、身体状態観測装置201から送信される身体状態情報をジェスチャとして使用してもよい。
例えば、ジェスチャ認識処理部1541は、処理状態=開始の場合、入力されたジェスチャの認識を行い、認識結果に応じた処理を行う。また、処理状態=終了の場合、入力されたジェスチャの認識を行わない。
また、ジェスチャ認識処理部1541に入力されるジェスチャは、フラグ管理装置401において、フラグの制御に用いられる部位を含む体の部位であることが望ましい。
例えば、フラグ管理装置401において、右手首の背屈状態に基づいてフラグを制御している場合、該右手首を含む右手のジェスチャがジェスチャ認識処理部1541に入力される。そして、ジェスチャ認識処理部1541は、右手のジェスチャの認識を行い、認識結果に応じた処理を行う。
また、例えば、フラグ管理装置401において、右足首の底屈状態に基づいてフラグを制御している場合、該右足首を含む右足のジェスチャがジェスチャ認識処理部1541に入力される。そして、ジェスチャ認識処理部1541は、右足のジェスチャの認識を行い、認識結果に応じた処理を行う。
また、例えば、フラグ管理装置401において、唇の巻き込み状態に基づいてフラグを制御している場合、該唇を含む頭部のジェスチャがジェスチャ認識処理部1541に入力される。そして、ジェスチャ認識処理部1541は、頭部のジェスチャの認識を行い、認識結果に応じた処理を行う。
上述のように、ジェスチャ認識処理部は、フラグの制御に用いられる部位を含む体の部位のジェスチャに基づいて、ジェスチャに応じた処理を行うことが望ましい。
このように、フラグの制御に用いられる部位がジェスチャによる制御に用いられる部位に含まれていると、操作が容易になりユーザの負担が少なくなる。
ジェスチャ認識処理部1541は、図7の処理実行部541に対応する。
状態変化通知部1551は、図7の状態変化通知部551に対応し、同様の機能を有するので説明は省略する。
図9は、第1の構成例の処理装置のフラグ制御処理のフローチャートである。
ステップS1601において、ジェスチャ認識状態判定部1531は、初期状態として、処理状態=終了に設定する。
ステップS1602において、フラグ制御処理を終了する場合、フラグ制御処理を終了し、フラグ制御処理を終了しない場合、制御はステップS1603に進む。例えば、外部から処理終了の指示を受信した場合や、フラグ管理装置401の電源がオフの場合にフラグ制御処理は終了する。
ステップS1603において、フラグ受信部1511は、フラグ通知部421からフラグ1522を受信し、記憶部1521に格納する。
ステップS1604において、ジェスチャ認識状態判定部1531は、フラグの状態を判定する。フラグ=開始の場合、制御はステップS1605に進み、フラグ≠開始の場合、制御はステップS1608に進む。
ステップS1605において、ジェスチャ認識状態判定部1531は、処理状態=開始に設定する。ジェスチャ認識状態判定部1531は、処理状態をジェスチャ認識処理部1541および状態変化通知部1551に通知する。
ステップS1606において、ジェスチャ認識処理部1541は、ジェスチャ認識処理を開始する。ジェスチャ認識処理部1541は、処理状態=終了となるまで、ジェスチャを認識可能な状態となる。
ステップS1607において、状態変化通知部1551は、ジェスチャの認識が可能であることをユーザに通知する。例えば、状態変化通知部1551は、処理装置1501を振動させたり、処理装置1501が有する若しくは処理装置1501と接続する表示装置(不図示)の画面を点滅させる等を行う。
ステップS1608において、ジェスチャ認識状態判定部1531は、フラグの状態を判定する。フラグ=終了の場合、制御はステップS1609に進み、フラグ≠終了の場合、制御はステップS1611に進む。
ステップS1609において、ジェスチャ認識状態判定部1531は、処理状態=終了に設定する。ジェスチャ認識状態判定部1531は、処理状態をジェスチャ認識処理部1541に通知する。また、ジェスチャ認識状態判定部1531は、処理状態をさらに状態変化通知部1551に通知してもよい。通知を受信した状態変化通知部1551は、ジェスチャの認識が出来ない旨をユーザに通知する。
ステップS1610において、ジェスチャ認識処理部1541は、ジェスチャ認識処理を終了する。
ステップS1611において、処理状態=開始の場合、制御はステップS1612に進み、処理状態≠開始の場合、制御はステップS1602に戻る。
ステップS1612において、ジェスチャ認識処理部1541は、ジェスチャ認識処理を行う。すなわち、ジェスチャ認識処理部1541は、入力されたジェスチャの認識を行い、認識結果に応じた処理を行う。
上記のように処理状態=開始となるのは、フラグ=開始の場合であり、フラグ=開始となるのは、身体が所定の状態(ユーザの手首が背屈状態または掌屈状態、ユーザの足首が底屈状態、またはユーザの唇が巻き込み状態)の場合ある。したがって、身体が所定の状態である場合に処理状態=開始となる。よって、ユーザが身体を所定の状態(ユーザの手首が背屈状態または掌屈状態、ユーザの足首が底屈状態、またはユーザの唇が巻き込み状態)にするか否かで、ジェスチャ認識処理の開始と終了を制御できる。
図9では、処理状態=開始の場合、すなわちユーザが身体を所定の状態(ユーザの手首が背屈状態または掌屈状態、ユーザの足首が底屈状態、またはユーザの唇が巻き込み状態)にしている場合にのみ、ジェスチャ認識処理を行っている。このように、身体が所定の状態のときのみジェスチャ認識処理を行うことで、意図しないジェスチャの認識を防ぎ、誤動作を防止できる。
図10は、実施の形態に係る処理装置の第2の構成例である。
図10は、処理装置がフラグの状態に応じた表示制御を行う装置である場合の構成を示す。
処理装置2501は、フラグ受信部2511、記憶部2521、タイマ制御部2551、画面制御部2552、およびタイマ2553を備える。
フラグ受信部2511は、フラグ通知部421からフラグ2522を受信し、記憶部2521に格納する。フラグ受信部2511は、図7のフラグ受信部511に対応する。
記憶部2521は、データを格納する記憶装置である。記憶部2521は、例えば、Random Access Memory(RAM)、磁気ディスク装置、または不揮発性メモリなどである。
記憶部2521は、フラグ2522を格納する。記憶部2521は、図7の記憶部521に対応する。
タイマ制御部2551は、タイマ2553の制御を行う。
画面制御部2552は、処理装置2501が有する若しくは処理装置2501と接続する表示装置(不図示)の表示の制御を行う。
タイマ2553は、タイマが開始されてからの経過時間をカウントする。
タイマ制御部2551、画面制御部2552、およびタイマ2553は、それぞれ図7の処理状態判定部531、処理実行部541、および状態変化通知部551に対応する。
図11は、第2の構成例の処理装置のフラグ制御処理のフローチャートである。
図11の処理では、フラグが開始となってから終了となり、フラグが終了となってから所定の時間経過するまで画面表示をオンにしている。
ステップS2601において、タイマ制御部2551は、初期状態として、処理状態=終了に設定する。
ステップS2602において、フラグ制御処理を終了する場合、フラグ制御処理を終了し、フラグ制御処理を終了しない場合、制御はステップS2603に進む。例えば、外部から処理終了の指示を受信した場合や、フラグ管理装置401の電源がオフの場合にフラグ制御処理は終了する。
ステップS2603において、フラグ受信部2511は、フラグ通知部421からフラグ2522を受信し、記憶部2521に格納する。
ステップS2604において、タイマ制御部2551は、フラグの状態を判定する。フラグ=開始の場合、制御はステップS2605に進み、フラグ≠開始の場合、制御はステップS2606に進む。
ステップS2605において、画面制御部2552は、表示装置(不図示)の画面表示をオンにする。
ステップS2606において、タイマ制御部2551は、フラグの状態を判定する。フラグ=終了の場合、制御はステップS2607に進み、フラグ≠終了の場合、制御はステップS2608に進む。
ステップS2607において、タイマ制御部2551は、タイマ2553を開始させる。
ステップS2608において、タイマ制御部2551は、タイマ2553が開始してから所定の時間経過したか否か判定する。タイマ2553が開始してから所定の時間経過した場合、制御はステップS2609に進み、タイマ2553が開始してから所定の時間経過していない場合、制御はステップS2602に戻る。
ステップS2609において、画面制御部2552は、表示装置(不図示)の画面表示をオフにする。
ステップS2610において、タイマ制御部2551は、タイマ2553を初期化する。
実施の形態では、身体状態観測装置201は、手首の状態、足首の状態、または唇の状態を観測し、身体状態情報をフラグ判定部411に送信し、フラグ判定部411は、身体状態情報に基づいて、フラグを判定している。
すなわち、フラグ判定部411は、フラグの判定を手首の状態、足首の状態、または唇の状態に基づいて行っている。
よって、ユーザは、手首の状態、足首の状態、または唇の状態を変化させることでフラグの状態を変化させることが出来る。
以下、フラグの判定を手首の状態、足首の状態、および唇の状態を用いて行う場合のそれぞれの例について説明する。
(1−1)手首の状態(背屈状態)を用いる場合
手首の状態をフラグの判定に用いる場合、第1の方法として、手首が背屈状態であるか否かに応じて、フラグを判定する。
実施の形態において、背屈状態とは、手首を背屈させたときに背屈角が閾値以上である場合をいう。背屈とは、手首を手の甲側に曲げる動きのことを指す。尚、閾値は予め定められた適当な値を用いる。また、閾値は、ユーザごとに手首の柔軟性に応じた値を用いてもよい。
図12は、手首の背屈角を示す図である。
背屈角は、手首をまっすぐに伸ばしたときの手の甲を基準とし、手首をまっすぐに伸ばしたときの手の甲と手首を背屈させたときの手の甲のなす角である。すなわち、手首をまっすぐに伸ばしたときの背屈角は0度となる。
図13は、脱力時と随意可動時の手首の状態を示す図である。
図13の左側は、脱力時の手首の状態を示し、右側は意図的に手首を限界まで背屈(随意可動)させた状態を示す。
脱力時の背屈角をα1、随意可動時の背屈角をα2とすると、α2の方がα1より大きくなる。
図14は、脱力時と随意可動時の背屈角のデータを示す図である。
図15は、脱力時と随意可動時の背屈角の平均値のグラフである。
図16は、脱力時と随意可動時の背屈角の差の平均値のグラフである。
図14には、7人の被験者A〜Gの脱力時の背屈角、随意可動時の背屈角、および随意可動時の背屈角と脱力時の背屈角の角度差を示す。さらに図14には、脱力時の背屈角、随意可動時の背屈角、および角度差のそれぞれの最大値、最小値、および平均値を示す。
脱力時の背屈角の平均と随意可動時の背屈角の平均をグラフにすると図15に示すようになる。
また、角度差の平均をグラフにすると図16に示すようになる。
図14のデータに示されるように、脱力時の背屈角の平均は43.1度、随意可動時の背屈角の平均は64.1度、角度差の平均は21.0度である。
このように、脱力時の背屈角と随意可動時の背屈角の間には大きなギャップがあるため、背屈角が大きい場合には、ユーザが意図的に手首を背屈させていると判断できる。
手首は、意図的に背屈させない限り背屈状態にはならない。そのため、疲れて腕を下ろしたり、かゆみを感じて体と掻くなどの通常の動作時に背屈状態になることはないため、意図しないフラグの制御、すなわち意図しない処理が実行されることを防ぐことが出来る。
また、手首が背屈状態であっても、腕の動きは自由なため、腕の動きを利用したジェスチャ操作を行う場合に制限が少なくなる。また、背屈によるフラグの制御では、手首以外の身体の可動範囲や自由度が制限されないというメリットがある。
また、手首の背屈をフラグの制御に用いることで、指を使用しないため、物を持ったままフラグの制御を行うことが出来る。
次に、手首の背屈状態の検出方法について複数の例を説明する。
図17は、手首の背屈状態の検出方法(その1)を示す図である。
図17では、カメラ5201−1を用いて背屈状態を検出する。カメラ5201−1は、図1の身体状態観測装置201に対応する。
カメラ5201−1は、手を撮影し、撮影した画像をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、撮影した画像の肌色部分のみを抜き出し、エッジ抽出処理により、腕に沿う直線と手の甲に沿う直線を抽出する。そして、フラグ判定部411は、腕に沿う直線と手の甲に沿う直線のなす角度(背屈角)が閾値以上である場合に、所定の身体状態(すなわち、背屈状態)であると判定する。
図18は、手首の背屈状態の検出方法(その2)を示す図である。
図18では、サーモグラフィー5201−2を用いて背屈状態を検出する。サーモグラフィー5201−2は、図1の身体状態観測装置201に対応する。
サーモグラフィー5201−2は、手首を撮影し、撮影した画像をセンサ情報取得装置301を介してフラグ判定部411に出力する。
手は体温により周囲より温度が高いため、撮影した画像の温度分布により手の形状の判別が可能である。
フラグ判定部411は、撮影した画像の温度の高い部分のみを抜き出し、エッジ抽出処理により、腕に沿う直線と手の甲に沿う直線を抽出する。そして、フラグ判定部411は、腕に沿う直線と手の甲に沿う直線のなす角度(背屈角)が閾値以上である場合に、所定の身体状態(すなわち、背屈状態)であると判定する。
上述のカメラ5201−1およびサーモグラフィー5201−2は、ユーザの近くに設置される据え置き型の装置である。尚、カメラ5201−1およびサーモグラフィー5201−2は、ユーザの頭部や胸部に取り付けて使用する装着型の装置でもよい。
次に、ユーザの手首に装着する手首装着型デバイスを用いて背屈状態を検出する例について述べる。
図19は、手首の背屈状態の検出方法(その3)を示す図である。
図19では、プッシュスイッチ5201−3を用いて背屈状態を検出する。プッシュスイッチ5201−3は、手首に装着して用いる手首装着型デバイス5202−3に搭載される。プッシュスイッチ5201−3および手首装着型デバイス5202−3は、図1の身体状態観測装置201に対応する。
プッシュスイッチ5201−3は、手首の外側に取り付けられ、プッシュスイッチ5201−3のボタンは、指先方向に向けられている。
図19の左側は脱力時、右側は背屈時の手首を示す。
図19の左側に示すように、手首が脱力状態の場合、プッシュスイッチ5201−3のボタンは押下されておらず、プッシュスイッチ5201−3の状態はオフである。
図19の右側に示すように、手首を背屈させ、背屈角が閾値以上となると、手の甲によりプッシュスイッチ5201−3のボタンが押下され、プッシュスイッチ5201−3の状態はオンとなる。
手首装着型デバイス5202−3は、プッシュスイッチ5201−3の状態をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、プッシュスイッチ5201−3の状態がオンの場合、所定の身体状態(すなわち、背屈状態)であると判定する。
図20は、手首の背屈状態の検出方法(その4)を示す図である。
図20では、近接センサ5201−4を用いて背屈状態を検出する。近接センサ5201−4は、手首に装着して用いる手首装着型デバイス5202−4に搭載される。近接センサ5201−4および手首装着型デバイス5202−4は、図1の身体状態観測装置201に対応する。
近接センサ5201−4は、手首の外側に取り付けられ、検出領域は指先方向のやや上方且つ近接センサ5201−4から指の付け根までの距離に設定されている。近接センサ5201−4は、検出領域内の物体の有無を検出する。
図20の左側は脱力時、右側は背屈時の手首を示す。
図20の左側に示すように、手首が脱力状態の場合、近接センサ5201−4は手の甲を検出せず、検出信号はオフである。
図20の右側に示すように、手首を背屈させ、背屈角が閾値以上となると、近接センサ5201−4は手の甲を検出し、検出信号はオンとなる。
手首装着型デバイス5202−4は、近接センサ5201−4の検出信号をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、検出信号がオンの場合、所定の身体状態(すなわち、背屈状態)であると判定する。
図21は、手首の背屈状態の検出方法(その5)を示す図である。
図21では、測距センサ5201−5を用いて背屈状態を検出する。測距センサ5201−5は、手首に装着して用いる手首装着型デバイス5202−5に搭載される。測距センサ5201−5および手首装着型デバイス5202−5は、図1の身体状態観測装置201に対応する。
測距センサ5201−5は、手首の外側に取り付けられ、測定方向は指先方向のやや上方に設定されている。測距センサ5201−5は、測定方向にある物体との距離を測定する。
図21の左側は脱力時、右側は背屈時の手首を示す。
図21の左側に示すように、手首が脱力状態の場合、測距センサ5201−5は、手の甲を検出せず、距離は測定されない。
図21の右側に示すように、手首を背屈させ、背屈角が閾値以上となると、測距センサ5201−5は、手の甲を検出し、測距センサ5201−5から手の甲までの距離を測定する。
手首装着型デバイス5202−5は、測定された距離をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、測定された距離が閾値以下の場合、所定の身体状態(すなわち、背屈状態)であると判定する。
図22は、手首の背屈状態の検出方法(その6)を示す図である。
図22では、温度センサ5201−6を用いて背屈状態を検出する。温度センサ5201−6は、手首に装着して用いる手首装着型デバイス5202−6に搭載される。温度センサ5201−6および手首装着型デバイス5202−6は、図1の身体状態観測装置201に対応する。
温度センサ5201−6は、手首の外側に取り付けられ、測定領域は指先方向のやや上方に設定されている。温度センサ5201−6は、測定領域にある物体の温度を測定する。
図22の左側は脱力時、右側は背屈時の手首を示す。
図22の左側に示すように、手首が脱力状態の場合、測定領域に手の甲は存在せず、測定領域の温度データは、手の周辺の空間の温度が計測されている。
図22の右側に示すように、手首を背屈させ、背屈角が閾値以上となると、測定領域に手の甲が含まれ、測定領域の温度データには、手の甲の温度が含まれる。背屈角が大きくなるほど、測定領域に含まれる手の甲の領域は増加する。
手首装着型デバイス5202−6は、測定領域の温度データをセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、温度データにおいて閾値を超える温度となっている領域の割合が基準値を越えている場合、所定の身体状態(すなわち、背屈状態)であると判定する。尚、手の甲の温度は手の周辺の温度より高く、閾値は手の甲の温度より低く且つ周囲の温度より高い値である。
図23は、手首の背屈状態の検出方法(その7)を示す図である。
図23では、曲げセンサ5201−7を用いて背屈状態を検出する。曲げセンサ5201−7は、手首に装着して用いる手首装着型デバイス5202−7に搭載される。曲げセンサ5201−7および手首装着型デバイス5202−7は、図1の身体状態観測装置201に対応する。
曲げセンサ5201−7は、手首の外側に取り付けられ、手首の背屈に応じて屈曲する。曲げセンサ5201−7は、屈曲に応じて抵抗値が変化する。
図23の左側は脱力時、右側は背屈時の手首を示す。
図23の左側に示すように、手首が脱力状態の場合、曲げセンサ5201−7の屈曲は小さい。
図23の右側に示すように、手首を背屈させるに従い、曲げセンサ5201−7の屈曲は大きくなり、抵抗値も変化する。
手首装着型デバイス5202−7は、曲げセンサ5201−7の抵抗値をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、抵抗値が所定の範囲内である場合、所定の身体状態(すなわち、背屈状態)であると判定する。尚、上記所定の範囲の値、すなわち背屈状態であると判定する基準値は、予め設定されている。
図24は、手首の背屈状態の検出方法(その8)を示す図である。
図24では、角度センサ5201−8を用いて背屈状態を検出する。角度センサ5201−8は、手首に装着して用いる手首装着型デバイス5202−8に搭載される。角度センサ5201−8および手首装着型デバイス5202−7は、図1の身体状態観測装置201に対応する。
角度センサ5201−8は、手首の外側に取り付けられ、角度の測定に用いられる測定板が手の甲に沿って設置される。角度センサ5201−8の測定板は、手首の背屈に応じて手首を中心にして回転する。
角度センサ5201−8は、測定板の回転角度を回転センサで測定する。
図24の左側は脱力時、右側は背屈時の手首を示す。
図24の左側に示すように、手首が脱力状態の場合、測定板の回転角度は小さい。
図24の右側に示すように、手首を背屈させるに従い、測定板の回転角度は大きくなる。
手首装着型デバイス5202−7は、測定板の回転角度をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、回転角度が閾値より大きい場合、所定の身体状態(すなわち、背屈状態)であると判定する。尚、上記閾値は、予め設定されている。
図25は、手首の背屈状態の検出方法(その9)を示す図である。
図25では、計測装置5201−9を用いて背屈状態を検出する。計測装置5201−9は、手首に装着して用いる手首装着型デバイス5202−9に搭載される。計測装置5201−9は、リング5203−9を備え、リング5203−9は手首を囲むように取り付けられる。計測装置5201−9、手首装着型デバイス5202−9、およびリング5203−9は、図1の身体状態観測装置201に対応する。
計測装置5201−9は、リング5203−9から手首までの距離を計測する。または、計測装置5201−9は、リング5203−9の抵抗値を計測する。
図25の左側は脱力時、右側は背屈時の手首を示す。また、図25の下側は、手首の断面図を示す。
図25の右側に示すように、手首を背屈させると、手首の断面の形状は変化する。
手首装着型デバイス5202−9は、距離または抵抗値をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、距離または抵抗値に基づいて、所定の身体状態(すなわち、背屈状態)であるか否か判定する。尚、所定の身体状態(すなわち、背屈状態)であると判定される距離または抵抗値の範囲は、予め設定されている。
図26は、手首の背屈状態の検出方法(その10)を示す図である。
図26では、計測用マイク5201−10およびスピーカ5202−10を用いて背屈状態を検出する。計測用マイク5201−10およびスピーカ5202−10は、手首に装着して用いる手首装着型デバイス5203−10に搭載される。
スピーカ5202−10は音を出力し、計測用マイク5201−10は、手首を通して伝わった音を計測する。
または、計測用マイク5201−10は、体導音(≠スピーカ音)をマイクで計測する。
図26の左側は脱力時、右側は背屈時の手首を示す。また、図26に下側には、体導音のグラフを示す。
手首装着型デバイス5203−10は、計測した音のデータをセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、計測した音のデータに基づいて、所定の身体状態(すなわち、背屈状態)であるか否か判定する。
手首を背屈させると、手首の形状が変化するため、スピーカから手首を通して伝わる音も変化する。フラグ判定部411は、手首を通して伝わった音の特長により背屈状態を判定する。
手首を背屈させると、背屈動作に応じた体導音が発生する。フラグ判定部411は、背屈動作時の体導音を検出し、背屈状態を判定する。
尚、体導音を用いて背屈状態の検出する場合は、スピーカ5202−10は不要である。
図27は、手首の背屈状態の検出方法(その11)を示す図である。
図27では、筋電位計測装置5201−11を用いて背屈状態を検出する。筋電位計測装置5201−11は、手首に装着して用いる手首装着型デバイス5202−11に搭載される。筋電位計測装置5201−11および手首装着型デバイス5202−11は、図1の身体状態観測装置201に対応する。
筋電位計測装置5201−11は、手首周辺の筋肉の筋電位を計測する。
図27の左側は脱力時、右側は背屈時の手首を示す。図27の下側には、筋電位のグラフを示す。該グラフは、脱力状態から手首を背屈させたときのグラフである。
グラフに示すように、脱力状態から手首を背屈させると、筋電位は変化する。
手首装着型デバイス5202−11は、計測した筋電位をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、筋電位の変化に基づいて、所定の身体状態(すなわち、背屈状態)であるか否か判定する。
図28は、手首の背屈状態の検出方法(その12)を示す図である。
図28では、加速度/角速度センサ5201−12を用いて背屈状態を検出する。加速度/角速度センサ5201−12は、手の甲に設置される。加速度/角速度センサ5201−12は、図1の身体状態観測装置201に対応する。
ここで、手の甲に対して垂直な方向をZ軸とする。
加速度/角速度センサ5201−12は、Z軸の加速度または角速度を測定する。
図28の左側は脱力時、真ん中は背屈時の手首を示す。図28の右側は、Z軸の加速度または角速度のグラフである。
グラフに示すように、脱力状態から手首を背屈させると、Z軸の加速度または角速度は変化する。
加速度/角速度センサ5201−12は、Z軸の加速度または角速度をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、Z軸の加速度または角速度の変化に基づいて、所定の身体状態(すなわち、背屈状態)であるか否か判定する。フラグ判定部411は、Z軸の加速度または角速度の波形が所定の波形を示した場合、所定の身体状態(すなわち、背屈状態)であると判定する。
図29は、手首の背屈状態の検出方法(その13)を示す図である。
図29では、傾斜センサ/地磁気センサ5201−13を用いて背屈状態を検出する。傾斜センサ/地磁気センサ5201−13は、手の甲に設置される。傾斜センサ/地磁気センサ5201−13は、図1の身体状態観測装置201に対応する。
ここで、手の甲に対して垂直な方向をZ軸とする。
傾斜センサ/地磁気センサ5201−13は、重力方向に対するZ軸の傾きまたは地磁気の方向に対するZ軸の傾きを測定する。
図29の左側は脱力時、真ん中は背屈時の手首を示す。図29の右側は、Z軸の傾きのグラフである。
グラフに示すように、脱力状態から手首を背屈させると、Z軸の傾きは変化する。
傾斜センサ/地磁気センサ5201−13は、Z軸の傾きをセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、Z軸の傾きの変化に基づいて、所定の身体状態(すなわち、背屈状態)であるか否か判定する。フラグ判定部411は、Z軸の傾きの波形が所定の波形を示した場合、所定の身体状態(すなわち、背屈状態)であると判定する。
図32は、手首の背屈状態の検出方法(その14)を示す図である。
図32では、プッシュスイッチ5201−14を用いて背屈状態を検出する。プッシュスイッチ5201−14は、手の甲に装着して用いる装着型デバイス5202−14に搭載される。装着型デバイス5202−14は、ベルト5203−14を手に巻きつけることにより、手の甲側に設置される。プッシュスイッチ5201−14、装着型デバイス5202−14、およびベルト5203−14は、図1の身体状態観測装置201に対応する。
プッシュスイッチ5201−14は、手の甲側に取り付けられ、プッシュスイッチ5201−14のボタンは、手首方向に向けられている。
図32の左側は脱力時、右側は背屈時の手首を示す。
図32の左側に示すように、手首が脱力状態の場合、プッシュスイッチ5201−14のボタンは押下されておらず、プッシュスイッチ5201−14の状態はオフである。
図32の右側に示すように、手首を背屈させ、背屈角が閾値以上となると、手首によりプッシュスイッチ5201−14のボタンが押下され、プッシュスイッチ5201−14の状態はオンとなる。
装着型デバイス5202−14は、プッシュスイッチ5201−14の状態をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、プッシュスイッチ5201−14の状態がオンの場合、所定の身体状態(すなわち、背屈状態)であると判定する。
図33は、手首の背屈状態の検出方法(その15)を示す図である。
図33は、センサ5201−15を用いて背屈状態を検出する。センサ5201−15は、グローブ5202−15の手の平側に取り付けられる。センサ5201−15およびグローブ5202−15は、図1の身体状態観測装置201に対応する。図33において、ユーザは、グローブ5202−15を手にはめている。
図33の下部は、手の平側から見たときのグローブ5202−15を示す。
図33の下部に示すように、センサ5201−15は、グローブ5202−15の手の平側に取り付けられている。
図33の上部の左側は脱力時、上部の右側は背屈時の手首を示す。
センサ5201−15は、加速度/角速度センサ、または傾斜センサ/地磁気センサである。
センサ5201−15が加速度/角速度センサである場合、背屈状態の検出方法は、図28で説明したのと同様である。
また、センサ5201−15が傾斜センサ/地磁気センサである場合、背屈状態の検出方法は、図31で説明したのと同様である。
図34Aは、手首の背屈状態の検出方法(その16)を示す図である。
図34Aでは、ケーブル5201−16を用いて背屈状態を検出する。ケーブル5201−16の一端は手首に取り付けられた腕輪5202−16、他端はグローブ5203−16の手の平部分に設けられた掌部5204−16にそれぞれ接続している。ユーザはグローブ5203−16を嵌めている。
ケーブル5201−16、腕輪5202−16、グローブ5203−16、および掌部5204−16は、図1の身体状態観測装置201に対応する。
図34Aの下部は、手の平側から見たときのグローブ5203−16を示す。
図34Aの下部に示すように、ケーブル5201−16の一端は腕輪5202−16の手の平側、他端は掌部5204−16にそれぞれ接続している。
図34Aの上部の左側は脱力時、上部の右側は背屈時の手首を示す。
図34Aの右側に示すように、手首を背屈させると、ケーブル5201−16が引っ張られる。
背屈状態の検出は下記に述べる掌部5204−16または腕輪5202−16が用られる。
図34Bは、掌部の構成図である。
図34Bは、掌部5204−16の内部の構成を示す。
掌部5204−16は、回転部5205−16を有する。ケーブル5201−16は、回転部5205−16と接続しており、回転部5205−16は、ケーブル5201−16が引っ張られるのに応じて、軸5206−16を中心として回転する。また、掌部5204−16には端子5207−16、回転部5205−16には端子5208−16がそれぞれ取り付けられている。回転部5205−16がケーブル5201−16が引っ張られるのに応じて回転すると、端子5208−16も回転して、端子5207−16と接触する。
掌部5204−16が有するマイコン(不図示)は、端子5207−16が端子5208−16と接触したことを検出し、検出信号をオンにする。掌部5204−16が有するマイコンは、検出信号をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、検出信号がオンの場合、所定の身体状態(すなわち、背屈状態)であると判定する。
尚、掌部5204−16が図34Bに示すような構造となっている場合には、ケーブル5201−16の一端は単に腕輪5202−16に固定されている。
図34Cは、腕輪の断面図である。
図34Cは、腕輪5202−16は、伸縮可能なゴム紐5209−16を有する。ゴム紐5209−16の一端は腕輪5202−16と接続し、他端はケーブル5201−16と接続している。腕輪5202−16には端子5210−16、ゴム紐5209−16には端子5211−16がそれぞれ取り付けられている。ケーブル5201−1に引っ張られるのに応じてゴム紐5209−16は伸び、端子5211−16はゴム紐5209−16が伸びるのに応じて移動して、端子5210−16と接触する。
腕輪5202−16が有するマイコン(不図示)は、端子52010−16が端子5211−16と接触したことを検出し、検出信号をオンにする。腕輪5202−16が有するマイコンは、検出信号をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、検出信号がオンの場合、所定の身体状態(すなわち、背屈状態)であると判定する。
尚、腕輪5202−16が図32Cに示すような構造となっている場合には、ケーブル5201−16の一端は単に掌部5204−16に固定されている。
図35は、手首の背屈状態の検出方法(その17)を示す図である。
図35では、スマートフォン5201−17に搭載されるセンサ5202−17を用いて背屈状態を検出する。スマートフォン5201−17は、グローブ5203−17に取り付けられ、ユーザはグローブ5203−17を嵌めている。スマートフォン5201−17およびグローブ5203−17は、図1の身体状態観測装置201に対応する。
図35の左側は脱力時、上部の右側は背屈時の手首を示す。
センサ5202−17は、照度センサまたは近接センサである。グローブ5203−17の手の甲の部分には突起5204−17が設けられている。
図33の右側に示すように、手首を背屈させると、突起5204−17がセンサ5202−17に近づき、突起5204−17がセンサ5202−17に覆いかぶさるようになる。
センサ5202−17が照度センサの場合、背屈角が閾値以上となると、突起5204−17がセンサ5202−17に覆いかぶさることにより、センサ5202−17が計測する照度が低下し、検出信号はオンとなる。
センサ5202−17が近接センサの場合、背屈角が閾値以上となると、突起5204−17がセンサ5202−17に近づくため、センサ5202−17は突起5204−17を検出し、検出信号はオンとなる。
スマートフォン5201−17は、検出信号をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、検出信号がオンの場合、所定の身体状態(すなわち、背屈状態)であると判定する。
図36は、手首の背屈状態の検出方法(その18)を示す図である。
図36では、スマートフォン5201−18に搭載されるセンサ5202−18とスマートフォン5201−18のカバー5203−18に設けられた検出スイッチ5204−18を用いて背屈状態を検出する。
センサを搭載するスマートフォン5201−18は、カバー5203−18に覆われている。カバー5203−18は、ベルト5205−18によって腕に固定されている。
スマートフォン5201−18、カバー5203−18、およびベルト5205−18は、図1の身体状態観測装置201に対応する。
センサ5202−18は、照度センサまたは近接センサである。
カバー5203−18には検出スイッチ5204−18が設けられており、手首を背屈すると、手の甲によって検出スイッチ5204−18が押される。
センサ5202−18が照度センサの場合、背屈角が閾値以上となると、検出スイッチ5204−18が押されてセンサ5202−18に近づく。それにより、センサ5202−17に入力される光が少なくなり、センサ5202−18が計測する照度が低下し、検出信号はオンとなる。
センサ5202−18が近接センサの場合、背屈角が閾値以上となると、検出スイッチ5204−18は押されてセンサ5202−18に近づき、センサ5202−18は検出スイッチ5204−18を検出し、検出信号はオンとなる。
スマートフォン5201−18は、検出信号をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、検出信号がオンの場合、所定の身体状態(すなわち、背屈状態)であると判定する。
(1−2)手首の状態(掌屈状態)を用いる場合
手首の状態をフラグの判定に用いる場合、第2の方法として、手首が掌屈状態であるか否かに応じて、フラグを判定する。
実施の形態において、掌屈状態とは、手首を掌屈させたときに掌屈角が閾値以上である場合をいう。掌屈とは、手首を手の平側に曲げる動きのことを指す。尚、閾値は予め定められた適当な値を用いる。また、閾値は、ユーザごとに手首の柔軟性に応じた値を用いてもよい。
図37は、手首の掌屈角を示す図である。
掌屈角は、手首をまっすぐに伸ばしたときの手の甲を基準とし、手首をまっすぐに伸ばしたときの手の甲と手首を掌屈させたときの手の甲のなす角である。すなわち、手首をまっすぐに伸ばしたときの掌屈角は0度となる。
脱力時の掌屈角と随意可動時の掌屈角の間には大きなギャップがあるため、掌屈角が大きい場合には、ユーザが意図的に手首を掌屈させていると判断できる。
手首は、意図的に掌屈させない限り掌屈状態にはならない。そのため、疲れて腕を下ろしたり、かゆみを感じて体と掻くなどの通常の動作時に掌屈状態になることはないため、意図しないフラグの制御、すなわち意図しない処理が実行されることを防ぐことが出来る。
また、手首が掌屈状態であっても、腕の動きは自由なため、腕の動きを利用したジェスチャ操作を行う場合に制限が少なくなる。また、掌屈によるフラグの制御では、手首以外の身体の可動範囲や自由度が制限されないというメリットがある。
また、手首の掌屈をフラグの制御に用いることで、指を使用しないため、物を持ったままフラグの制御を行うことが出来る。
尚、掌屈状態であるか否かは、上述の図17〜33で述べたような背屈状態の検出方法と同様に、カメラやプッシュスイッチ、または各種センサ等を用いることで判定できる。
例えば、カメラを用いて掌屈状態を判定する場合について述べる。
次に足首の状態をフラグに用いる場合を説明する。
(2)足首の状態を用いる場合。
足首の状態をフラグの判定に用いる場合、足首が底屈状態であるか否かに応じて、フラグを判定する。
実施の形態において、底屈状態とは、足首を底屈させたときに底屈角が閾値以上である場合をいう。底屈とは、足首を足の裏側に曲げる動きのことを指す。言い換えると、底屈とは、足(=足首から先)を下腿(=すね)からまっすぐにする動きのことを指す。尚、閾値は予め定められた適当な値を用いる。また、閾値は、ユーザごとに足首の柔軟性に応じた値を用いてもよい。
図30は、足首の底屈角を示す図である。
底屈角は、足首から下腿に向かう方向と足首からつま先に向かう方向のなす角から90度を引いた角度である。すなわち、足首から下腿に向かう方向と足首からつま先に向かう方向のなす角が直角のとき、底屈角は0度となる。
図31は、脱力時と随意可動時の足首の状態を示す図である。
図31の上側は、脱力時の足首の状態を示し、下側は意図的に足首を限界まで底屈(随意可動)した状態を示す。
脱力時には、平均的な底屈角は14度、随意可動時の平均的な底屈角は38度となる。
このように、脱力時の底屈角と随意可動時の底屈角の間には大きなギャップがあるため、底屈角が大きい場合には、ユーザが意図的に足首を底屈させていると判断できる。
足首は、意図的に底屈させない限り底屈状態にはならない。そのため、通常の動作時に底屈状態になることはないため、意図しないフラグの制御、すなわち意図しない処理が実行されることを防ぐことが出来る。
また、足首が底屈状態であっても、足の動きは自由なため、足の動きを利用したジェスチャ操作を行う場合に制限が少なくなる。また、底屈によるフラグの制御では、足首以外の身体の可動範囲や自由度が制限されないというメリットがある。
図32は、足首の底屈状態の検出方法を示す図である。
図32では、曲げセンサ5201−19を用いて底屈状態を検出する。曲げセンサ5201−19は、図1の身体状態観測装置201に対応する。
曲げセンサ5201−19は、足首の甲側に取り付けられ、足首の背屈に応じて、抵抗値が変化する。
曲げセンサ5201−19は、抵抗値をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、抵抗値から底屈角を推定し、推定した背屈角が閾値以上の場合、所定の身体状態(すなわち、底屈状態)であると判定する。
尚、底屈状態の検出方法は上記に限られず、上述の背屈状態の検出方法と同様に、カメラや温度センサ、または測距センサを用いるなど、任意の方法を用いることができる。
次に唇の状態をフラグに用いる場合を説明する。
(3)唇の状態を用いる場合
唇の状態をフラグの判定に用いる場合、唇が巻き込み状態であるか否かに応じて、フラグを判定する。
実施の形態において、巻き込み状態とは、上唇と下唇を口の中に巻き込み、外から唇が見えない(若しくは、ほとんど見えない)状態のことを指す。
図33は、唇の巻き込み状態を示す図である。
図33の上側は、脱力時の唇の状態を示し、下側は意図的に唇を口の中に巻き込んだ状態を示す。
実施の形態では、画像に対する唇の面積の割合に基づいて露出度を算出し、露出度が閾値以下の場合に、巻き込み状態であると判定する。
図33の上側に示す脱力時の唇の状態における露出度は100、図33の下側に示す意図的に唇を口の中に巻き込んだ状態における露出度は0である。
唇は、意図的に巻き込まない限り巻き込み状態にはならない。そのため、通常の動作時に巻き込み状態になることはないため、意図しないフラグの制御、すなわち意図しない処理が実行されることを防ぐことが出来る。
また、唇が巻き込み状態であっても、頭部の動きは自由なため、頭部の動きを利用したジェスチャ操作を行う場合に制限が少なくなる。また、唇によるフラグの制御では、唇以外の身体の可動範囲や自由度が制限されないというメリットがある。
図34は、唇の巻き込み状態の検出方法を示す図である。
図34では、カメラ5201−20を用いて巻き込み状態を検出する。カメラ5201−20は、図1の身体状態観測装置201に対応する。
カメラ5201−20は、ユーザ(操作者)の顔を撮影し、撮影した画像(顔画像)をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、顔画像から口元の画像を抽出し、抽出した画像に対して所定の基準値を用いて2値化処理を行う。2値化処理により白と黒の2値画像が得られる。また、唇を示す画素は黒画素となる。
フラグ判定部411は、2値画像内の黒画素の割合を算出し、算出した割合をデータベース(DB)と照合し、算出した割合に対応する露出度を算出する。データベースには、割合に対応する露出度が記載されており、当該データベースは、予めフラグ管理装置401が有している。
フラグ判定部411は、算出した露出度が閾値以下の場合、巻き込み状態であると判定する。
図35は、実施の形態に係る巻き込み状態の検出処理のフローチャートである。
図35の処理は、図6のステップS604に対応する
ここでは、露出度に基づく巻き込み状態の検出方法について説明する。ここでは、図34で述べたように、カメラ5201−20により顔が撮影され、撮影された画像がフラグ判定部411に入力されているとする。
ステップS3601において、フラグ判定部411は、撮影された画像に対して顔検出処理を行う。
ステップS3602において、フラグ判定部411は、顔検出処理により、顔が検出されたか否か判定する。顔が検出された場合、制御はステップS3603に進み、顔が検出されなかった場合、処理は終了する。
ステップS3603において、フラグ判定部411は、顔画像から口元の画像を抽出する。
ステップS3604において、フラグ判定部411は、抽出した画像に対して所定の基準値を用いて2値化処理を行う。2値化処理により白と黒の2値画像が得られる。また、唇を示す画素は黒画素となる。
ステップS3605において、フラグ判定部411は、2値画像内の黒画素の割合を算出する。
ステップS3606において、フラグ判定部411は、算出した割合をデータベース(DB)と照合し、算出した割合に対応する露出度を算出する。データベースには、割合に対応する露出度が記載されており、当該データベースは、予めフラグ管理装置401が有している。
ステップS3607において、フラグ判定部411は、露出度が閾値以下であるか否か判定する。露出度が閾値以下である場合、制御はステップS3608に進み、露出度が閾値より大きい場合、制御はステップS3609に進む。
ステップS3608において、フラグ判定部411は、ユーザが所定の身体状態である(ユーザの唇が巻き込み状態である)と判定する。
ステップS3609において、フラグ判定部411は、ユーザが所定の身体状態でない(ユーザの唇が巻き込み状態でない)と判定する。
次に、所定の身体状態の検出(判定)の制限について説明する。ここでは、特定の条件に該当する場合には、実際には所定の身体状態であっても、所定の身体状態でないと判定する例を説明する。
最初に背屈状態の検出の制限について説明する。
通常の日常生活においては、背屈角が閾値以上となることはない。一方で、特定の上肢の姿勢や手の状態においては、意図せずとも背屈角が大きくなってしまう場合がある。よって、このような意図せずに背屈角が閾値以上となった場合でも、背屈状態であると判定しないようにする。
以下、背屈角が大きくなりやすい場合と手の状態の検出方法について述べる。手首が背屈状態になりやすい特定の状態であるか否かは、例えば、手首や手の平に取り付けられたセンサを用いて判定する。
先ず、手が特定の姿勢の場合の背屈状態の判定の制限を説明する。
図44は、手の状態の検出方法(その1)を示す図である。
図44においては、手首に加速度センサ5201−21が取り付けられており、加速度センサ5201−21は、手の姿勢を計測している。加速度センサ5201−21は、身体状態観測装置201に対応する。加速度センサ5201−21は、計測値をセンサ情報取得装置301を介してフラグ判定部411に出力する。加速度センサ5201−21の計測値は、他の身体状態情報の一例である。
所定の身体状態の検出の制限を行う場合、図6のステップS603において、フラグ判定部411は、他の身体状態情報をさらに受信する。そして、ステップS604において、フラグ判定部411は、身体状態情報および他の身体状態情報に基づいて、ユーザが所定の身体状態(すなわち、背屈状態)であるか否か判定する。
例えば、手を上に上げると手首は背屈状態になりやすい。よって、加速度センサ5201−21による計測値が手が所定の位置より上にあることを示している場合、フラグ判定部411は、背屈角が閾値以上であっても背屈状態でないと判定する。
次に、手の平に外力が加えられている場合の背屈状態の判定の制限を説明する。
図45は、手の状態の検出方法(その2)を示す図である。
図45においては、手の平に圧力センサ5201−22が取り付けられている。圧力センサ5201−22は、手の平にかかる圧力を計測する。圧力センサ5201−22は、身体状態観測装置201に対応する。圧力センサ5201−22は、計測値をセンサ情報取得装置301を介してフラグ判定部411に出力する。圧力センサ5201−22の計測値は、他の身体状態情報の一例である。
例えば、手の平で物を押している場合には、手首は背屈状態になりやすい。また、手の平で物を押している場合には、圧力センサ5201−22の計測値は大きくなる。よって、圧力センサの計測値が一定値より大きい場合、フラグ判定部411は、背屈角が閾値以上であっても背屈状態でないと判定する。
また、底屈状態の検出の制限を行う場合には、身体状態情報に加えて、足の裏に取り付けた圧力センサや足の甲に取り付けた加速度センサ等の計測値(他の身体状態情報)に基づいて、フラグ判定部411は、底屈状態であるか否か判定する。例えば、フラグ判定部411は、他の身体状態情報が底屈状態になりやすい特定の状態を示す場合、底屈角が閾値以上であっても底屈状態でないと判定する。
同様に、手首の掌屈状態の検出においても、手に取り付けられたセンサから取得される計測値(他の身体状態情報)に基づいて、掌屈状態になりやすい特定の状態の場合に、フラグ判定部411は、所定の身体状態ではないと判定する。例えば、指先で物を掴んで持ち上げる場合などは、掌屈状態になりやすいため、このような場合には、フラグ判定部411は、掌屈角が閾値以上であっても掌屈状態でないと判定する。
実施の形態のシステムによれば、実際には所定の身体状態であっても、身体が特定の状態の場合には所定の身体状態ではないと判断することで、意図しない装置の誤動作を防止できる。
次に、一定時間以内の手首が背屈状態となった回数に基づく、背屈状態の判定の制限を説明する。
背屈角が閾値以上の場合に処理装置501がジェスチャの認識や所定の処理を行う場合、閾値を大きく設定するほど、ユーザの意図しない処理装置501の動作は少なくなる。その一方で、閾値を大きく設定すると、ユーザの負担も大きくなる。
そこで、一定時間内に背屈角が閾値以上(背屈状態)となった回数が特定の回数以上である場合のみ、所定の身体状態(背屈状態)であると判定するようにする。このとき、背屈状態であるか否かの判定に用いる閾値は大きい値に設定しなくてもよい。尚、一定時間の値は、適当な閾値を予め設定しておく。
例えば、図6のステップS604において、フラグ判定部411は、一定時間以内に手首が2回背屈状態となったとき、所定の身体状態(背屈状態)と判定する。
ここで、手首が背屈状態(背屈角が閾値以上)となり(1回目)、その後、手首が背屈状態で無くなり(背屈角が閾値未満)、再度、手首が背屈状態になる(2回目)場合のフラグ判定部411の動作を説明する。
フラグ判定部411は、身体状態情報に基づいて、1回目の背屈状態(背屈角が閾値以上)を検出した場合は、所定の身体状態(背屈状態)であるとは判定しない。その後、手首が背屈状態で無くなり、フラグ判定部411は、2回目の背屈状態を検出した場合に、2回目の背屈状態の検出が1回目の背屈状態の検出から一定時間内の場合のみ所定の身体状態(背屈状態)であると判定する。
2回の背屈状態が一定時間内に行われたか否かの判定は、フラグ管理装置401が有するタイマ(不図示)や背屈状態になったとき時刻を用いて行う。例えば、フラグ判定部411は、1回目の背屈状態を検出したときにタイマの起動し、2回目の背屈状態を検出したときにタイマの値が一定時間以下であれば、一定時間以内に2回背屈状態となったと判定する。また、フラグ判定部411は、1回目の背屈状態を検出したときの時刻を記録しておき、2回目の背屈状態を検出したときの時刻との差分を算出して、差分が一定時間以下であれば、一定時間以内に2回背屈状態となったと判定するとしてもよい。
また、フラグ判定部411は、手首の掌屈状態、足首の底屈状態、および唇の巻き込み状態の判定においても、それぞれ、一定時間以内に掌屈状態、足首の底屈状態、および唇の巻き込み状態となった回数が特定の回数以上である場合のみ、所定の身体状態であると判定するようにしてもよい。 実施の形態のシステムによれば、一定時間内に特定の回数以上、ユーザが所定の身体状態となった場合のみ、所定の身体状態であると判定することで、ユーザの負担を減らし、意図しない装置の誤動作を防止できる。
次に背屈状態または掌屈状態における手の形状(指の形状)、若しくは底屈状態における足指の形状に応じて、処理の内容を変更する場合を説明する。
図46A〜46Dは、手の形状を示す図である。
処理装置501は、背屈状態を検出したときの手の形状に応じて処理を行う。
例えば、処理装置501は、背屈状態となったときに、親指のみを伸ばしている場合(図46A)は「OK」の処理、全ての指を曲げている(手を閉じている)場合(図46B)は「キャンセル」の処理、人差し指のみを伸ばしている場合(図46C)は「1ページ次へ」の処理、人差し指および中指のみを伸ばしている場合(図46D)は「2ページ先へ」の処理をそれぞれ実行する。
または、処理装置501は、背屈状態において、手の形状に応じて、同一のジェスチャに対する処理を変更する。例えば、処理装置501は、背屈状態において、手を下に下ろすというジェスチャを認識した場合、親指のみを伸ばしている場合(図46A)は「OK」の処理、全ての指を曲げている(手を閉じている)場合(図46B)は「キャンセル」の処理、人差し指のみを伸ばしている場合(図46C)は「1ページ次へ」の処理、人差し指および中指のみを伸ばしている場合(図46D)は「2ページ先へ」の処理をそれぞれ実行する。
ここで、手の形状の検出方法について説明する。
図47は、手の形状の検出方法(その1)を示す図である。
図47では、距離センサ5201−23を用いて手の形状を検出する。距離センサ5201−23は、手首に装着して用いる手首装着型デバイス5202−23に搭載される。
距離センサ5201−23は、手首の外側に取り付けられ、測定方向は指先方向のやや上方に設定されている。距離センサ5201−23は、測定方向にある物体との距離を測定する。
図47の左側は脱力時、右側は随意可動時の手首を示す。
図41の左側に示すように、手が閉じている(指を曲げている)場合、距離センサ5201−23は、指を検出しない。
図47の右側に示すように、手が開いている(指を伸ばしている)場合、距離センサ5201−23は、指を検出し、距離センサ5201−23から指までの距離が計測値として計測される。計測値は、指の形状(手の形状)、すなわち指が伸びているか曲がっているかを示す情報である。計測値は、手の形状を示す形状情報の一例である。
手首装着型デバイス5202−5は、計測値をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、計測値が閾値以下の場合、「手が開いている」と判定する。尚、閾値は予め適当な値が設定されている。
図48は、手の形状の検出方法(その2)を示す図である。
図48では、曲げセンサ5201−24を用いて指の形状を検出する。曲げセンサ5201−24は、グローブ5202−24の各指の間接部分に取り付けられる。ユーザは、グローブ5202−24を装着する。
ユーザが手を閉じる(指を曲げる)と、曲げセンサ5201−24は屈曲し、曲げセンサ5201−24で計測される抵抗値は大きくなる。計測値は、手の形状を示す形状情報の一例である。
曲げセンサ5201−24は、抵抗値をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、抵抗値が閾値以下の場合、「手が開いている」と判定する。また、フラグ判定部411は、抵抗値が閾値より大きいの場合、「手が閉じている」と判定する。尚、閾値は予め適当な値が設定されている。
図49は、手の形状の検出方法(その3)を示す図である。
図49では、距離を計測するセンサが搭載された腕輪5201−25を用いて手の形状を検出する。腕輪5201−25は、図1の身体状態観測装置201に対応する。腕輪5201−25は、ユーザの手首に取り付けられている。
腕輪5201−25は、腕輪5201−25から手首までの距離を計測する。計測値は、手の形状を示す形状情報の一例である。腕輪5201−25から手首までの距離を測ることにより、手首の断面形状が分かり、断面形状から手の形状が推測可能となる。
腕輪5201−25は、計測値をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、計測値に基づいて、手の形状を判定する。
図50は、手の形状の検出方法(その4)を示す図である。
図50では、カメラ5201−26を用いて手の形状を判定する。カメラ5201−26は、図1の身体状態観測装置201に対応する。
カメラ5201−26は、手首に取り付けられており、手の甲側の指先方向を撮影している。それにより、カメラ5201−26には、背屈状態における手(指)が撮影される。撮影画像は、手の形状を示す形状情報の一例である。
カメラ5201−26は、撮影画像をセンサ情報取得装置301を介してフラグ判定部411に出力する。
フラグ判定部411は、撮影画像に基づいて、手の形状を判定する。
ここで、背屈状態において指の形状に応じて処理を変えるシステムの構成について述べる。
図51は、実施の形態に係るシステムの第5の構成例である。
システム6101は、手首装着型デバイス6601および処理装置6501を備える。
手首装着型デバイス6601は、背屈検出スイッチ6201−1、距離センサ6201−2、およびマイクロプロセッサ6602を備える。手首装着型デバイス6601は、手首に装着して使用される装置である。
背屈検出スイッチ6201−1は、手首の背屈を検出するスイッチである。背屈検出スイッチ6201−1は、手首が背屈しているか否かを示す信号(身体状態情報)をマイクロプロセッサ6602に出力する。背屈検出スイッチ6201−1は、図1の身体状態観測装置201に対応する。
距離センサ6201−2は、手の開閉を検出するセンサである。距離センサ6201−2の機能は、距離センサ5201−23と同様である。距離センサ6201−2は、計測値をセンサ値取得部6301−2に出力する。距離センサ6201−2は、図1の身体状態観測装置201に対応する。
マイクロプロセッサ6602は、スイッチ変化取得部6301−1、センサ値取得部6301−2、フラグ判定部6411、およびフラグ通知部6421を備える。
スイッチ変化取得部6301−1は、背屈検出スイッチ6201−1から身体状態情報を受信し、該情報をフラグ判定部6411に送信する。スイッチ変化取得部6301−1は、図1のセンサ情報取得装置301に対応する。
センサ値取得部6301−2は、距離センサ6201−2から計測値を受信し、計測値をフラグ判定部6411に送信する。センサ値取得部6301−2は、図1のセンサ情報取得装置301に対応する。
フラグ判定部6411は、身体状態情報を受信し、身体状態情報に基づいて、フラグの状態を判定する。また、フラグ判定部6411は、計測値を受信し、計測値に基づいて、指の形状(手の形状)を判定し、補助IDを設定する。補助IDは、指の形状(手の形状)を示す情報である。フラグ判定部6411は、フラグおよび補助IDの判定結果をフラグ通知部6421に送信する。フラグ判定部6411は、図1のフラグ判定部411に対応する。
フラグ通知部6421は、フラグ判定部6411から判定結果を受信し、該判定結果に基づいて、処理装置6501にフラグと補助IDを通知する。フラグ通知部6421は、図1のフラグ通知部421に対応する。
処理装置6501は、フラグ通知部6421からフラグおよび補助IDを受信し、フラグおよび補助IDに基づいて、所定の処理を実施する。処理装置6501は、図1の処理装置501に対応する。
図52は、第5の構成例の処理装置の構成図である。
処理装置6501は、受信部6511、記憶部6521、ジェスチャ認識状態判定部6531、ジェスチャ認識処理部6541、および状態変化通知部6551を備える。
受信部6511は、フラグ6522および補助ID6523を受信し、記憶部6521に格納する。受信部6511は、図7のフラグ受信部511に対応する。
記憶部6521は、データを格納する記憶装置である。記憶部6521は、例えば、Random Access Memory(RAM)、磁気ディスク装置、または不揮発性メモリなどである。
記憶部6521は、フラグ6522および補助ID6523を格納する。記憶部6521は、図7の記憶部521に対応する。
ジェスチャ認識状態判定部6531は、フラグ6522に基づいて、処理状態が「開始」または「終了」であるか判定し、判定した処理状態をジェスチャ認識処理部6541および状態変化通知部6551に通知する。また、ジェスチャ認識状態判定部6531は、補助ID6523に基づいて、補助状態を判定し、補助状態をジェスチャ認識処理部6541および状態変化通知部6551に通知する。
ジェスチャ認識状態判定部6531は、図7の処理状態判定部531に対応する。
ジェスチャ認識処理部6541は、通知された処理状態および補助状態に基づいて、ジャスチャの認識を行う。ジェスチャ認識処理部6541には、身体状態観測装置201または他の装置(不図示)から、身体の所定の部位の形状、状態、および/または動きを示す情報(ジェスチャ)が入力される。尚、身体状態観測装置201から送信される身体状態情報をジェスチャとして使用してもよい。
ジェスチャ認識処理部1541は、図7の処理実行部541に対応する。
状態変化通知部6551は、図7の状態変化通知部551に対応し、同様の機能を有するので説明は省略する。
図53は、第5の構成例のシステムのフラグ管理処理のフローチャートである。
ステップS6601において、フラグ判定部6411は、初期値として、変数j=0、フラグ=終了に設定する。
ステップS6602において、フラグ管理処理を終了する場合、フラグ管理処理を終了し、フラグ管理処理を終了しない場合、制御はステップS6603に進む。例えば、外部から処理終了の指示を受信した場合や、スイッチ変化取得部6301−1、センサ値取得部6301−2、または処理装置6501の電源がオフの場合にフラグ管理処理は終了する。
ステップS6603において、フラグ判定部411は、スイッチ変化取得部6301−1から身体状態情報を受信する。
ステップS6604において、フラグ判定部6411は、身体状態情報に基づいて、ユーザが所定の身体状態であるか否か判定する。ユーザが所定の身体状態である場合、制御はステップS6605に進み、ユーザが所定の身体状態でない場合、制御はステップS6608に進む。フラグ判定部6411は、例えば、ユーザの手首が背屈状態の場合、所定の身体状態であると判断する。
ステップS6605において、フラグ判定部6411は、j=1であるか否か判定する。j=1の場合、制御はステップS6606に進み、j=1でない場合、制御はステップS6607に進む。
ステップS6606において、フラグ判定部6411は、フラグ=継続中に設定する。フラグ判定部6411は、フラグをフラグ通知部6421に送信する。
ステップS6607において、フラグ判定部6411は、フラグ=開始、j=1に設定する。フラグ判定部6411は、フラグをフラグ通知部4621に送信する。
ステップS6608において、フラグ判定部6411は、j=1であるか否か判定する。j=1の場合、制御はステップS6609に進み、j=1でない場合、制御はステップS6610に進む。
ステップS6609において、フラグ判定部6411は、フラグ=終了、j=0に設定する。フラグ判定部6411は、フラグをフラグ通知部に6421に送信する。
ステップS6610において、フラグ通知部6421は、補助IDの処理を行う。尚、補助IDの処理の詳細については後述する。
ステップS6611において、フラグ通知部6421は、フラグを処理装置501に送信する。尚、フラグ通知部6421は、フラグ=開始またはフラグ=終了の場合にのみ、フラグを送信するようにしてもよい。
図54は、補助IDの処理の詳細なフローチャートである。
図54は、図53のステップS6611に対応する。
ステップS6621において、フラグ判定部6411は、センサ値取得部6301−2から形状情報、すなわち距離センサ6201−2の計測値を受信する。
ステップS6622において、フラグ判定部6411は、形状情報に基づいて、指の形状(手の形状)を判定する。詳細には、フラグ判定部6411は、計測値が閾値以下の場合、「手が開いている」と判定し、制御はステップS6623に進む。フラグ判定部6411は、計測値が閾値より大きい場合、「手が閉じている」と判定し、制御はステップS6624に進む。
ステップS6623において、フラグ判定部6411は、補助ID=OPENと設定する。
ステップS6624において、フラグ判定部6411は、補助ID=CLOSEと設定する。
ステップS6625において、フラグ通知部6421は、補助IDを処理装置6501に送信する。
次に処理装置6501の処理について説明する
図55は、第5の構成例の処理装置のフラグ制御処理のフローチャートである。
ステップS6631において、ジェスチャ認識状態判定部6531は、処理状態および補助状態を初期化する。尚、処理状態および補助状態は、以下の処理で用いられる情報である。
ステップS6632において、フラグ制御処理を終了する場合、フラグ制御処理を終了し、フラグ制御処理を終了しない場合、制御はステップS6623に進む。例えば、外部から処理終了の指示を受信した場合や、手首装着型デバイス6601の電源がオフの場合にフラグ制御処理は終了する。
ステップS6633において、受信部6511は、データを受信し、記憶部6521に格納する。尚、データは、フラグ6522または補助ID6523である。
ステップS6634において、受信したデータがフラグ6522である場合、制御はステップS6635に進み、フラグでない場合、制御はステップS6636に進む。
ステップS6635において、ジェスチャ認識状態判定部6531およびジェスチャ認識処理部6541は、フラグの受信処理を行う。尚、フラグの受信処理の詳細は後述する。
ステップS6636において、ステップS6633で受信したデータが補助ID6523である場合、制御はステップS6637に進み、補助ID6523でない場合、制御はステップS6636に進む。
ステップS6637において、ジェスチャ認識状態判定部6531およびジェスチャ認識処理部6541は、補助IDの受信処理を行う。尚、補助IDの受信処理の詳細は後述する。
図56は、フラグの受信処理の詳細なフローチャートである。
図56は、図54のステップS6635に対応する。
ステップS6641において、ジェスチャ認識状態判定部6531は、フラグの状態を判定する。フラグ=開始の場合、制御はステップS6642に進み、フラグ≠開始の場合、制御はステップS6644に進む。
ステップS6642において、ジェスチャ認識状態判定部6531は、処理状態=開始に設定する。ジェスチャ認識状態判定部6531は、処理状態をジェスチャ認識処理部6541および状態変化通知部6551に通知する。また、ジェスチャ認識処理部6541は、ジェスチャ認識処理を開始する。ジェスチャ認識処理部6541は、処理状態=終了となるまで、ジェスチャを認識可能な状態となる。
ステップS6643において、状態変化通知部6551は、ジェスチャの認識が可能であることをユーザに通知する。例えば、状態変化通知部6551は、処理装置6501を振動させたり、処理装置6501が有する表示装置(不図示)の画面を点滅させる等を行う。
ステップS6644において、ジェスチャ認識状態判定部6531は、フラグの状態を判定する。フラグ=終了の場合、制御はステップS6645に進み、フラグ≠終了の場合、制御はステップS6647に進む。
ステップS6645において、ジェスチャ認識状態判定部6531は、処理状態=終了に設定する。ジェスチャ認識状態判定部6531は、処理状態をジェスチャ認識処理部6541に通知する。また、ジェスチャ認識状態判定部6531は、処理状態をさらに状態変化通知部6551に通知してもよい。通知を受信した状態変化通知部6551は、ジェスチャの認識が出来ない旨をユーザに通知する。ジェスチャ認識処理部6541は、ジェスチャ認識処理を終了する。
ステップS6647において、処理状態=開始の場合、制御はステップS6648に進み、処理状態≠開始の場合、処理は終了する。
ステップS6648において、ジェスチャ認識処理部6541は、ジェスチャ認識処理を行う。すなわち、ジェスチャ認識処理部6541は、入力されたジェスチャの認識を行い、認識結果および補助状態に応じた処理を行う。
図57は、補助IDの受信処理の詳細なフローチャートである。
図57は、図55のステップS6637に対応する。
ステップS6651において、ジェスチャ認識状態判定部6531は、補助ID6523の状態を判定する。補助ID=OPENの場合、制御はステップS6652に進み、補助ID≠OPENの場合、制御はステップS6654に進む。
ステップS6652において、ジェスチャ認識状態判定部6531は、補助状態=OPENに設定する。
ステップS6653において、ジェスチャ認識状態判定部6531は、補助状態をジェスチャ認識処理部6541に通知する。また、ジェスチャ認識状態判定部6531は、設定した補助状態を記憶部6521等に記録する。
ステップS6654において、ジェスチャ認識状態判定部6531は、補助ID6523の状態を判定する。補助ID=CLOSEの場合、制御はステップS6655に進み、補助ID≠CLOSEの場合、処理は終了する。
ステップS6655において、ジェスチャ認識状態判定部6531は、補助状態=CLOSEに設定する。
ステップS6656において、ジェスチャ認識状態判定部6531は、補助状態をジェスチャ認識処理部6541に通知する。また、ジェスチャ認識状態判定部6531は、設定した補助状態を記憶部6521等に記録する。
次に手の形状を処理装置側で判定する例を説明する。
図58は、実施の形態に係るシステムの第6の構成例である。
システム7101は、手首装着型デバイス7601および処理装置7501を備える。
手首装着型デバイス7601は、背屈検出スイッチ7201−1、カメラ7201−2、およびマイクロプロセッサ7602を備える。手首装着型デバイス7601は、手首に装着して使用される装置である。
背屈検出スイッチ7201−1は、手首の背屈を検出するスイッチである。背屈検出スイッチ7201−1は、手首が背屈しているか否かを示す信号(身体状態情報)をマイクロプロセッサ7602に出力する。背屈検出スイッチ7201−1は、図1の身体状態観測装置201に対応する。
カメラ7201−2は、手を撮影する。カメラ7201−2の機能は、カメラ5201−26と同様であるので、詳細な説明は省略する。カメラ7201−2は、撮影画像を画像取得部7502に出力する。カメラ7201−2は、図1の身体状態観測装置201に対応する。
マイクロプロセッサ7602は、スイッチ変化取得部7301、フラグ判定部7411、およびフラグ通知部7421を備える。
スイッチ変化取得部7301は、背屈検出スイッチ7201−1から身体状態情報を受信し、該情報をフラグ判定部7411に送信する。スイッチ変化取得部7301は、図1のセンサ情報取得装置301に対応する。
フラグ判定部7411は、身体状態情報を受信し、身体状態情報に基づいて、フラグの状態を判定する。フラグ判定部6411は、フラグの判定結果をフラグ通知部7421に送信する。フラグ判定部7411は、図1のフラグ判定部411に対応する。
フラグ通知部7421は、フラグ判定部6411から判定結果を受信し、該判定結果に基づいて、処理装置7501にフラグを通知する。フラグ通知部7421は、図1のフラグ通知部421に対応する。
処理装置7501は、フラグ通知部7421からフラグを受信する。処理装置7501は、フラグおよび手の形状に基づいて、所定の処理を実施する。処理装置7501は、図1の処理装置501に対応する。
処理装置7501は、画像取得部7502、形状判定部7503、フラグ受信部7504、および処理部7505を備える。
画像取得部7502は、カメラ7201−2から撮影画像を受信し、撮影画像を形状判定部7503に出力する。
形状判定部7503は、撮影画像に基づいて、手の形状を判定し、補助状態を設定する。形状判定部7503は、補助状態を処理部7505に通知する。
フラグ受信部7504は、フラグ通知部7421からフラグを受信し、フラグを処理部7505に出力する。
処理部7505は、フラグおよび補助状態に基づいて、所定の処理を実施する。
図59は、第6の構成例の処理装置のフラグ制御処理のフローチャートである。
ステップS7631において、処理部7505は、処理状態および補助状態を初期化する。尚、処理状態および補助状態は、以下の処理で用いられる情報である。
ステップS7632において、フラグ制御処理を終了する場合、フラグ制御処理を終了し、フラグ制御処理を終了しない場合、制御はステップS7623に進む。例えば、外部から処理終了の指示を受信した場合や、手首装着型デバイス7601の電源がオフの場合にフラグ制御処理は終了する。
ステップS7633において、処理部7505は、データを受信する。尚、データは、フラグまたは補助状態である。
ステップS6634において、受信したデータがフラグである場合、制御はステップS7635に進み、フラグでない場合、制御はステップS7636に進む。
ステップS6635において、処理部7505は、フラグの受信処理を行う。尚、ステップS6635のフラグの受信処理は、図55のステップS6635と同様の処理のため説明は省略する。
ステップS6635において、形状判定部7503は、形状の判定処理を行う。尚、形状の判定処理の詳細は後述する。
実施の形態のシステムによれば、指の形状に応じて異なる処理を実行することができるので、ユーザの利便性が向上する。
図60は、形状の判定処理の詳細なフローチャートである。
ステップS7651において、形状判定部7503は、画像取得部7502から形状情報、すなわちカメラ7201−2の撮影画像を受信する。
ステップS7652において、形状判定部7503は、形状判定部7503は、撮影画像に基づいて、手の形状を判定する。手の形状が所定の形状である場合、制御はステップS7652に進み、手の形状が所定の形状でない場合、処理は終了する。
ステップS7653において、形状判定部7503は、補助状態をステップ7652で判定した手の形状に設定する。
ステップS7654において、形状判定部7503は、手の形状に応じた所定の処理を行う。例えば、形状判定部7503は、設定した補助状態を保存する。
ステップS7655において、形状判定部7503は、補助状態を処理部7505に通知する。
上述の説明では、背屈状態と指の形状に応じて処理を行う例を説明したが、底屈状態と足指の形状に基づいて処理の内容を変更するようにしても良い。
例えば、処理装置501は、底屈状態を検出したときの足指の形状に応じて処理を行う。
例えば、処理装置501は、底屈状態となったときに、足指を伸ばしている場合は第1の処理、足指を曲げているは第2の処理をそれぞれ実行する。
または、処理装置501は、底屈状態において、足指の形状に応じて、同一のジェスチャに対する処理を変更する。例えば、処理装置501は、底屈状態において、足を下に下ろすというジェスチャを認識した場合、足指を伸ばしている場合は第1の処理、足指を曲げているは第2の処理をそれぞれ実行する。
また、上述の例では指の形状で処理の内容を変更していたが、背屈状態における手首の向きに応じて処理の内容を変更しても良い。
図61A〜61Dは、手首の向きを示す図である。
例えば、処理装置501は、背屈状態となったときに、手首が上を向いている場合(図61A)は「OK」の処理、手首が下を向いている場合場合(図61B)は「キャンセル」の処理、手首が左を向いている場合(図61C)は「1ページ次へ」の処理、手首が右を向いている場合(図46D)は「2ページ先へ」の処理をそれぞれ実行する。
上述の説明では、背屈状態、掌屈状態、底屈状態、または巻き込み状態のいずれか1つを用いて処理を行う例を説明したが、次に背屈状態、掌屈状態、底屈状態、および巻き込み状態を組み合わせて処理を行う例を説明する。
図62は、背屈状態および掌屈状態に応じた処理を示す図である。
背屈状態および掌屈状態を用いてジェスチャの認識を行う場合、手首が背屈状態であるか掌屈状態であるかに応じて、同一のジェスチャに対して異なる処理を割り当てる。
図62に左側に示すように、背屈状態の場合に手を上に上げるジェスチャを行った場合、処理装置501は「決定」の処理を行い、図62に右側に示すように、掌屈状態の場合に手を上に上げるジェスチャを行った場合、処理装置は501は「取消」の処理を行う。
このように、手を上に上げるというジェスチャに対して、背屈状態か掌屈状態かに応じて異なる処理を実行することができる。
図63は、掌屈状態における手の形状と背屈状態におけるジェスチャに応じた処理を示す図である。
最初に処理装置501は、図63の上部に示すように掌屈状態のときの手の形状を認識し、手の形状を記憶しておく。
次に図63の下部に示すように、手首が掌屈状態から背屈状態となり、処理装置501は、ジェスチャの認識を開始する。
処理装置501は、認識したジェスチャに対する処理を掌屈状態のときの手の形状に従って決定する。例えば、処理装置501は、背屈状態において、所定のジェスチャを認識したとする。このとき、処理装置501は、掌屈状態のときの手の形状が第1の形状の場合は第1の処理を行い、掌屈状態のときの手の形状が第2の形状の場合は第2の処理を行う。
図64は、掌屈状態における手の形状の検出方法を示す図である。
図64では、カメラ5201−27を用いて手の形状を判定する。カメラ5201−27は、図1の身体状態観測装置201に対応する。
カメラ5201−27は、手首に取り付けられており、手の平側を撮影している。カメラ5201−27は、撮影画像5202−27をセンサ情報取得装置301を介してフラグ判定部411に出力する。フラグ判定部411は、撮影画像5202−27に基づいて、手の形状を判定する。尚、カメラ5201−27は、撮影画像5202−27を処理装置501に送信し、処理装置501が手の形状を判定しても良い。
ここで、図62に示すように背屈状態および掌屈状態に応じた処理を行う場合の詳細な処理について説明する。
図65は、背屈状態と掌屈状態を用いるシステムのフラグ管理処理のフローチャートである。
ステップS8601において、フラグ判定部411は、初期値として、変数j=0、フラグ=終了に設定する。
ステップS8602において、フラグ管理処理を終了する場合、フラグ管理処理を終了し、フラグ管理処理を終了しない場合、制御はステップS8603に進む。例えば、外部から処理終了の指示を受信した場合や、センサ情報取得装置301または処理装置501の電源がオフの場合にフラグ管理処理は終了する。
ステップS8603において、フラグ判定部411およびフラグ通知部421は、背屈の処理を行う。尚、背屈の処理の詳細は後述する。
ステップS8604において、フラグ判定部411およびフラグ通知部421は、掌屈の処理を行う。尚、掌屈の処理の詳細は後述する。
ステップS8605において、フラグ判定部411およびフラグ通知部421は、補助IDの処理を行う。尚、補助IDの処理は、図53のステップS6611と同様であるため説明は省略する。
図66は、背屈の処理の詳細なフローチャートである。
図66は、図65のステップS8603に対応する。
ステップS8611において、フラグ判定部411は、変数jとフラグ1を1度だけ初期化、すなわち変数j=0、フラグ1=終了に設定する。
ステップS8612において、フラグ判定部411は、センサ情報取得装置301から身体状態情報を受信する。
ステップS8613において、フラグ判定部411は、身体状態情報に基づいて、ユーザが背屈状態であるか否か判定する。ユーザが背屈状態である場合、制御はステップS8614に進み、ユーザが背屈状態でない場合、制御はステップS8617に進む。
ステップS8614において、フラグ判定部411は、j=1であるか否か判定する。j=1の場合、制御はステップS8615に進み、j=1でない場合、制御はステップS8616に進む。
ステップS8615において、フラグ判定部411は、フラグ1=継続中に設定する。フラグ判定部411は、フラグ1をフラグ通知部421に送信する。
ステップS8616において、フラグ判定部411は、フラグ1=開始、j=1に設定する。フラグ判定部411は、フラグ1をフラグ通知部421に送信する。
ステップS8617において、フラグ判定部411は、j=1であるか否か判定する。j=1の場合、制御はステップS8618に進み、j=1でない場合、制御はステップS8619に進む。
ステップS8618において、フラグ判定部411は、フラグ1=終了、j=0に設定する。フラグ判定部411は、フラグ1をフラグ通知部に421に送信する。
ステップS8609において、フラグ通知部421は、フラグ1を処理装置501に送信する。尚、フラグ通知部421は、フラグ1=開始またはフラグ1=終了の場合にのみ、フラグ1を送信するようにしてもよい。
図67は、掌屈の処理の詳細なフローチャートである。
図67は、図65のステップS8604に対応する。
ステップS8621において、フラグ判定部411は、変数kとフラグ2を1度だけ初期化、すなわち変数k=0、フラグ2=終了に設定する。
ステップS8622において、フラグ判定部411は、センサ情報取得装置301から身体状態情報を受信する。
ステップS8623において、フラグ判定部411は、身体状態情報に基づいて、ユーザが背屈状態であるか否か判定する。ユーザが背屈状態である場合、制御はステップS8624に進み、ユーザが背屈状態でない場合、制御はステップS8627に進む。
ステップS8624において、フラグ判定部411は、k=1であるか否か判定する。k=1の場合、制御はステップS8625に進み、k=1でない場合、制御はステップS8626に進む。
ステップS8625において、フラグ判定部411は、フラグ2=継続中に設定する。フラグ判定部411は、フラグ2をフラグ通知部421に送信する。
ステップS8626において、フラグ判定部411は、フラグ2=開始、k=1に設定する。フラグ判定部411は、フラグ2をフラグ通知部421に送信する。
ステップS8627において、フラグ判定部411は、k=1であるか否か判定する。k=1の場合、制御はステップS8628に進み、k=1でない場合、制御はステップS8629に進む。
ステップS8628において、フラグ判定部411は、フラグ2=終了、k=0に設定する。フラグ判定部411は、フラグ2をフラグ通知部に421に送信する。
ステップS8629において、フラグ通知部421は、フラグ2を処理装置501に送信する。尚、フラグ通知部421は、フラグ2=開始またはフラグ2=終了の場合にのみ、フラグ2を送信するようにしてもよい。
図68は、背屈状態と掌屈状態を用いるシステムのフラグ制御処理のフローチャートである。尚、背屈状態と掌屈状態を用いるシステムにおいて処理装置の構成は、第5の構成例の処理装置6501と同様である。
ステップS8631において、ジェスチャ認識状態判定部6531は、処理状態および補助状態を初期化する。尚、処理状態および補助状態は、以下の処理で用いられる情報である。
ステップS8632において、フラグ制御処理を終了する場合、フラグ制御処理を終了し、フラグ制御処理を終了しない場合、制御はステップS8623に進む。例えば、外部から処理終了の指示を受信した場合や、手首装着型デバイス6601の電源がオフの場合にフラグ制御処理は終了する。
ステップS8633において、受信部6511は、データを受信し、記憶部6521に格納する。
ステップS8634において、受信したデータがフラグ1である場合、制御はステップS8635に進み、フラグ1でない場合、制御はステップS8636に進む。
ステップS8635において、ジェスチャ認識状態判定部6531およびジェスチャ認識処理部6541は、フラグ1の受信処理を行う。フラグ1の受信処理は、図55のステップS6635と同様であるので詳細は省略する。
ステップS8636において、受信したデータがフラグ2である場合、制御はステップS8637に進み、フラグ1でない場合、制御はステップS8638に進む。
ステップS8637において、ジェスチャ認識状態判定部6531およびジェスチャ認識処理部6541は、フラグ2の受信処理を行う。フラグ2の受信処理は、図55のステップS6635と同様であるので説明は省略する。
ステップS8638において、ステップS8633で受信したデータが補助IDである場合、制御はステップS8639に進み、補助IDでない場合、制御はステップS8632に戻る。
ステップS8639において、ジェスチャ認識状態判定部6531およびジェスチャ認識処理部6541は、補助IDの受信処理を行う。尚、補助IDの受信処理は、図55のステップS6637と同様であるので説明は省略する。
尚、上述のような背屈状態と掌屈状態との組み合わせに限らず、以下のような組み合わせを用いて処理を行っても良い。
図69は、背屈状態および底屈状態に応じた処理を示す図である。
処理装置501は、底屈状態を検出し、図69の下側に示すように、足首が底屈状態となる度に追加、消去、または塗りつぶし等のモードを順に切り替える。
処理装置501は、背屈状態において、図69の上側に示すように、手を上に上げるジェスチャを認識すると、モードが追加モードの場合は画面に線を追加、消去モードの場合は画面に線を消去、塗りつぶしモードの場合は特定の色を塗る処理を行う。
図70は、背屈状態および巻き込み状態に応じた処理を示す図である。
処理装置501は、唇の巻き込み状態と顔の向きを検出し、図70の上側に示すように、巻き込み状態のときの顔の向きに応じて、操作対象を装置を変更する。
処理装置501は、図70の下側に示すように、背屈状態のときの手のジェスチャに応じて、操作対象となっている装置の操作を行う。
尚、背屈状態、掌屈状態、底屈状態、および巻き込み状態の内、複数の状態を併用する場合、上述の例に限らず任意の組み合わせを用いることができる。また、背屈状態または掌屈状態のときの指の形状、底屈状態のときの足指の形状、または巻き込み状態のときの顔(頭)の向きと、背屈状態、掌屈状態、底屈状態、または巻き込み状態の組み合わせに応じた処理を行っても良い。
また、背屈状態、掌屈状態、底屈状態、または巻き込み状態となったときの直前の背屈状態または掌屈状態のときの指の形状、底屈状態のときの足指の形状、または巻き込み状態のときの顔(頭)の向きに基づいて、背屈状態、掌屈状態、底屈状態、または巻き込み状態となったときの処理を行っても良い。
実施の形態のシステムによれば、手首の背屈状態または掌屈状態、足首の底屈状態、または唇の巻き込み状態に基づいてフラグの制御を行うため、意図しない装置の誤動作を防止できる。
実施の形態のシステムによれば、身体部位先端の三次元空間上の位置と姿勢、可動範囲を制限することなく、フラグを制御可能となる。
実施の形態のシステムによれば、ユーザは音や映像による提示やフラグの制御に用いる身体部位を目視することなく、現在のフラグ状態を感覚的に認識できる。
実施の形態のシステムによれば、特殊な装置を手や足で保持し、指で操作する必要がないため、ユーザの負担が小さいという効果がある。
実施の形態のシステムによれば、頭部、視線、手先、および足先の自由度が制限されないため、ユーザの負担が小さいという効果がある。
実施の形態のシステムによれば、フラグの状態に応じてユーザに通知を行うので、ユーザはフラグが有効であるか否かを認識することが出来る。
図36は、情報処理装置(コンピュータ)の構成図である。
実施の形態のシステム101、身体状態観測装置201、センサ情報取得装置301、フラグ管理装置401、処理装置501は、例えば、図36に示すような情報処理装置1によって実現される。
情報処理装置1は、Central Processing Unit(CPU)2、メモリ3、入力部4、出力部5、記憶部6、記録媒体駆動部7、およびネットワーク接続部8を備え、それらはバス9により互いに接続されている。
CPU2は、情報処理装置1全体を制御する中央処理装置である。CPU2は、フラグ判定部411、フラグ通知部421、フラグ受信部411、処理状態判定部531、処理実行部541、および状態変化通知部551に対応する。
メモリ3は、プログラム実行の際に、記憶部6(あるいは可搬記録媒体10)に記憶されているプログラムあるいはデータを一時的に格納するRead Only Memory(ROM)やRandom Access Memory(RAM)等のメモリである。CPU2は、メモリ3を利用してプログラムを実行することにより、上述した各種処理を実行する。
この場合、可搬記録媒体10等から読み出されたプログラムコード自体が実施の形態の機能を実現する。
入力部4は、例えば、キーボード、マウス、タッチパネル等である。
出力部5は、例えば、ディスプレイ、プリンタ等である。
記憶部6は、例えば、磁気ディスク装置、光ディスク装置、テープ装置、不揮発性メモリ等である。情報処理装置1は、記憶部6に、上述のプログラムとデータを保存しておき、必要に応じて、それらをメモリ3に読み出して使用する。
記憶部6は、記憶部521に対応する。
記録媒体駆動部7は、可搬記録媒体10を駆動し、その記録内容にアクセスする。可搬記録媒体としては、メモリカード、フレキシブルディスク、Compact Disk Read Only Memory(CD-ROM)、光ディスク、光磁気ディスク等、任意のコンピュータ読み取り可能な記録媒体が用いられる。ユーザは、この可搬記録媒体10に上述のプログラムとデータを格納しておき、必要に応じて、それらをメモリ3に読み出して使用する。
ネットワーク接続部8は、LANやWAN等の任意の通信ネットワークに接続され、通信に伴うデータ変換を行う。ネットワーク接続部8は、通信部1171、2172、3171に対応する。
以上の実施の形態に関し、さらに以下の付記を開示する。
(付記1)
手首を観測し、前記手首の状態を示す状態情報を出力する状態観測部と
前記状態情報に基づいて、前記手首が背屈状態であるか否かを判定する判定部と、
前記手首が背屈状態であるか否かに応じて、所定の処理を行う処理部と、
を備えるジェスチャ入力装置。
(付記2)
前記ジェスチャ入力装置には、前記手首を含む手のジェスチャが入力され、
前記処理部は、前記手首が背屈状態の場合、前記ジェスチャに応じた制御を行うことを特徴とする付記1記載のジェスチャ入力装置。
(付記3)
前記処理部は、前記手首が背屈状態の場合、前記手首が背屈状態であることを通知することを特徴とする付記2記載のジェスチャ入力装置。
(付記4)
手を観測し、前記手の形状を示す形状情報を出力する形状観測部をさらに備え、
前記判定部は、前記形状情報に基づいて、前記手の形状を判定し、
前記処理部は、前記手の形状と前記手首が背屈状態であるか否かに基づいて、前記所定の処理を行うことを特徴とする付記1記載のジェスチャ入力装置。
(付記5)
前記判定部は、前記状態情報に基づいて、前記手首が掌屈状態であるか否かを判定し、
前記処理部は、前記手首が背屈状態であるか否かおよび前記手首が掌屈状態であるか否かに基づいて、前記所定の処理を行うことを特徴とする付記1記載のジェスチャ入力装置。
(付記6)
手の姿勢または前記手に加えられる外力を計測し、前記姿勢または前記外力を示す制限情報を出力する計測部をさらに備え、
前記判定部は、前記制限情報に基づいて、前記手首が背屈状態であるか否かを判定する
ことを特徴とする付記1記載のジェスチャ入力装置。
(付記7)
手首を観測し、前記手首の状態を示す状態情報を出力する観測部と
前記状態情報に基づいて、前記手首が掌屈状態であるか否かを判定する判定部と、
前記手首が掌屈状態であるか否かに応じて、所定の処理を行う処理部と、
を備えるジェスチャ入力装置。
(付記8)
足首を観測し、前記足首の状態を示す状態情報を出力する状態観測部と
前記状態情報に基づいて、前記足首が底屈状態であるか否かを判定する判定部と、
前記足首が底屈状態であるか否かに応じて、所定の処理を行う処理部と、
を備えるジェスチャ入力装置。
(付記9)
唇を観測し、前記唇の状態を示す状態情報を出力する状態観測部と
前記状態情報に基づいて、前記唇が巻き込み状態であるか否かを判定する判定部と、
前記唇が巻き込み状態であるか否かに応じて、所定の処理を行う処理部と、
を備えるジェスチャ入力装置。
(付記10)
手首を観測し、
前記手首の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記手首が背屈状態であるか否かを判定し、
前記手首が背屈状態であるか否かに応じて、所定の処理を行う
ことを特徴とするジェスチャ入力方法。
(付記11)
前記ジェスチャ入力方法はさらに
前記手首を含む手のジェスチャを受信し、
前記手首が背屈状態の場合、前記ジェスチャに応じた制御を行うことを特徴とする付記10記載のジェスチャ入力方法。
(付記12)
前記ジェスチャ入力方法はさらに
前記手首が背屈状態の場合、前記手首が背屈状態であることを通知することを特徴とする付記11記載のジェスチャ入力方法。
(付記13)
前記ジェスチャ入力方法はさらに
手を観測し、
前記手の形状を示す形状情報を出力し、
前記判定する処理において、前記形状情報に基づいて、前記手の形状を判定し、
前記所定の処理を行う処理において、前記手の形状と前記手首が背屈状態であるか否かに基づいて、前記所定の処理を行うことを特徴とする付記10記載のジェスチャ入力方法。
(付記14)
前記判定する処理において、前記状態情報に基づいて、前記手首が掌屈状態であるか否かを判定し、
前記所定の処理を行う処理において、前記手首が背屈状態であるか否かおよび前記手首が掌屈状態であるか否かに基づいて、前記所定の処理を行うことを特徴とする付記10記載のジェスチャ入力方法。
(付記15)
前記ジェスチャ入力方法はさらに
手の姿勢または前記手に加えられる外力を計測し、
前記姿勢または前記外力を示す制限情報を出力し、
前記判定する処理は、前記制限情報に基づいて、前記手首が背屈状態であるか否かを判定することを特徴とする付記10記載のジェスチャ入力方法。
(付記16)
手首を観測し、
前記手首の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記手首が掌屈状態であるか否かを判定し、
前記手首が掌屈状態であるか否かに応じて、所定の処理を行う
ことを特徴とするジェスチャ入力方法。
(付記17)
足首を観測し、
前記足首の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記足首が底屈状態であるか否かを判定し、
前記足首が底屈状態であるか否かに応じて、所定の処理を行う
ことを特徴とするジェスチャ入力方法。
(付記18)
唇を観測し、
前記唇の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記唇が巻き込み状態であるか否かを判定し、
前記唇が巻き込み状態であるか否かに応じて、所定の処理を行う
ことを特徴とするジェスチャ入力方法。
(付記19)
コンピュータに
手首を観測し、
前記手首の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記手首が背屈状態であるか否かを判定し、
前記手首が背屈状態であるか否かに応じて、所定の処理を行う
処理を実行させるジェスチャ入力プログラム。
(付記20)
前記手首を含む手のジェスチャを受信し、
前記手首が背屈状態の場合、前記ジェスチャに応じた制御を行う
処理をさらに実行させることを特徴とする付記19記載のジェスチャ入力プログラム。
(付記21)
前記手首が背屈状態の場合、前記手首が背屈状態であることを通知する処理をさらに実行させることを特徴とする付記20記載のジェスチャプログラム。
(付記22)
手を観測し、
前記手の形状を示す形状情報を出力する
処理をさらに実行させ、
前記判定する処理において、前記形状情報に基づいて、前記手の形状を判定し、
前記所定の処理を行う処理において、前記手の形状と前記手首が背屈状態であるか否かに基づいて、前記所定の処理を行うことを特徴とする付記19記載のジェスチャ入力方法。
(付記23)
前記判定する処理において、前記状態情報に基づいて、前記手首が掌屈状態であるか否かを判定し、
前記所定の処理を行う処理において、前記手首が背屈状態であるか否かおよび前記手首が掌屈状態であるか否かに基づいて、前記所定の処理を行うことを特徴とする付記19記載のジェスチャ入力プログラム。
(付記24)
手の姿勢または前記手に加えられる外力を計測し、
前記姿勢または前記外力を示す制限情報を出力し、
前記判定する処理は、前記制限情報に基づいて、前記手首が背屈状態であるか否かを判定することを特徴とする付記19記載のジェスチャプログラム。
(付記25)
コンピュータに
手首を観測し、
前記手首の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記手首が掌屈状態であるか否かを判定し、
前記手首が掌屈状態であるか否かに応じて、所定の処理を行う
処理を実行させるジェスチャ入力プログラム。
(付記26)
コンピュータに
足首を観測し、
前記足首の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記足首が底屈状態であるか否かを判定し、
前記足首が底屈状態であるか否かに応じて、所定の処理を行う
処理を実行させるジェスチャ入力プログラム。
(付記27)
コンピュータに
唇を観測し、
前記唇の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記唇が巻き込み状態であるか否かを判定し、
前記唇が巻き込み状態であるか否かに応じて、所定の処理を行う
処理を実行させるジェスチャ入力プログラム。
101 システム
201 身体状態観測装置
301 センサ情報取得装置
401 フラグ管理装置
411 フラグ判定装置
421 フラグ通知部
501 処理装置
511 フラグ受信部
521 記憶部
522 フラグ
531 処理状態判定部
541 処理実行部
551 状態変化通知部
561 表示装置

Claims (15)

  1. 手首を観測し、前記手首の状態を示す状態情報を出力する状態観測部と、
    前記状態情報に基づいて、前記手首が背屈状態であるか否かを判定する判定部と、
    前記手首が背屈状態であるか否かに応じて、所定の処理を行う処理部と、
    を備えるジェスチャ入力装置。
  2. 前記ジェスチャ入力装置には、前記手首を含む手のジェスチャが入力され、
    前記処理部は、前記手首が背屈状態の場合、前記ジェスチャに応じた制御を行うことを特徴とする請求項1記載のジェスチャ入力装置。
  3. 前記処理部は、前記手首が背屈状態の場合、前記手首が背屈状態であることを通知することを特徴とする請求項2記載のジェスチャ入力装置。
  4. 手を観測し、前記手の形状を示す形状情報を出力する形状観測部をさらに備え、
    前記判定部は、前記形状情報に基づいて、前記手の形状を判定し、
    前記手の形状と前記手首が背屈状態であるか否かに基づいて、前記所定の処理を行うことを特徴とする請求項1記載のジェスチャ入力装置。
  5. 前記判定部は、前記状態情報に基づいて、前記手首が掌屈状態であるか否かを判定し、
    前記処理部は、前記手首が背屈状態であるか否かおよび前記手首が掌屈状態であるか否かに基づいて、前記所定の処理を行うことを特徴とする請求項1記載のジェスチャ入力装置。
  6. 手の姿勢または前記手に加えられる外力を計測し、前記姿勢または前記外力を示す制限情報を出力する計測部をさらに備え、
    前記判定部は、前記制限情報に基づいて、前記手首が背屈状態であるか否かを判定する
    ことを特徴とする請求項1記載のジェスチャ入力装置。
  7. 手首を観測し、前記手首の状態を示す状態情報を出力する観測部と
    前記状態情報に基づいて、前記手首が掌屈状態であるか否かを判定する判定部と、
    前記手首が掌屈状態であるか否かに応じて、所定の処理を行う処理部と、
    を備えるジェスチャ入力装置。
  8. 足首を観測し、前記足首の状態を示す状態情報を出力する状態観測部と
    前記状態情報に基づいて、前記足首が底屈状態であるか否かを判定する判定部と、
    前記足首が底屈状態であるか否かに応じて、所定の処理を行う処理部と、
    を備えるジェスチャ入力装置。
  9. 唇を観測し、前記唇の状態を示す状態情報を出力する状態観測部と
    前記状態情報に基づいて、前記唇が巻き込み状態であるか否かを判定する判定部と、
    前記唇が巻き込み状態であるか否かに応じて、所定の処理を行う処理部と、
    を備えるジェスチャ入力装置。
  10. 手首を観測し、
    前記手首の状態を示す状態情報を出力し、
    前記状態情報に基づいて、前記手首が背屈状態であるか否かを判定し、
    前記手首が背屈状態であるか否かに応じて、所定の処理を行う
    ことを特徴とするジェスチャ入力方法。
  11. 足首を観測し、
    前記足首の状態を示す状態情報を出力し、
    前記状態情報に基づいて、前記足首が底屈状態であるか否かを判定し、
    前記足首が底屈状態であるか否かに応じて、所定の処理を行う
    ことを特徴とするジェスチャ入力方法。
  12. 唇を観測し、
    前記唇の状態を示す状態情報を出力し、
    前記状態情報に基づいて、前記唇が巻き込み状態であるか否かを判定し、
    前記唇が巻き込み状態であるか否かに応じて、所定の処理を行う
    ことを特徴とするジェスチャ入力方法。
  13. コンピュータに
    手首を観測し、
    前記手首の状態を示す状態情報を出力し、
    前記状態情報に基づいて、前記手首が背屈状態であるか否かを判定し、
    前記手首が背屈状態であるか否かに応じて、所定の処理を行う
    処理を実行させるジェスチャ入力プログラム。
  14. コンピュータに
    足首を観測し、
    前記足首の状態を示す状態情報を出力し、
    前記状態情報に基づいて、前記足首が底屈状態であるか否かを判定し、
    前記足首が底屈状態であるか否かに応じて、所定の処理を行う
    処理を実行させるジェスチャ入力プログラム。
  15. コンピュータに
    唇を観測し、
    前記唇の状態を示す状態情報を出力し、
    前記状態情報に基づいて、前記唇が巻き込み状態であるか否かを判定し、
    前記唇が巻き込み状態であるか否かに応じて、所定の処理を行う
    処理を実行させるジェスチャ入力プログラム。
JP2014087684A 2013-09-26 2014-04-21 ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム Active JP6344032B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014087684A JP6344032B2 (ja) 2013-09-26 2014-04-21 ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム
US14/471,485 US9639164B2 (en) 2013-09-26 2014-08-28 Gesture input method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013199135 2013-09-26
JP2013199135 2013-09-26
JP2014087684A JP6344032B2 (ja) 2013-09-26 2014-04-21 ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム

Publications (2)

Publication Number Publication Date
JP2015088161A true JP2015088161A (ja) 2015-05-07
JP6344032B2 JP6344032B2 (ja) 2018-06-20

Family

ID=52692214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014087684A Active JP6344032B2 (ja) 2013-09-26 2014-04-21 ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム

Country Status (2)

Country Link
US (1) US9639164B2 (ja)
JP (1) JP6344032B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170128668A (ko) * 2016-05-12 2017-11-23 한국전자통신연구원 핸드 제스처 인식 장치 및 방법
JP2018180840A (ja) * 2017-04-11 2018-11-15 富士フイルム株式会社 ヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システム
WO2019159332A1 (ja) * 2018-02-16 2019-08-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、コントローラデバイス、情報処理方法、及びプログラム
WO2022254693A1 (ja) * 2021-06-04 2022-12-08 日産自動車株式会社 操作検出装置及び操作検出方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041052A (ja) * 2013-08-23 2015-03-02 ソニー株式会社 リストバンド型情報処理装置および記憶媒体
US10019625B2 (en) * 2015-07-23 2018-07-10 Orcam Technologies Ltd. Wearable camera for reporting the time based on wrist-related trigger
CN105162979B (zh) * 2015-08-26 2019-02-05 Oppo广东移动通信有限公司 一种来电静音控制方法及智能手表
JP5996138B1 (ja) * 2016-03-18 2016-09-21 株式会社コロプラ ゲームプログラム、方法およびゲームシステム
JP6926781B2 (ja) * 2017-07-28 2021-08-25 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
CN108647597B (zh) * 2018-04-27 2021-02-02 京东方科技集团股份有限公司 一种手腕识别方法、手势识别方法、装置和电子设备
US10977717B2 (en) * 2019-07-22 2021-04-13 Pickey Solutions Ltd. Hand actions monitoring device

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188916A (ja) * 1999-12-28 2001-07-10 Nippon Telegr & Teleph Corp <Ntt> 仮想空間操作方法、仮想空間システム、仮想空間操作入力装置及び仮想空間操作プログラムを記録した記録媒体
JP2005352739A (ja) * 2004-06-10 2005-12-22 Nec Corp 携帯端末装置、入力システム、情報入力方法
JP2006155244A (ja) * 2004-11-29 2006-06-15 Olympus Corp 情報表示装置
JP2006330136A (ja) * 2005-05-24 2006-12-07 Advanced Telecommunication Research Institute International 表情付け音声発生装置
JP2007249595A (ja) * 2006-03-15 2007-09-27 Omron Corp 表示装置、プロジェクタ、表示システム、表示方法、表示プログラム、および記録媒体
JP2008116551A (ja) * 2006-11-01 2008-05-22 Advanced Telecommunication Research Institute International 表情付け音声発生装置
JP2008203911A (ja) * 2007-02-16 2008-09-04 Lenovo Singapore Pte Ltd ポインティング・デバイス、およびコンピュータ
JP2010522380A (ja) * 2007-03-19 2010-07-01 ゼブラ・イメージング・インコーポレイテッド ユーザ入力により動的3次元ディスプレイをアップデートするシステム及び方法
JP2011253493A (ja) * 2010-06-04 2011-12-15 Sony Corp 操作端末装置、電子機器、および電子機器システム
JP2012185833A (ja) * 2012-04-17 2012-09-27 Omron Corp ジェスチャ入力装置およびジェスチャ入力装置の制御方法
JP2012247966A (ja) * 2011-05-27 2012-12-13 Panasonic Corp 操作入力装置、プログラム
JP2013533537A (ja) * 2010-06-02 2013-08-22 マイクロソフト コーポレーション アバター・ジェスチャーの表示制限

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US6577998B1 (en) * 1998-09-01 2003-06-10 Image Link Co., Ltd Systems and methods for communicating through computer animated images
JPH09311759A (ja) 1996-05-22 1997-12-02 Hitachi Ltd ジェスチャ認識方法および装置
US6747632B2 (en) * 1997-03-06 2004-06-08 Harmonic Research, Inc. Wireless control device
JP2000132305A (ja) * 1998-10-23 2000-05-12 Olympus Optical Co Ltd 操作入力装置
JP2001216069A (ja) 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
US20040064195A1 (en) * 2002-07-15 2004-04-01 Hugh Herr Variable-mechanical-impedance artificial legs
JP2005063090A (ja) 2003-08-11 2005-03-10 Keio Gijuku ハンドパターンスイッチ装置
JP3752246B2 (ja) * 2003-08-11 2006-03-08 学校法人慶應義塾 ハンドパターンスイッチ装置
US8075633B2 (en) * 2003-09-25 2011-12-13 Massachusetts Institute Of Technology Active ankle foot orthosis
US20070162152A1 (en) * 2005-03-31 2007-07-12 Massachusetts Institute Of Technology Artificial joints using agonist-antagonist actuators
US8512415B2 (en) * 2005-03-31 2013-08-20 Massachusetts Institute Of Technology Powered ankle-foot prothesis
US8864846B2 (en) * 2005-03-31 2014-10-21 Massachusetts Institute Of Technology Model-based neuromechanical controller for a robotic leg
US20070043449A1 (en) * 2005-03-31 2007-02-22 Massachusetts Institute Of Technology Artificial ankle-foot system with spring, variable-damping, and series-elastic actuator components
JP2007087089A (ja) 2005-09-21 2007-04-05 Fujitsu Ltd ジェスチャ認識装置、ジェスチャ認識プログラムおよびジェスチャ認識方法
US9229630B2 (en) * 2006-04-03 2016-01-05 Respironics Oxytec, Inc User interface for a portable oxygen concentrator
US7985265B2 (en) * 2006-12-14 2011-07-26 Chas. A. Blatchford & Sons Limited Prosthetic ankle and foot combination
GB0701662D0 (en) * 2006-12-14 2007-03-07 Blatchford & Sons Ltd A lower limb prosthesis
JP5207513B2 (ja) 2007-08-02 2013-06-12 公立大学法人首都大学東京 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム
US8628585B2 (en) * 2007-12-14 2014-01-14 Blatchford Products Limited Lower limb prosthesis
DE102008008281A1 (de) * 2008-02-07 2009-08-20 Otto Bock Healthcare Gmbh Passives orthopädisches Hilfsmittel in Form einer Fußprothese oder Fußorthese
US8226589B2 (en) * 2008-04-18 2012-07-24 Darco International, Inc. Night splint with digital dorsiflexion
US8624836B1 (en) * 2008-10-24 2014-01-07 Google Inc. Gesture-based small device input
US20100152619A1 (en) * 2008-12-16 2010-06-17 24/8 Llc System, method, and computer-program product for measuring pressure points
US20110043496A1 (en) * 2009-08-24 2011-02-24 Ray Avalani Bianca R Display device
US8717291B2 (en) * 2009-10-07 2014-05-06 AFA Micro Co. Motion sensitive gesture device
US20110199292A1 (en) * 2010-02-18 2011-08-18 Kilbride Paul E Wrist-Mounted Gesture Device
US9849020B2 (en) * 2010-06-24 2017-12-26 Eugenio R. Silva Ankle foot orthosis
KR101413539B1 (ko) * 2010-11-22 2014-07-02 한국전자통신연구원 자세인식을 이용하는 제어신호 입력장치 및 제어신호 입력방법
US9839552B2 (en) * 2011-01-10 2017-12-12 Bionx Medical Technologies, Inc. Powered joint orthosis
US20120259430A1 (en) * 2011-01-12 2012-10-11 Zhixiu Han Controlling powered human augmentation devices
US8761437B2 (en) * 2011-02-18 2014-06-24 Microsoft Corporation Motion recognition
BR112013020998A2 (pt) * 2011-02-21 2019-02-26 Koninklijke Philips Nv dispositivo e método de detecção de gestos de um usuário, sistema de recolhimento de gestos, produto de programa de computador para permitir a condução de um método e portador de dados
US8913005B2 (en) * 2011-04-08 2014-12-16 Fotonation Limited Methods and systems for ergonomic feedback using an image analysis module
KR101514168B1 (ko) * 2011-04-28 2015-04-21 엔이씨 솔루션 이노베이터 가부시키가이샤 정보 처리 장치, 정보 처리 방법 및 기록 매체
US9218058B2 (en) * 2011-06-16 2015-12-22 Daniel Bress Wearable digital input device for multipoint free space data collection and analysis
US20130079686A1 (en) * 2011-09-23 2013-03-28 Blake Sessions Apparatus, methods and systems to augment bipedal locomotion

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188916A (ja) * 1999-12-28 2001-07-10 Nippon Telegr & Teleph Corp <Ntt> 仮想空間操作方法、仮想空間システム、仮想空間操作入力装置及び仮想空間操作プログラムを記録した記録媒体
JP2005352739A (ja) * 2004-06-10 2005-12-22 Nec Corp 携帯端末装置、入力システム、情報入力方法
JP2006155244A (ja) * 2004-11-29 2006-06-15 Olympus Corp 情報表示装置
JP2006330136A (ja) * 2005-05-24 2006-12-07 Advanced Telecommunication Research Institute International 表情付け音声発生装置
JP2007249595A (ja) * 2006-03-15 2007-09-27 Omron Corp 表示装置、プロジェクタ、表示システム、表示方法、表示プログラム、および記録媒体
JP2008116551A (ja) * 2006-11-01 2008-05-22 Advanced Telecommunication Research Institute International 表情付け音声発生装置
JP2008203911A (ja) * 2007-02-16 2008-09-04 Lenovo Singapore Pte Ltd ポインティング・デバイス、およびコンピュータ
JP2010522380A (ja) * 2007-03-19 2010-07-01 ゼブラ・イメージング・インコーポレイテッド ユーザ入力により動的3次元ディスプレイをアップデートするシステム及び方法
JP2013533537A (ja) * 2010-06-02 2013-08-22 マイクロソフト コーポレーション アバター・ジェスチャーの表示制限
JP2011253493A (ja) * 2010-06-04 2011-12-15 Sony Corp 操作端末装置、電子機器、および電子機器システム
JP2012247966A (ja) * 2011-05-27 2012-12-13 Panasonic Corp 操作入力装置、プログラム
JP2012185833A (ja) * 2012-04-17 2012-09-27 Omron Corp ジェスチャ入力装置およびジェスチャ入力装置の制御方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170128668A (ko) * 2016-05-12 2017-11-23 한국전자통신연구원 핸드 제스처 인식 장치 및 방법
JP2018180840A (ja) * 2017-04-11 2018-11-15 富士フイルム株式会社 ヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システム
WO2019159332A1 (ja) * 2018-02-16 2019-08-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、コントローラデバイス、情報処理方法、及びプログラム
JPWO2019159332A1 (ja) * 2018-02-16 2020-09-10 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、コントローラデバイス、情報処理方法、及びプログラム
US11400363B2 (en) 2018-02-16 2022-08-02 Sony Interactive Entertainment Inc. Information processing apparatus, information processing system, controller device, information processing method, and program
WO2022254693A1 (ja) * 2021-06-04 2022-12-08 日産自動車株式会社 操作検出装置及び操作検出方法

Also Published As

Publication number Publication date
US20150089455A1 (en) 2015-03-26
US9639164B2 (en) 2017-05-02
JP6344032B2 (ja) 2018-06-20

Similar Documents

Publication Publication Date Title
JP6344032B2 (ja) ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム
US10758158B2 (en) System and method for rehabilitation exercise of the hands
JP6669069B2 (ja) 検出装置、検出方法、制御装置、および制御方法
US11567573B2 (en) Neuromuscular text entry, writing and drawing in augmented reality systems
Ann et al. Human activity recognition: A review
US8421634B2 (en) Sensing mechanical energy to appropriate the body for data input
JP2022500729A (ja) 拡張現実システムの神経筋制御
CN112771478A (zh) 对环境中的物理对象的神经肌肉控制
US20130069883A1 (en) Portable information processing terminal
US20150109197A1 (en) Information processing apparatus, information processing method, and program
KR20100112764A (ko) 동작교정장치 및 그 제어방법과 이를 이용한 동작교정 서비스시스템
US11237632B2 (en) Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions
KR101211808B1 (ko) 동작인식장치 및 동작인식방법
US20230076068A1 (en) Systems for interpreting a digit-to-digit gesture by a user differently based on roll values of a wrist-wearable device worn by the user, and methods of use thereof
Yamagishi et al. A system for controlling personal computers by hand gestures using a wireless sensor device
US20210318759A1 (en) Input device to control a computing device with a touch pad having a curved surface configured to sense touch input
Sie et al. The design of a smartphone-based fall detection system
JP6170973B2 (ja) 携帯情報端末、情報処理方法、及び、プログラム
US10901814B2 (en) Information processing apparatus and information processing method
KR101771927B1 (ko) 사용자와 스마트 기기간의 근전도 신호를 이용한 비접촉 인터페이싱 장치 및 방법
US20200166990A1 (en) Device and methodology for the interaction through gestures and movements of human limbs and fingers
KR101723076B1 (ko) 사용자와 스마트 기기간의 근전도 신호를 이용한 비접촉 인터페이싱 장치 및 방법
Zeng et al. Arm motion recognition and exercise coaching system for remote interaction
KR20200053248A (ko) 손동작 인식 기능이 구비된 프리젠터 장치
KR20160101598A (ko) 수지타법입력장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180320

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180507

R150 Certificate of patent or registration of utility model

Ref document number: 6344032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150