JP6329469B2 - 認識装置、認識方法及び認識プログラム - Google Patents

認識装置、認識方法及び認識プログラム Download PDF

Info

Publication number
JP6329469B2
JP6329469B2 JP2014189472A JP2014189472A JP6329469B2 JP 6329469 B2 JP6329469 B2 JP 6329469B2 JP 2014189472 A JP2014189472 A JP 2014189472A JP 2014189472 A JP2014189472 A JP 2014189472A JP 6329469 B2 JP6329469 B2 JP 6329469B2
Authority
JP
Japan
Prior art keywords
information
feature amount
sensor
change
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014189472A
Other languages
English (en)
Other versions
JP2016062274A (ja
Inventor
俊信 中洲
俊信 中洲
司 池
司 池
山内 康晋
康晋 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014189472A priority Critical patent/JP6329469B2/ja
Priority to US14/853,124 priority patent/US9916015B2/en
Publication of JP2016062274A publication Critical patent/JP2016062274A/ja
Application granted granted Critical
Publication of JP6329469B2 publication Critical patent/JP6329469B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser

Description

本発明の実施形態は、認識装置、認識方法及び認識プログラムに関する。
ユーザの身体の特定部分(指、手首、二の腕など)に装着してユーザの動作(ジェスチャ)を認識する認識装置がある。認識装置を用いて、PC(パーソナルコンピュータ)やテレビなどの機器を操作する。ユーザの操作負担を軽減することが望まれる。
特開2004−54390号公報
Sebastian O.H. Madgwick, Andrew J.L. Harrison, Ravi Vaidyanathan,"Estimation of IMU and MARG orientation using a gradient descent algorithm", 2011 IEEE International Conference on Rehabilitation Robotics, 2011.June, vol.22, No.6, pp.1216-1227
本発明の実施形態は、ユーザの操作負担を軽減できる認識装置、認識方法及び認識プログラムを提供する。
本発明の実施形態によれば、取得部と、処理部と、を含む認識装置が提供される。前記取得部は、第1情報と第2情報とを取得する。前記第1情報は、前記身体の動作に応じて変化する第1信号に関する。前記第2情報は、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する。前記処理部は、前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する。前記第1特徴量は、前記第1部分の第1軸の3次元空間内での傾きに関する値を含む。前記第2特徴量は、前記第2部分の第2軸の前記3次元空間内での傾きに関する値を含む。
本発明の別の実施形態によれば、取得部と、処理部と、を含む認識装置が提供される。前記取得部は、第1情報と第2情報とを取得する。前記第1情報は、前記身体の動作に応じて変化する第1信号に関する。前記第2情報は、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する。前記処理部は、前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する。前記第1特徴量は、前記第1部分の3次元空間内での位置に関する値を含む。前記第2特徴量は、前記第2部分の前記3次元空間内での位置に関する値を含む。
本発明の別の実施形態によれば、取得部と、処理部と、を含む認識装置が提供される。前記取得部は、第1情報と第2情報とを取得する。前記第1情報は、前記身体の動作に応じて変化する第1信号に関する。前記第2情報は、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する。前記処理部は、前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する。前記処理部は、前記取得部が操作受付状態であることを表す操作受付情報を取得したときに、前記身体の前記動作により操作される操作対象を移動させる移動ベクトルを、前記第1特徴量の変化の大きさ及び方向と、前記第2特徴量の変化の大きさ及び方向と、の少なくともいずれかに基づいて算出する。
本発明の別の実施形態によれば、身体の第1部分に装着された第1素子で生成され、前記身体の動作に応じて変化する第1信号に関する第1情報と、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する第2情報と、を取得する処理と、前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する処理と、を含む認識方法が提供される。前記第1特徴量は、前記第1部分の第1軸の3次元空間内での傾きに関する値を含む。前記第2特徴量は、前記第2部分の第2軸の前記3次元空間内での傾きに関する値を含む。
本発明の別の実施形態によれば、身体の第1部分に装着された第1素子で生成され、前記身体の動作に応じて変化する第1信号に関する第1情報と、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する第2情報と、を取得する処理と、前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する処理と、をコンピュータに実行させる認識プログラムが提供される。前記第1特徴量は、前記第1部分の第1軸の3次元空間内での傾きに関する値を含む。前記第2特徴量は、前記第2部分の第2軸の前記3次元空間内での傾きに関する値を含む。
図1(a)及び図1(b)は、第1の実施形態に係る認識装置を例示するブロック図である。 図2(a)及び図2(b)は、第1の実施形態に係る認識装置を例示する模式図である。 機器操作を例示する図である。 第1の実施形態に係る認識装置の機器操作を例示する模式図である。 第1の実施形態に係る認識装置の他の機器操作を例示する模式図である。 第1の実施形態に係る認識装置による認識方法を例示するフローチャート図である。 第1の実施形態に係る認識装置を例示する模式図である。 第1の実施形態に係る認識装置を例示する模式図である。 第1の実施形態に係る認識装置を例示する模式図である。 第1の実施形態に係る認識装置を例示する模式図である。 第1の実施形態に係る認識装置を例示する模式図である。 第1の実施形態に係る認識装置を例示する模式図である。 第1の実施形態に係る認識装置の認識条件を例示する図である。 図14(a)及び図14(b)は、第2の実施形態に係る認識装置を例示するブロック図である。 第2の実施形態に係る認識装置を例示する模式図である。 第2の実施形態に係る認識装置を例示する模式図である。 第3の実施形態に係る認識装置を例示するブロック図である。 第3の実施形態に係る認識装置の認識方法を例示するフローチャート図である。 第3の実施形態に係る認識装置の認識方法を例示するフローチャート図である。 第3の実施形態に係る認識装置を例示する模式図である。 第3の実施形態に係る認識装置を例示する模式図である。 第4の実施形態に係る認識装置を例示する模式図である。 第4の実施形態に係る認識装置を例示する模式図である。 第4の実施形態に係る認識装置を例示する模式図である。 第4の実施形態に係る認識装置を例示する模式図である。 第4の実施形態に係る認識装置を例示する模式図である。 第1応用例に係る認識装置を例示する模式図である。 第2応用例に係る認識装置を例示する模式図である。 第3応用例に係る認識装置を例示する模式図である。
以下に、本発明の各実施の形態について図面を参照しつつ説明する。
なお、図面は模式的または概念的なものであり、各部分の厚みと幅との関係、部分間の大きさの比率などは、必ずしも現実のものと同一とは限らない。また、同じ部分を表す場合であっても、図面により互いの寸法や比率が異なって表される場合もある。
なお、本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
(第1の実施形態)
図1(a)及び図1(b)は、第1の実施形態に係る認識装置を例示するブロック図である。
図1(a)は、認識装置の構成の例を示す。図1(b)は、第1素子及び第2素子の例を示す。
認識装置100には、取得部30と、処理部40と、が設けられる。取得部30には、例えば、入出力端子が用いられる。取得部30は、有線または無線を介して外部と通信する入出力インターフェイスを含む。処理部40には、例えば、CPUやメモリなどを含む演算装置が用いられる。処理部40の各ブロックの一部、又は全部には、LSI(Large Scale Integration)等の集積回路またはIC(Integrated Circuit)チップセットを用いることができる。各ブロックに個別の回路を用いてもよいし、一部又は全部を集積した回路を用いてもよい。各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。集積化には、LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。
図1(b)に示すように、第1素子10として、例えば、第1センサ10dが用いられ、第2素子20としては、例えば、第2センサ20dが用いられる。認識装置100は、第1素子10または第2素子20と一体的に設けられていてもよい。認識装置100は、認識装置100の認識結果に基づいて操作される操作対象機器と一体的に設けられても良い。操作対象機器は、例えばPC(パーソナルコンピュータ)110である。認識装置100は、第1素子10、第2素子20及びPC110と独立して設けられてもよい。認識装置100の一部を第1素子10または第2素子20と一体的に設け、認識装置100の別の一部をPC110と一体的に設けてもよい。
認識装置100は、第1素子10及び第2素子20と、有線または無線の方式により接続される。認識装置100は、操作対象機器(例えばPC110)と、有線または無線の方式により接続される。
図2(a)及び図2(b)は、第1の実施形態に係る認識装置を例示する模式図である。
これらの図は、認識装置の使用状態を例示している。図2(a)は、ユーザによるジョイスティック動作の一例を示す。図2(b)は、ユーザによるタッチパッド動作の一例を示す。
第1センサ10d(第1素子10)、及び、第2センサ20d第2素子20)は、ユーザの身体101の特定部分に装着して使用される。例えば、第1素子10は、第1部分10a(例えば手首)に装着される。第2素子20は、第2部分20a(例えば指)に装着される。認識装置100は、手首などの第1部分10aの動作を第1素子10で検知し、指などの第2部分20aの動作を第2素子20で検知する。認識装置100は、第1素子10及び第2素子20の検知結果に基づいて、身体101の動作の種類を認識する。身体101の動作の種類は、例えば、ジョイスティック動作及びタッチパッド動作などを含む。
図2(a)及び図2(b)の例において、第1素子10には、第1部分10aに装着可能なリング状部材が用いられる。第2素子20には、第2部分20aに装着可能なリング状部材が用いられる。第1素子10及び第2素子20の形状は、これらに限定されるものではない。
図2(a)の例は、ユーザの第1動作(例えば、ジョイスティック動作)を示す。ジョイスティック動作は、第2部分20aの端20cを支点として第2部分20aの別の部分20bを動かすことを含む。図2(a)では、別の部分20bが、矢印100aの方向に沿って動く。図2(b)の例は、ユーザの第2動作(例えば、タッチパッド動作)を示す。タッチパッド動作は、第2部分20aの端20cと共に第2部分20aの別の部分20bを動かすことを含む。図2(b)では、別の部分20bが矢印100bの方向に沿って動く。
図1(a)、図2(a)及び図2(b)において、第1素子10は、動作する身体101の第1部分10aに装着される。取得部30は、第1情報14を取得する。第1情報14は、第1素子10で生成される第1信号14sgに関する情報である。第1信号14sgは、身体101の動作に応じて変化する第1部分10aの状態に対応する。第1信号14sgとして、例えば、図1(b)に表す第1センサ10dで生成される第1センサ信号15sgが用いられる。第1情報14として、例えば、第1センサ信号15sgの値を含む第1センサ情報15が用いられる。図1(b)の例では、第1センサ10dは、第1センサ情報15を出力し、取得部30は第1センサ情報15を取得する。
図1(a)、図2(a)及び図2(b)において、第2素子20は、第2部分20aに装着される。第2部分20aの、第1部分10aとの間の相対的な位置関係は、身体101の動作に応じて変化する。取得部30は、第2情報24を取得する。第2情報24は、第2素子20で生成される第2信号24sgに関する情報である。第2信号24sgは、身体101の動作に応じて変化する第2部分20aの状態に対応する。第2信号24sgとして、例えば、図1(b)に表す第2センサ20dで生成される第2センサ信号25sgが用いられる。第2情報24として、例えば、第2センサ信号25sgの値を含む第2センサ情報25が用いられる。図1(b)の例では、第2センサ20dは、第2センサ情報25を出力し、取得部30は第2センサ情報25を取得する。
処理部40は、特徴量算出部41と、動作認識部42と、処理実施部43と、を含む。処理部40の各部は必ずしも一体的に設けられている必要はなく、処理部40の一部がPC110等に分散して設けられていてもよい。例えば、処理実施部43がPC110に設けられていてもよい。
特徴量算出部41は、第1情報14に基づいて第1部分10aの第1特徴量を算出し、第2情報24に基づいて第2部分20aの第2特徴量を算出する。本実施形態において、第1部分10aは、例えば、身体101の手首である。第1特徴量は、第1部分10aの第1軸(仮想的な軸)の3次元空間内での傾きに関する値を含む。この値は、第1軸に関する第1〜第3角度を含む。第1〜第3角度は、3次元空間内において互いに交差する3つの軸のそれぞれと第1軸との間の角度のそれぞれである。具体例として、第1〜第3角度は、第1素子10から見て左右を軸とした上下方向の回転角であるピッチ(pitch)角と、上下を軸にした左右方向の回転角であるヨー(yaw)角と、前後を軸とした回転角であるロール(roll)角と、で表される。
第2部分20aは、身体101の動作に応じて、第1部分10aとの間の相対的な位置関係が変化する部分である。本実施形態において、第2部分20aは、例えば、身体101の指(人指し指など)である。第2特徴量は、第2部分20aの第2軸(仮想的な軸)の3次元空間内での傾きに関する値を含む。この値は、第2軸に関する第4〜第6角度を含む。第4〜第6角度は、3次元空間内において互いに交差する3つの軸のそれぞれと第2軸との間の角度のそれぞれである。具体例として、第4〜第6角度は、第2素子20から見て左右を軸とした上下方向の回転角であるピッチ(pitch)角と、上下を軸にした左右方向の回転角であるヨー(yaw)角と、前後を軸とした回転角であるロール(roll)角と、で表される。
動作認識部42は、第1特徴量の変化と第2特徴量の変化とに基づいて、身体101の動作の種類がジョイスティック動作及びタッチパッド動作のいずれであるかを認識する。第1特徴量の変化は、例えば、第1軸に関する第1〜第3角度(例えば、ピッチ角、ヨー角、ロール角)の少なくともいずれかの変化(以下、第1変化という)である。同様に、第2特徴量の変化は、例えば、第2軸に関する第4〜第6角度(例えば、ピッチ角、ヨー角、ロール角)の少なくともいずれかの変化(以下、第2変化という)である。
すなわち、動作認識部42は、第1変化の第1絶対値と、第1変化の第1極性と、第2変化の第2絶対値と、第2変化の第2極性と、に基づいて、身体101の動作の種類がジョイスティック動作及びタッチパッド動作のいずれであるかを認識する。
処理実施部43は、動作の種類(例えば、ジョイスティック動作またはタッチパッド動作に応じた処理のいずれか)を、身体101の動作により操作される操作対象に対して実施する。操作対象は、例えば、PC110の画面内に表示されるオブジェクトである。このオブジェクトとしては、例えば、マウスカーソルや、画像、画像内の特定部分などが含まれる。なお、PC110は、操作対象機器の一例である。PC110として、テレビ受像機などを用いても良い。操作対象機器は、限定されるものではない。
本実施形態において、第1部分10aの傾きは、第1部分10aの角度である。第1部分10aの角度は、3次元空間内において互いに交差する3軸のそれぞれに対する角度を含む。第2部分20aの傾きは、第2部分20aの角度である。第2部分20aの角度は、3次元空間内において互いに交差する3軸のそれぞれに対する角度を含む。例えば、3次元空間内における3軸とは、例えば、3次元空間内で互いに直交するX軸、Y軸、Z軸とされる。X軸方向に対して垂直な1つの方向をY軸方向とする。X軸方向に対して垂直でY軸方向に対して垂直な方向をZ軸方向とする。
図1(b)において、第1素子10の一例である第1センサ10dは、第1角速度センサ11と、第1加速度センサ12と、第1地磁気センサ13と、を含む。第1角速度センサ11は、X軸、Y軸、Z軸のそれぞれについての角速度値を出力する。第1加速度センサ12は、X軸、Y軸、Z軸のそれぞれについての加速度値を出力する。第1地磁気センサ13は、X軸、Y軸、Z軸のそれぞれについての地磁気値を出力する。すなわち、第1センサ10dが出力する第1センサ情報15は、これら角速度値、加速度値及び地磁気値の少なくともいずれかに関する情報である。
第1センサ10dは、例えば、装着した第1部分10aの3次元的な角速度値、加速度値及び地磁気値を取得できる一般的な9軸センサである。なお、第1センサ10dとして、例えば、第1角速度センサ11が用いられる。第1センサ10dとして、例えば、第1加速度センサ12が用いられるもよい。第1センサ10dとして、例えば、第1角速度センサ11及び第1加速度センサ12が用いられる。第1センサ10dとして、例えば、第1角速度センサ11及び第1地磁気センサ13が用いられる。第1センサ10dとして、例えば、第1加速度センサ12及び第1地磁気センサ13が用いられる。
例えば、第2センサ20dは、第2角速度センサ21と、第2加速度センサ22と、第2地磁気センサ23と、を含む。第2角速度センサ21は、X軸、Y軸、Z軸のそれぞれについての角速度値を出力する。第2加速度センサ22は、X軸、Y軸、Z軸のそれぞれについての加速度値を出力する。第2地磁気センサ23は、X軸、Y軸、Z軸のそれぞれについての地磁気値を出力する。すなわち、第2センサ20dが出力する第2センサ情報25は、これら角速度値、加速度値及び地磁気値の少なくともいずれかに関する情報である。
第2センサ20dは、例えば、装着した第2部分20aの3次元的な角速度値、加速度値及び地磁気値を取得できる一般的な9軸センサである。なお、第2センサ20dとして、例えば、第2角速度センサ21が用いられる。第2センサ20dとして、例えば、第2加速度センサ22が用いられる。第2センサ20dとして、例えば、第2角速度センサ21及び第2加速度センサ22が用いられる。第2センサ20dとして、例えば、第2角速度センサ21及び第2地磁気センサ23が用いられる。第2センサ20dとして、例えば、第2加速度センサ22及び第2地磁気センサ23が用いられる。
例えば、角速度センサは、物理量として角速度を検出する。本例では、おもりの振動を検出することにより、角速度センサが受ける角速度を検出する振動式が採用される。このような振動式の角速度センサでは、ある一方向に振動(一次振動)するおもりに角速度が加わると、このおもりにいわゆるコリオリ力が発生する。振動式の角速度センサは、このコリオリ力によってそのおもりに直交する方向にも振動(二次振動)が発生することを利用する。本例では、圧電素子にて二次振動が検出されて電気信号に変換され、この電気信号が角速度に応じた検出信号(角速度値)として出力される。
ここで、特定部分の3次元的な傾き(角度)は、角速度の積分演算や重力加速度からの変換により得ることができる。しかしながら、角速度を積分演算する場合、角速度センサの出力に含まれるドリフト誤差が蓄積し、計測時間の経過とともに精度が低下する場合がある。また、重力加速度から変換する場合、方位情報が得られないため、加速度センサが出力する動的加速度が誤差となる場合がある。従って、より正確な3次元的な傾きを得るには、角速度センサ、加速度センサ及び地磁気センサを用いることが好ましい。
ここで、認識装置においては、例えば、センサにより取得される加速度、角速度、地磁気の少なくともいずれかの値に基づき、センサの3次元的な傾きを算出する手法が知られている。3次元的な傾きとは、センサから見て左右を軸とした上下方向の回転角であるピッチ角と、上下を軸にした左右方向の回転角であるヨー角と、前後を軸とした回転角であるロール角と、で表される。センサを例えば腕(手首)に装着した場合、センサの傾きは擬似的に腕の傾きに対応する。センサの3次元的な傾きは画面の相対位置に対応付けられる。これにより、例えば、画面上のカーソルをユーザの腕の傾きに対応させて遠隔操作することが可能となる。ユーザは、タッチパッドやジョイスティック等の入力デバイスを用いることなく、遠隔からの指差し動作(ジェスチャ)によって、画面上のカーソルを動かし操作することができる。このような技術は、例えば、PC(パーソナルコンピュータ)やテレビ等の機器を操作する際に用いられる。
図3は、機器操作を例示する図である。
図3の例において、例えば、手首に装着したセンサ301から加速度、角速度、地磁気の少なくともいずれかの値が取得される。これらの値に基づき、表示装置の画面302内のカーソル303を特定の位置に移動させる。例えば、画面302内に配置されたオブジェクト304上にカーソル303を移動させることで、そのオブジェクト304をポインティング(選択)する。また、センサ301を指に装着して指の移動軌跡を解析することにより、任意の場所(空中、手のひら、太もも、机など)に指で書いた文字を認識することもできる。
PCやテレビなどの機器の動作モードには、例えば、入力デバイスとしてジョイスティックを用いるジョイスティックモードと、入力デバイスとしてタッチパッドを用いるタッチパッドモードと、がある。ユーザの動作(ジェスチャ)によりこれら2つの動作モード(ジョイスティックモード、タッチパッドモード)を実施する場合、機器の画面にメニューを表示させ、メニュー上でいずれかの動作モードをユーザに選択させる必要があった。
しかしながら、メニューの階層を経ることでステップ数が増えてしまい、ユーザの負担となる。このため、ユーザの動作を正しく認識することで、2つの動作モードを自動的に切り替え、ユーザの操作負担を軽減できることが望まれている。
具体的には、ジョイスティックモードでのユーザ動作は、指先を面の上に立て指先を支点として指の傾きを変化させるような動作となる。タッチパッドモードでのユーザ動作は、指先を面の上で移動させるような動作となる。つまり、機器操作に係るユーザの動作としては、指先を面の上に立て指先を支点として指の傾きを変化させることで操作する第1動作(ジョイスティック動作)と、指先を面の上で移動させその移動の軌跡により操作する第2動作(タッチパッド動作)と、がある。
本実施形態によれば、ユーザによる動作の種類(例えば、ジョイスティック動作とタッチパッド動作)を正しく認識し、ユーザの動作の種類によって操作対象機器の動作モードを切り替えることができる。これにより、ユーザの操作負担を軽減することができる。
図4は、第1の実施形態に係る認識装置の機器操作を例示する模式図である。
図4は、認識装置100を用いて、PC110の2つの動作モードを切り替え、ブラウザ画面を操作する場合の例を示す。
PC110のブラウザ画面51には、マウスカーソル52と、第1オブジェクト53と、第2オブジェクト54と、スクロールバー55と、が表示される。動作認識部42によりユーザの動作の種類が下向きへのジョイスティック動作と認識された場合(S1の場合)、処理実施部43は、PC110の動作モードをジョイスティックモードに切り替える。このジョイスティックモードでは例えばマウスカーソル52を移動させる。具体的には、ブラウザ画面51内に表示されているマウスカーソル52を下方向に移動させ、ブラウザ画面51aへと遷移させる。
一方、動作認識部42によりユーザの動作の種類が上向きへのタッチパッド動作と認識された場合(S2の場合)、処理実施部43は、PC110の動作モードをタッチパッドモードに切り替える。このタッチパッドモードでは例えばブラウザ画面51をスクロールさせる。具体的には、ブラウザ画面51内に表示されている第1オブジェクト53及び第2オブジェクト54が相対的に上方向に移動し、画面下に隠れていた第3オブジェクト56が表示され、ブラウザ画面51bへと遷移させる。
図5は、第1の実施形態に係る認識装置の他の機器操作を例示する模式図である。
図5は、認識装置100を用いて、PC110の2つの動作モードを切り替えて、画像閲覧画面を操作する場合の例を示す。
PC110の画像閲覧画面57には、文字Aが表示される。動作認識部42によりユーザの動作の種類が左向きへのジョイスティック動作と認識された場合(S3の場合)、処理実施部43は、PC110の動作モードをジョイスティックモードに切り替える。このジョイスティックモードでは表示領域全体を矢印58の向き(左向き)に移動させる。つまり、ユーザが指を所定角度以上傾けたまま維持すると、その角度を維持している間は指を傾けた方向に、文字Aを含む表示領域が移動し、画面外に隠れていた文字Bが表示され、画像閲覧画面57aへと遷移させる。
一方、動作認識部42によりユーザの動作の種類が左向きへのタッチパッド動作と認識された場合(S4の場合)、処理実施部43は、PC110の動作モードをタッチパッドモードに切り替える。このタッチパッドモードでは次頁(ページ)の文字Bが表示される。つまり、ユーザが指を所定の方向にフリック動作(指をはじく動作)すると、フリックした方向に頁が切り替わり、次頁の文字Bが表示され、画像閲覧画面57bへと遷移させる。
さらに他の例として、カーソル操作と文字入力操作とで、ジョイスティック動作とタッチパッド動作とを使い分けるようにしてもよい。例えば、指をジョイスティック動作させたときに機器側ではカーソル操作を行う。一方、指をタッチパッド動作させたときに機器側では指の移動軌跡により文字を認識し文字入力を行う。
さらに他の例としては、2つのモニタでジョイスティック動作とタッチパッド動作とを使い分けるようにしてもよい。例えば、遠くに配置された大画面の第1モニタと、近くに配置された第2モニタとでそれぞれのコンテンツを操作する場合を想定する。遠くの第1モニタではタッチパッド動作での操作によってポインティングを実施する。近くの第2モニタでは机あるいはひざの上などに指を立ててジョイスティック動作での操作を実施する。遠方の第1モニタへの操作及び近くの第2モニタへの操作のいずれにおいても直感的な操作を実施することができる。
図6は、第1の実施形態に係る認識装置による認識方法を例示するフローチャート図である。
認識装置100の取得部30は、第1素子10から第1部分10a(手首)の第1情報14を取得し(ステップS11)、第2素子20から第2部分20a(指)の第2情報24を取得する(ステップS12)。
特徴量算出部41は、第1情報14に基づいて第1部分10aの第1特徴量を算出し、第2情報24に基づいて第2部分20aの第2特徴量を算出する。
動作認識部42は、第1特徴量の変化と、第2特徴量の変化とに基づいて、ユーザの動作の種類がジョイスティック動作及びタッチパッド動作のいずれであるかを認識する(ステップS13)。
処理実施部43は、ステップS13で認識した動作の種類に対応した処理を、身体101の動作により操作される所定の操作対象に施す(ステップS14)。
なお、ステップS11〜ステップS14までの少なくとも一部の処理は、ソフトウェアである認識プログラムとして実施してもよい。なお、認識プログラムとは、認識装置100による動作認識処理を実施するためのプログラムである。
図7は、第1の実施形態に係る認識装置を例示する模式図である。
図7は、第1素子10を装着した第1部分10a(手首)の第1軸と、第2素子20を装着した第2部分20a(指)の第2軸との例を示す。
例えば、身体101の指先方向をZ軸、手の甲から垂直な方向をY軸、Y軸及びZ軸のそれぞれと互いに垂直な方向をX軸とする。第1素子10が第1部分10aに装着され、第2素子20が第2部分20aに装着される。基準軸60は、例えば、第1部分10a及び第2部分20aを曲げずに伸ばした状態において設定される。本例の場合、第1軸及び第2軸は同じ基準軸60として設定される。なお、第1軸と第2軸とは異なる軸でも良い。
基準軸60は、第1部分10a及び第2部分20aの傾きの大きさ(変化量)及び方向を求めるときの基準とされる。基準軸60を検出するタイミングは、例えば、ユーザの動作(ジェスチャ)が開始されたときとする。動作開始のトリガは、例えば、ユーザの所定の音声を検出したときである。動作開始のトリガは、ユーザが所定のボタンを押下したときでもよい。動作開始のトリガは、ユーザが手を所定の角度にして静止したときでもよい。これは、例えば、手を正面に向けた状態で一定時間の手の動き量が所定範囲内であった場合などである。
動作開始のトリガは、ユーザの手形状を検出したときでもよい。これは、例えば、手形状をカメラ等で検出することで実現される。動作開始のトリガは、ユーザの所定の動作を検出したときでもよい。所定の動作の検出には、指先に装着した圧力センサを用いる。例えば、一方の手の指先が他方の手の平等に接触したことを圧力センサで検出する。所定の動作の検出には、指や腕に装着した筋電センサを用いてもよい。筋電センサにより筋肉に流れる電流の変化を検出する。
図8、図9、図10は、第1の実施形態に係る認識装置を例示する模式図である。
図8は第1部分10a及び第2部分20aのピッチ角の傾きを示し、図9は第1部分10a及び第2部分20aのヨー角の傾きを示し、図10は第1部分10a及び第2部分20aのロール角の傾きを示す。
前述したように、第1部分10a及び第2部分20aの3次元的な傾きは、認識装置100から見て左右のX軸を軸とした上下方向のピッチ角θp(図8)と、上下のY軸を軸とした左右方向のヨー角θy(図9)と、前後のZ軸を軸としたロール角θr(図10)と、により表される。
上記のピッチ角θp、ヨー角θy及びロール角θrは、認識装置100を装着する位置や、装着する角度によって変わってくる。第1素子10を第1部分10a(手首)に装着し、第2素子20を第2部分20a(指)に装着した場合、ピッチ角θp、ヨー角θy及びロール角θrは、それぞれ図8、図9、図10に表す通り、ユーザから見てそれぞれ上下方向、左右方向、右回り/左回りの回転角として算出される。ピッチ角θp、ヨー角θy及びロール角θrは、図7の基準軸60に対して、例えば、下方向、右方向、右周りを正極性とし、上方向、左方向、左周りを負極性として、基準軸60からの相対的な傾き(回転角)として算出される。
図11は、第1の実施形態に係る認識装置を例示する模式図である。
図11は、タッチパッド動作における各部分の傾き変化の様子を示す。
図7〜図10に表したように、第1素子10が第1部分10a(手首)に装着され、第2素子20が第2部分20a(指)に装着される。第1部分10a及び第2部分20aを曲げずに伸ばした状態で基準軸60(図7)が設定される。基準軸60では第1部分10a及び第2部分20aが基準方向V0に向けられている。タッチパッド動作には、主に、肘を支点として手首から先はあまり動かさずに振るタッチパッド動作61と、手首を支点として手首から先を振るタッチパッド動作62と、肘を支点として手首から先も振るタッチパッド動作63と、が含まれる。
ここで、第1部分10aの基準軸60に関する第1傾き方向をV1、第2部分20aの基準軸60に関する第2傾き方向をV2とする。第1特徴量の変化は、例えば、基準軸60に関するピッチ角、ヨー角、ロール角の少なくともいずれかの変化(第1変化)である。同様に、第2特徴量の変化は、例えば、基準軸60に関するピッチ角、ヨー角、ロール角の少なくともいずれかの変化(第2変化)である。
タッチパッド動作61の場合、第1傾き方向V1と第2傾き方向V2とが一致している。つまり、第1変化の第1絶対値は、例えば、基準方向V0と第1傾き方向V1との間の角度の絶対値(|θ1|)として表される。第1変化の第1極性、つまり、角度θ1の極性は、例えば、負極性である。なお、ここでは、基準軸60に対して左方向への変化を負極性とし、基準軸60に対して右方向への変化を正極性とする。一方、第2変化の第2絶対値は、第1変化の場合と同様に、基準方向V0と第2傾き方向V2との間の角度の絶対値(|θ1|)として表される。第2変化の第2極性についても同じ負極性となる。
タッチパッド動作62の場合、基準方向V0と第1傾き方向V1とが一致している。このため、第1変化の第1絶対値は0である。一方、第2変化の第2絶対値は、例えば、基準方向V0と第2傾き方向V2との間の角度の絶対値(|θ2|)として表される。第2変化の第2極性、つまり、角度θ2の極性は、例えば、負極性である。
タッチパッド動作63の場合、基準方向V0と、第1傾き方向V1と、第2傾き方向V2と、はそれぞれ異なる。つまり、第1変化の第1絶対値は、例えば、基準方向V0と第1傾き方向V1との間の角度の絶対値(|θ1|)として表される。一方、第2変化の第2絶対値は、例えば、第1傾き方向V1と第2傾き方向V2との間の角度の絶対値(|θ2|)として表される。第1変化の第1極性、つまり、角度θ1の極性は、例えば、負極性である。第2変化の第2極性、つまり、角度θ2の極性は、例えば、負極性である。この場合、角度θ1の極性は角度θ2の極性と同じである。
上記において、角度|θ1|は、第1素子10の出力値(例えば、角速度値、加速度値及び地磁気値の少なくともいずれか)に基づき特徴量算出部41により算出される。同様に、角度|θ2|は、第2素子20の出力値(例えば、角速度値、加速度値及び地磁気値の少なくともいずれか)に基づき特徴量算出部41により算出される。角度θ1及び角度θ2は、基準方向V0、第1傾き方向V1及び第2傾き方向V2を平面に投影したときのベクトルに基づき算出してもよい。平面とは、例えば、図7のZX平面である。すなわち、平面とは、図7の基準軸60について、指先方向をZ軸、手の甲から垂直な方向をY軸、Y軸及びZ軸のそれぞれと互いに垂直な方向をX軸とした場合のZX平面である。平面は、YZ平面でもよい。角度θ1及び角度θ2は、ZX平面とYZ平面に投影した各ベクトル成分で変化の大きいほうを採用してもよい。
図12は、第1の実施形態に係る認識装置を例示する模式図である。
図12は、ジョイスティック動作における各部分の傾き変化の様子を示す。
図11と同様に、基準軸60は、第1部分10a及び第2部分20aを曲げずに伸ばした状態で設定される。基準軸60では第1部分10a及び第2部分20aが基準方向V0に向けられている。ジョイスティック動作64では、指先を支点として手首を動かす動作となる。
ジョイスティック動作64の場合、基準方向V0と、第1傾き方向V1と、第2傾き方向V2と、はそれぞれ異なる。つまり、第1変化の第1絶対値は、例えば、基準方向V0と第1傾き方向V1との間の角度の絶対値(|θ1|)として表される。一方、第2変化の第2絶対値は、例えば、第1傾き方向V1と第2傾き方向V2との間の角度の絶対値(|θ2|)として表される。第1変化の第1極性、つまり、角度θ1の極性は、例えば、負極性である。第2変化の第2極性、つまり、角度θ2の極性は、例えば、正極性である。この場合、角度θ1の極性は角度θ2の極性と逆である。
図11と同様に、角度|θ1|は、第1素子10の出力値(例えば、角速度値、加速度値及び地磁気値の少なくともいずれか)に基づき特徴量算出部41により算出される。角度|θ2|は、第2素子20の出力値(例えば、角速度値、加速度値及び地磁気値の少なくともいずれか)に基づき特徴量算出部41により算出される。角度θ1及び角度θ2は、基準方向V0、第1傾き方向V1及び第2傾き方向V2を平面に投影したときのベクトルに基づき算出してもよい。平面とは、例えば、図7のZX平面である。
タッチパッド動作(図11)の場合、角度θ1あるいは角度θ2のどちらかに変化がない、または、角度θ1の極性と角度θ2の極性とが同じ極性に変化することが分かる。一方、ジョイスティック動作(図12)の場合、指先を支点として動かすため、角度θ1の極性と角度θ2の極性とが逆の極性に変化することが分かる。これらの知見をふまえ、認識装置100では図13の方法に従って手首及び指の動作の種類を認識する。
図13は、第1の実施形態に係る認識装置の認識条件を例示する図である。
動作認識部42は、第1変化の第1絶対値と、第1変化の第1極性と、第2変化の第2絶対値と、第2変化の第2極性と、に基づいて、身体の動作の種類がジョイスティック動作及びタッチパッド動作のいずれであるかを認識する。図11及び図12で説明したように、第1絶対値は角度|θ1|に相当し、第1極性は角度θ1の極性に相当する。同様に、第2絶対値は角度|θ2|に相当し、第2極性は角度θ2の極性に相当する。動作認識部42は、図13の認識条件に従って、身体の動作の種類がジョイスティック動作及びタッチパッド動作のいずれであるかを認識する。具体的には以下のようになる。なお、本例では、第2閾値θt2は第1閾値θt1以上とする。
(1)角度|θ1|が第1閾値θt1以上であり、角度|θ2|が第2閾値θt2以上であり、角度θ1の極性が角度θ2の極性と逆である場合、ジョイスティック動作と認識する。
(2)角度|θ1|が第1閾値θt1以上であり、角度|θ2|が第2閾値θt2以上であり、角度θ1の極性が角度θ2の極性と同じである場合、タッチパッド動作と認識する。
(3)角度|θ1|が第1閾値θt1未満であり、角度|θ2|が第2閾値θt2未満となる場合、動作は任意とする。例えば、直前の動作を継続してもよい。すなわち、直前の動作がタッチパッド動作であれば、タッチパッド動作を継続する。直前の動作がジョイスティック動作であれば、ジョイスティック動作を継続する。また、動作に応じた操作を受け付けないようにしてもよい。
(4)上記(1)〜(3)以外の場合、タッチパッド動作と認識する。
上記(4)に関して、動作認識部42は、角度|θ1|が第1閾値θt1以上であり、角度|θ2|が第2閾値θt2未満である場合、角度θ1の極性及び角度θ2の極性に係わらず、タッチパッド動作と認識する。動作認識部42は、角度|θ1|が第1閾値θt1未満であり、角度|θ2|が第2閾値θt2以上である場合、角度θ1の極性及び角度θ2の極性に係わらず、タッチパッド動作と認識する。
なお、図11及び図12の例では基準軸60での第1部分10a(手首)及び第2部分20a(指)の傾きが同じ基準方向V0とした。基準軸60での第1部分10a及び第2部分20aのそれぞれの傾きは異なっていてもよい。角度|θ1|は基準軸60における第1部分10aの傾きからの差としてもよい。角度|θ2|は基準軸60における第2部分20aの傾きからの差としてもよい。
なお、認識装置100は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現される。すなわち、認識装置100に含まれる各部の機能は、上記のコンピュータ装置に搭載されたプロセッサに認識プログラムを実行させることにより実現することができる。このとき、認識装置100は、上記の認識プログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記の認識プログラムを配布して、この認識プログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、処理部40は、上記のコンピュータ装置に内蔵あるいは外付けされたメモリ、ハードディスクもしくはCD−R、CD−RW、DVD−RAM、DVD−Rなどの記憶媒体などを適宜利用して実現することができる。
本実施形態によれば、ユーザの特定部分(例えば手首及び指)が基準状態にあるときに座標軸を規定し、この座標軸上での特定部分の傾き変化によってユーザの動作(ジェスチャ)の種類を認識することができる。これにより、例えば、PC等の画面上に表示されるオブジェクトを動かす方向などを決定することができる。座標軸を適宜規定できるため、任意の方向でユーザが動作を開始してもよい。また、ユーザは、例えば、手のひら、太もも、机、空中など、任意の面(場所)で操作することができる。
本実施形態によれば、ユーザの動作の種類(例えば、ジョイスティック動作、タッチパッド動作)を正しく認識することができる。これにより、PCなどの操作対象機器の2つの動作モードを自動的に切り替え、ユーザの操作負担を軽減できる。
(第2の実施形態)
図14は、第2の実施形態に係る認識装置を例示するブロック図である。
図14(a)は認識装置の全体的な構成を示し、図14(b)は第1素子及び第2素子の具体例を示す。
本実施形態の認識装置200には、取得部31と、処理部90と、が設けられる。処理部90は、特徴量算出部91と、動作認識部92と、処理実施部93とを含む。認識装置200は、さらに、第1部分10a(例えば手首)及び第2部分20a(例えば指)を撮像する撮像部94を含む。撮像部94は例えばPC111に設けられる。この場合、認識装置200についてもPC111に設けられることが好ましい。認識装置200は、第1素子70及び第2素子80を含んでいてもよい。
本例の場合、図14(b)に表すように、第1素子70は、ユーザの動作に応じて変化する第1部分10aの状態に応じ第1信号71sgとなる第1エネルギー線72sgを出射する第1エネルギー線出射部70dである。第2素子80は、ユーザの動作に応じて変化する第2部分20aの状態に応じ第2信号81sgとなる第2エネルギー線82sgを出射する第2エネルギー線出射部80dである。これら第1素子70及び第2素子80は、ユーザの身体101の特定部分等に装着して使用される。例えば、第1素子70は手首などの第1部分10aに装着され、第2素子80は指などの第2部分20aに装着される。第1素子70は、手首などの第1部分10aに装着可能なリング状部材とされる。第2素子80は、指などの第2部分20aに装着可能なリング状部材とされる。第1素子70及び第2素子80の形状は、これらに限定されるものではない。
上記において、第1素子70は、動作する身体101の第1部分10aに装着される。取得部31は、第1情報95aを取得する。第1情報95aは、第1素子70で生成される第1信号71sgに関する情報である。第1信号71sgは、身体101の動作に応じて変化する第1部分10aの状態に対応する。第1信号71sgとして、例えば、図14(b)に表す第1エネルギー線出射部70dで生成される第1エネルギー線72sgが用いられる。第1情報95aとして、例えば、撮像部94で撮像された第1エネルギー線72sgの第1画像情報96aが用いられる。同様に、第2素子80は、動作する身体101の第2部分20aに装着される。取得部31は、第2情報95bを取得する。第2情報95bは、第2素子80で生成される第2信号81sgに関する情報である。第2信号81sgは、身体101の動作に応じて変化する第2部分20aの状態に対応する。第2信号81sgとして、例えば、図14(b)に表す第2エネルギー線出射部80dで生成される第2エネルギー線82sgが用いられる。第2情報95bとして、例えば、撮像部94で撮像された第2エネルギー線82sgの第2画像情報96bが用いられる。図14(b)の例では、撮像部94は、第1画像情報96a及び第2画像情報96bを含む画像情報96を出力する。
図14(b)において、第1エネルギー線出射部70dとして、例えば、赤外線LED(Light Emitting Diode)などの発光素子が用いられる。この場合、第1エネルギー線出射部70dは、赤外線を出射する。同様に、第2エネルギー線出射部80dとして、例えば、赤外線LEDなどの発光素子が用いられる。この場合、第2エネルギー線出射部80dは、赤外線を出射する。
撮像部94として、例えば、赤外線等のエネルギー線を撮像可能なCCD(Charge Coupled Device)を備えたカメラが用いられる。すなわち、撮像部94は、第1部分10aに装着された第1エネルギー線出射部70dから出射される第1エネルギー線72sgを撮像する。同様に、撮像部94は、第2部分20aに装着された第2エネルギー線出射部80dから出射される第2エネルギー線82sgを撮像する。
取得部31は、撮像部94から出力される画像情報96を取得する。画像情報96は、撮像部94で撮像された第1エネルギー線72sgの第1画像情報96aと、撮像部94で撮像された第2エネルギー線82sgの第2画像情報96bと、を含む。
本実施形態において、第1特徴量は、第1部分10aの3次元空間内での位置に関する値を含む。第1部分の位置に関する値は、例えば、撮像部94で撮像された第1信号71sgの位置に基づき算出される。同様に、第2特徴量は、第2部分20aの3次元空間内での位置に関する値を含む。第2部分20aの位置に関する値は、撮像部94で撮像された第2信号81sgの位置に基づき算出される。これら第1特徴量及び第2特徴量は、特徴量算出部91により算出される。
第1特徴量の変化は、例えば、3次元空間内に設けられた基準位置に対する第1部分10aの位置の変化(以下、第1変化という)である。第2特徴量の変化は、例えば、3次元空間内に設けられた基準位置に対する第2部分20aの位置の変化(以下、第2変化という)である。動作認識部92は、第1変化の第1距離と、第2変化の第2距離とに基づいて、身体101の動作の種類がジョイスティック動作及びタッチパッド動作のいずれであるかを認識する。第1距離は、例えば、画像上における第1部分10aの基準位置と第1位置との間の距離の絶対値として算出される。同様に、第2距離は、例えば、画像上における第2部分20aの基準位置と第2位置との間の距離の絶対値として算出される。
処理実施部93は、ユーザの動作の種類、つまり、ジョイスティック動作またはタッチパッド動作に応じた処理を、身体101の動作により操作される操作対象に対して実施する。操作対象は、例えば、PC111の画面に表示されるオブジェクトである。このオブジェクトとしては、例えば、マウスカーソルや、画像、画像内の特定部分などが含まれる。
図15は、第2の実施形態に係る認識装置を例示する模式図である。
図15は、タッチパッド動作における各部分の位置変化の様子を示す。
本例では、第1素子70が第1部分10a(手首)に装着され、第2素子80が第2部分20a(指)に装着される。認識装置200は例えばPC111に設けられる。第1部分10a及び第2部分20aを曲げずに伸ばした状態を基準状態120とする。基準状態120では第1部分10a及び第2部分20aが基準位置L0にある。本例において、タッチパッド動作には、主に、肘を支点として手首から先はあまり動かさずに振るタッチパッド動作121と、手首を支点として手首から先を振るタッチパッド動作122と、肘を支点として手首から先も振るタッチパッド動作123と、が含まれる。
ここで、第1部分10aの第1位置をL1、第2部分20aの第2位置をL2とする。第1特徴量の変化は、例えば、第1部分10aの位置の基準位置L0から第1位置L1への変化(第1変化)である。第2特徴量の変化は、例えば、第2部分20aの位置の基準位置L0から第2位置L2への変化(第2変化)である。
タッチパッド動作121〜123の各動作において、第1変化の第1距離は、第1部分10a及び第2部分20aを含む画像情報96における手首の基準位置L0と第1位置L1との間の距離の絶対値(|L1−L0|)として表される。第2変化の第2距離は、第1部分10a及び第2部分20aを含む画像情報96における指の基準位置L0と第2位置L2との間の距離の絶対値(|L2−L0|)として表される。
上記において、第1距離|L1−L0|は、撮像部94から取得した画像情報96における第1エネルギー線72sgの位置に基づき特徴量算出部91により算出される。第2距離|L2−L0|は、撮像部94から取得した画像情報96における第2エネルギー線82sgの位置に基づき特徴量算出部91により算出される。
図16は、第2の実施形態に係る認識装置を例示する模式図である。
図16は、ジョイスティック動作における各部分の位置変化の様子を示す。
図15と同様に、第1部分10a及び第2部分20aを曲げずに伸ばした基準状態120では第1部分10a及び第2部分20aが基準位置L0にある。ジョイスティック動作124は、指先を支点として手首を動かす動作となる。
ここで、第1部分10a(手首)の第1位置をL1、第2部分20a(指)の第2位置をL2とする。第1特徴量の変化は、例えば、第1部分10aの位置の基準位置L0から第1位置L1への変化(第1変化)である。第2特徴量の変化は、例えば、第2部分20aの位置の基準位置L0から第2位置L2への変化(第2変化)である。
ジョイスティック動作124において、第1変化の第1距離は、第1部分10a及び第2部分20aを含む画像情報96における第1部分10aの基準位置L0と第1位置L1との間の距離の絶対値(|L1−L0|)として表される。第2変化の第2距離は、第1部分10a及び第2部分20aを含む画像情報96における第2部分20aの基準位置L0と第2位置L2との間の距離の絶対値(|L2−L0|)として表される。
図15と同様に、第1距離|L1−L0|は、撮像部94から取得した画像情報96における第1エネルギー線72sgの位置に基づき特徴量算出部91により算出される。第2距離|L2−L0|は、撮像部94から取得した画像情報96における第2エネルギー線82sgの位置に基づき特徴量算出部91により算出される。
タッチパッド動作(図15)の場合、第1距離|L1−L0|が第2距離|L2−L0|よりも小さくなる。一方、ジョイスティック動作(図16)の場合、指先を支点として動かすため、第1距離|L1−L0|が第2距離|L2−L0|以上となる。これらの知見をふまえ、位置を特徴量として用いる場合は下記のように動作を認識する。なお、本例では、第2閾距離Lt2は第1閾距離Lt1以上とする。
(1)第1距離|L1−L0|が第2距離|L2−L0|以上であり、第1距離|L1−L0|が第1閾距離Lt1以上である場合に、ジョイスティック動作と認識する。
(2)第1距離|L1−L0|が第2距離|L2−L0|未満であり、第2距離|L2−L0|が第2閾距離Lt2以上である場合に、タッチパッド動作と認識する。
(3)上記(1)及び(2)以外の場合、動作は任意とする。例えば、直前の動作を継続してもよい。すなわち、直前の動作がタッチパッド動作であれば、タッチパッド動作を継続する。直前の動作がジョイスティック動作であれば、ジョイスティック動作を継続する。また、動作に応じた操作を受け付けないようにしてもよい。
本実施形態では、特定部分の3次元的な位置を特徴量として取得する。3次元的な位置は、上述したように、特定部分に装着されたエネルギー線出射部からエネルギー線を出射し、それを撮像部(カメラなど)によって検出することで推定される。なお、3次元的な位置は、モーションキャプチャシステムで各特定部分に装着したマーカーの位置を追跡して推定してもよい。3次元的な位置は、異なるアングルからのカメラを複数設置し、カメラで得られた各特定部分の画像から推定してもよい。
ここで、第1素子70は、第1の実施形態で説明した第1センサ10dを含んでいてもよい。第2素子80は、第1の実施形態で説明した第2センサ20dを含んでいてもよい。この場合、特定部分の傾きと、特定部分の位置と、の両方を特徴量として、身体101の動作の種類がジョイスティック動作及びタッチパッド動作のいずれであるかを認識してもよい。一般に位置よりも傾きを特徴量として用いた場合のほうが精度が高いと考えられる。そこで、傾きで認識された動作と、位置で認識された動作とが異なる場合には、傾きで認識された動作を優先的に採用するようにしてもよい。
全ての動作を尤度として求めるようにしてもよい。特定部分の傾きから算出した動作の尤度と、特定部分の位置から算出した動作の尤度とを荷重平均し、最も尤度の高い動作を認識結果としてもよい。
本実施形態によれば、第1の実施形態と同様に、ユーザの動作の種類(例えば、ジョイスティック動作、タッチパッド動作)を正しく認識することができる。これにより、PCなどの操作対象機器の2つの動作モードを自動的に切り替え、ユーザの操作負担を軽減できる。
なお、第1の実施形態と同様に、認識装置200は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現される。すなわち、認識装置200に含まれる各部の機能は、上記のコンピュータ装置に搭載されたプロセッサに認識プログラムを実行させることにより実現することができる。
(第3の実施形態)
図17は、第3の実施形態に係る認識装置を例示するブロック図である。
本実施形態の認識装置300には、取得部32と、処理部150と、が設けられる。処理部150は、特徴量算出部151と、動作認識部152と、移動ベクトル算出部153と、処理実施部154と、を含む。
本例の場合、第1素子130は、第1の実施形態で説明した第1センサ10dである。同様に、第2素子140は、第1の実施形態で説明した第2センサ20dである。第1素子130は第1部分10a(手首など)に装着され、第2素子140は第2部分20a(指など)に装着される。認識装置300は、第1素子130及び第2素子140を含んでいてもよい。
上記において、第1素子130は、動作する身体101の第1部分10aに装着される。取得部32は、第1情報131を取得する。第1情報131は、第1素子130で生成される第1信号131sgに関する情報である。第1信号131sgは、身体101の動作に応じて変化する第1部分10aの状態に対応する。第1信号131sgとして、例えば、図1(b)に表す第1センサ10dで生成される第1センサ信号15sgが用いられる。第1情報131として、例えば、第1センサ信号15sgの値を含む第1センサ情報15が用いられる。図17の例では、第1素子130は、第1情報131を出力し、取得部30は第1情報131を取得する。
第2素子140は、第1部分10aとの間の相対的な位置関係が動作に応じて変化する第2部分20aに装着される。取得部32は、第2情報141を取得する。第2情報141は、第2素子140で生成される第2信号141sgに関する情報である。第2信号141sgは、身体101の動作に応じて変化する第2部分20aの状態に対応する。第2信号141sgとして、例えば、図1(b)に表す第2センサ20dで生成される第2センサ信号25sgが用いられる。第2情報141として、例えば、第2センサ信号25sgの値を含む第2センサ情報25が用いられる。図17の例では、第2素子140は、第2情報141を出力し、取得部32は第2情報141を取得する。
取得部32は、第1素子130からの第1情報131と、第2素子140からの第2情報141と、操作受付状態であることを表す操作受付情報156と、を取得する。操作受付状態とは、例えば、動作(ジェスチャ)開始の合図が検出されてから動作終了の合図が検出されるまでの間としてもよい。操作受付情報156は、動作開始の合図となる情報である。
動作開始/終了の合図は、例えば、ユーザの所定の音声を検出したときである。動作開始/終了の合図は、ユーザにより所定のボタンが押下されたときでもよい。動作開始/終了の合図は、ユーザが手を所定の角度にしたまま静止したときでもよい。これは、例えば、手を正面に向けて一定時間の動き量が所定範囲内であった場合などである。動作開始/終了の合図は、所定の手形状を検出したときでもよい。これは、例えば、手形状をカメラ等で検出することが考えられる。動作開始/終了の合図は、ユーザによる所定の動作を検出したときでもよい。所定の動作は、例えば、指先に装着した圧力センサや、指や腕につけた筋電センサなどを用いて検出することが考えられる。
なお、上記の圧力センサや筋電センサ等によりタッチ動作が検出されている間を操作受付状態としてもよい。その他、PC160にインストールされたアプリケーションにおいて特定の状態(例えば、画像閲覧状態など)にある間を操作受付状態としてもよい。
特徴量算出部151は、第1の実施形態で説明した方法に基づいて、第1部分10aの第1特徴量及び第2部分20aの第2特徴量を算出する。動作認識部152は、第1特徴量の変化と第2特徴量の変化とに基づいて、身体101の動作の種類がジョイスティック動作及びタッチパッド動作のいずれであるかを認識する。ここで、操作受付状態になったときの第1部分10a(例えば手首)及び第2部分20a(例えば指)を基準状態とし、第1部分10aの第1特徴量及び第2部分20aの第2特徴量のそれぞれの基準状態からの変化をもとに身体101の動作を認識してもよい。第1特徴量は、例えば、第1部分10aの傾きである。第2特徴量は、例えば、第2部分20aの傾きである。
移動ベクトル算出部153は、取得部32が操作受付情報156を取得したときに、身体101の動作により操作される操作対象に移動させる移動ベクトルを算出する。ここで、操作対象とは、PC160の画面に表示されるオブジェクトである。オブジェクトとしては、例えば、マウスカーソルや、画像、画像内の特定部分などが含まれる。移動ベクトル算出部153は、ジョイスティック動作またはタッチパッド動作において、第1部分10aの第1特徴量の変化の大きさ及び方向と、第2部分20aの第2特徴量の変化の大きさ及び方向と、の少なくともいずれかに基づいて、移動ベクトルを算出する。認識装置300は、例えば、PC160に設けられていてもよい。
移動ベクトルの方向は、基準となる図7の座標系において、X軸成分の動きを左右、Y軸成分の動きを上下に割り当てることが望ましい。ジョイスティック動作のときに指の付け根がX軸の正方向に移動する動きは移動ベクトルが右方向となるように予め設定しておく。タッチパッド動作のときに指先がX軸の正方向に移動する動きは移動ベクトルが右方向になるように予め設定しておく。
また、ジョイスティック動作のときに指の付け根がY軸の正方向に移動する動きは移動ベクトルが上方向となるように予め設定しておく。タッチパッド動作のときに指先がY軸の正方向に移動する動きは移動ベクトルが上方向になるように予め設定しておく。また、上下左右のどれか1つにする必要はなく、図7のXY平面内の角度で方向を算出してもよい。移動ベクトルの大きさは、第1部分10aに装着された第1素子130または第2部分20aに装着された第2素子140の基準傾きからの傾きの変化に応じて設定すればよい。
移動ベクトル算出部153は、第1特徴量の変化の大きさ及び第2特徴量の変化の大きさの少なくともいずれかが所定値以上である状態が所定時間以上継続するときに、移動ベクトルの大きさを拡大するようにしてもよい。つまり、第1素子130または第2素子140が基準軸から所定角度以上傾いた状態が所定時間T0以上継続するときに、移動ベクトルの大きさを拡大する。例えば、所定角度以上傾いている時間から所定時間T0を引いた時間に応じた倍率だけ拡大する。これにより、例えば、指を傾けた状態で保持しておくだけで画面内のオブジェクトを徐々に移動させることができる。
指の移動速度で移動ベクトルの大きさを設定してもよい。この場合、所定の速さ以上の動きが検出されなかったときには移動ベクトルの大きさを0としてもよい。指先のタッチ検出ができる場合は、押している強さ(押圧力)に応じて移動ベクトルの大きさを変えてもよい。例えば、押圧力が強い場合は移動ベクトルの大きさを低減するように補正する。これにより、あたかも大きな摩擦を受けながら画面内のオブジェクトが動くように見せることができる。
なお、上記では特定部分の傾きを特徴量とした場合について説明した。第2の実施形態で説明した特定部分の位置を特徴量としてもよい。この場合には、傾きの変化に代えて位置の変化を採用することで移動ベクトルが算出できる。
処理実施部154は、ジョイスティック動作またはタッチパッド動作において、移動ベクトルに応じた処理を、身体101の動作により操作される操作対象に対して実施する。操作対象は、上述したように、PC160の画面に表示されるオブジェクトである。このオブジェクトとしては、例えば、マウスカーソルや、画像、画像内の特定部分などが含まれる。
処理実施部154は、上記の移動ベクトルに基づいた処理を、PC160の画面内のオブジェクトに施す。例えば、マウスカーソル等のオブジェクトがタッチパッド動作では上下左右のいずれかに動き、ジョイスティック動作では斜めにも動けるようなアプリケーションについて想定する。身体の動作がタッチパッド動作である場合、移動ベクトルのうち上下左右方向のうち最も大きい成分の方向にオブジェクトを移動する。つまり、移動ベクトルと上方向/下方向/左方向/右方向の各単位ベクトルとの内積をとり、最も大きい値となる方向にその内積に比例した距離だけ移動するようにしてもよい。
図18は、第3の実施形態に係る認識装置の認識方法を例示するフローチャート図である。
認識装置300の取得部32は、操作受付情報156を取得する(ステップS21)。
取得部32は、第1素子130から第1部分10a(手首)の第1情報131を取得し(ステップS22)、第2素子140から第2部分20a(指)の第2情報141を取得する(ステップS23)。
特徴量算出部151は、第1情報131に基づいて第1部分10aの第1特徴量を算出し、第2情報141に基づいて第2部分20aの第2特徴量を算出する。
動作認識部152は、第1特徴量の変化と、第2特徴量の変化とに基づいて、ユーザの動作の種類がジョイスティック動作及びタッチパッド動作のいずれであるかを認識する(ステップS24)。
移動ベクトル算出部153は、第1部分10aの第1特徴量の変化の大きさ及び方向及び第2部分20aの第2特徴量の変化の大きさ及び方向の少なくともいずれかに基づいて、PC160の画面内のオブジェクト(マウスカーソル、画像など)の移動ベクトルを算出する(ステップS25)。
処理実施部154は、ステップS24で認識したジョイスティック動作またはタッチパッド動作において、ステップS25で算出した移動ベクトルに応じた処理を、PC160の画面内のオブジェクトに施す(ステップS26)。
なお、ステップS21〜ステップS26までの少なくとも一部の処理は、ソフトウェアである認識プログラムとして実施してもよい。
図19は、第3の実施形態に係る認識装置の認識方法を例示するフローチャート図である。
図19は、図18の詳細フローであり、第1部分10aの傾きと第2部分20aの傾きとを特徴量として、身体101の動作(ジェスチャ)を認識する場合について例示する。 認識装置300の取得部32は、操作受付情報156を取得する(ステップS31)。
このとき、取得部32は、第1素子130から第1部分10a(手首)の第1情報131を取得し、第2素子140から第2部分20a(指)の第2情報141を取得する。
特徴量算出部151は、第1情報131に基づいて第1部分10aの傾き(第1特徴量)を算出し、第2情報141に基づいて第2部分20aの傾き(第2特徴量)を算出する(ステップS32)。本例では、第1部分10aの傾きをベクトルα1とし、第2部分20aの傾きをベクトルα2とする。
動作認識部152は、操作受付情報156に基づき操作受付状態にあるか否かを判定し(ステップS33)、操作受付状態にないと判定した場合(NOの場合)、終了する。ステップS33において、操作受付状態にあると判定した場合(YESの場合)、操作受付開始時の第2部分20aの傾き(ベクトルα2s)を記録する(ステップS34)。
動作認識部152は、傾きの変化量及び方向に基づいて、身体101の動作の種類がジョイスティック動作及びタッチパッド動作のいずれであるかを認識する(ステップS35)。なお、傾きの変化量とは、第1部分10aの傾き(ベクトルα1)の変化量と、第2部分20aの傾き(ベクトルα2)の変化量と、を含む。
移動ベクトル算出部153は、第2部分20aのベクトルの差分(α2−α2s)と基準ベクトルβとの関係から、PC160の画面内のオブジェクトの移動ベクトルを算出する(ステップS36)。
処理実施部154は、ステップS35で認識したジョイスティック動作またはタッチパッド動作において、ステップS36で算出した移動ベクトルに基づいて、PC160の画面内のオブジェクトを移動させ(ステップS37)、ステップS31に戻り処理を繰り返す。
なお、ステップS31〜ステップS37までの少なくとも一部の処理は、ソフトウェアである認識プログラムとして実施してもよい。
図20は、第3の実施形態に係る認識装置を例示する模式図である。
図20は、タッチパッド動作での移動ベクトルの例を示す図である。
本例において、第1素子130が第1部分10a(手首)に装着され、第2素子140が第2部分20a(指)に装着されている。ユーザは面310に対して第1部分10a及び第2部分20aが姿勢313の状態にある。ユーザは姿勢313からタッチパッド動作でX軸(図7)の正方向311に指先を移動させる。これにより、ユーザの姿勢は姿勢313から姿勢314に遷移する。このとき、PC160の画面上のオブジェクト161は、第2部分20aに装着した第2素子140の傾き変化のX軸成分に比例した大きさで、画面右向き(X軸方向を右向きとした場合)の移動ベクトル162だけ移動する。これに伴いPC160の画面表示が更新される。
上記と同様であるが、ユーザが姿勢313からタッチパッド動作でX軸の正方向312に指先を移動させる。これにより、ユーザの姿勢は姿勢313から姿勢315に遷移する。つまり、姿勢313から姿勢315への移動量は、姿勢313から姿勢314への移動量よりも大きい。このとき、PC160の画面上のオブジェクト161は、移動ベクトル162よりも大きい移動ベクトル163だけ右方向に移動する。これに伴いPC160の画面表示が更新される。
図21は、第3の実施形態に係る認識装置を例示する模式図である。
図21は、ジョイスティック動作での移動ベクトルの例を示す図である。
本例において、図20と同様に、第1素子130が第1部分10a(手首)に装着され、第2素子140が第2部分20a(指)に装着されている。ユーザは面310に対して第1部分10a及び第2部分20aが姿勢318の状態にある。ユーザは姿勢318からジョイスティック動作でX軸(図7)の正方向316に指の付け根を移動させる。これにより、ユーザの姿勢は姿勢318から姿勢319に遷移する。このとき、PC160の画面上のオブジェクト164は、第2部分20aに装着した第2素子140の傾き変化のX軸成分に比例した大きさで、画面右向きの移動ベクトル165だけ移動する。これに伴いPC160の画面表示が更新される。
上記と同様であるが、ユーザが姿勢318からジョイスティック動作でX軸の正方向317に指の付け根を移動させる。これにより、ユーザの姿勢は姿勢318から姿勢320に遷移する。つまり、姿勢318から姿勢320への移動量は、姿勢318から姿勢319への移動量よりも大きい。このとき、PC160の画面上のオブジェクト164は、移動ベクトル165よりも大きい移動ベクトル166だけ右方向に移動する。これに伴いPC160の画面表示が更新される。
なお、第1の実施形態と同様に、認識装置300は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現される。すなわち、認識装置300に含まれる各部の機能は、上記のコンピュータ装置に搭載されたプロセッサに認識プログラムを実行させることにより実現することができる。
(第4の実施形態)
図22〜図26は、第4の実施形態に係る認識装置を例示する模式図である。
第1の実施形態では手首及び指にそれぞれセンサを装着する場合について示したが、それに限定されることはない。例えば、グローブ型センサとし、指の代わりに手の甲にセンサを装着しても同様の動作認識を実施できる。二の腕と手首にそれぞれセンサを装着してもよい。そのほか、手がふさがっているときに足でジェスチャをすることも可能である。例えば、足首とつま先にそれぞれセンサを装着してもよい。太ももと足首にそれぞれセンサを装着してもよい。この場合、例えば、車の運転中でハンドルを握っているときに空調操作やカーナビ操作などを行いたいときなどにも適用可能である。さらに、センサの装着部分は身体に限定されることはない。例えば、手首とペン等の手で保持できる部材とにそれぞれセンサを装着してもよい。
以下に例示する第1センサ及び第2センサは、第1の実施形態における第1センサ10d及び第2センサ20dと同様である。
図22の例では、第1部分10aを手首、第2部分20aを手の甲として、例えば、グローブ部材403に装着された第1センサ401、第2センサ402でそれぞれの部分をセンシングする。これにより、指先を動かすタッチパッド動作404と、指先を支点として指の付け根を動かすジョイスティック動作405と、を認識できる。
図23の例では、第1部分10aを二の腕、第2部分20aを手首として、各部分に装着された第1センサ411、第2センサ412でそれぞれの部分をセンシングする。これにより、棒状部材414に対して手を動かすタッチパッド動作413と、棒状部材414に掴まっている状態で手を支点として肘を動かすジョイスティック動作415と、を認識できる。
図24の例では、第1部分10aを足首、第2部分20aをつま先として、各部分に装着された第1センサ421、第2センサ422(例えば、靴底などに装着)でそれぞれの部分をセンシングする。これにより、地面に対してつま先を動かすタッチパッド動作423と、地面につけたつま先を支点として足首を動かすジョイスティック動作424と、を認識できる。
図25の例では、第1部分10aを太もも、第2部分20aを足首として、各部分に装着された第1センサ431、第2センサ432(例えば、ズボンなどに装着)でそれぞれの部分をセンシングする。これにより、地面に対して足先を動かすタッチパッド動作433と、地面につけた足の裏を支点としてひざを動かすジョイスティック動作434と、を認識できる。
図26の例では、第1部分10aを手首、第2部分20aを手で保持可能な部材として、各部分に装着された第1センサ441、第2センサ442(例えば、部材端の近傍に装着)でそれぞれの部分をセンシングする。なお、第2センサ442は、部材に内蔵されていてもよい。これにより、面443に対して部材端を動かすタッチパッド動作444と、面443につけた部材端を支点として手で保持した位置を動かすジョイスティック動作445と、を認識できる。
(応用例)
実施形態の認識装置を他の機器に応用してもよい。以下に例示する第1センサ及び第2センサは、第1の実施形態における第1センサ10d及び第2センサ20dと同様である。
(第1応用例)
図27は、第1応用例に係る認識装置を例示する模式図である。
本例では、実施形態の認識装置によりチャンネル操作が視聴者のジェスチャで行われる。視聴者の身体503には第1センサ501が手首に、第2センサ502が指にそれぞれ装着されている。
テレビ受像機504の画面505には現在4チャンネル(4ch)の映像が表示されている。視聴者は例えばタッチパッド動作により指先を左(基準に対して負方向)に動かす送り動作を行う。認識装置は、第1センサ501及び第2センサ502により視聴者の動作を認識する。テレビ受像機504は、認識された動作に応じて、現在の4チャンネルを3チャンネル(3ch)に変更する。視聴者は例えばタッチパッド動作により指先を右(基準に対して正方向)に動かす送り動作を行う。認識装置は、第1センサ501及び第2センサ502により視聴者の動作を認識する。テレビ受像機504は、認識された動作に応じて、現在の4チャンネルを5チャンネル(5ch)に変更する。なお、ジョイスティック動作を行っても同様の操作が可能である。
(第2応用例)
図28は、第2応用例に係る認識装置を例示する模式図である。
本例では、実施形態の認識装置によりウェブコンテンツや文書のスクロール操作がユーザのジェスチャで行われる。ユーザの身体513には第1センサ511が手首に、第2センサ512が指にそれぞれ装着されている。
PC514の画面515には、ウィンドウ516内にウェブコンテンツや文書が表示されている。ユーザは例えばタッチパッド動作により指先を上(基準に対して負方向)に動かす送り動作を行う。認識装置は、第1センサ511及び第2センサ512によりユーザの動作を認識する。PC514は、認識された動作に応じて、ウェブコンテンツや文書を上方向にスクロールさせる。ユーザは例えばタッチパッド動作により指先を下(基準に対して正方向)に動かす送り動作を行う。認識装置は、第1センサ511及び第2センサ512によりユーザの動作を認識する。PC514は、認識された動作に応じて、ウェブコンテンツや文書を下方向にスクロールさせる。このとき、スクロールバー517で示されるスクロール量は予め定めておいた一定量でもよい。スクロール量は、速い送り動作なら大きくするなど、送り動作の速度に応じて変化させてもよい。
これにより、ユーザは、送り動作を行った方向に、ウィンドウ516内の表示内容をスクロールさせて、ウェブコンテンツや文書などを閲覧することができる。なお、ジョイスティック動作を行っても同様の操作は可能である。
(第3応用例)
図29は、第3応用例に係る認識装置を例示する模式図である。
本例では、実施形態の認識装置により患者に係る各種情報の提供が医者のジェスチャで行われる。医者の身体523には第1センサ521が手首に、第2センサ522が手の甲にそれぞれ装着されている。医者は手術中に手袋をはめるため、図22に例示したグローブ型が好ましい。また、各センサは手術の邪魔にならない位置に設けることが好ましい。情報端末524は、患者のモニタリング情報や検査結果等の情報提供を行う。
手術中の医者は手を清潔に保つ必要がある。このため、医者が情報端末524を手で直接触って操作することは困難である。そこで、本例によれば、医者のジェスチャによって非接触で情報端末524を操作できる。
手術中に医者がタッチパッド動作またはジョイスティック動作を行う。認識装置は、第1センサ521及び第2センサ522により医者の動作を認識する。情報端末524では、認識された動作に応じて、画面切り替えやスクロールなどの各種操作を実施する。
さらに、実施形態の認識装置は、非接触で操作対象を操作できるため、料理中で手が汚れて使えない場合などにおいても好適である。例えば、料理中にテレビのチャンネルを切り替えたいときに、図24に例示した組み合わせ(足首とつま先)等を採用することで、手を使わずにチャンネル切り替えを行うことができる。
以上、実施形態として認識装置、認識装置による認識方法を例示して説明したが、実施形態は、この認識方法をコンピュータに実行させるための認識プログラムの形態、あるいは、この認識プログラムを記録したコンピュータ読み取り可能な記録媒体の形態としてもよい。
上記の記録媒体としては、具体的には、CD-ROM(-R/-RW)、光磁気ディスク、HD(ハードディスク)、DVD-ROM(-R/-RW/-RAM)、FD(フレキシブルディスク)、フラッシュメモリ、メモリカードや、メモリスティック及びその他各種ROMやRAM等が想定でき、これら記録媒体に上述した本実施形態の認識方法をコンピュータに実行させるための認識プログラムを記録して流通させることにより、当該方法の実現を容易にする。そしてコンピュータ等の情報処理装置に上記のごとくの記録媒体を装着して情報処理装置により認識プログラムを読み出すか、若しくは情報処理装置が備えている記憶媒体に当該認識プログラムを記憶させておき、必要に応じて読み出すことにより、本実施形態の認識方法を実行することができる。
このように、実施形態によれば、ユーザの操作負担を軽減できる認識装置、認識方法及び認識プログラムが提供できる。
以上、具体例を参照しつつ、本発明の実施の形態について説明した。しかし、本発明は、これらの具体例に限定されるものではない。例えば、取得部、処理部などの各要素の具体的な構成に関しては、当業者が公知の範囲から適宜選択することにより本発明を同様に実施し、同様の効果を得ることができる限り、本発明の範囲に包含される。
また、各具体例のいずれか2つ以上の要素を技術的に可能な範囲で組み合わせたものも、本発明の要旨を包含する限り本発明の範囲に含まれる。
その他、本発明の実施の形態として上述した認識装置、認識方法及び認識プログラムを基にして、当業者が適宜設計変更して実施し得る全ての認識装置、認識方法及び認識プログラムも、本発明の要旨を包含する限り、本発明の範囲に属する。
その他、本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変更例及び修正例についても本発明の範囲に属するものと了解される。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10、70、130…第1素子、 10a…第1部分、 10d…第1センサ、 11…第1角速度センサ、 12…第1加速度センサ、 13…第1地磁気センサ、 14、95a、131…第1情報、 14sg、71sg、131sg…第1信号、 15…第1センサ情報、 15sg…第1センサ信号、 20、80、140…第2素子、 20a…第2部分、 20b…別の部分、 20c…端、 20d…第2センサ、 21…第2角速度センサ、 22…第2加速度センサ、 23…第2地磁気センサ、 24、95b、141…第2情報、 24sg、81sg、141sg…第2信号、 25…第2センサ情報、 25sg…第2センサ信号、 30、31、32…取得部、 40、90、150…処理部、 41、91、151…特徴量算出部、 42、92、152…動作認識部、 43、93、154…処理実施部、 51、51a、51b…ブラウザ画面、 52…マウスカーソル、 53…第1オブジェクト、 54…第2オブジェクト、 55…スクロールバー、 56…第3オブジェクト、 57、57a、57b…画像閲覧画面、 58、100a、100b…矢印、 60…基準軸(第1軸、第2軸)、 61、62、63、121、122、123、404、413、423、433、444…タッチパッド動作、 64、124、405、415、424、434、445…ジョイスティック動作、 70d…第1エネルギー線出射部、 72sg…第1エネルギー線、 80d…第2エネルギー線出射部、 82sg…第2エネルギー線、 94…撮像部、 96…画像情報、 96a…第1画像情報、 96b…第2画像情報、 100、200、300…認識装置、 101、503、513、523…身体、 110、111、160、514…PC(パーソナルコンピュータ)、 120…基準状態、 161、164、304…オブジェクト、 162、163、165、166…移動ベクトル、 301…センサ、 302、505、515…画面、 303…カーソル、 310、443…面、 311、312、316、317…正方向、 313、314,315、318、319、320…姿勢、 401、411、421、431、441、501、511、521…第1センサ、 402、412、422、432、442、502、512、522…第2センサ 403…グローブ部材、 414…棒状部材、 504…テレビ受像機、 516…ウィンドウ、 517…スクロールバー、 524…情報端末

Claims (25)

  1. 身体の第1部分に装着された第1素子で生成され、前記身体の動作に応じて変化する第1信号に関する第1情報と、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する第2情報と、を取得する取得部と、
    前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する処理部と、
    を備え
    前記第1特徴量は、前記第1部分の第1軸の3次元空間内での傾きに関する値を含み、
    前記第2特徴量は、前記第2部分の第2軸の前記3次元空間内での傾きに関する値を含む、認識装置。
  2. 前記第1軸の前記傾きに関する前記値は、第1〜第3角度を含み、
    前記第1〜第3角度は、前記3次元空間内において互いに交差する3つの軸のそれぞれに対する前記第1軸の角度のそれぞれであり、
    前記第2軸の前記傾きに関する前記値は、第4〜第6角度を含み、
    前記第4〜第6角度は、前記3次元空間内において互いに交差する3つの軸のそれぞれに対する前記第2軸の角度のそれぞれである請求項記載の認識装置。
  3. 前記第1特徴量の変化は、前記第1〜第3角度の少なくともいずれかの変化を含み、
    前記第2特徴量の変化は、前記第4〜第6角度の少なくともいずれかの変化を含む請求項記載の認識装置。
  4. 前記処理部は、
    前記第1〜第3角度の前記少なくともいずれかの前記変化の第1絶対値と、
    前記第1〜第3角度の前記少なくともいずれかの前記変化の第1極性と、
    前記第4〜第6角度の前記少なくともいずれかの前記変化の第2絶対値と、
    前記第4〜第6角度の前記少なくともいずれかの前記変化の第2極性と、
    に基づいて、前記種類が第1動作及び第2動作のいずれであるかを認識する請求項記載の認識装置。
  5. 前記処理部は、前記第1絶対値が第1閾値以上であり、前記第2絶対値が第2閾値以上であり、前記第1極性が前記第2極性と逆である場合に、前記種類が前記第1動作であると認識し、
    前記処理部は、前記第1絶対値が前記第1閾値以上であり、前記第2絶対値が前記第2閾値以上であり、前記第1極性が前記第2極性と同じである場合に、前記種類が前記第2動作であると認識する請求項記載の認識装置。
  6. 前記処理部は、前記第1絶対値が前記第1閾値以上であり、前記第2絶対値が前記第2閾値未満である場合に、前記種類が前記第2動作であると認識する請求項記載の認識装置。
  7. 前記処理部は、前記第1絶対値が前記第1閾値未満であり、前記第2絶対値が前記第2閾値以上である場合に、前記種類が前記第2動作であると認識する請求項記載の認識装置。
  8. 前記処理部は、前記第1特徴量の変化と前記第2特徴量の変化とを用いて、前記動作の種類を認識する請求項1〜7のいずれか1つに記載の認識装置。
  9. 前記第1素子は、前記動作に応じて変化する前記第1部分の前記状態を検知する第1センサを含み、
    前記第1信号は、前記第1センサで生成される第1センサ信号を含み、
    前記第2素子は、前記動作に応じて変化する前記第2部分の前記状態を検知する第2センサを含み、
    前記第2信号は、前記第2センサで生成される第2センサ信号を含む、
    請求項1〜のいずれか1つに記載の認識装置。
  10. 前記第1センサは、第1角速度センサ、第1加速度センサ及び第1地磁気センサの少なくともいずれかを含み、
    前記第2センサは、第2角速度センサ、第2加速度センサ及び第2地磁気センサの少なくともいずれかを含む請求項記載の認識装置。
  11. 身体の第1部分に装着された第1素子で生成され、前記身体の動作に応じて変化する第1信号に関する第1情報と、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する第2情報と、を取得する取得部と、
    前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する処理部と、
    を備え、
    前記第1特徴量は、前記第1部分の3次元空間内での位置に関する値を含み、
    前記第2特徴量は、前記第2部分の前記3次元空間内での位置に関する値を含む認識装置。
  12. 前記第1特徴量の変化は、前記3次元空間内に設けられた基準位置に対する前記第1部分の前記位置の変化を含み、
    前記第2特徴量の変化は、前記基準位置に対する前記第2部分の前記位置の変化を含む請求項1記載の認識装置。
  13. 前記処理部は、前記第1部分の前記変化の第1距離と、前記第2部分の前記変化の第2距離と、に基づいて、前記種類が第1動作及び第2動作のいずれであるかを認識する請求項1記載の認識装置。
  14. 前記処理部は、前記第1距離が前記第2距離以上であり、前記第1距離が第1閾距離以上である場合に、前記種類が前記第1動作と認識し、
    前記処理部は、前記第1距離が前記第2距離未満であり、前記第2距離が第2閾距離以上である場合に、前記種類が前記第2動作と認識する請求項1記載の認識装置。
  15. 前記第1部分及び前記第2部分を撮像する撮像部をさらに備え、
    前記第1素子は、前記動作に応じて変化する前記第1部分の状態に応じ前記第1信号となる第1エネルギー線を出射する第1エネルギー線出射部を含み、
    前記第1情報は、前記撮像部で撮像された前記第1エネルギー線の第1画像情報を含み、
    前記第2素子は、前記動作に応じて変化する前記第2部分の状態に応じ前記第2信号となる第2エネルギー線を出射する第2エネルギー線出射部を含み、
    前記第2情報は、前記撮像部で撮像された前記第2エネルギー線の第2画像情報を含む請求項1〜1のいずれか1つに記載の認識装置。
  16. 前記第1部分は、前記身体の手首を含み、
    前記第2部分は、前記身体の指を含む請求項1〜1のいずれか1つに記載の認識装置。
  17. 前記第1部分は、前記身体の手首を含み、
    前記第2部分は、前記身体の手で保持される部材を含む請求項1〜1のいずれか1つに記載の認識装置。
  18. 前記第1動作は、前記第2部分の端を支点として前記第2部分の別の部分を動かすことを含み、
    前記第2動作は、前記第2部分の前記端と共に前記第2部分の別の部分を動かすことを含む請求項または1に記載の認識装置。
  19. 前記処理部は、前記種類に応じた処理を、前記身体の前記動作により操作される操作対象に対してさらに実施する請求項1〜1のいずれか1つに記載の認識装置。
  20. 身体の第1部分に装着された第1素子で生成され、前記身体の動作に応じて変化する第1信号に関する第1情報と、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する第2情報と、を取得する取得部と、
    前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する処理部と、
    を備え、
    前記処理部は、前記取得部が操作受付状態であることを表す操作受付情報を取得したときに、前記身体の前記動作により操作される操作対象を移動させる移動ベクトルを、前記第1特徴量の変化の大きさ及び方向と、前記第2特徴量の変化の大きさ及び方向と、の少なくともいずれかに基づいて算出する認識装置。
  21. 前記処理部は、前記第1特徴量の前記変化の大きさ及び前記第2特徴量の前記変化の大きさの少なくともいずれかが所定値以上である状態が所定時間以上継続するときに、前記移動ベクトルの大きさを拡大する請求項2記載の認識装置。
  22. 前記処理部は、前記移動ベクトルに応じた処理を、前記操作対象に対して実施する請求項2または2に記載の認識装置。
  23. 前記第1素子と前記第2素子とをさらに備えた請求項1〜2のいずれか1つに記載の認識装置。
  24. 身体の第1部分に装着された第1素子で生成され、前記身体の動作に応じて変化する第1信号に関する第1情報と、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する第2情報と、を取得する処理と、
    前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する処理と、
    を含み、
    前記第1特徴量は、前記第1部分の第1軸の3次元空間内での傾きに関する値を含み、
    前記第2特徴量は、前記第2部分の第2軸の前記3次元空間内での傾きに関する値を含む、認識方法。
  25. 身体の第1部分に装着された第1素子で生成され、前記身体の動作に応じて変化する第1信号に関する第1情報と、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する第2情報と、を取得する処理と、
    前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する処理と、
    をコンピュータに実行させ
    前記第1特徴量は、前記第1部分の第1軸の3次元空間内での傾きに関する値を含み、
    前記第2特徴量は、前記第2部分の第2軸の前記3次元空間内での傾きに関する値を含む、認識プログラム。
JP2014189472A 2014-09-17 2014-09-17 認識装置、認識方法及び認識プログラム Active JP6329469B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014189472A JP6329469B2 (ja) 2014-09-17 2014-09-17 認識装置、認識方法及び認識プログラム
US14/853,124 US9916015B2 (en) 2014-09-17 2015-09-14 Recognition device, recognition method, and non-transitory recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014189472A JP6329469B2 (ja) 2014-09-17 2014-09-17 認識装置、認識方法及び認識プログラム

Publications (2)

Publication Number Publication Date
JP2016062274A JP2016062274A (ja) 2016-04-25
JP6329469B2 true JP6329469B2 (ja) 2018-05-23

Family

ID=55454741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014189472A Active JP6329469B2 (ja) 2014-09-17 2014-09-17 認識装置、認識方法及び認識プログラム

Country Status (2)

Country Link
US (1) US9916015B2 (ja)
JP (1) JP6329469B2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016095795A (ja) 2014-11-17 2016-05-26 株式会社東芝 認識装置、方法、及びプログラム
JP6483556B2 (ja) 2015-07-15 2019-03-13 株式会社東芝 操作認識装置、操作認識方法及びプログラム
US10509469B2 (en) * 2016-04-21 2019-12-17 Finch Technologies Ltd. Devices for controlling computers based on motions and positions of hands
WO2017208628A1 (ja) * 2016-05-30 2017-12-07 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
EP3493011B1 (en) * 2016-07-29 2022-09-14 NEC Solution Innovators, Ltd. Mobile body control system, control signal transmission system, mobile body control method, program, and recording medium
WO2018020744A1 (ja) 2016-07-29 2018-02-01 Necソリューションイノベータ株式会社 移動体操縦システム、操縦シグナル送信システム、移動体操縦方法、プログラム、および記録媒体
US10705113B2 (en) 2017-04-28 2020-07-07 Finch Technologies Ltd. Calibration of inertial measurement units attached to arms of a user to generate inputs for computer systems
US10379613B2 (en) 2017-05-16 2019-08-13 Finch Technologies Ltd. Tracking arm movements to generate inputs for computer systems
US10540006B2 (en) 2017-05-16 2020-01-21 Finch Technologies Ltd. Tracking torso orientation to generate inputs for computer systems
US10521011B2 (en) 2017-12-19 2019-12-31 Finch Technologies Ltd. Calibration of inertial measurement units attached to arms of a user and to a head mounted device
US10509464B2 (en) 2018-01-08 2019-12-17 Finch Technologies Ltd. Tracking torso leaning to generate inputs for computer systems
US11016116B2 (en) 2018-01-11 2021-05-25 Finch Technologies Ltd. Correction of accumulated errors in inertial measurement units attached to a user
US10416755B1 (en) 2018-06-01 2019-09-17 Finch Technologies Ltd. Motion predictions of overlapping kinematic chains of a skeleton model used to control a computer system
US11474593B2 (en) 2018-05-07 2022-10-18 Finch Technologies Ltd. Tracking user movements to control a skeleton model in a computer system
US11009941B2 (en) 2018-07-25 2021-05-18 Finch Technologies Ltd. Calibration of measurement units in alignment with a skeleton model to control a computer system
JPWO2021038786A1 (ja) * 2019-08-29 2021-03-04
KR102270424B1 (ko) * 2019-09-26 2021-06-30 주식회사 팜캣 점과 각을 통한 동작인식 방법 및 시스템
US11531392B2 (en) * 2019-12-02 2022-12-20 Finchxr Ltd. Tracking upper arm movements using sensor modules attached to the hand and forearm
US20230054973A1 (en) * 2020-02-06 2023-02-23 Sony Group Corporation Information processing apparatus, information processing method, and information processing program
JP2023179927A (ja) * 2022-06-08 2023-12-20 株式会社ジンズホールディングス 情報処理方法、プログラム、及び情報処理装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579033A (en) 1992-05-20 1996-11-26 International Business Machines Corporation Pointing device for retrofitting onto the keyboard of an existing computer system
CN1167996C (zh) * 2002-07-11 2004-09-22 庄胜雄 可形成虚拟追踪球的手套滑鼠
JP4119187B2 (ja) 2002-07-17 2008-07-16 国立大学法人金沢大学 入力装置
JP2005050159A (ja) 2003-07-29 2005-02-24 Tatsuto Fujie 手首の動きでポインタを制御するポインティングデバイス
US7042438B2 (en) 2003-09-06 2006-05-09 Mcrae Michael William Hand manipulated data apparatus for computers and video games
WO2009024971A2 (en) 2007-08-19 2009-02-26 Saar Shai Finger-worn devices and related methods of use
JP2009064053A (ja) * 2007-09-04 2009-03-26 Citizen Holdings Co Ltd 操作入力装置
JP2009104429A (ja) * 2007-10-24 2009-05-14 Nikon Corp ヘッドマウントディスプレイ装置及び携帯装置
JP2008135033A (ja) * 2007-11-26 2008-06-12 Olympus Corp 手姿勢動作検出装置
US20110199303A1 (en) * 2010-02-18 2011-08-18 Simpson Samuel K Dual wrist user input system
JP2011170747A (ja) * 2010-02-22 2011-09-01 Brother Industries Ltd 情報入力装置
JP2011175315A (ja) * 2010-02-23 2011-09-08 Ikutoku Gakuen 加速度センサを利用した文字入力システムおよび方法
JP5547139B2 (ja) 2011-07-29 2014-07-09 株式会社東芝 認識装置、方法及びプログラム
JP5649535B2 (ja) * 2011-08-05 2015-01-07 株式会社東芝 コマンド発行装置、コマンド発行方法およびプログラム
TW201325101A (zh) * 2011-12-13 2013-06-16 Askey Technology Jiangsu Ltd 遠端多點遙控裝置及系統
US8743052B1 (en) * 2012-11-24 2014-06-03 Eric Jeffrey Keller Computing interface system
JP2014164428A (ja) * 2013-02-22 2014-09-08 Sharp Corp ポインティング装置およびポインタ操作方法
US9226330B2 (en) * 2013-09-10 2015-12-29 Playtabase, LLC Wireless motion activated user device with bi-modality communication
JP2015099574A (ja) 2013-11-20 2015-05-28 株式会社東芝 認識装置、認識方法、認識プログラム及び端末装置

Also Published As

Publication number Publication date
JP2016062274A (ja) 2016-04-25
US9916015B2 (en) 2018-03-13
US20160077608A1 (en) 2016-03-17

Similar Documents

Publication Publication Date Title
JP6329469B2 (ja) 認識装置、認識方法及び認識プログラム
KR101234111B1 (ko) 비접촉 입력 인터페이싱 장치 및 이를 이용한 비접촉 입력 인터페이싱 방법
CN101568896B (zh) 信息处理装置、系统、方法和输入装置
KR101666096B1 (ko) 강화된 제스처 기반 상호작용 시스템 및 방법
TWI428792B (zh) 輸入設備,手持設備,及控制方法
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
US8291346B2 (en) 3D remote control system employing absolute and relative position detection
JP5263833B2 (ja) ウェアラブルコンピュータに用いるリング型インタフェース、インタフェース装置、およびインタフェース方法
JP2012073830A (ja) インターフェース装置
TWI400630B (zh) 選擇裝置及方法
KR20090065040A (ko) 동작과 터치를 이용한 이중 포인팅 장치 및 방법
JP2011040003A (ja) 操作入力システム、制御装置、ハンドヘルド装置及び操作入力方法
KR102184243B1 (ko) Imu 센서를 이용한 손가락 동작 기반 인터페이스 제어 시스템
US9310851B2 (en) Three-dimensional (3D) human-computer interaction system using computer mouse as a 3D pointing device and an operation method thereof
KR101365083B1 (ko) 모션 인식을 통한 인터페이스 장치 및 이의 제어방법
CN113867562B (zh) 触摸屏报点的校正方法、装置和电子设备
JP2017162054A (ja) 情報処理装置及び出力装置
WO2009093027A1 (en) Wrist-mounted computer periferal
KR20120037739A (ko) 손동작 기반 사용자 인터페이스 장치 및 그 방법
JP2010086367A (ja) 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置
KR101588021B1 (ko) 헤드 마우스
JP5323018B2 (ja) マウス装置
KR20130129775A (ko) 모션 감지를 통한 사용자 인터페이스 구현 방법 및 그 장치
US8396300B2 (en) Object-end positioning method and system
TWI461961B (zh) 選擇裝置及用於對影像區域執行定位操作的方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170612

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171127

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180420

R151 Written notification of patent or utility model registration

Ref document number: 6329469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151