JP5858228B2 - 同定装置、同定方法および同定プログラム - Google Patents
同定装置、同定方法および同定プログラム Download PDFInfo
- Publication number
- JP5858228B2 JP5858228B2 JP2011284716A JP2011284716A JP5858228B2 JP 5858228 B2 JP5858228 B2 JP 5858228B2 JP 2011284716 A JP2011284716 A JP 2011284716A JP 2011284716 A JP2011284716 A JP 2011284716A JP 5858228 B2 JP5858228 B2 JP 5858228B2
- Authority
- JP
- Japan
- Prior art keywords
- identification
- candidates
- classification
- classifier
- inertial sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 81
- 230000008569 process Effects 0.000 claims description 51
- 238000012545 processing Methods 0.000 claims description 45
- 230000010399 physical interaction Effects 0.000 claims description 29
- 238000005070 sampling Methods 0.000 claims description 26
- 238000003860 storage Methods 0.000 claims description 14
- 238000005259 measurement Methods 0.000 claims description 9
- 230000003993 interaction Effects 0.000 description 49
- 238000003066 decision tree Methods 0.000 description 27
- 238000004891 communication Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 23
- 230000015654 memory Effects 0.000 description 16
- 230000006399 behavior Effects 0.000 description 14
- 230000009471 action Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 10
- 238000013480 data collection Methods 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000002790 cross-validation Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 230000002354 daily effect Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000035876 healing Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000007115 recruitment Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Landscapes
- Manipulator (AREA)
Description
ii)音声情報処理を用いた個人同定技術(たとえば、非特許文献5)
iii)無線タグやマーカ等を利用した個人同定技術(たとえば、特許文献1、非特許文献6)
iv)慣性センサを用いた個人同定技術(たとえば、非特許文献7,8)
(コミュニケーションロボット)
以下、本実施の形態の同定装置が搭載される小型コミュニケーションロボットの外観および構成の例を説明する。ただし、小型コミュニケーションロボットの構成は、以下の説明のような構成に限定されるものではない。
図3は、外部コンピュータ装置2000のコンピュータシステムのブロック図である。
(分類器の構成)
本実施の形態の同定装置では、人々が小型ロボットに対して行う、身体的なインタラクションの際の個人間の差異に着目する。同定装置は、慣性センサの時系列情報に基づいて段階的に候補を絞り込むことで、インタラクションを行っている間に「その相手が誰であるか」を同定する。例えば、人間がロボットを持ち上げたり抱き上げたりしている状況において、ある瞬間の振る舞いの個人間の差異は小さいかもしれない。しかし、長時間の振る舞いの変化に着目すれば、振る舞いの個人間の差異は大きくなることが期待される。そのような振る舞いの差異から得られる特徴を慣性センサの時系列データから観測することで、段階的に候補を絞込み、最終的に個人を同定する。
図4は、本実施の形態の分類器を生成する過程を示す概念図である。
[分類器の生成および動作の詳細]
以下、分類器の生成および動作についてより詳しく説明する。
図6は、本実施の形態の分類器が使用する特徴量(属性)を説明するための図である。
本実施の形態では、上述したとおり、個人を同定するための分類器として決定木を用いる。決定木の学習による生成にはデータとして説明変数と目的変数が対になったデータセットが必要となる。説明変数には、上述した特徴量のf={μ,σ,z}を、目的変数には特徴量を計測した個人を代表するクラス名(例えば、被験者A、B…等)をそれぞれ与える。
さらに、CPU2040は、生成した分類器を対象としたユーザ候補、インタラクションの種類に対応づけてデータベースに保存する(S308)。
以下では、図7〜図10で説明した手順により作成された決定木を用いて、慣性センサデータから個人同定を行う処理について記述する。
以下、本実施の形態の同定装置の性能を検証するために、人々がロボットと身体的なインタラクションを行う際の、慣性センサデータの収集を行った結果について説明する。
被験者は、ウェブ募集によって集められた、本実験で用いたロボットとインタラクションを行った経験を持たない15名の一般の人々(男性7名、女性8名。平均年齢:20.8、標準偏差1.7)であった。
データ収集では、実際に人々が小型ロボットに対して行う身体的なインタラクションを複数種類想定して、データ収集を行った。
データ収集時には、被験者に行ってもらうロボットとの身体的なインタラクションを、モニタ上に画像を表示することで教示を行った。
(b):環境内の中央付近を、ロボットを横に抱きながら、歩きまわる
(c):机(B)の付近で、ロボットを高い位置に持ち上げたり、低い位置に降ろしたりする
(d):机(B)の付近で、ロボットを縦に抱いて、子供をあやすように振る舞う
(e):環境内の中央付近を、ロボットを縦に抱きながら、歩きまわる
各教示内容をモニタに表示する回数はそれぞれ9回であり、被験者は合計で5種類×9 回、45回分の身体的なインタラクションをロボット10と行った。
図14は、データ収集を行った実験環境を示す図である。
データ収集において蓄積された15人の被験者の、各教示に対するデータセットを用いて、提案手法による個人同定の性能検証を行う。5種類の身体的なインタラクションを行っている際の性能検証を行うために、各インタラクションにおいて収集された135のデータセット(1人当たり9回の試行×15人)に対する135分割交差検定を行う。
本実施の形態の同定装置を用いて個人同定を行った際の、処理の流れの一例を以下に示す。
図20は、同定結果についての135分割交差検定の結果を示す図である。図20においては、各教示において取得されたデータセットに対して行った、135分割交差検定の結果を示す。本実施の形態の同定装置を用いることで、5種類の教示に対する平均正答率は86.8%となった。個別の教示に対する平均正答率も、全てが78.5%以上の割合となった。これらの結果から、本実施の形態で提案した手法を用いることで、慣性センサを用いることで、8割程度の精度での個人同定技術が実現できたことが示される。
図21は、各教示において、個人を同定するまでに必要となった平均計算時間を示す図である。本実施の形態の同定装置を用いることで、5種類の教示に対する平均計算時間は30.5 秒となった。個別の教示に対する平均計算時間は、最も遅い場合では約40 秒、最も早い場合では約25 秒を必要とした。これらの結果から、本実施の形態で提案した手法を用いることで、平均30秒程度で個人を同定できることが示された。
Claims (6)
- 慣性センサと、
前記慣性センサでの測定結果を履歴情報として記憶し、所定の期間にわたる前記履歴情報を用いて、同定対象となる複数の候補のうちから分類の対象となり得る前記候補の組合せのそれぞれに対して生成された複数の分類器を特定するための情報を格納する記憶装置と、
演算装置とを備え、
前記演算装置は、
前記複数の分類器のうち、前記同定対象となる複数の候補のすべてに対応する分類器により、所定の時間において、複数回、分類処理をした結果の分類の割合に基づき、前記複数の候補のすべてのうちから、候補の絞り込みを実行し、
前記複数の分類器のうち、前記絞り込まれた候補に対応する分類器により、所定の時間において、複数回、分類処理をした結果の分類の割合に基づき、前記絞り込まれた候補のうちから、候補の絞り込みをさらに実行する処理を、分類後の候補が1つとなるまで繰り返すことにより、同定対象の特定を確定し、
前記分類器を生成するための前記同定対象の特徴量は、前記慣性センサのサンプリングが所定のサンプリング時間の間隔で実行されるとき、前記サンプリング時間よりも長い第1の長さの期間中の前記慣性センサの複数の出力から算出され、
前記分類器は、第2の長さの投票期間について、1サンプリング時間ごとにシフトした前記第1の長さの期間ごとの前記特徴量に対して、それぞれ前記分類処理を実行した複数の分類結果により、前記分類の割合を算出する、同定装置。 - 前記同定装置は、前記記憶装置に格納された前記測定結果を外部機器に出力し、前記複数の分類器を特定するための情報を前記外部機器から受信して前記記憶装置に予め記憶させる通信手段を有する、請求項1記載の同定装置。
- 前記特徴量は、前記第1の長さの期間中の前記慣性センサの出力の組の平均、分散および零点交差数の少なくとも1つを含む、請求項1または2に記載の同定装置。
- 前記同定対象は人間であって、
前記人間に前記同定装置を搭載する機器に対して、所定の身体的インタラクションをとることを促す情報を出力する手段を備え、
前記分類器を特定するための情報は、前記所定の身体的インタラクションと対応付けられて格納されており、
前記演算装置は、前記所定の身体的インタラクションについての分類器により、前記同定対象の特定を実行する、請求項1〜3のいずれか1項に記載の同定装置。 - 慣性センサと前記慣性センサでの測定結果を履歴情報として記憶するための記憶装置と演算装置とを備える同定装置による同定方法であって、
前記演算装置が、所定の期間にわたる前記履歴情報を用いて、同定対象となる複数の候補のうちから分類の対象となり得る前記候補の組合せのそれぞれに対して、複数の分類器を生成して前記記憶装置に格納するステップを備え、前記分類器を生成するための前記同定対象の特徴量は、前記慣性センサのサンプリングが所定のサンプリング時間の間隔で実行されるとき、前記サンプリング時間よりも長い第1の長さの期間中の前記慣性センサの複数の出力から算出され、
前記演算装置が、前記複数の分類器のうち、前記同定対象となる複数の候補のすべてに対応する分類器により、所定の時間において、複数回、分類処理をした結果の分類の割合に基づき、前記複数の候補のすべてのうちから、候補の絞り込みを実行するステップをさらに備え、前記分類器は、第2の長さの投票期間について、1サンプリング時間ごとにシフトした前記第1の長さの期間ごとの前記特徴量に対して、それぞれ前記分類処理を実行した複数の分類結果により、前記分類の割合を算出し、
前記演算装置が、前記複数の分類器のうち、前記絞り込まれた候補に対応する分類器により、所定の時間において、複数回、分類処理をした結果の分類の割合に基づき、前記絞り込まれた候補のうちから、候補の絞り込みをさらに実行する処理を、分類後の候補が1つとなるまで繰り返すことにより、同定対象の特定を確定するステップをさらに備える、同定方法。 - 慣性センサと前記慣性センサでの測定結果を履歴情報として記憶するための記憶装置と演算装置とを備える同定装置に、同定対象の同定処理を実行させるための同定プログラムであって、
前記記憶装置は、所定の期間にわたる前記慣性センサの履歴情報を用いて、同定対象となる複数の候補のうちから分類の対象となり得る前記候補の組合せのそれぞれに対して生成された複数の分類器を特定するための情報を予め格納しており、前記分類器を生成するための前記同定対象の特徴量は、前記慣性センサのサンプリングが所定のサンプリング時間の間隔で実行されるとき、前記サンプリング時間よりも長い第1の長さの期間中の前記慣性センサの複数の出力から算出され、
前記演算装置が、前記複数の分類器のうち、前記同定対象となる複数の候補のすべてに対応する分類器により、所定の時間において、複数回、分類処理をした結果の分類の割合に基づき、前記複数の候補のすべてのうちから、候補の絞り込みを実行するステップであって、前記分類器は、第2の長さの投票期間について、1サンプリング時間ごとにシフトした前記第1の長さの期間ごとの前記特徴量に対して、それぞれ前記分類処理を実行した複数の分類結果により、前記分類の割合を算出するステップと、
前記演算装置が、前記複数の分類器のうち、前記絞り込まれた候補に対応する分類器により、所定の時間において、複数回、分類処理をした結果の分類の割合に基づき、前記絞り込まれた候補のうちから、候補の絞り込みをさらに実行する処理を、分類後の候補が1つとなるまで繰り返すことにより、同定対象の特定を確定するステップとを、前記同定装置に実行させる、同定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011284716A JP5858228B2 (ja) | 2011-12-27 | 2011-12-27 | 同定装置、同定方法および同定プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011284716A JP5858228B2 (ja) | 2011-12-27 | 2011-12-27 | 同定装置、同定方法および同定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013132719A JP2013132719A (ja) | 2013-07-08 |
JP5858228B2 true JP5858228B2 (ja) | 2016-02-10 |
Family
ID=48909787
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011284716A Active JP5858228B2 (ja) | 2011-12-27 | 2011-12-27 | 同定装置、同定方法および同定プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5858228B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3694442A1 (en) * | 2017-10-13 | 2020-08-19 | Koninklijke Philips N.V. | Methods and systems to characterize the user of a personal care device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4677585B2 (ja) * | 2005-03-31 | 2011-04-27 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボット |
JP2007116318A (ja) * | 2005-10-19 | 2007-05-10 | Nec Corp | 携帯端末、認証装置、個人認証方法、プログラム |
US8031175B2 (en) * | 2008-04-21 | 2011-10-04 | Panasonic Corporation | Touch sensitive remote control system that detects hand size characteristics of user and adapts mapping to screen display |
US8225343B2 (en) * | 2008-01-11 | 2012-07-17 | Sony Computer Entertainment America Llc | Gesture cataloging and recognition |
JP2011035855A (ja) * | 2009-08-06 | 2011-02-17 | Panasonic Corp | 端末認証方法および装置 |
JP2011198170A (ja) * | 2010-03-23 | 2011-10-06 | Oki Software Co Ltd | ユーザ同定システム、ユーザ同定サーバ、携帯機器、ユーザ同定プログラム及び携帯機器のプログラム |
-
2011
- 2011-12-27 JP JP2011284716A patent/JP5858228B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013132719A (ja) | 2013-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Artificial intelligence‐enabled sensing technologies in the 5G/internet of things era: from virtual reality/augmented reality to the digital twin | |
Serpush et al. | Wearable sensor-based human activity recognition in the smart healthcare system | |
JP6328954B2 (ja) | 自動ハプティック効果調整システム | |
Minnen et al. | Recognizing and discovering human actions from on-body sensor data | |
Ortiz | Smartphone-based human activity recognition | |
Wheatland et al. | State of the art in hand and finger modeling and animation | |
Ding et al. | Service robot system with integration of wearable Myo armband for specialized hand gesture human–computer interfaces for people with disabilities with mobility problems | |
Azmi et al. | Accelerator-based human activity recognition using voting technique with NBTree and MLP classifiers | |
CN113317763A (zh) | 基于多模态的帕金森病检测装置及计算机可读存储介质 | |
Cai et al. | GBDT‐Based Fall Detection with Comprehensive Data from Posture Sensor and Human Skeleton Extraction | |
Calado et al. | A geometric model-based approach to hand gesture recognition | |
Martínez-Villaseñor et al. | A concise review on sensor signal acquisition and transformation applied to human activity recognition and human–robot interaction | |
Pogorelc et al. | Detecting gait-related health problems of the elderly using multidimensional dynamic time warping approach with semantic attributes | |
Xu et al. | Intelligent wearable interfaces | |
JP6886651B2 (ja) | 行動コマンド生成システム、応答システムおよび行動コマンド生成方法 | |
Sivakumar et al. | Virtual vision architecture for VIP in ubiquitous computing | |
Liu et al. | A fully connected deep learning approach to upper limb gesture recognition in a secure FES rehabilitation environment | |
Mezari et al. | An easily customized gesture recognizer for assisted living using commodity mobile devices | |
JP5910249B2 (ja) | インタラクション装置およびインタラクション制御プログラム | |
Lau | Towards a user-centric context aware system: empowering users through activity recognition using a smartphone as an unobtrusive device | |
JP5858228B2 (ja) | 同定装置、同定方法および同定プログラム | |
Swee et al. | Malay sign language gesture recognition system | |
Gao et al. | A physical and verbal bullying detecting algorithm based on K-NN for school bullying prevention | |
Ktistakis et al. | A multimodal human-machine interaction scheme for an intelligent robotic nurse | |
Avadut et al. | A Deep Learning based IoT Framework for Assistive Healthcare using Gesture Based Interface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5858228 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |