JP2020009034A - 業務推定方法、情報処理装置、及び業務推定プログラム - Google Patents

業務推定方法、情報処理装置、及び業務推定プログラム Download PDF

Info

Publication number
JP2020009034A
JP2020009034A JP2018127943A JP2018127943A JP2020009034A JP 2020009034 A JP2020009034 A JP 2020009034A JP 2018127943 A JP2018127943 A JP 2018127943A JP 2018127943 A JP2018127943 A JP 2018127943A JP 2020009034 A JP2020009034 A JP 2020009034A
Authority
JP
Japan
Prior art keywords
task
clusters
measurement information
business
worker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018127943A
Other languages
English (en)
Other versions
JP7052604B2 (ja
Inventor
純也 藤本
Junya Fujimoto
純也 藤本
村瀬 有一
Yuichi Murase
有一 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018127943A priority Critical patent/JP7052604B2/ja
Priority to US16/437,787 priority patent/US11494702B2/en
Publication of JP2020009034A publication Critical patent/JP2020009034A/ja
Application granted granted Critical
Publication of JP7052604B2 publication Critical patent/JP7052604B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • G06Q10/063114Status monitoring or status determination for a person or group
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0633Workflow analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Mathematical Physics (AREA)
  • Strategic Management (AREA)
  • Evolutionary Computation (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Educational Administration (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】一実施形態は、高精度に業務状態を推定することを可能になる。【解決手段】一実施形態に係る情報処理装置により実行される業務推定方法は、情報処理装置が、業務を実行する業務者が装着するデバイスで計測された計測情報において所定の動作が検出された動作区間から抽出された複数の特徴ベクトルを複数の分割方法でクラスタリングして得られる複数のクラスタのそれぞれに対する重み付けを、計測情報の所定時間当たりに含まれる動作区間から抽出した特徴ベクトルから複数のクラスタに分類されるそれぞれの割合を入力として用い、割合が取得された所定時間において業務者が業務を実行していたか否かの情報を出力ラベルとして用いて学習により決定することで生成された業務推定モデルを用いて、業務者が業務の実行中であるか否かを推定する、ことを含む。【選択図】図12

Description

本発明は、業務推定方法、情報処理装置、及び業務推定プログラムに関する。
例えば、業務者の見守りや評価などの目的で、業務中の業務者の姿勢や状態を、業務者が身につけたウェアラブルデバイスが備えるセンサ等から得られる計測情報を利用して推定する技術の開発が行われている。なお、ウェアラブルデバイスは、例えば、業務者の胸につけるバッジ型のデバイスや、腕に付けるバンド型のデバイスを含む。センサは、例えば、加速度センサ、ジャイロセンサ、気圧センサ、磁気センサ等を含む。
特開2016−90371号公報 特開2006−209468号公報
村上知子、外3名「トピックモデルによるセンサ情報からの看護業務の推定」SIG-DOCMAS、B102号、2012年3月11日
例えば、業務者の身体に装着したウェアラブルデバイスなどのデバイスのセンサで計測された計測情報から特徴量を抽出し、抽出した特徴量を用いて、計測情報から動作を検出することが可能になっている。例えば、「立ち上がる」、「寝る」、「歩く」、「走る」といった業務者の単純な動作や状態については所定時間の計測情報の波形を調べることで推定することが可能である。しかしながら、例えば、業務者が何の業務中であるかといった、より高次の状態は、同じ業務でも動きのバリエーションは様々でありセンサ波形から推定することは容易ではない。そこでウェアラブルデバイスのセンサで計測された計測情報から高精度に業務状態を推定することのできる技術の提供が求められている。
1つの側面では本発明は、高精度に業務を推定することを可能にする技術を提供することを目的とする。
本発明の一つの態様の情報処理装置により実行される業務推定方法は、情報処理装置が、業務を実行する業務者が装着するデバイスで計測された計測情報において所定の動作が検出された動作区間から抽出された複数の特徴ベクトルを複数の分割方法でクラスタリングして得られる複数のクラスタのそれぞれに対する重み付けを、計測情報の所定時間当たりに含まれる動作区間から抽出した特徴ベクトルから複数のクラスタに分類されるそれぞれの割合を入力として用い、割合が取得された所定時間において業務者が業務を実行していたか否かの情報を出力ラベルとして用いて学習により決定することで生成された業務推定モデルを用いて、業務者が業務の実行中であるか否かを推定する、ことを含む。
一態様によれば、高精度に業務状態を推定することを可能になる。
実施形態に係る情報処理装置の機能ブロック構成を例示する図である。 実施形態に係る特徴ベクトル生成処理を説明する図である。 例示的なフィルタバターンを示す図である。 実施形態に係る信号処理パターンのリストを例示する図である。 特徴波形からの複数の代表値の抽出を例示する図である。 特徴ベクトルが指す点をプロットした図である。 クラスタ分けの粒度を例示する図である。 クラスタリングにより得られた要素動作を例示する図である。 実施形態に係る業務履歴情報を例示する図である。 第1の実施形態に係る業務推定モデル生成処理の動作フローを例示する図である。 第2の実施形態に係る業務推定モデルの生成を例示する図である。 第2の実施形態に係るクラスタの重み付けを行う業務推定モデル生成処理を例示する図である。 第3の実施形態に係る業務推定モデルの生成を例示する図である。 第3の実施形態に係る業務推定モデルの生成処理を例示する図である。 第3の実施形態の変形例に係る業務推定モデルの生成を例示する図である。 第3の実施形態の変形例に係る業務推定モデルの生成処理を例示する図である。 実施形態に係る業務推定処理を例示する図である。 実施形態に係る情報処理装置を実現するためのコンピュータのハードウェア構成を例示する図である。
以下、図面を参照しながら、本発明のいくつかの実施形態について詳細に説明する。なお、複数の図面において対応する要素には同一の符号を付す。
例えば、業務者が装着したウェアラブルデバイスなどのデバイスが備えるセンサで検出した計測情報から、業務者が実行した業務を推定する一つの手法として、計測情報から検出した業務者の要素動作(歩行、走行等)の検出頻度を利用することが考えられる。
例示的な業務推定の手順を説明する。例えば、業務者の胸に付けたバッジと、腕につけたバンドなどのデバイスのセンサから計測情報を取得する。そして、計測情報から要素動作を検出する。要素動作は、例えば、「立ち上がる」、「寝る」、「歩く」、「走る」といった業務者の単純な動作や状態であってよい。こうした要素動作については、計測情報から高精度で検出することが可能となっている。そして、例えば、業務内容の分かっている計測情報を用いて、それぞれの業務に対する所定時間における要素動作(歩行、走行等)の検出頻度の傾向を特定し、要素動作(歩行、走行等)の検出頻度の傾向を用いて、業務を推定することが考えられる。
しかしながら、この様な、走行、歩行、立つ、座るといった要素動作の頻度で業務を推定する場合は、移動の仕方に違いがあるような業務の区別はつきやすい傾向があるが、同じ場所で業務内容に違いがあるような業務の区別はつきにくいことがある。また、要素動作の検出のためには、要素動作毎に、教師データなどを用意して学習することになるが、教師データなどの用意が難しいこともある。そのため、業務推定のための新たな手法の提供が望まれている。
以下で述べる実施形態では、業務の推定精度を向上させることが可能になる。また更に、以下で述べる実施形態によれば、業務の推定のための判定基準をより簡便に収集することが可能になる。
図1は、実施形態に係る業務を推定する情報処理装置100の機能ブロック構成を例示する図である。情報処理装置100は、例えば、制御部101及び記憶部102を含んでいる。制御部101は、例えば、実施形態に係る業務を推定する処理を実行する。情報処理装置100の記憶部102は、例えば、リスト400、及び業務履歴情報900などの情報を記憶している。これらの各部の詳細及び記憶部102に格納されている情報の詳細については後述する。
続いて、実施形態に係る特徴ベクトル生成処理について説明する。
図2から図5は、実施形態に係る特徴ベクトル生成処理を説明する図である。例えば、業務者201がデバイス205を装着しているとする。図2の例では、業務者201は、バッジ202と、バンド203のデバイス205を装着している。そして、バッジ202と、バンド203が備えるセンサで、業務者の業務中の計測情報が収集される(図2(a))。
続いて、制御部101は、収集された計測情報から、業務者の何らかの動作を行っていることが推定される動作区間のデータを切り出す(図2(b))。動作区間は、例えば、業務者の特徴的な動作や状態が検出された時刻を含む区間であってよい。一例では、制御部101は、業務者の腕先の重力方向に対する角度がピーク(極大)を示した時刻の前後数秒間の区間を動作区間として切り出してよい。なお、業務者の腕先の重力方向に対する角度変化は、例えば、加速度センサと、ジャイロセンサの計測情報を組み合わせることで取得することができる。図2(b)の例では、加速度センサとジャイロセンサの計測情報を用いて取得した、業務者の腕先の重力方向に対する角度変化の波形を、ローパスフィルタに通して鈍らせた後、角度のピーク(極大)を示す時刻を特定している。なお、信号をローパスフィルタに通して鈍らせる場合、変化が生データよりも遅れて現れることが知られている。そのため、一実施形態では、その遅れの分を考慮して、ローパスフィルタに通して鈍らせた波形から検出したピークの時刻から、遅れの分の秒数を戻して動作区間を切り出してもよい。また、別の実施形態では、業務者の腕先の重力方向に対する角度の代わりに、その他の情報が用いられてもよい。一例では、加速度ノルムや角速度ノルムがピーク(極大)を示した時刻を用いて動作区間を切り出してもよい。また、別の実施形態では、更に、極大となった時刻の前後にある極小となった時刻の情報を用いて動作区間の切り出しが行われてもよい。
続いて、制御部101は、デバイス205の複数のセンサのそれぞれの計測情報から切り出した動作区間を、複数の信号処理パターンでフィルタ処理を実行し(図2(c))、動作区間と対応する複数の波形データを得る(図2(d))。
なお、フィルタ処理の信号処理パターンは、例えば、センサの種類に応じて有用な波形(以下、特徴波形と呼ぶことがある)を抽出する既存のフィルタパターンなどを用いることができる。
図3は、例示的なフィルタバターンを示す図である。図3(a)は、加速度センサの検出値から加速度ノルムを抽出するフィルタパターンである。図3(a)に示すように、3軸加速度センサからの計測情報に含まれる3軸加速度データを、ローパスフィルタにかけた後、ノルムを演算することで、加速度ノルムが求められる。
また、図3(b)は、ジャイロセンサの検出値から角速度ノルムを抽出するフィルタパターンである。図3(b)に示すように、3軸ジャイロセンサからの計測情報に含まれる3軸角速度データを、ローパスフィルタにかけた後、ノルムを演算することで角速度ノルムが求められる。同様に、図3(c)は、重力方向に対する傾きの変化を抽出する信号処理パターンを例示しており、図3(d)は、気圧2階差分の信号処理パターンの例示する図である。
なお、図3に示す信号処理パターンは例示であり、信号処理パターンは、これに限定されるものではなく、他のフィルタパターンが用いられてもよい。また、図4に例示するように、処理対象の計測情報の種類と、信号処理に用いる信号処理パターンとを対応付けた信号処理パターンのリスト400が、記憶部102に記憶されていてよい。
制御部101は、例えば、計測情報から切り出した動作区間の計測情報を、複数の信号処理パターンで処理することで、信号処理パターンごとに1つの特徴波形を算出することができる。即ち、制御部101が、M個(Mは1以上の自然数)の信号処理パターンで、動作区間の計測情報を処理する場合、1つの計測情報からM個の特徴波形が得られる。
続いて、制御部101は、生成した特徴波形から特徴ベクトルを抽出する。まず、制御部101は、特徴波形から複数の代表値を取得する。図5は、特徴波形からの複数の代表値の抽出を例示する図である。例えば、一実施形態においては、制御部101は、生成した1つの特徴波形を、分割数1を含む複数種類の分割数で時間的に等分割し、分割された各分割区間における代表値を算出する。代表値には、例えば、分割区間における波形の平均値、中央値、最大値、及び最小値などの統計値を用いることができる。こうして1つの特徴波形から複数の代表値を得ることができる。
続いて、制御部101は、得られた複数の代表値を、主成分分析にかけて低次元化し、複数の代表値よりも少ない数の複数の特徴量を取得する。例えば、510個などの多数の代表値が、主成分分析で10個などのより少ない数の特徴量に低次元化されてよい。以上のようにして、制御部101は、主成分分析で低次元化された複数の特徴量を成分とする特徴ベクトルを取得する。
そして、制御部101は、例えば、以上の処理を、複数の分割区間ごとに得られる複数の特徴波形のそれぞれに繰り返し実行することで、複数の特徴ベクトルを得ることができる。
続いて、得られた複数の特徴ベクトルのクラスタリングについて説明する。図6は、特徴波形から得られた複数の特徴量のそれぞれを軸とする多次元座標系上に、複数の特徴ベクトルが指す点601をプロットした図である。なお、図6では、多次元座標系の例として2次元座標に特徴ベクトルが指す点601をプロットした場合を示しているが、実際にはより多くの次元の座標系であってよい。
そして、制御部101は、特徴ベクトルにクラスタリングを実行し、複数の特徴ベクトルを複数のクラスタに分ける。図6の例では、特徴ベクトルが3つのクラスタに分けられている。そして、制御部101は、各クラスタを、業務において実行される要素動作として、業務の推定に用いる。
しかしながら、この場合、どのくらいの粒度でクラスタを作るのかが、業務推定の精度に大きく影響し得る。
図7は、複数の特徴ベクトル間の距離を樹形図で表した図である。なお、距離には、ユークリッド距離やマハラノビス距離が用いられてよい。また、特徴ベクトル間の距離は、ウォード法、群平均法、最短距離法、及び最長距離法などで計算されてよい。
図7(a)及び図7(b)は、異なる閾値で複数の特徴ベクトルをクラスタリングした場合を示している。図7(a)及び図7(b)に示す様に、分割の閾値を変更することで、クラスタ数が変更されることが分かる。また、図7(c)に示す様に、分割の数や分割の閾値を指定する方法ではなく、クラスタ併合時の2つのクラスタの距離を基準にクラスタリングを行う方法も存在する。この場合も、閾値として用いる分割距離の変更により複数の分割の仕方が考えられる。
そして、クラスタの分割が細かすぎると、同じ業務でも毎回、クラスタと対応する要素動作の検出頻度がバラバラになり得る。一方で、クラスタの分割が粗すぎると、異なる業務でも、クラスタと対応する要素動作の検出頻度に差が出ずに区別ができないことがある。そのため、業務推定に有効なクラスタリングを実行することのできる技術の提供が望まれている。
(第1の実施形態)
第1の実施形態では、制御部101は、業務内容の分かっている計測情報を教師データとして用いて、複数の分割方法でクラスタリングを実行し、得られた複数のクラスタの業務推定における有効性を評価する。
まず、制御部101は、多次元座標系上にプロットした点を、複数の分割方法のうちの選択した1つの分割方法でクラスタリングし、得られた複数のクラスタをそれぞれ、要素動作として用いる。例えば、図8の例では、特徴ベクトルを、3つのクラスタに分割し、それぞれのクラスタを要素動作A、要素動作B、及び要素動作Cとしている。
続いて、制御部101は、クラスタに分割された要素動作A、要素動作B、及び要素動作Cを用いて業務を推定するためのモデル(以降、業務推定モデルと呼ぶことがある)を生成する。業務推定モデルは、実行中の業務内容が分かっている計測情報を教師データとして用いて、機械学習を行うことで生成することができる。業務推定モデルは、一例では、SVM(サポートベクターマシン)を用いて生成されてよい。以下では、SVM(サポートベクターマシン)を用いて、所定時間当たりに検出された要素動作の総数に対する、それぞれの要素動作(要素動作A、要素動作B、及び要素動作C)が占める割合から、業務推定モデルを生成する例を述べる。業務推定モデルは、例えば、業務ごとに生成されてよく、その業務を業務者が実行中であるか否かを計測情報に基づいて推定するためのモデルである。
<業務推定モデルの生成>
まず、所定時間当たりの要素動作A、要素動作B、及び要素動作Cの検出の割合の取得について述べる。図9は、実施形態に係る業務履歴情報900を例示する図である。業務履歴情報900には、実行した業務と、業務が実行された時間帯とが対応付けられたエントリが登録されている。なお、以下では業務推定モデルを生成する対象の業務を荷物整理とし、クラスタを要素動作A、要素動作B、及び要素動作Cとした場合の業務推定モデルの生成について例示する。
制御部101は、例えば、業務履歴情報900から業務推定モデルの生成対象である荷物整理の実行期間を特定し、その荷物整理の実行期間中の計測情報を記憶部102から取得する。
続いて、制御部101は、得られた計測情報を、所定時間毎に区切る。そして、制御部101は、所定時間の計測情報のそれぞれから、図2(b)で例示した様に、動作区間の計測情報を切り出し、各動作区間から抽出した特徴ベクトルが、要素動作A〜要素動作Cのどのクラスタに含まれるかを特定する。それにより、制御部101は、所定時間に検出された要素動作A〜要素動作Cの回数(頻度)を取得する。
また、同様に、制御部101は、業務履歴情報900から業務推定モデルの生成対象である荷物整理以外の業務を実行している期間を特定し、その期間の計測情報を記憶部102から取得する。そして、制御部101は、取得した計測情報を所定時間毎に区切り、その所定時間毎の計測情報から切り出した各動作区間の特徴ベクトルが、要素動作A〜要素動作Cのどのクラスタに含まれるかを特定する。それにより、制御部101は、所定時間に検出された要素動作A〜要素動作Cの回数(頻度)を取得する。
続いて、制御部101は、所定時間に検出された要素動作A〜要素動作Cのクラスタの回数(頻度)から各要素動作の所定時間当たりの検出割合を求める。例えば、所定時間の或る計測情報から、要素動作A:3回、要素動作B:5回、要素動作C:0回が検出されたとする。この場合、所定時間に検出された要素動作は8回であり、要素動作Aの検出割合は、3/(3+5+0)=3/8と求められる。同様に、要素動作Bの検出割合は、5/(3+5+0)=5/8と求められる。
続いて、制御部101は、得られた要素動作A〜要素動作Cの検出割合を学習器の入力として用い、また、検出割合を求めた所定時間の計測情報の計測時に荷物整理が実行されていたか否かを出力ラベルとする教師データを用いてSVMにより機械学習を行う。それにより、制御部101は、識別関数で表される業務推定モデルを生成することができる。
業務推定モデルを表す識別関数は、一例では、以下の式1で表されてよい。
Figure 2020009034
ここで、xは、x = {x1, x2, ..., xi}で表される列ベクトルであり、各ベクトル成分に上述の各クラスタの要素動作の検出割合が入力される。また、wは重みベクトルであり、bはバイアスである。f(x)の値は、例えば、0以上であれば荷物整理を実行中であることを表し、0未満であれば荷物整理を実行中ではないことを表してよい。学習の結果、重みベクトルwに重み付けがされた識別関数f(x)が業務推定モデルとして得られる。
制御部101は、例えば、以上の業務推定モデルの生成を業務ごとに実行することで、それぞれの業務について、その業務を実行中であるか否かを識別するための業務推定モデルを生成することができる。また、4つのクラスタ、5つのクラスタなど、その他の分割方法でクラスタ分けした場合についても、それぞれの分割方法で得られたクラスタを用いて、同様に業務ごとに業務推定モデルを生成することができる。
<業務推定モデルの評価>
続いて、制御部101は、生成した業務推定モデルを、実行中の業務内容が分かっている別の計測情報を評価データとして用いて評価する。評価データは、例えば、教師データとして用いていない計測情報であってよい。例えば、荷物整理の業務推定を例とすると、制御部101は、例えば、評価データから、所定時間に検出されたクラスタの全要素動作に対して、各要素動作A〜要素動作Cが検出された割合を求め、荷物整理の業務推定モデルとして得られた識別関数に入力する。そして、制御部101は、識別関数を計算した結果が0以上であれば業務が荷物整理であり、0未満であれば業務が荷物整理ではないと判定する。そして、制御部101は、判定結果が、評価データをセンサでセンシングしている最中に実際に荷物整理が実行されていたか否かの情報と合致するかにより、業務推定モデルの推定精度を評価する。
なお、業務推定モデルの生成と推定精度の評価には、交差検定が用いられてもよい。交差検定を用いることで、学習と評価のために用意する教師データの数を削減することができる。
制御部101は、荷物整理以外の他の業務についても、同様に業務推定モデルを生成し、評価を実行することができる。また同様に、制御部101は、例えば、分割方法の異なる分割方法で得られたクラスタを用いて、業務ごとに業務推定モデルを生成し、評価することができる。
そして、制御部101は、複数の分割方法のそれぞれについて、各業務に生成した業務推定モデルの評価し、その評価結果に基づいて、最適な分割方法を決定する。例えば、制御部101は、複数の分割方法ごとに、それぞれの業務の推定の正答率の平均がもっとも高い分割方法を最適な分割方法として選択してよい。或いは、制御部101は、複数の分割方法ごとに、業務ごとではなく、その分割方法でのクラスタリングで得られたクラスタを用いて評価した全ての評価結果に対する正答の割合を求め、その割合が最も高い分割方法を最適な分割方法として選択してよい。
制御部101は、選択した分割方法で得られた各業務の業務推定モデルを用いてデバイス205のセンサで計測された計測情報から業務を実行中か否かや、どの業務を実行中であるかなどの推定を行うことができる。
なお、例えば、所定時間の或る計測情報に対して、複数の業務の業務推定モデルで0以上の値が算出され、その業務を実行中であると判定されることがある。この場合、制御部101は、複数の業務の業務推定モデルで算出されたf(x)の値が最も高い業務を実行中であると、その計測情報に対して推定してよい。業務推定モデルの重みベクトルwには、学習の際に、例えば、重みベクトルwのノルムを最小化するように制約が設けられていてよい。この制約により、複数の業務の業務推定モデルで0以上の値が算出され、その業務を実行中であると複数の業務で判定された場合にも、それぞれの業務推定モデルで算出されたf(x)の値の比較から1つの業務を推定することが可能である。
続いて、以上で述べた第1の実施形態に係る業務推定モデル生成処理の動作フローを説明する。図10は、第1の実施形態に係る業務推定モデル生成処理の動作フローを例示する図である。制御部101は、例えば、業務推定モデル生成処理の実行指示が入力されると、図10の動作フローを開始してよい。
ステップ1001(以降、ステップを“S”と記載し、例えば、S1001と表記する)において制御部101は、計測情報を記憶部102から読み出し、計測情報から複数の動作区間を切り出す。なお、S1001で処理対象とする計測情報は、例えば、業務を実行する業務者に装着されたデバイス205が備える1つのセンサで計測された計測情報であっても、複数のセンサで計測された複数の計測情報であってもよい。
また、動作区間は、例えば、業務者の所定の動きや状態が検出された時刻を含む区間であってよい。一例では、制御部101は、計測情報において業務者の腕先の重力方向に対する角度がピーク(極大)を示した時刻を含む前後数秒間の区間を動作区間として切り出してよい。
S1002において制御部101は、記憶部102のリスト400に登録されている複数の信号処理パターンを読み出し、各信号処理パターンで、切り出した複数の動作区間のそれぞれの計測情報を信号処理し、計測情報毎に、複数の特徴波形データを算出する。
S1003において制御部101は、得られた複数の特徴波形データのそれぞれから、特徴ベクトルを取得する。一例では、制御部101は、図5を参照して述べたように、特徴波形データから複数の代表値を抽出し、抽出した複数の代表値を主成分分析により低次元化して得た複数の特徴量で表される特徴ベクトルを取得してよい。
S1004において、制御部101は、得られた複数の特徴ベクトル間の距離を算出する。なお、距離には、ユークリッド距離やマハラノビス距離が用いられてよく、また、距離の算出には、ウォード法、群平均法、最短距離法、及び最長距離法などが用いられてよい。
S1005において制御部101は、予め指定されている複数の分割方法の全ての分割方法での処理が完了したか否かを判定する。全ての分割方法での処理が完了していない場合(S1005がNo)、フローはS1006に進む。なお、複数の分割方法では、分割により異なるクラスタが生成されてよい。複数の分割方法は、例えば、分割により生成されるクラスタの数が異なるように、分割数、分割高さ、又は分割する併合距離等のパラメータを変えることで指定される分割方法であってよい。或いは、複数の分割方法は、例えば、分割数の指定による分割、分割高さの指定による分割、分割する併合距離による分割など分割の方式を変えることで指定されてもよく、更には、生成されるクラスタの数と、分割の方式の組み合わせで指定されてもよい。複数の分割方法を分割数で指定する場合、一例では、2〜100などの分割数が指定されてよい。
S1006において制御部101は、予め指定されている複数の分割方法のうち、未評価の分割方法で、ベクトル間の距離を用いて複数の特徴ベクトルをクラスタリングし、得られたクラスタにID(identifier)を割り振る。
S1007において、制御部101は、各クラスタごとに、クラスタに分類された点を用いてクラスタの範囲を決定する。なお、クラスタの範囲は、例えば、K近傍法(K Nearest Neighbor, kNN)など既存の技術を用いて決定することができる。
S1008において制御部101は、業務履歴情報900を参照し、業務ごとに、教師データとして実行中の業務内容が分かっている計測情報を用いて業務推定モデルを生成する。制御部101は、例えば、各業務ごとの業務推定モデルを、上述の<業務推定モデルの生成>で述べたようにSVMを用いて生成してよい。
S1009において制御部101は、業務ごとに生成した業務推定モデルを評価する。制御部101は、例えば、各業務ごとの業務推定モデルを、上述の<業務推定モデルの評価>で述べたように評価してよい。
また、S1005において、全ての分割方法での処理が完了した場合(S1005がYes)、フローはS1010に進む。S1010において制御部101は、各分割方法での業務ごとの業務推定モデルの評価に基づいて、評価の高かった分割方法を選択し、本動作フローは終了する。例えば、制御部101は、複数の分割方法ごとに、それぞれの業務の推定の正答率の平均がもっとも高い分割方法を最適な分割方法として選択してよい。或いは、制御部101は、複数の分割方法ごとに、業務ごとではなく、その分割方法でのクラスタリングで得られたクラスタを用いて評価した全ての評価結果に対する正答の割合を求め、その割合が最も高い分割方法を最適な分割方法として選択してよい。
以上で述べた様に、図10の動作フローによれば、制御部101は、複数の分割方法のそれぞれで生成されるクラスタを用いた業務の推定精度を評価し、分割方法を決定する。そのため、実際の業務推定で正解する精度が高くなる分割方法を決定しクラスタリングすることができる。また、例えば、上述の「立ち上がる」、「寝る」といった人為的な判断で動作として抽出した要素動作を用いるよりも、クラスタリングで得られた要素動作を業務推定に用いることで、人が容易には判別できない微細な動作の傾向などが分離され得る。そのため、実施形態に係る分割方法の評価を行い得られたクラスタを要素動作として、業務推定を行うことで、業務の推定精度を高めることができる。更には、上述の例えば、「立ち上がる」、「寝る」、「歩く」、「走る」といった業務者の単純な動作を要素動作として用いる場合のように要素動作ごとに教師データを用意しなくてもよく、教師データの用意などにかかる労力を削減できる。
(第2の実施形態)
第1の実施形態では、図11(a)に示す様に、分割方法を変えてクラスタ分けを実行し、それぞれの分割方法ごとに生成された業務推定モデルを評価する場合を例示している。しかしながら、実施形態は、これに限定されるものではない。例えば、図11(b)に示す様に、複数の分割方法で得られた全てのクラスタを並列して用い、教師データを用いて学習を行い、業務推定に有用なクラスタの重み付けを行うことも考えられる。
図12は、第2の実施形態に係るクラスタの重み付けを行う業務推定モデル生成処理を例示する図である。制御部101は、例えば、業務推定モデル生成処理の実行指示が入力されると、図12の動作フローを開始してよい。
S1201からS1207までの処理は、例えば、S1001からS1007までの処理と対応しており、制御部101は、S1001からS1007までの処理と同様の処理を実行してよい。
S1208において制御部101は、教師データとしての実行中の業務内容が分かっている計測情報を所定時間毎に区切り、所定時間に検出された要素動作の回数に対する各クラスタの要素動作の回数から各クラスタの要素動作の所定時間当たりの検出割合を求める。
そして、S1205において、全ての分割方法での処理が完了した場合(S1205がYes)、フローはS1209に進む。S1209において制御部101は、複数の分割方法において得られた各クラスタの所定時間当たりに検出割合を成分とする特徴ベクトルを求める。
S1210において制御部101は、所定時間ごとの検出割合の特徴ベクトルを入力とし、また、その所定時間の時間帯に実行されていた業務の実行有無を出力ラベルとする教師データを用いて、学習を行う。例えば、SVMを用いる場合、制御部101は、上述の式1で重みベクトルwに重み付けが成された業務推定モデルを業務ごとに生成する。制御部101が、業務ごとに業務推定モデルを生成すると、本動作フローは終了する。
以上で述べた様に、第2の実施形態では、複数の分割方法で得られたクラスタの全てを考慮して業務推定モデルを生成するため、業務推定の精度が向上し得る。なお、第1の実施形態は、第2の実施形態よりも業務推定モデルに用いるクラスタの数を少なくすることが可能であるため、計算量を削減することができる。
(第3の実施形態)
上述の実施形態では、例えば、1つのデバイス205が備える少なくとも1つのセンサで計測された計測情報をクラスタリングする例について述べている。しなしながら、実施形態はこれに限定されるものではない。例えば、胸のバッジ202と、腕のバンド203など、業務者201が装着した複数のデバイス205で計測情報が計測されることがあり、その際に複数のデバイス205間で時刻がズレていることがある。この場合、例えば、一方のデバイス205で所定の動作を検出して動作区間を特定し、その同じ時間帯の動作区間を他方のデバイス205から抽出しても、時刻のズレに起因して実際にユーザが所定の動作を行っていない時間帯のデータを取得してしまう恐れがある。その結果、業務判定の上で有用な特徴が抽出されにくくなることがある。別な例として、例えば、腕に装着したバンド203で腕先の動きを検出して動作区間を切り出したとしても、腕先の動きはバッジ202が装着された胸では動きとしてほとんど検出されないことがある。この様な場合、バッジ202とバンド203で同じ時間帯の情報を収集してもバッジ202からは業務推定に有用な情報が抽出されにくくなることがある。
そのため、例えば、以上のような状況では、制御部101は、複数の分割方法でのクラスタリングをデバイス毎に別々に実行し、それぞれのデバイスでの分割方法で得られたクラスタを組み合わせて、業務推定モデルの生成と評価を実行してよい。即ち、例えば、図13の例では、制御部101は、バッジ202の分割方法A、B、Cと、バンド203の分割方法H、I、Jを組み合わせる。それにより、制御部101は、A−H、A−I、A−J、B−H、B−I、B−J、C−H、C−I、C−Jの組みの分割方法を生成する。
そして、制御部101は、生成した組み合わせの各組みの分割方法で生成されるクラスタの検出割合を成分とする特徴ベクトルを用いて業務ごとに業務推定モデルの学習と評価を実行し、評価の優れていた分割方法の組の業務推定モデルを選択してよい。
図14は、第3の実施形態に係る業務推定モデルの生成処理を例示する図である。制御部101は、例えば、業務推定モデル生成処理の実行指示が入力されると、図14の動作フローを開始してよい。
S1401〜S1410の処理は、例えば、S1001〜S1010の処理と対応していてよく、類似する処理が実行されてよい。ただし、図14の動作フローでは、S1401からS1404で、制御部101は、複数のデバイス205で計測された複数の計測情報のそれぞれに処理を実行する。
S1405において制御部101は、複数のデバイス205に対して設定されている分割方法の組み合わせを生成し、全ての分割方法の組み合わせについて処理を完了したか否かを判定する。組み合わせの全ての組について処理を完了していない場合(S1405がNo)、フローはS1406に進む。制御部101は、続く、S1406〜S1409で未処理の組みに対して処理を実行してよく、得られた組み評価に基づいて、S1410でもっとも評価の高い分割方法の組の業務推定モデルを選択してよい。
或いは、第3の実施形態の変形例では、図15に示す様に、デバイス205毎に設定された複数の分割方法で生成される全てのクラスタの検出割合を成分とする特徴ベクトルを用いて、業務ごとに業務推定モデルの学習を行い、クラスタの重み付けを行ってよい。
図16は、第3の実施形態の変形例に係る業務推定モデルの生成処理を例示する図である。制御部101は、例えば、業務推定モデル生成処理の実行指示が入力されると、図16の動作フローを開始してよい。
S1601〜S1610の処理は、例えば、S1201〜S1210の処理と対応していてよく、類似する処理が実行されてよい。ただし、図16の動作フローでは、S1601からS1604で、制御部101は、複数のデバイス205で計測された複数の計測情報のそれぞれに処理を実行する。
そして、S1605〜S1608で、制御部101は、全てのデバイス205の全ての分割方法ごとに処理を実行し、それぞれの分割方法で、クラスタの検出割合を算出する。S1609〜S1610では、制御部101は、複数のデバイス205のそれぞれの分割方法で得られた各クラスタの検出割合を並列した特徴ベクトルを生成して学習を行い、業務ごとに業務推定モデルを生成する。
以上で述べたように、図14及び図16の処理によれば、複数のデバイス205から得た計測情報を業務推定に利用することができる。なお、図16で例示する動作フローによれば、図14で例示する動作フローよりも業務推定モデルの生成に用いるクラスタの検出割合の数が増えるため、業務の推定精度が向上し得る。一方で、図14で例示する動作フローでは、図16で例示する動作フローよりも、1つの業務推定モデルの生成に用いるクラスタの検出割合の数が少なくなるため、計算量を低く抑えることができる。
図17は、実施形態に係る業務推定処理を例示する図である。例えば、制御部101は、業務の推定指示を受信すると、図17の動作フローを開始してよい。
S1701において制御部101は、記憶部102から業務の推定対象の計測情報を読み出す。S1702において制御部101は、読み出した計測情報を所定時間に区切り、各所定時間の区間から検出割合を算出する。なお、制御部101は、例えば、上述の図10、図12、図14、及び図16で述べたいずれかの処理で生成された業務推定モデルにおいて使用されているクラスタの検出割合を算出してよい。S1703において制御部101は、算出した検出割合を業務ごとの業務推定モデルに入力し、その業務推定モデルの業務を実行中か否かを判定する。なお、複数の業務で、実行中であると判定された場合、制御部101は、評価のもっとも高かった業務推定モデルの業務を実行していると判定してよい。例えば、業務推定モデルが、上述の式1で表される場合、制御部101は、f(x)の値が最も大きかった業務を実行していると判定してよい。
以上において、実施形態を例示したが、実施形態はこれに限定されるものではない。例えば、上述の動作フローは例示であり、実施形態はこれに限定されるものではない。可能な場合には、動作フローは、処理の順番を変更して実行されてもよく、別に更なる処理を含んでもよく、又は、一部の処理が省略されてもよい。例えば、上述の図10、図12、図14、及び図16の業務推定モデルの生成処理に続けて、図17の業務の判定処理が実行されてもよい。
図18は、実施形態に係る情報処理装置100を実現するためのコンピュータ1800のハードウェア構成を例示する図である。図18の情報処理装置100を実現するためのハードウェア構成は、例えば、プロセッサ1801、メモリ1802、記憶装置1803、読取装置1804、通信インタフェース1806、及び入出力インタフェース1807を備える。なお、プロセッサ1801、メモリ1802、記憶装置1803、読取装置1804、通信インタフェース1806、入出力インタフェース1807は、例えば、バス1808を介して互いに接続されている。
プロセッサ1801は、例えば、シングルプロセッサであっても、マルチプロセッサやマルチコアであってもよい。プロセッサ1801は、メモリ1802を利用して例えば上述の動作フローの手順を記述した業務推定プログラムを実行することにより、上述した制御部101の一部または全部の機能を提供する。
メモリ1802は、例えば半導体メモリであり、RAM領域及びROM領域を含んでいてよい。記憶装置1803は、例えばハードディスク、フラッシュメモリ等の半導体メモリ、又は外部記憶装置である。なお、RAMは、Random Access Memoryの略称である。また、ROMは、Read Only Memoryの略称である。
読取装置1804は、プロセッサ1801の指示に従って着脱可能記憶媒体1805にアクセスする。着脱可能記憶媒体1805は、例えば、半導体デバイス(USBメモリ等)、磁気的作用により情報が入出力される媒体(磁気ディスク等)、光学的作用により情報が入出力される媒体(CD−ROM、DVD等)などにより実現される。なお、USBは、Universal Serial Busの略称である。CDは、Compact Discの略称である。DVDは、Digital Versatile Diskの略称である。
上述の記憶部102は、例えばメモリ1802、記憶装置1803、及び着脱可能記憶媒体1805を含んでよい。情報処理装置100の記憶装置1803には、例えば、リスト400、及び業務履歴情報900が格納されている。
通信インタフェース1806は、プロセッサ1801の指示に従ってネットワークを介してデータを送受信する。入出力インタフェース1807は、例えば、入力装置及び出力装置との間のインタフェースであってよい。入力装置は、例えば業務者からの指示を受け付けるキーボードやマウスなどのデバイスである。出力装置は、例えばディスプレーなどの表示装置、及びスピーカなどの音声装置である。
実施形態に係る各プログラムは、例えば、下記の形態で情報処理装置100に提供される。
(1)記憶装置1803に予めインストールされている。
(2)着脱可能記憶媒体1805により提供される。
(3)プログラムサーバなどのサーバから提供される。
なお、図18を参照して述べた情報処理装置100を実現するためのコンピュータ1800のハードウェア構成は、例示であり、実施形態はこれに限定されるものではない。例えば、上述の機能部の一部または全部の機能がFPGA及びSoCなどによるハードウェアとして実装されてもよい。なお、FPGAは、Field Programmable Gate Arrayの略称である。SoCは、System-on-a-chipの略称である。
以上において、いくつかの実施形態が説明される。しかしながら、実施形態は上記の実施形態に限定されるものではなく、上述の実施形態の各種変形形態及び代替形態を包含するものとして理解されるべきである。例えば、各種実施形態は、その趣旨及び範囲を逸脱しない範囲で構成要素を変形して具体化できることが理解されよう。また、前述した実施形態に開示されている複数の構成要素を適宜組み合わせることにより、種々の実施形態が実施され得ることが理解されよう。更には、実施形態に示される全構成要素からいくつかの構成要素を削除して又は置換して、或いは実施形態に示される構成要素にいくつかの構成要素を追加して種々の実施形態が実施され得ることが当業者には理解されよう。
以上の実施形態を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
情報処理装置により実行される業務推定方法であって、
前記情報処理装置が、
業務を実行する業務者が装着するデバイスで計測された計測情報において所定の動作が検出された動作区間から抽出された複数の特徴ベクトルを、複数の分割方法でクラスタリングして得られる複数のクラスタのそれぞれに対する重み付けを、前記計測情報の所定時間当たりに含まれる前記動作区間から抽出した特徴ベクトルから前記複数のクラスタに分類されるそれぞれの割合を入力として用い、前記割合が取得された前記所定時間において前記業務者が前記業務を実行していたか否かの情報を出力ラベルとして用いて学習により決定することで生成された業務推定モデルを用いて、前記業務者が前記業務の実行中であるか否かを推定する、
ことを含む、業務推定方法。
(付記2)
前記情報処理装置が、前記業務者が実行する複数の業務ごとに前記業務推定モデルを生成することで得られた複数の業務推定モデルに基づいて、前記計測情報から前記業務者が前記複数の業務のうちのいずれの業務を実行しているかを推定する、
ことを含む、付記1に記載の業務推定方法。
(付記3)
前記業務推定モデルは、前記業務者が装着する第2のデバイスで計測された第2の計測情報において所定の第2の動作が検出された第2の動作区間から抽出される複数の第2の特徴ベクトルを複数の第2の分割方法でクラスタリングして得られる複数の第2のクラスタのそれぞれに対する重み付けを、前記第2の計測情報の所定時間当たりに含まれる前記第2の動作区間から抽出した第2の特徴ベクトルが、前記複数の第2のクラスタのそれぞれに分類される割合を更に入力として用いて前記学習により決定することで生成される、
ことを特徴とする付記1に記載の業務推定方法。
(付記4)
情報処理装置により実行される業務推定方法であって、
前記情報処理装置が、
業務を実行する業務者が装着するデバイスで計測された計測情報において所定の動作が検出された動作区間から抽出される複数の特徴ベクトルを、複数の分割方法でクラスタリングすることで前記複数の分割方法ごとに得られる複数のクラスタのそれぞれに対する重み付けを、前記計測情報の所定時間当たりに含まれる前記動作区間から抽出した特徴ベクトルから前記複数のクラスタに分類されるそれぞれの割合を入力として用い、前記割合が取得された前記所定時間において前記業務者が前記業務を実行していたか否かの情報を出力ラベルとして用いて学習により決定することで生成された前記複数の分割方法ごとの業務推定モデルのうちから推定精度に基づいて選択された分割方法の業務推定モデルを用いて、前記業務者が前記業務の実行中であるか否かを推定する、
ことを含む、業務推定方法。
(付記5)
情報処理装置により実行される業務推定方法であって、
前記情報処理装置が、業務推定モデルに基づいて、業務者が業務の実行中であるか否かを推定する、
ことを含み、
前記業務推定モデルは、
前記業務を実行する前記業務者が装着する第1のデバイスで計測された第1の計測情報において所定の第1の動作が検出された第1の動作区間から複数の第1の特徴ベクトルを抽出し、
前記業務者が装着する第2のデバイスで計測された第2の計測情報において所定の第2の動作が検出された第2の動作区間から複数の第2の特徴ベクトルを抽出し、
前記複数の第1の特徴ベクトルを分割するための複数の第1の分割方法と、前記複数の第2の特徴ベクトルを分割するための複数の第2の分割方法とを組み合わせた複数の分割方法の組ごとに、分割方法の組の第1の分割方法で記複数の第1の特徴ベクトルを分割して複数の第1のクラスタを取得し、及び前記分割方法の組の第2の分割方法で前記複数の第2の特徴ベクトルをクラスタリングして複数の第2のクラスタを取得し、
前記第1の計測情報の所定時間当たりに含まれる前記第1の動作区間から抽出した第1の特徴ベクトルから前記複数の第1のクラスタに分類されるそれぞれの割合と、前記第2の計測情報の前記所定時間当たりに含まれる前記第2の動作区間から抽出した第2の特徴ベクトルから前記複数の第2のクラスタに分類されるそれぞれの割合を入力として用い、前記割合が取得された前記所定時間において前記業務者が前記業務を実行していたか否かの情報を出力ラベルとして用いて学習を行うことで、前記複数の第1のクラスタと前記複数の第2のクラスタのそれぞれに対する重み付けを決定することで、前記複数の分割方法ごとに業務推定モデルを生成し、
得られた前記複数の分割方法ごとの業務推定モデルのうちから推定精度に基づいて業務推定モデルを選択することで、
生成されることを特徴とする、業務推定方法。
(付記6)
業務を実行する業務者が装着するデバイスで計測された計測情報において所定の動作が検出された動作区間から抽出された複数の特徴ベクトルを複数の分割方法でクラスタリングして得られる複数のクラスタのそれぞれに対する重み付けを、前記計測情報の所定時間当たりに含まれる前記動作区間から抽出した特徴ベクトルから前記複数のクラスタに分類されるそれぞれの割合を入力として用い、前記割合が取得された前記所定時間において前記業務者が前記業務を実行していたか否かの情報を出力ラベルとして用いて学習により決定することで生成された業務推定モデルを用いて、前記業務者が前記業務の実行中であるか否かを推定する制御部、
を含む、情報処理装置。
(付記7)
業務を実行する業務者が装着するデバイスで計測された計測情報において所定の動作が検出された動作区間から抽出された複数の特徴ベクトルを複数の分割方法でクラスタリングして得られる複数のクラスタのそれぞれに対する重み付けを、前記計測情報の所定時間当たりに含まれる前記動作区間から抽出した特徴ベクトルから前記複数のクラスタに分類されるそれぞれの割合を入力として用い、前記割合が取得された前記所定時間において前記業務者が前記業務を実行していたか否かの情報を出力ラベルとして用いて学習により決定することで生成された業務推定モデルを用いて、前記業務者が前記業務の実行中であるか否かを推定する、
処理を、情報処理装置に実行させる業務推定プログラム。
100 情報処理装置
101 制御部
102 記憶部
201 業務者
202 バッジ
203 バンド
205 デバイス
1800 コンピュータ
1801 プロセッサ
1802 メモリ
1803 記憶装置
1804 読取装置
1805 着脱可能記憶媒体
1806 通信インタフェース
1807 入出力インタフェース
1808 バス

Claims (6)

  1. 情報処理装置により実行される業務推定方法であって、
    前記情報処理装置が、
    業務を実行する業務者が装着するデバイスで計測された計測情報において所定の動作が検出された動作区間から抽出された複数の特徴ベクトルを、複数の分割方法でクラスタリングして得られる複数のクラスタのそれぞれに対する重み付けを、前記計測情報の所定時間当たりに含まれる前記動作区間から抽出した特徴ベクトルから前記複数のクラスタに分類されるそれぞれの割合を入力として用い、前記割合が取得された前記所定時間において前記業務者が前記業務を実行していたか否かの情報を出力ラベルとして用いて学習により決定することで生成された業務推定モデルを用いて、前記業務者が前記業務の実行中であるか否かを推定する、
    ことを含む、業務推定方法。
  2. 前記業務推定モデルは、前記業務者が装着する第2のデバイスで計測された第2の計測情報において所定の第2の動作が検出された第2の動作区間から抽出される複数の第2の特徴ベクトルを複数の第2の分割方法でクラスタリングして得られる複数の第2のクラスタのそれぞれに対する重み付けを、前記第2の計測情報の所定時間当たりに含まれる前記第2の動作区間から抽出した第2の特徴ベクトルが、前記複数の第2のクラスタのそれぞれに分類される割合を更に入力として用いて前記学習により決定することで生成される、
    ことを特徴とする請求項1に記載の業務推定方法。
  3. 情報処理装置により実行される業務推定方法であって、
    前記情報処理装置が、
    業務を実行する業務者が装着するデバイスで計測された計測情報において所定の動作が検出された動作区間から抽出される複数の特徴ベクトルを、複数の分割方法でクラスタリングすることで前記複数の分割方法ごとに得られる複数のクラスタのそれぞれに対する重み付けを、前記計測情報の所定時間当たりに含まれる前記動作区間から抽出した特徴ベクトルから前記複数のクラスタに分類されるそれぞれの割合を入力として用い、前記割合が取得された前記所定時間において前記業務者が前記業務を実行していたか否かの情報を出力ラベルとして用いて学習により決定することで生成された前記複数の分割方法ごとの業務推定モデルのうちから推定精度に基づいて選択された分割方法の業務推定モデルを用いて、前記業務者が前記業務の実行中であるか否かを推定する、
    ことを含む、業務推定方法。
  4. 情報処理装置により実行される業務推定方法であって、
    前記情報処理装置が、業務推定モデルに基づいて、業務者が業務の実行中であるか否かを推定する、
    ことを含み、
    前記業務推定モデルは、
    前記業務を実行する前記業務者が装着する第1のデバイスで計測された第1の計測情報において所定の第1の動作が検出された第1の動作区間から複数の第1の特徴ベクトルを抽出し、
    前記業務者が装着する第2のデバイスで計測された第2の計測情報において所定の第2の動作が検出された第2の動作区間から複数の第2の特徴ベクトルを抽出し、
    前記複数の第1の特徴ベクトルを分割するための複数の第1の分割方法と、前記複数の第2の特徴ベクトルを分割するための複数の第2の分割方法とを組み合わせた複数の分割方法の組ごとに、分割方法の組の第1の分割方法で記複数の第1の特徴ベクトルを分割して複数の第1のクラスタを取得し、及び前記分割方法の組の第2の分割方法で前記複数の第2の特徴ベクトルをクラスタリングして複数の第2のクラスタを取得し、
    前記第1の計測情報の所定時間当たりに含まれる前記第1の動作区間から抽出した第1の特徴ベクトルから前記複数の第1のクラスタに分類されるそれぞれの割合と、前記第2の計測情報の前記所定時間当たりに含まれる前記第2の動作区間から抽出した第2の特徴ベクトルから前記複数の第2のクラスタに分類されるそれぞれの割合を入力として用い、前記割合が取得された前記所定時間において前記業務者が前記業務を実行していたか否かの情報を出力ラベルとして用いて学習を行うことで、前記複数の第1のクラスタと前記複数の第2のクラスタのそれぞれに対する重み付けを決定することで、前記複数の分割方法ごとに業務推定モデルを生成し、
    得られた前記複数の分割方法ごとの業務推定モデルのうちから推定精度に基づいて業務推定モデルを選択することで、
    生成されることを特徴とする、業務推定方法。
  5. 業務を実行する業務者が装着するデバイスで計測された計測情報において所定の動作が検出された動作区間から抽出された複数の特徴ベクトルを複数の分割方法でクラスタリングして得られる複数のクラスタのそれぞれに対する重み付けを、前記計測情報の所定時間当たりに含まれる前記動作区間から抽出した特徴ベクトルから前記複数のクラスタに分類されるそれぞれの割合を入力として用い、前記割合が取得された前記所定時間において前記業務者が前記業務を実行していたか否かの情報を出力ラベルとして用いて学習により決定することで生成された業務推定モデルを用いて、前記業務者が前記業務の実行中であるか否かを推定する制御部、
    を含む、情報処理装置。
  6. 業務を実行する業務者が装着するデバイスで計測された計測情報において所定の動作が検出された動作区間から抽出された複数の特徴ベクトルを複数の分割方法でクラスタリングして得られる複数のクラスタのそれぞれに対する重み付けを、前記計測情報の所定時間当たりに含まれる前記動作区間から抽出した特徴ベクトルから前記複数のクラスタに分類されるそれぞれの割合を入力として用い、前記割合が取得された前記所定時間において前記業務者が前記業務を実行していたか否かの情報を出力ラベルとして用いて学習により決定することで生成された業務推定モデルを用いて、前記業務者が前記業務の実行中であるか否かを推定する、
    処理を、情報処理装置に実行させる業務推定プログラム。
JP2018127943A 2018-07-05 2018-07-05 業務推定方法、情報処理装置、及び業務推定プログラム Active JP7052604B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018127943A JP7052604B2 (ja) 2018-07-05 2018-07-05 業務推定方法、情報処理装置、及び業務推定プログラム
US16/437,787 US11494702B2 (en) 2018-07-05 2019-06-11 Task estimation method and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018127943A JP7052604B2 (ja) 2018-07-05 2018-07-05 業務推定方法、情報処理装置、及び業務推定プログラム

Publications (2)

Publication Number Publication Date
JP2020009034A true JP2020009034A (ja) 2020-01-16
JP7052604B2 JP7052604B2 (ja) 2022-04-12

Family

ID=69101241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018127943A Active JP7052604B2 (ja) 2018-07-05 2018-07-05 業務推定方法、情報処理装置、及び業務推定プログラム

Country Status (2)

Country Link
US (1) US11494702B2 (ja)
JP (1) JP7052604B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135808A (ja) * 2019-02-26 2020-08-31 東京エレクトロンデバイス株式会社 時系列データの分割方法及び分割装置、並びにプログラム
WO2022215205A1 (ja) * 2021-04-07 2022-10-13 日本電信電話株式会社 業務プロセス分類装置、業務プロセス分類方法及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115907444B (zh) * 2022-11-23 2023-12-05 中国航空综合技术研究所 面向基于多通道人机交互技术的驾驶舱任务流程评估方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011177300A (ja) * 2010-02-26 2011-09-15 Emprie Technology Development LLC 特徴量変換装置、および特徴量変換方法
JP2012118838A (ja) * 2010-12-02 2012-06-21 Hitachi Ltd 監視対象者の行動を監視する装置及び方法
JP2016050868A (ja) * 2014-09-01 2016-04-11 カシオ計算機株式会社 行動推定装置、行動推定方法、および、行動推定プログラム
US20160206206A1 (en) * 2015-01-19 2016-07-21 Samsung Electronics Company, Ltd. Optical Detection and Analysis of Bone
JP2017111659A (ja) * 2015-12-17 2017-06-22 日本電信電話株式会社 路面状況理解方法、装置、及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8738136B2 (en) * 2002-10-15 2014-05-27 Medtronic, Inc. Clustering of recorded patient neurological activity to determine length of a neurological event
JP2006209468A (ja) 2005-01-28 2006-08-10 Yakahi Kikuko 作業動作解析装置、作業動作解析方法および作業動作解析プログラム
US9280386B1 (en) * 2011-07-14 2016-03-08 Google Inc. Identifying task instance outliers based on metric data in a large scale parallel processing system
JP2016090371A (ja) 2014-11-04 2016-05-23 国立研究開発法人産業技術総合研究所 センサ情報を処理する情報処理装置、情報管理システム、情報表示システム、情報処理方法、プログラム、記録媒体及びサーバ装置
US20180365697A1 (en) * 2017-06-16 2018-12-20 Nec Laboratories America, Inc. Suspicious remittance detection through financial behavior analysis

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011177300A (ja) * 2010-02-26 2011-09-15 Emprie Technology Development LLC 特徴量変換装置、および特徴量変換方法
JP2012118838A (ja) * 2010-12-02 2012-06-21 Hitachi Ltd 監視対象者の行動を監視する装置及び方法
JP2016050868A (ja) * 2014-09-01 2016-04-11 カシオ計算機株式会社 行動推定装置、行動推定方法、および、行動推定プログラム
US20160206206A1 (en) * 2015-01-19 2016-07-21 Samsung Electronics Company, Ltd. Optical Detection and Analysis of Bone
JP2017111659A (ja) * 2015-12-17 2017-06-22 日本電信電話株式会社 路面状況理解方法、装置、及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135808A (ja) * 2019-02-26 2020-08-31 東京エレクトロンデバイス株式会社 時系列データの分割方法及び分割装置、並びにプログラム
JP7315339B2 (ja) 2019-02-26 2023-07-26 東京エレクトロンデバイス株式会社 時系列データの分割方法及び分割装置、並びにプログラム
WO2022215205A1 (ja) * 2021-04-07 2022-10-13 日本電信電話株式会社 業務プロセス分類装置、業務プロセス分類方法及びプログラム

Also Published As

Publication number Publication date
US20200012993A1 (en) 2020-01-09
US11494702B2 (en) 2022-11-08
JP7052604B2 (ja) 2022-04-12

Similar Documents

Publication Publication Date Title
US9700241B2 (en) Gait analysis system and method
KR101872907B1 (ko) 듀얼 스마트 밴드를 이용한 모션 분석 장치 및 방법
JP7052604B2 (ja) 業務推定方法、情報処理装置、及び業務推定プログラム
KR101157073B1 (ko) 근전도 센서와 자이로 센서를 이용한 지화 인식 방법 및 장치
JP6570786B2 (ja) 動作学習装置、技能判別装置および技能判別システム
WO2012118998A2 (en) Apparatus, system, and method for detecting activities and anomalies in time series data
CN107657277B (zh) 一种基于大数据的人体异常行为检测与判定方法及系统
KR20180058999A (ko) 보행 분석 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
JP7439004B2 (ja) 行動認識装置、学習装置、および行動認識方法
US11410055B2 (en) Learning of a feature based on betti sequences obtained from time series data
CN113326726A (zh) 行为识别方法、行为识别设备和计算机可读记录介质
Akhavian et al. Construction activity recognition for simulation input modeling using machine learning classifiers
JP6590477B2 (ja) 情報処理装置、情報処理方法、プログラム
CN111385813B (zh) 用于重复活动序列中的循环持续时间测量的系统和方法
CN111428690B (zh) 一种基于步态信号拓扑分析的身份认证方法
JP6786015B1 (ja) 動作分析システムおよび動作分析プログラム
US11640553B2 (en) Method for analyzing time-series data based on machine learning and information processing apparatus
JP2020203032A (ja) 脳症判定プログラム、脳症判定方法および情報処理装置
JP5936038B2 (ja) 動作主識別方法、動作主識別システム、動作主識別プログラム及び情報記憶媒体
US20190294523A1 (en) Anomaly identification system, method, and storage medium
JP7279669B2 (ja) 移動量推定装置、モデル生成装置、移動量推定方法及びプログラム
Safonov et al. An approach for model assissment for activity recognition
JPWO2022024272A5 (ja)
US20220138471A1 (en) Load estimatation apparatus and method
JP7459679B2 (ja) 行動認識方法、行動認識プログラム及び行動認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220314

R150 Certificate of patent or registration of utility model

Ref document number: 7052604

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150