JPWO2020152848A1 - 認識器訓練装置、認識装置、データ処理システム、データ処理方法、およびプログラム - Google Patents
認識器訓練装置、認識装置、データ処理システム、データ処理方法、およびプログラム Download PDFInfo
- Publication number
- JPWO2020152848A1 JPWO2020152848A1 JP2020567333A JP2020567333A JPWO2020152848A1 JP WO2020152848 A1 JPWO2020152848 A1 JP WO2020152848A1 JP 2020567333 A JP2020567333 A JP 2020567333A JP 2020567333 A JP2020567333 A JP 2020567333A JP WO2020152848 A1 JPWO2020152848 A1 JP WO2020152848A1
- Authority
- JP
- Japan
- Prior art keywords
- data
- feature data
- recognition
- time
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 214
- 238000012545 processing Methods 0.000 title claims description 55
- 238000003672 processing method Methods 0.000 title claims description 29
- 238000002372 labelling Methods 0.000 claims abstract description 21
- 238000000034 method Methods 0.000 claims description 169
- 230000008569 process Effects 0.000 claims description 94
- 230000010354 integration Effects 0.000 claims description 31
- 239000013598 vector Substances 0.000 claims description 24
- 238000010187 selection method Methods 0.000 claims description 23
- 238000009795 derivation Methods 0.000 claims description 18
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 230000006399 behavior Effects 0.000 description 22
- 238000012986 modification Methods 0.000 description 18
- 230000004048 modification Effects 0.000 description 18
- 238000013500 data storage Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000015654 memory Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000012850 discrimination method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7753—Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
前記認識結果に基づく情報を出力する。
まず、本発明の第1の実施形態について説明する。
図1は、第1の実施形態に係るデータ処理システム1の構成を示すブロック図である。
記憶モジュール31は、サンプル用データ記憶部311と、パラメータ記憶部312と、辞書記憶部313と、認識対象データ記憶部314と、を含む。
訓練モジュール11は、読み出し部111と、データ選択部112と、ラベル決定部113と、訓練部114と、を含む。
認識モジュール21は、読み出し部211と、データ選択部212と、認識結果導出部213と、出力部214と、を含む。
以下、データ処理システム1の動作の流れについて、図を参照しながら説明する。データ処理システム1の動作は、訓練モジュール11により訓練処理を行う動作と、認識モジュール21により認識処理を行う動作とに分かれる。なお、各動作における各処理は、各処理がプログラムを実行するプロセッサによって実行される場合においては、プログラムの中の命令の順序に従って実行されればよい。各処理が別個のデバイスによって実行される場合においては、処理を完了したデバイスが次の処理を実行するデバイスに通知を行うことで、処理が順番に実行されればよい。なお、処理を行う各部は、めいめいの処理に必要なデータを、例えば、そのデータを生成した部から受け取り、および/またはモジュールが備える記憶領域もしくは記憶モジュール31から読み出せばよい。
訓練モジュール11による訓練処理の流れを、図5を参照しながら、説明する。なお、訓練処理は、例えば外部から訓練処理の開始指示を受け取ったことを契機として、開始されればよい。
認識モジュール21による認識処理の流れを、図8を参照しながら説明する。なお、認識処理は、例えば外部から認識処理の開始指示を受け取ったことを契機として、開始されればよい。
第1の実施形態に係るデータ処理システム1によれば、時系列データの取得における時間間隔に依存しない認識器の生成が可能になる。
認識モジュール21は、複数個の認識結果を導出し、複数個の認識結果に基づいて総合的な認識結果(後述)を出力してもよい。例えば、認識モジュール21は、所定の結果数の認識結果が導出されるまで、ステップS23からステップS25までの処理を繰り返してもよい。その場合、処理の繰り返しにおいて、データ範囲の設定(認識対象データに対するデータ範囲が設定された時刻)は変更しない。
認識モジュール22による認識処理の流れを、図10のフローチャートを参照しながら説明する。
第1の変形例によれば、精度がより高い認識が可能となる。その理由は、認識結果が、1組の特徴データ群だけでなく、同じ指定時間幅に基づく複数の特徴データ群から総合的に導出されるからである。つまり、認識モジュール22は、データ選択部212によって決定されたデータ範囲に含まれる特徴データを、認識においてより有効に利用する。したがって、認識の正確性および信頼性が向上する。
以下、第1の実施形態の第2の変形例について説明する。第2の変形例では、複数の辞書を用いた認識が行われる。
認識モジュール23による認識処理の流れを、図12のフローチャートを参照しながら説明する。
第2の変形例によれば、精度がより高い認識が可能となる。その理由は、複数の指定時間幅を用いてそれぞれ訓練された複数の辞書が認識に用いられ、結果統合部235によって複数の認識結果から最終的な認識結果が統合的に導出されるからである。
以下に上記実施形態の説明で記載された事項の変更例をいくつか記載する。
サンプル用データにおいて、1つの特徴データに複数のラベルが付与されていてもよい。
サンプル用データにおけるラベルは、必ずしもすべての特徴データに付与されていなくてもよい。
サンプル用データにおいて、特徴データではなく、時間範囲に、ラベルが付与されていてもよい。このような場合、ラベル決定部113は、選択された特徴データに付与されている時刻を含む時間範囲に付与された1つ以上のラベルに基づき、教師ラベルを決定すればよい。あるいは、ラベル決定部113は、データ選択部112により決定されたデータ範囲と、ラベルが付与されている時間範囲との関係に基づき、教師ラベルを決定してもよい。例えば、あるラベル“A”が付与されている時間範囲がデータ選択部112により決定されたデータ範囲に含まれる長さが、他のどのラベルが付与されている時間範囲がデータ選択部112により決定されたデータ範囲に含まれる長さよりも、長い場合、ラベル決定部113は、ラベル“A”を教師ラベルとして決定してもよい。
認識モジュール21〜23による認識は、挙動やイベントの発生以外の認識でもよい。認識は、時系列で並ぶ複数の特徴データを用いた認識であれば、例示した認識以外の認識であってもよい。
ラベルは、観測対象の状態を示す情報でもよい。状態を示すラベルを以下に例示すると、“存在する”、“存在していない”、“動いている”、“落下している”、“回転している”、“物を持っている”、“左方を見ている”、“速い”、“遅い”、 “正常”、“異常”、等がある。
ラベル決定部113は、各データに付与されたラベルの組み合わせに基づいて教師ラベルを決定してもよい。例えば、抽出したラベルが、時間順に“移動している”、“止まっている”との2種類のラベルを含んでいる場合、ラベル決定部113は、“滞留し始めた”というラベルを教師ラベルとして決定し得る。また、例えば、抽出したラベルの中に、“左方を見ている”と“右方を見ている”との2種類のラベルが存在している場合、ラベル決定部113は“きょろきょろしている”というラベルを教師ラベルとして決定し得る。
本発明の一実施形態に係る認識器訓練装置および認識装置について説明する。
以上で説明された本発明の各実施形態において、各装置の各構成要素を示すブロックは、機能単位で示されている。しかし、構成要素を示すブロックは、各構成要素が別個のモジュールにより構成されることを必ずしも意味していない。
・1つまたは複数のCPU(Central Processing Unit)901
・ROM902
・RAM(Random Access Memory)903
・RAM903へロードされるプログラム904
・プログラム904を格納する記憶装置905
・記憶媒体906の読み書きを行うドライブ装置907
・通信ネットワーク909と接続する通信インタフェース908
・データの入出力を行う入出力インタフェース910
・各構成要素を接続するバス911
[付記1]
特徴データの時系列を入力として認識結果を出力する認識器を訓練する認識器訓練装置であって、
時刻が付与された特徴データのセットに対して、長さが指定の時間幅であるデータ範囲を設定し、当該データ範囲の中から、指定の個数の前記特徴データを選択する訓練用特徴データ選択手段と、
前記訓練用特徴データ選択手段により選択された複数の特徴データであって時間順が保持された複数の特徴データに対し、当該複数の特徴データに関する情報に基づいて、前記認識結果に相当する教師ラベルを付与するラベル付与手段と、
前記時間順が保持された複数の特徴データと、前記ラベル付与手段により付与された前記教師ラベルとの組を、訓練データとして、前記認識器を訓練する訓練手段と、
を備える認識器訓練装置。
[付記2]
前記訓練用特徴データ選択手段は、前記データ範囲を、ランダムにデータ範囲を設定する方法、または、設定の度にデータ範囲をずらして設定する方法により、設定する、
付記1に記載の認識器訓練装置。
[付記3]
前記セットに含まれる特徴データの各々にはそれぞれ前記認識結果に相当するラベルが付与されており、
前記ラベル付与手段は、
前記訓練用特徴データ選択手段により選択された前記複数の特徴データのそれぞれから、当該特徴データに関連づけられた前記ラベルを抽出し、
抽出した前記ラベルのうちで個数が最も多いラベルを選択する方法、または、抽出した前記ラベルごとに時刻に基づく重みをつけて個数を数え上げ、数え上げた結果としてのトータル値が最も大きいラベルを選択する方法、のいずれかを用いてラベルを選択し、選択したラベルを前記教師ラベルとして決定する、
付記1または2に記載の認識器訓練装置。
[付記4]
前記訓練用特徴データ選択手段は、前記指定の個数の前記特徴データを重複のないランダムな選択を行う方法で選択する、
付記1から3のいずれか一つに記載の認識器訓練装置。
[付記5]
前記訓練用特徴データ選択手段は、前記データ範囲から前記指定の個数の前記特徴データを選択する際に、当該データ範囲内の特徴データのうち最も新しい時刻が付与された特徴データを含むように、前記指定の個数の前記特徴データを選択する、
付記1から4のいずれか一つに記載の認識器訓練装置。
[付記6]
前記訓練用特徴データ選択手段は、前記データ範囲の中で新しい時刻が付与された特徴データほど大きい重みを設定し、重み付きのランダムな選択方法によって前記指定の個数の前記特徴データを選択する、
付記1から4のいずれか一つに記載の認識器訓練装置。
[付記7]
前記時間順が保持された複数の特徴データのそれぞれはベクトルで表現され、
前記訓練手段は、前記訓練用特徴データ選択手段により選択された複数の前記特徴データを前記時刻順に連結することにより生成する、1つのベクトルを、前記訓練データの入力側のデータとして使用する、
付記1から6のいずれか一つに記載の認識器訓練装置。
[付記8]
前記時間順が保持された複数の特徴データのそれぞれは2次元に配列した値により表現され、前記認識器はニューラルネットワークであり、
前記訓練手段は、前記訓練用特徴データ選択手段により選択された複数の前記特徴データを前記時刻順に配置することにより生成する、3次元のデータを、前記訓練データの入力側のデータとして使用する、
付記1から6のいずれか一つに記載の認識器訓練装置。
[付記9]
時刻が付与された特徴データのセットに対して、長さが指定の時間幅であるデータ範囲を設定し、当該データ範囲の中から、指定の個数の前記特徴データを選択する認識用特徴データ選択手段と、
前記認識用特徴データ選択手段により選択された複数の特徴データであって時間順が保持された複数の特徴データを認識器に入力することにより、認識結果を導出する認識手段と、
前記認識結果に基づく情報を出力する出力手段と、
を備える認識装置。
[付記10]
前記認識用特徴データ選択手段は、前記データ範囲を、前記特徴データのセットのうち最も新しい時刻が付与された特徴データを含むように、設定する、
付記9に記載の認識装置。
[付記11]
前記認識用特徴データ選択手段は、前記指定の個数の前記特徴データを重複のないランダムな選択を行う方法で選択する、
付記9または10に記載の認識装置。
[付記12]
前記認識用特徴データ選択手段は、前記データ範囲から前記指定の個数の前記特徴データを選択する際に、当該データ範囲内の特徴データのうち最も新しい時刻が付与された特徴データを含むように、前記指定の個数の前記特徴データを選択する、
付記9から11のいずれか一つに記載の認識装置。
[付記13]
前記認識用特徴データ選択手段は、前記データ範囲の中で新しい時刻が付与された特徴データほど大きい重みを設定し、重み付きのランダムな選択方法によって前記指定の個数の前記特徴データを選択する、
付記9から11のいずれか一つに記載の認識装置。
[付記14]
固定された前記データ範囲の設定のもとで、前記認識用特徴データ選択手段の処理と前記認識手段の処理とを所定の回数実行することにより、複数の認識結果を取得し、
前記複数の認識結果を統合することで総合的な認識結果を導出する認識結果統合手段をさらに備える、
付記9から13のいずれか一つに記載の認識装置。
[付記15]
複数の相異なる指定の時間幅のそれぞれについて、前記認識用特徴データ選択手段の処理と前記認識手段の処理とを実行することにより、時間幅毎の前記認識結果を取得し、
前記時間幅毎の前記認識結果を統合することで最終的な認識結果を導出する認識結果統合手段をさらに備える、
付記9から13のいずれか一つに記載の認識装置。
[付記16]
付記1から8のいずれか1つに記載の認識器訓練装置と、
付記9から15のいずれか1つに記載の認識装置と、を含む
データ処理システム。
[付記17]
特徴データの時系列を入力として認識結果を出力する認識器を訓練するデータ処理方法であって、
時刻が付与された特徴データのセットに対して、長さが指定の時間幅であるデータ範囲を設定し、当該データ範囲の中から、指定の個数の前記特徴データを選択し、
前記選択された複数の特徴データであって時間順が保持された複数の特徴データに対し、当該複数の特徴データに関する情報に基づいて、前記認識結果に相当する教師ラベルを付与し、
前記時間順が保持された複数の特徴データと、前記教師ラベルとの組を、訓練データとして、前記認識器を訓練する、
データ処理方法。
[付記18]
時刻が付与された特徴データのセットに対して、長さが指定の時間幅であるデータ範囲を設定し、当該データ範囲の中から、指定の個数の前記特徴データを選択し、
前記選択された複数の特徴データであって時間順が保持された複数の特徴データを認識器に入力することにより、認識結果を導出し、
前記認識結果に基づく情報を出力する、
データ処理方法。
[付記19]
前記データ範囲を、ランダムにデータ範囲を設定する方法、または、設定の度にデータ範囲をずらして設定する方法により、設定する、
付記17または18に記載のデータ処理方法。
[付記20]
前記セットに含まれる特徴データの各々にはそれぞれ前記認識結果に相当するラベルが付与されており、
前記複数の特徴データのそれぞれから、それぞれに関連づけられた前記ラベルを抽出し、
抽出した前記ラベルのうちで個数が最も多いラベルを選択する方法、または、抽出した前記ラベルごとに時刻に基づく重みをつけて個数を数え上げ、数え上げた結果としてのトータル値が最も大きいラベルを選択する方法、のいずれかを用いてラベルを選択し、選択したラベルを前記教師ラベルとして決定する、
付記17に記載のデータ処理方法。
[付記21]
前記指定の個数の前記特徴データを重複のないランダムな選択を行う方法で選択する、
付記17から20のいずれか一つに記載のデータ処理方法。
[付記22]
前記データ範囲から前記指定の個数の前記特徴データを選択する際に、当該データ範囲内の特徴データのうち最も新しい時刻が付与された特徴データを含むように、前記指定の個数の前記特徴データを選択する、
付記17から20のいずれか一つに記載のデータ処理方法。
[付記23]
前記データ範囲の中で新しい時刻が付与された特徴データほど大きい重みを設定し、重み付きのランダムな選択方法によって前記指定の個数の前記特徴データを選択する、
付記17から20のいずれか一つに記載のデータ処理方法。
[付記24]
前記時間順が保持された複数の特徴データのそれぞれはベクトルで表現され、
前記選択された複数の前記特徴データを前記時刻順に連結することにより生成する1つのベクトルを、前記認識器に入力されるデータとして使用する、
付記17から23のいずれか一つに記載のデータ処理方法。
[付記25]
前記時間順が保持された複数の特徴データのそれぞれは2次元に配列した値により表現され、前記認識器はニューラルネットワークであり、
前記選択された複数の前記特徴データを前記時刻順に配置することにより生成する3次元のデータを、前記認識器に入力されるデータとして使用する、
付記17から23のいずれか一つに記載のデータ処理方法。
[付記26]
固定された前記データ範囲の設定のもとで、前記指定の個数の前記特徴データの選択と前記認識結果の導出とを所定の回数実行することにより、複数の認識結果を取得し、
前記複数の認識結果を統合することで総合的な認識結果を導出し、
前記総合的な認識結果に基づく情報を出力する、
付記18に記載のデータ処理方法。
[付記27]
複数の相異なる指定の時間幅のそれぞれについて、前記指定の個数の前記特徴データの選択と前記認識結果の導出とを実行することにより、時間幅毎の前記認識結果を取得し、
前記時間幅毎の前記認識結果を統合することで最終的な認識結果を導出し、
前記最終的な認識結果に基づく情報を出力する、
付記18または26に記載のデータ処理方法。
[付記28]
特徴データの時系列を入力として認識結果を出力する認識器を訓練するためのプログラムであって、
時刻が付与された特徴データのセットに対して、長さが指定の時間幅であるデータ範囲を設定し、当該データ範囲の中から、指定の個数の前記特徴データを選択する特徴データ選択処理と、
前記特徴データ選択処理により選択された複数の特徴データであって時間順が保持された複数の特徴データに対し、当該複数の特徴データに関する情報に基づいて、前記認識結果に相当する教師ラベルを付与するラベル付与処理と、
前記時間順が保持された複数の特徴データと、前記ラベル付与処理により付与された前記教師ラベルとの組を、訓練データとして、前記認識器を訓練する訓練処理と、
をコンピュータに実行させるプログラムを記録した、コンピュータ読み取り可能な記憶媒体。
[付記29]
時刻が付与された特徴データのセットに対して、長さが指定の時間幅であるデータ範囲を設定し、当該データ範囲の中から、指定の個数の前記特徴データを選択する特徴データ選択処理と、
前記特徴データ選択処理により選択された複数の特徴データであって時間順が保持された複数の特徴データを認識器に入力することにより、認識結果を導出する認識処理と、
前記認識結果に基づく情報を出力する出力処理と、
をコンピュータに実行させるプログラムを記録した、コンピュータ読み取り可能な記憶媒体。
[付記30]
前記特徴データ選択処理は、前記データ範囲を、ランダムにデータ範囲を設定する方法、または、設定の度にデータ範囲をずらして設定する方法により、設定する、
付記28または29に記載の記憶媒体。
[付記31]
前記セットに含まれる特徴データの各々にはそれぞれ前記認識結果に相当するラベルが付与されており、
前記ラベル付与処理は、
前記特徴データ選択処理により選択された前記特徴データのそれぞれから、それぞれに関連づけられた前記ラベルを抽出し、
抽出した前記ラベルのうちで個数が最も多いラベルを選択する方法、または、抽出した前記ラベルごとに時刻に基づく重みをつけて個数を数え上げ、数え上げた結果としてのトータル値が最も大きいラベルを選択する方法、のいずれかを用いてラベルを選択し、選択したラベルを前記教師ラベルとして決定する、
付記28に記載の記憶媒体。
[付記32]
前記特徴データ選択処理は、前記指定の個数の前記特徴データを重複のないランダムな選択を行う方法で選択する、
付記28から31のいずれか一つに記載の記憶媒体。
[付記33]
前記特徴データ選択処理は、前記データ範囲から前記指定の個数の前記特徴データを選択する際に、当該データ範囲内の特徴データのうち最も新しい時刻が付与された特徴データを含むように、前記指定の個数の前記特徴データを選択する、
付記28から31のいずれか一つに記載の記憶媒体。
[付記34]
前記特徴データ選択処理は、前記データ範囲の中で新しい時刻が付与された特徴データほど大きい重みを設定し、重み付きのランダムな選択方法によって前記指定の個数の前記特徴データを選択する、
付記28から31のいずれか一つに記載の記憶媒体。
[付記35]
前記時間順が保持された複数の特徴データのそれぞれはベクトルで表現され、
前記プログラムは、前記コンピュータに、前記特徴データ選択処理により選択された複数の前記特徴データを前記時刻順に連結することにより生成する1つのベクトルを、前記認識器に入力されるデータとして使用する、
付記28から34のいずれか一つに記載の記憶媒体。
[付記36]
前記時間順が保持された複数の特徴データのそれぞれは2次元に配列した値により表現され、前記認識器はニューラルネットワークであり、
前記プログラムは、前記コンピュータに、前記特徴データ選択処理により選択された複数の前記特徴データを前記時刻順に配置することにより生成する3次元のデータを、前記認識器に入力されるデータとして使用する、
付記28から34のいずれか一つに記載の記憶媒体。
[付記37]
前記プログラムは、
前記コンピュータに、固定された前記データ範囲の設定のもとで、前記特徴データ選択処理と前記認識処理とを所定の回数実行させることにより、複数の認識結果を取得させ、
前記コンピュータに、前記複数の認識結果を統合することで総合的な認識結果を導出する認識結果統合処理を実行させる、
付記29に記載の記憶媒体。
[付記38]
前記プログラムは、
前記コンピュータに、複数の相異なる指定の時間幅のそれぞれについて、前記特徴データ選択処理と前記認識処理とを実行させることにより、時間幅毎の前記認識結果を取得させ、
前記コンピュータに、前記時間幅毎の前記認識結果を統合することで最終的な認識結果を導出する統合処理を実行させる、
付記29または37に記載の記憶媒体。
10 認識器訓練装置
101 訓練用特徴データ選択部
102 ラベル付与部
103 訓練部
20 認識装置
201 認識用特徴データ選択部
202 認識部
203 出力部
11 訓練モジュール
111 読み出し部
112 データ選択部
113 ラベル決定部
114 訓練部
21、22、23 認識モジュール
211 読み出し部
212 データ選択部
213 認識結果導出部
214 出力部
225 結果統合部
235 結果統合部
31 記憶モジュール
311 サンプル用データ記憶部
312 パラメータ記憶部
313 辞書記憶部
314 認識対象データ記憶部
900 コンピュータ
901 CPU
902 ROM
903 RAM
904 プログラム
905 記憶装置
906 記憶媒体
907 ドライブ装置
908 通信インタフェース
909 通信ネットワーク
910 入出力インタフェース
911 バス
Claims (38)
- 特徴データの時系列を入力として認識結果を出力する認識器を訓練する認識器訓練装置であって、
時刻が付与された特徴データのセットに対して、長さが指定の時間幅であるデータ範囲を設定し、当該データ範囲の中から、指定の個数の前記特徴データを選択する訓練用特徴データ選択手段と、
前記訓練用特徴データ選択手段により選択された複数の特徴データであって時間順が保持された複数の特徴データに対し、当該複数の特徴データに関する情報に基づいて、前記認識結果に相当する教師ラベルを付与するラベル付与手段と、
前記時間順が保持された複数の特徴データと、前記ラベル付与手段により付与された前記教師ラベルとの組を、訓練データとして、前記認識器を訓練する訓練手段と、
を備える認識器訓練装置。 - 前記訓練用特徴データ選択手段は、前記データ範囲を、ランダムにデータ範囲を設定する方法、または、設定の度にデータ範囲をずらして設定する方法により、設定する、
請求項1に記載の認識器訓練装置。 - 前記セットに含まれる特徴データの各々にはそれぞれ前記認識結果に相当するラベルが付与されており、
前記ラベル付与手段は、
前記訓練用特徴データ選択手段により選択された前記複数の特徴データのそれぞれから、当該特徴データに関連づけられた前記ラベルを抽出し、
抽出した前記ラベルのうちで個数が最も多いラベルを選択する方法、または、抽出した前記ラベルごとに時刻に基づく重みをつけて個数を数え上げ、数え上げた結果としてのトータル値が最も大きいラベルを選択する方法、のいずれかを用いてラベルを選択し、選択したラベルを前記教師ラベルとして決定する、
請求項1または2に記載の認識器訓練装置。 - 前記訓練用特徴データ選択手段は、前記指定の個数の前記特徴データを重複のないランダムな選択を行う方法で選択する、
請求項1から3のいずれか一項に記載の認識器訓練装置。 - 前記訓練用特徴データ選択手段は、前記データ範囲から前記指定の個数の前記特徴データを選択する際に、当該データ範囲内の特徴データのうち最も新しい時刻が付与された特徴データを含むように、前記指定の個数の前記特徴データを選択する、
請求項1から4のいずれか一項に記載の認識器訓練装置。 - 前記訓練用特徴データ選択手段は、前記データ範囲の中で新しい時刻が付与された特徴データほど大きい重みを設定し、重み付きのランダムな選択方法によって前記指定の個数の前記特徴データを選択する、
請求項1から4のいずれか一項に記載の認識器訓練装置。 - 前記時間順が保持された複数の特徴データのそれぞれはベクトルで表現され、
前記訓練手段は、前記訓練用特徴データ選択手段により選択された複数の前記特徴データを前記時刻順に連結することにより生成する、1つのベクトルを、前記訓練データの入力側のデータとして使用する、
請求項1から6のいずれか一項に記載の認識器訓練装置。 - 前記時間順が保持された複数の特徴データのそれぞれは2次元に配列した値により表現され、前記認識器はニューラルネットワークであり、
前記訓練手段は、前記訓練用特徴データ選択手段により選択された複数の前記特徴データを前記時刻順に配置することにより生成する、3次元のデータを、前記訓練データの入力側のデータとして使用する、
請求項1から6のいずれか一項に記載の認識器訓練装置。 - 時刻が付与された特徴データのセットに対して、長さが指定の時間幅であるデータ範囲を設定し、当該データ範囲の中から、指定の個数の前記特徴データを選択する認識用特徴データ選択手段と、
前記認識用特徴データ選択手段により選択された複数の特徴データであって時間順が保持された複数の特徴データを認識器に入力することにより、認識結果を導出する認識手段と、
前記認識結果に基づく情報を出力する出力手段と、
を備える認識装置。 - 前記認識用特徴データ選択手段は、前記データ範囲を、前記特徴データのセットのうち最も新しい時刻が付与された特徴データを含むように、設定する、
請求項9に記載の認識装置。 - 前記認識用特徴データ選択手段は、前記指定の個数の前記特徴データを重複のないランダムな選択を行う方法で選択する、
請求項9または10に記載の認識装置。 - 前記認識用特徴データ選択手段は、前記データ範囲から前記指定の個数の前記特徴データを選択する際に、当該データ範囲内の特徴データのうち最も新しい時刻が付与された特徴データを含むように、前記指定の個数の前記特徴データを選択する、
請求項9から11のいずれか一項に記載の認識装置。 - 前記認識用特徴データ選択手段は、前記データ範囲の中で新しい時刻が付与された特徴データほど大きい重みを設定し、重み付きのランダムな選択方法によって前記指定の個数の前記特徴データを選択する、
請求項9から11のいずれか一項に記載の認識装置。 - 固定された前記データ範囲の設定のもとで、前記認識用特徴データ選択手段の処理と前記認識手段の処理とを所定の回数実行することにより、複数の認識結果を取得し、
前記複数の認識結果を統合することで総合的な認識結果を導出する認識結果統合手段をさらに備える、
請求項9から13のいずれか一項に記載の認識装置。 - 複数の相異なる指定の時間幅のそれぞれについて、前記認識用特徴データ選択手段の処理と前記認識手段の処理とを実行することにより、時間幅毎の前記認識結果を取得し、
前記時間幅毎の前記認識結果を統合することで最終的な認識結果を導出する認識結果統合手段をさらに備える、
請求項9から13のいずれか一項に記載の認識装置。 - 請求項1から8のいずれか1項に記載の認識器訓練装置と、
請求項9から15のいずれか1項に記載の認識装置と、を含む
データ処理システム。 - 特徴データの時系列を入力として認識結果を出力する認識器を訓練するデータ処理方法であって、
時刻が付与された特徴データのセットに対して、長さが指定の時間幅であるデータ範囲を設定し、当該データ範囲の中から、指定の個数の前記特徴データを選択し、
前記選択された複数の特徴データであって時間順が保持された複数の特徴データに対し、当該複数の特徴データに関する情報に基づいて、前記認識結果に相当する教師ラベルを付与し、
前記時間順が保持された複数の特徴データと、前記教師ラベルとの組を、訓練データとして、前記認識器を訓練する、
データ処理方法。 - 時刻が付与された特徴データのセットに対して、長さが指定の時間幅であるデータ範囲を設定し、当該データ範囲の中から、指定の個数の前記特徴データを選択し、
前記選択された複数の特徴データであって時間順が保持された複数の特徴データを認識器に入力することにより、認識結果を導出し、
前記認識結果に基づく情報を出力する、
データ処理方法。 - 前記データ範囲を、ランダムにデータ範囲を設定する方法、または、設定の度にデータ範囲をずらして設定する方法により、設定する、
請求項17または18に記載のデータ処理方法。 - 前記セットに含まれる特徴データの各々にはそれぞれ前記認識結果に相当するラベルが付与されており、
前記複数の特徴データのそれぞれから、それぞれに関連づけられた前記ラベルを抽出し、
抽出した前記ラベルのうちで個数が最も多いラベルを選択する方法、または、抽出した前記ラベルごとに時刻に基づく重みをつけて個数を数え上げ、数え上げた結果としてのトータル値が最も大きいラベルを選択する方法、のいずれかを用いてラベルを選択し、選択したラベルを前記教師ラベルとして決定する、
請求項17に記載のデータ処理方法。 - 前記指定の個数の前記特徴データを重複のないランダムな選択を行う方法で選択する、
請求項17から20のいずれか一項に記載のデータ処理方法。 - 前記データ範囲から前記指定の個数の前記特徴データを選択する際に、当該データ範囲内の特徴データのうち最も新しい時刻が付与された特徴データを含むように、前記指定の個数の前記特徴データを選択する、
請求項17から20のいずれか一項に記載のデータ処理方法。 - 前記データ範囲の中で新しい時刻が付与された特徴データほど大きい重みを設定し、重み付きのランダムな選択方法によって前記指定の個数の前記特徴データを選択する、
請求項17から20のいずれか一項に記載のデータ処理方法。 - 前記時間順が保持された複数の特徴データのそれぞれはベクトルで表現され、
前記選択された複数の前記特徴データを前記時刻順に連結することにより生成する1つのベクトルを、前記認識器に入力されるデータとして使用する、
請求項17から23のいずれか一項に記載のデータ処理方法。 - 前記時間順が保持された複数の特徴データのそれぞれは2次元に配列した値により表現され、前記認識器はニューラルネットワークであり、
前記選択された複数の前記特徴データを前記時刻順に配置することにより生成する3次元のデータを、前記認識器に入力されるデータとして使用する、
請求項17から23のいずれか一項に記載のデータ処理方法。 - 固定された前記データ範囲の設定のもとで、前記指定の個数の前記特徴データの選択と前記認識結果の導出とを所定の回数実行することにより、複数の認識結果を取得し、
前記複数の認識結果を統合することで総合的な認識結果を導出し、
前記総合的な認識結果に基づく情報を出力する、
請求項18に記載のデータ処理方法。 - 複数の相異なる指定の時間幅のそれぞれについて、前記指定の個数の前記特徴データの選択と前記認識結果の導出とを実行することにより、時間幅毎の前記認識結果を取得し、
前記時間幅毎の前記認識結果を統合することで最終的な認識結果を導出し、
前記最終的な認識結果に基づく情報を出力する、
請求項18または26に記載のデータ処理方法。 - 特徴データの時系列を入力として認識結果を出力する認識器を訓練するためのプログラムであって、
時刻が付与された特徴データのセットに対して、長さが指定の時間幅であるデータ範囲を設定し、当該データ範囲の中から、指定の個数の前記特徴データを選択する特徴データ選択処理と、
前記特徴データ選択処理により選択された複数の特徴データであって時間順が保持された複数の特徴データに対し、当該複数の特徴データに関する情報に基づいて、前記認識結果に相当する教師ラベルを付与するラベル付与処理と、
前記時間順が保持された複数の特徴データと、前記ラベル付与処理により付与された前記教師ラベルとの組を、訓練データとして、前記認識器を訓練する訓練処理と、
をコンピュータに実行させるプログラムを記録した、コンピュータ読み取り可能な記憶媒体。 - 時刻が付与された特徴データのセットに対して、長さが指定の時間幅であるデータ範囲を設定し、当該データ範囲の中から、指定の個数の前記特徴データを選択する特徴データ選択処理と、
前記特徴データ選択処理により選択された複数の特徴データであって時間順が保持された複数の特徴データを認識器に入力することにより、認識結果を導出する認識処理と、
前記認識結果に基づく情報を出力する出力処理と、
をコンピュータに実行させるプログラムを記録した、コンピュータ読み取り可能な記憶媒体。 - 前記特徴データ選択処理は、前記データ範囲を、ランダムにデータ範囲を設定する方法、または、設定の度にデータ範囲をずらして設定する方法により、設定する、
請求項28または29に記載の記憶媒体。 - 前記セットに含まれる特徴データの各々にはそれぞれ前記認識結果に相当するラベルが付与されており、
前記ラベル付与処理は、
前記特徴データ選択処理により選択された前記特徴データのそれぞれから、それぞれに関連づけられた前記ラベルを抽出し、
抽出した前記ラベルのうちで個数が最も多いラベルを選択する方法、または、抽出した前記ラベルごとに時刻に基づく重みをつけて個数を数え上げ、数え上げた結果としてのトータル値が最も大きいラベルを選択する方法、のいずれかを用いてラベルを選択し、選択したラベルを前記教師ラベルとして決定する、
請求項28に記載の記憶媒体。 - 前記特徴データ選択処理は、前記指定の個数の前記特徴データを重複のないランダムな選択を行う方法で選択する、
請求項28から31のいずれか一項に記載の記憶媒体。 - 前記特徴データ選択処理は、前記データ範囲から前記指定の個数の前記特徴データを選択する際に、当該データ範囲内の特徴データのうち最も新しい時刻が付与された特徴データを含むように、前記指定の個数の前記特徴データを選択する、
請求項28から31のいずれか一項に記載の記憶媒体。 - 前記特徴データ選択処理は、前記データ範囲の中で新しい時刻が付与された特徴データほど大きい重みを設定し、重み付きのランダムな選択方法によって前記指定の個数の前記特徴データを選択する、
請求項28から31のいずれか一項に記載の記憶媒体。 - 前記時間順が保持された複数の特徴データのそれぞれはベクトルで表現され、
前記プログラムは、前記コンピュータに、前記特徴データ選択処理により選択された複数の前記特徴データを前記時刻順に連結することにより生成する1つのベクトルを、前記認識器に入力されるデータとして使用する、
請求項28から34のいずれか一項に記載の記憶媒体。 - 前記時間順が保持された複数の特徴データのそれぞれは2次元に配列した値により表現され、前記認識器はニューラルネットワークであり、
前記プログラムは、前記コンピュータに、前記特徴データ選択処理により選択された複数の前記特徴データを前記時刻順に配置することにより生成する3次元のデータを、前記認識器に入力されるデータとして使用する、
請求項28から34のいずれか一項に記載の記憶媒体。 - 前記プログラムは、
前記コンピュータに、固定された前記データ範囲の設定のもとで、前記特徴データ選択処理と前記認識処理とを所定の回数実行させることにより、複数の認識結果を取得させ、
前記コンピュータに、前記複数の認識結果を統合することで総合的な認識結果を導出する認識結果統合処理を実行させる、
請求項29に記載の記憶媒体。 - 前記プログラムは、
前記コンピュータに、複数の相異なる指定の時間幅のそれぞれについて、前記特徴データ選択処理と前記認識処理とを実行させることにより、時間幅毎の前記認識結果を取得させ、
前記コンピュータに、前記時間幅毎の前記認識結果を統合することで最終的な認識結果を導出する統合処理を実行させる、
請求項29または37に記載の記憶媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/002475 WO2020152848A1 (ja) | 2019-01-25 | 2019-01-25 | 認識器訓練装置、認識装置、データ処理システム、データ処理方法、および記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020152848A1 true JPWO2020152848A1 (ja) | 2021-11-11 |
JP7238905B2 JP7238905B2 (ja) | 2023-03-14 |
Family
ID=71736679
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020567333A Active JP7238905B2 (ja) | 2019-01-25 | 2019-01-25 | 認識器訓練装置、認識装置、データ処理システム、データ処理方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220067480A1 (ja) |
JP (1) | JP7238905B2 (ja) |
WO (1) | WO2020152848A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020217425A1 (ja) * | 2019-04-25 | 2020-10-29 | 日本電気株式会社 | 教師データ生成装置 |
KR102592515B1 (ko) * | 2021-12-14 | 2023-10-23 | 한국전자기술연구원 | 임베딩 기반 데이터 집합의 처리 장치 및 그 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007220055A (ja) * | 2006-02-14 | 2007-08-30 | Gootech:Kk | 時系列パターン解析を伴うニューラルネットワーク |
JP2018055294A (ja) * | 2016-09-27 | 2018-04-05 | Kddi株式会社 | 時系列のイベント群から異常状態を検知するプログラム、装置及び方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10943100B2 (en) * | 2017-01-19 | 2021-03-09 | Mindmaze Holding Sa | Systems, methods, devices and apparatuses for detecting facial expression |
US11475372B2 (en) * | 2018-03-26 | 2022-10-18 | H2O.Ai Inc. | Evolved machine learning models |
US11620528B2 (en) * | 2018-06-12 | 2023-04-04 | Ciena Corporation | Pattern detection in time-series data |
-
2019
- 2019-01-25 US US17/420,229 patent/US20220067480A1/en active Pending
- 2019-01-25 WO PCT/JP2019/002475 patent/WO2020152848A1/ja active Application Filing
- 2019-01-25 JP JP2020567333A patent/JP7238905B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007220055A (ja) * | 2006-02-14 | 2007-08-30 | Gootech:Kk | 時系列パターン解析を伴うニューラルネットワーク |
JP2018055294A (ja) * | 2016-09-27 | 2018-04-05 | Kddi株式会社 | 時系列のイベント群から異常状態を検知するプログラム、装置及び方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7238905B2 (ja) | 2023-03-14 |
US20220067480A1 (en) | 2022-03-03 |
WO2020152848A1 (ja) | 2020-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10970158B2 (en) | Root cause analysis | |
US10963738B2 (en) | Method for processing input on basis of neural network learning and apparatus therefor | |
US11068831B2 (en) | Work analysis assistance device, work analysis assistance method, computer program, and information storage medium | |
CN111931929A (zh) | 一种多任务模型的训练方法、装置及存储介质 | |
US20210397954A1 (en) | Training device and training method | |
US11449715B2 (en) | Sequential learning maintaining a learned concept | |
US20230419170A1 (en) | System and method for efficient machine learning | |
KR20220094967A (ko) | 우울증 진단을 위한 인공지능 연합학습 방법 및 시스템 | |
US20230195303A1 (en) | Electronic device and control method thereof | |
JPWO2020152848A1 (ja) | 認識器訓練装置、認識装置、データ処理システム、データ処理方法、およびプログラム | |
WO2022121544A1 (en) | Normalizing oct image data | |
CN113850160A (zh) | 重复动作的计数方法及装置 | |
CN112529078A (zh) | 一种业务处理方法、装置及设备 | |
KR102413588B1 (ko) | 학습 데이터에 따른 객체 인식 모델 추천 방법, 시스템 및 컴퓨터 프로그램 | |
CN112434629B (zh) | 一种在线时序动作检测方法及设备 | |
JP7140186B2 (ja) | 動作分類用モデル学習装置、動作分類装置、動作分類用モデル学習方法、プログラム | |
US11599827B2 (en) | Method and apparatus for improving the robustness of a machine learning system | |
CN113807407A (zh) | 目标检测模型训练方法、模型性能检测方法及装置 | |
CN113762520A (zh) | 一种数据处理方法、装置及设备 | |
WO2020026395A1 (ja) | モデル作成装置、モデル作成方法、及び、モデル作成プログラムが記録された記録媒体 | |
US20240062103A1 (en) | Machine learning system, edge device, and information processing device | |
WO2023175931A1 (ja) | 画像分類装置、画像分類方法、及び、記録媒体 | |
KR102669002B1 (ko) | 가상현실 콘텐츠 멀미 및 어지러움 예측 장치 및 방법 | |
CN111788582B (zh) | 电子设备及其控制方法 | |
EP3805955A1 (en) | Method for assigning at least one query triplet to at least one respective class |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210622 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210622 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20211112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230213 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7238905 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |