JP7400449B2 - 解析装置、解析方法、及び解析プログラム - Google Patents
解析装置、解析方法、及び解析プログラム Download PDFInfo
- Publication number
- JP7400449B2 JP7400449B2 JP2019233146A JP2019233146A JP7400449B2 JP 7400449 B2 JP7400449 B2 JP 7400449B2 JP 2019233146 A JP2019233146 A JP 2019233146A JP 2019233146 A JP2019233146 A JP 2019233146A JP 7400449 B2 JP7400449 B2 JP 7400449B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- class
- target
- classifier
- identified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims description 100
- 238000000034 method Methods 0.000 claims description 70
- 230000008569 process Effects 0.000 claims description 47
- 238000012545 processing Methods 0.000 claims description 47
- 230000009471 action Effects 0.000 claims description 14
- 238000004519 manufacturing process Methods 0.000 claims description 7
- 238000003860 storage Methods 0.000 description 67
- 230000033001 locomotion Effects 0.000 description 52
- 238000010801 machine learning Methods 0.000 description 42
- 238000012549 training Methods 0.000 description 42
- 230000004048 modification Effects 0.000 description 35
- 238000012986 modification Methods 0.000 description 35
- 238000004364 calculation method Methods 0.000 description 23
- 230000036541 health Effects 0.000 description 22
- 210000002569 neuron Anatomy 0.000 description 22
- 238000004891 communication Methods 0.000 description 19
- 230000010365 information processing Effects 0.000 description 15
- 238000013528 artificial neural network Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 8
- 206010041349 Somnolence Diseases 0.000 description 6
- 230000006399 behavior Effects 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 230000003862 health status Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 201000010099 disease Diseases 0.000 description 4
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 4
- 238000010339 medical test Methods 0.000 description 4
- 208000032140 Sleepiness Diseases 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 238000002591 computed tomography Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 230000037321 sleepiness Effects 0.000 description 3
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
図1は、本発明を適用した場面の一例を模式的に例示する。図1に示されるとおり、本実施形態に係る解析システム100は、解析装置1及びモデル生成装置2を備えている。
[ハードウェア構成]
<解析装置>
図2は、本実施形態に係る解析装置1のハードウェア構成の一例を模式的に例示する。図2に示されるとおり、本実施形態に係る解析装置1は、制御部11、記憶部12、通信インタフェース13、外部インタフェース14、入力装置15、出力装置16、及びドライブ17が電気的に接続されたコンピュータである。なお、図2では、通信インタフェース及び外部インタフェースを「通信I/F」及び「外部I/F」と記載している。
図3は、本実施形態に係るモデル生成装置2のハードウェア構成の一例を模式的に例示する。図3に示されるとおり、本実施形態に係るモデル生成装置2は、制御部21、記憶部22、通信インタフェース23、外部インタフェース24、入力装置25、出力装置26、及びドライブ27が電気的に接続されたコンピュータである。
<解析装置>
図4は、本実施形態に係る解析装置1のソフトウェア構成の一例を模式的に例示する。解析装置1の制御部11は、記憶部12に記憶された解析プログラム81をRAMに展開する。そして、制御部11は、CPUにより、RAMに展開された解析プログラム81に含まれる命令をCPUにより解釈及び実行して、各構成要素を制御する。これにより、図4に示されるとおり、本実施形態に係る解析装置1は、データ取得部111、識別処理部112、判定部113、付与部114、及び出力部115をソフトウェアモジュールとして備えるコンピュータとして動作する。すなわち、本実施形態では、解析装置1の各ソフトウェアモジュールは、制御部11(CPU)により実現される。
図5は、本実施形態に係るモデル生成装置2のソフトウェア構成の一例を模式的に例示する。モデル生成装置2の制御部21は、記憶部22に記憶された生成プログラム82をRAMに展開する。そして、制御部21は、CPUにより、RAMに展開された生成プログラム82に含まれる命令をCPUにより解釈及び実行して、各構成要素を制御する。これにより、図5に示されるとおり、本実施形態に係るモデル生成装置2は、学習データ取得部211、学習処理部212、及び保存処理部213をソフトウェアモジュールとして備えるコンピュータとして動作する。すなわち、本実施形態では、モデル生成装置2の各ソフトウェアモジュールは、上記解析装置1と同様に、制御部21(CPU)により実現される。
各識別器5には、機械学習を実施可能な任意のモデルが利用されてよい。図5に例示されるとおり、本実施形態では、各識別器5は、多層構造の全結合型ニューラルネットワークにより構成される。各識別器5は、入力層51、中間(隠れ)層52、及び出力層53を備えている。
解析装置1及びモデル生成装置2の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、解析装置1及びモデル生成装置2の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上のソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、解析装置1及びモデル生成装置2それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
[モデル生成装置]
図6は、本実施形態に係るモデル生成装置2による識別器5の機械学習に関する処理手順の一例を示すフローチャートである。以下で説明する処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。更に、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS101では、制御部21は、学習データ取得部211として動作して、学習データ3を取得する。本実施形態では、学習データ3は、複数の学習データセット30により構成される。
ステップS102では、制御部21は、学習処理部212として動作し、取得された学習データ3を使用して、識別器5毎に機械学習を実施する。この機械学習により、制御部21は、それぞれ異なるクラスの特徴の存在を識別するように訓練された複数の識別器5を生成する。
ステップS103では、制御部21は、保存処理部213として動作し、機械学習により生成された訓練済みの各識別器5に関する情報を学習結果データ225として生成する。そして、制御部21は、生成された各件の学習結果データ225を所定の記憶領域に保存する。
図7は、本実施形態に係る解析装置1の処理手順の一例を示すフローチャートである。以下で説明する処理手順は、解析方法の一例である。ただし、以下で説明する各処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。更に、以下で説明する各処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS201では、制御部11は、データ取得部111として動作し、対象データ121を取得する。対象データ121は、識別タスクの実行対象となる所定種類のデータのサンプルである。対象データ121を取得する方法は、データの種類に応じて適宜選択されてよい。対象データ121がセンシングデータである場合には、制御部11は、クラスを識別する特徴に関する事象が生じ得る対象をセンサにより観測することで、対象データ121を取得することができる。対象データ121を取得すると、制御部11は、次のステップS202に処理を進める。
ステップS202では、制御部11は、識別処理部112として動作し、学習結果データ225を参照して、それぞれ異なるクラスの特徴の存在を識別するように構成された複数の訓練済みの識別器5の設定を行う。続いて、制御部11は、取得された対象データ121を各識別器5の入力層51に入力し、各識別器5の順伝播の演算処理を実行する。この演算処理の結果、制御部11は、対象データ121に対して対応するクラスの特徴が存在するか否かを識別した結果に対応する出力値を各識別器5の出力層53から取得することができる。これにより、制御部11は、各識別器5により、取得された対象データ121に含まれる特徴のクラスの識別を試行する。
ステップS203では、制御部11は、判定部113として動作し、試行の結果に基づいて、対象データ121内において、各クラスの特徴の含まれるデータ部分を判定する。制御部11は、複数の識別器5のうちの一の識別器による識別が成立するのに対して残りの識別器による識別が成立しない第一のデータ部分には当該一の識別器により識別される対象のクラスの特徴が含まれていると判定する。他方、制御部11は、一の識別器を含む全ての識別器5による識別が成立する第二のデータ部分には当該対象のクラスの特徴が含まれていないと判定する。
ステップS204では、制御部11は、付与部114として動作し、判定結果を示すラベルを対象データ121に付与する。制御部11は、対象のクラスの特徴を含むことを示すラベルを第一のデータ部分に付与する。上記図8の例では、制御部11は、各範囲(610、620、630)に属するデータ部分に、各クラスの特徴を含むことを示すラベルを付与する。
ステップS205では、制御部11は、出力部115として動作し、対象データ121に含まれる特徴のクラスを識別した結果に関する情報を出力する。
以上のとおり、本実施形態では、上記ステップS101~ステップS103の処理により、識別対象のクラス毎に訓練済みの識別器5が生成される。上記ステップS203において、複数の識別器5のうちの一の識別器による識別が成立するのに対して残りの識別器による識別が成立しない第一のデータ部分は、当該一の識別器により識別される対象のクラスの特徴が含まれていると判定される。一方、一の識別器を含む全ての識別器5による識別が成立する第二のデータ部分は、一の識別器の識別対象のクラスの特徴が含まれていないと判定される。この識別処理により、上記のとおり、各クラスの特徴に共通の事象が起きているに過ぎず、対象のクラスの特徴が真には含まれていないデータ部分に対して、対象のクラスの特徴を含んでいると識別を誤るのを防止することができる。したがって、本実施形態によれば、データに含まれる特徴のクラスを識別する精度の向上を図ることができる。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良又は変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
上記実施形態に係る解析システム100は、データに含まれる何らかの特徴のクラスを識別するあらゆる場面に適用されてよい。上記実施形態に係る解析システム100は、例えば、対象者の動作の種別を識別する場面、生産ラインにおける作業の工程の種別を識別する場面、対象者の状態のクラスを識別する場面等に適用されてよい。以下、適用場面を限定した変形例を例示する。
図10は、第1変形例に係る動作解析システム100Aの適用場面の一例を模式的に例示する。本変形例は、対象者RAの動作を観測するセンサSAにより得られるセンシングデータを利用して、対象者RAの動作の種別を識別する場面に上記実施形態を適用した例である。動作の種別は、特徴のクラスの一例である。
本変形例では、モデル生成装置2の制御部21は、上記ステップS101において、複数の学習データセット30Aにより構成される学習データを取得する。各学習データセット30Aは、訓練データ31A及び正解データ32Aの組み合わせにより構成される。訓練データ31Aは、センサSA又はこれと同種のセンサにより被験者の動作を観測することで得ることができる。正解データ32Aは、訓練データ31Aに対する動作の識別タスクの正解を示す。
本変形例では、解析装置1は、通信インタフェース13又は外部インタフェース14を介してセンサSAに接続されてよい。センサSAは、対象者RAの動作を観測可能な場所に適宜配置されてよい。制御部11は、上記ステップS201において、センサSAから対象データ121Aを取得する。対象データ121Aは、時系列データ及び複数次元データの少なくとも一方であってよい。制御部11は、上記ステップS202の処理により、各識別器5Aにより、取得された対象データ121Aに現れる動作の種別の識別を試行する。
本変形例では、各種別の動作に共通の事象が起きているに過ぎず、対象の種別の動作が真には実行されていないデータ部分に対して、対象の種別の動作が実行されていると識別を誤るのを防止することができる。よって、本変形例によれば、データに現れる対象者RAの動作の種別を識別する精度の向上を図ることができる。なお、本変形例において、識別対象は、人物の動作に限られなくてもよい。識別対象の動作は、産業用ロボット、モバイルロボット(例えば、ドローン等)等の機械の動作を含んでよい。この場合、識別対象の動作は、機械及び人間が協働する動作を含んでよい。また、動作の種別は、例えば、機械の動作が適正か否か、機械の状態(例えば、正常/故障の別、故障の程度等)等を含んでよい。
図11は、第2変形例に係る状態解析システム100Cの適用場面の一例を模式的に例示する。本変形例は、車両を運転する運転者RCを観測するセンサSCにより得られるセンシングデータを利用して、運転者RCの状態のクラスを識別する場面に上記実施形態を適用した例である。運転者RCの状態は、特徴の一例である。運転者RCは、対象者の一例である。
本変形例では、モデル生成装置2の制御部21は、上記ステップS101において、複数の学習データセット30Cにより構成される学習データを取得する。各学習データセット30Cは、訓練データ31C及び正解データ32Cの組み合わせにより構成される。訓練データ31Cは、センサSC又はこれと同種のセンサにより車両を運転する被験者を観測することで得ることができる。正解データ32Cは、訓練データ31Cに対する状態の識別タスクの正解を示す。
本変形例では、解析装置1は、通信インタフェース13又は外部インタフェース14を介してセンサSCに接続されてよい。センサSCは、運転者RCの状態を観測可能な場所に適宜配置されてよい。制御部11は、上記ステップS201において、センサSCから対象データ121Cを取得する。対象データ121Cは、時系列データ及び複数次元データの少なくとも一方であってよい。制御部11は、上記ステップS202の処理により、各識別器5Cにより、取得された対象データ121Cに現れる状態のクラスの識別を試行する。
本変形例では、各クラスの状態に共通の事象が起きているに過ぎず、対象のクラスの状態が真には出現していないデータ部分に対して、対象のクラスの状態が出現していると識別を誤るのを防止することができる。よって、本変形例によれば、データに現れる運転者RCの状態のクラスを識別する精度の向上を図ることができる。
図12は、第3変形例に係る状態解析システム100Dの適用場面の一例を模式的に例示する。本変形例は、対象者RDの健康状態を観測するセンサSDにより得られるセンシングデータを利用して、対象者RDの健康状態のクラスを識別する場面に上記実施形態を適用した例である。健康状態は、特徴の一例である。
本変形例では、モデル生成装置2の制御部21は、上記ステップS101において、複数の学習データセット30Dにより構成される学習データを取得する。各学習データセット30Dは、訓練データ31D及び正解データ32Dの組み合わせにより構成される。訓練データ31Dは、センサSD又はこれと同種のセンサにより被験者の健康状態を観測することで得ることができる。正解データ32Dは、訓練データ31Dに対する健康状態の識別タスクの正解を示す。
本変形例では、解析装置1は、通信インタフェース13又は外部インタフェース14を介してセンサSDに接続されてよい。センサSDは、対象者RDの健康状態を観測可能な場所に適宜配置されてよい。制御部11は、上記ステップS201において、センサSDから対象データ121Dを取得する。対象データ121Dは、時系列データ及び複数次元データの少なくとも一方であってよい。制御部11は、上記ステップS202の処理により、各識別器5Dにより、取得された対象データ121Dに現れる健康状態のクラスの識別を試行する。
本変形例では、各クラスの健康状態に共通の事象が起きているに過ぎず、対象のクラスの健康状態が真には出現していないデータ部分に対して、対象のクラスの健康状態が出現していると識別を誤るのを防止することができる。よって、本変形例によれば、データに現れる対象者RDの健康状態のクラスを識別する精度の向上を図ることができる。
上記実施形態では、各識別器5には、全結合型のニューラルネットワークが用いられている。しかしながら、各識別器5を構成するニューラルネットワークの種類は、このような例に限定されなくてもよい。各識別器5には、例えば、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク等が用いられてよい。また、各識別器5を構成する機械学習モデルの種類は、ニューラルネットワークに限られなくてもよい。各識別器5には、ニューラルネットワーク以外に、例えば、サポートベクタマシン、回帰モデル、決定木モデル等が用いられてよい。各識別器5には、機械学習モデル以外に、ルールベースのモデルが用いられてよい。各識別器5は、機械学習モデル及びルールベースのモデルの組み合わせにより構成されてもよい。各識別器5の構成は、特徴のクラスを識別可能であれば、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。学習データの構成は、各識別器5の構成に応じて適宜決定されてよい。
上記実施形態において、ステップS204の処理は省略されてよい。この場合、付与部114は、解析装置1のソフトウェア構成から省略されてよい。また、上記実施形態において、各識別器5は、モデル生成装置2以外のコンピュータにより生成されてよい。この場合、モデル生成装置2は、解析システム100の構成から省略されてよい。
11…制御部、12…記憶部、
13…通信インタフェース、14…外部インタフェース、
15…入力装置、16…出力装置、17…ドライブ、
111…データ取得部、112…識別処理部、
113…判定部、114…付与部、115…出力部、
121…対象データ、
81…解析プログラム、91…記憶媒体、
2…モデル生成装置、
21…制御部、22…記憶部、
23…通信インタフェース、24…外部インタフェース、
25…入力装置、26…出力装置、27…ドライブ、
211…学習データ取得部、212…学習処理部、
213…保存処理部、
225…学習結果データ、
82…生成プログラム、92…記憶媒体、
3…学習データ、30…学習データセット、
31…訓練データ、32…正解データ、
5…識別器、
51…入力層、52…中間(隠れ)層、
53…出力層
Claims (8)
- 対象データを取得するデータ取得部と、
それぞれ異なるクラスの特徴の存在を識別するように構成された複数の識別器それぞれにより、前記対象データに含まれる特徴のクラスの識別を試行する識別処理部と、
前記試行の結果に基づいて、前記対象データ内において、各クラスの前記特徴の含まれるデータ部分を判定する判定部であって、前記複数の識別器のうちの一の識別器による識別が成立するのに対して残りの識別器による識別が成立しない第一のデータ部分には当該一の識別器により識別される対象のクラスの特徴が含まれていると判定し、前記一の識別器を含む全ての識別器による識別が成立する第二のデータ部分には前記対象のクラスの特徴が含まれていないと判定する判定部と、
を備え、
前記各識別器は、識別対象のクラスの特徴を含む第1データから、前記識別対象のクラスの特徴を含む、前記対象データと同種の第2データを生成するように構成され、
前記識別処理部は、前記各識別器により生成された生成データ及び前記対象データの比較に基づいて、前記対象データに含まれる特徴のクラスの識別を試行し、
前記第1データ及び前記第2データは同種であり、
前記識別処理部は、前記対象データを前記各識別器に与えることにより、前記生成データを生成し、
前記第1データ及び前記第2データは共に時系列データであり、
前記各識別器は、対象の時刻から未来又は過去の前記第1データから、前記対象の時刻の前記第2データを生成するように訓練されている、
解析装置。 - 前記対象のクラスの特徴を含むことを示す情報を前記第一のデータ部分に付与する付与部を更に備える、
請求項1に記載の解析装置。 - 前記対象データは、時系列データであり、
前記判定部は、前記試行の結果に基づいて、前記時系列データ内において、各クラスの前記特徴の含まれる前記データ部分の時間区間を判定する、
請求項1または2に記載の解析装置。 - 前記対象データは、複数次元データであり、
前記判定部は、前記試行の結果に基づいて、前記複数次元データ内において、各クラスの前記特徴の含まれる前記データ部分の範囲を判定する、
請求項1から3のいずれか1項に記載の解析装置。 - 前記各識別器は、被験者の異なる種別の動作の実行を前記特徴の存在として識別するように構成され、
前記判定部は、前記試行の結果に基づいて、前記対象データ内において、各種別の前記動作の実行が現れる前記データ部分を判定する、
請求項1から4のいずれか1項に記載の解析装置。 - 前記各識別器は、生産ラインにおける異なる種別の工程の実行を前記特徴の存在として識別するように構成され、
前記判定部は、前記試行の結果に基づいて、前記対象データ内において、各種別の前記工程の実行が現れる前記データ部分を判定する、
請求項1から4のいずれか1項に記載の解析装置。 - コンピュータが、
対象データを取得するステップと、
それぞれ異なるクラスの特徴の存在を識別するように構成された複数の識別器それぞれにより、前記対象データに含まれる特徴のクラスの識別を試行するステップと、
前記試行の結果に基づいて、前記対象データ内において、各クラスの前記特徴の含まれるデータ部分を判定するステップであって、前記複数の識別器のうちの一の識別器による識別が成立するのに対して残りの識別器による識別が成立しない第一のデータ部分には当該一の識別器により識別される対象のクラスの特徴が含まれていると判定し、前記一の識別器を含む全ての識別器による識別が成立する第二のデータ部分には前記対象のクラスの特徴が含まれていないと判定するステップと、
を実行し、
前記各識別器は、識別対象のクラスの特徴を含む第1データから、前記識別対象のクラスの特徴を含む、前記対象データと同種の第2データを生成するように構成され、
前記対象データに含まれる特徴のクラスの識別を試行する前記ステップにおいて前記コンピュータは、前記各識別器により生成された生成データ及び前記対象データの比較に基づいて、前記対象データに含まれる特徴のクラスの識別を試行し、
前記第1データ及び前記第2データは同種であり、
前記対象データに含まれる特徴のクラスの識別を試行する前記ステップにおいて前記コンピュータは、前記対象データを前記各識別器に与えることにより、前記生成データを生成し、
前記第1データ及び前記第2データは共に時系列データであり、
前記各識別器は、対象の時刻から未来又は過去の前記第1データから、前記対象の時刻の前記第2データを生成するように訓練されている、
解析方法。 - コンピュータに、
対象データを取得するステップと、
それぞれ異なるクラスの特徴の存在を識別するように構成された複数の識別器それぞれにより、前記対象データに含まれる特徴のクラスの識別を試行するステップと、
前記試行の結果に基づいて、前記対象データ内において、各クラスの前記特徴の含まれるデータ部分を判定するステップであって、前記複数の識別器のうちの一の識別器による識別が成立するのに対して残りの識別器による識別が成立しない第一のデータ部分には当該一の識別器により識別される対象のクラスの特徴が含まれていると判定し、前記一の識別器を含む全ての識別器による識別が成立する第二のデータ部分には前記対象のクラスの特徴が含まれていないと判定するステップと、
を実行させ、
前記各識別器は、識別対象のクラスの特徴を含む第1データから、前記識別対象のクラスの特徴を含む、前記対象データと同種の第2データを生成するように構成され、
前記対象データに含まれる特徴のクラスの識別を試行する前記ステップにおいて前記コンピュータに、前記各識別器により生成された生成データ及び前記対象データの比較に基づいて、前記対象データに含まれる特徴のクラスの識別を試行させ、
前記第1データ及び前記第2データは同種であり、
前記対象データに含まれる特徴のクラスの識別を試行する前記ステップにおいて前記コンピュータに、前記対象データを前記各識別器に与えることにより、前記生成データを生成させ、
前記第1データ及び前記第2データは共に時系列データであり、
前記各識別器は、対象の時刻から未来又は過去の前記第1データから、前記対象の時刻の前記第2データを生成するように訓練されている、
解析プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019233146A JP7400449B2 (ja) | 2019-12-24 | 2019-12-24 | 解析装置、解析方法、及び解析プログラム |
CN202080080058.5A CN114730392A (zh) | 2019-12-24 | 2020-11-20 | 解析装置、解析方法以及解析程序 |
PCT/JP2020/043315 WO2021131446A1 (ja) | 2019-12-24 | 2020-11-20 | 解析装置、解析方法、及び解析プログラム |
EP20905422.0A EP4083873A4 (en) | 2019-12-24 | 2020-11-20 | ANALYSIS DEVICE, METHOD AND PROGRAM |
US17/777,294 US20220406036A1 (en) | 2019-12-24 | 2020-11-20 | Analysis apparatus, analysis method, and computer-readable storage medium storing an analysis program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019233146A JP7400449B2 (ja) | 2019-12-24 | 2019-12-24 | 解析装置、解析方法、及び解析プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021101318A JP2021101318A (ja) | 2021-07-08 |
JP7400449B2 true JP7400449B2 (ja) | 2023-12-19 |
Family
ID=76575233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019233146A Active JP7400449B2 (ja) | 2019-12-24 | 2019-12-24 | 解析装置、解析方法、及び解析プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220406036A1 (ja) |
EP (1) | EP4083873A4 (ja) |
JP (1) | JP7400449B2 (ja) |
CN (1) | CN114730392A (ja) |
WO (1) | WO2021131446A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023233559A1 (ja) * | 2022-05-31 | 2023-12-07 | 日本電気株式会社 | 学習装置、判定装置、学習方法および記録媒体 |
WO2024038505A1 (ja) * | 2022-08-16 | 2024-02-22 | 日本電気株式会社 | 映像処理装置、映像処理システム及び映像処理方法 |
CN116211316B (zh) * | 2023-04-14 | 2023-07-28 | 中国医学科学院阜外医院 | 多导联心电信号的类型识别方法、系统及辅助系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017102671A (ja) | 2015-12-01 | 2017-06-08 | キヤノン株式会社 | 識別装置、調整装置、情報処理方法及びプログラム |
JP2019159885A (ja) | 2018-03-14 | 2019-09-19 | オムロン株式会社 | 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5520886B2 (ja) | 2011-05-27 | 2014-06-11 | 日本電信電話株式会社 | 行動モデル学習装置、方法、及びプログラム |
JP5081999B1 (ja) | 2011-06-22 | 2012-11-28 | 株式会社日立エンジニアリング・アンド・サービス | 異常予兆診断結果の表示方法 |
JP5953673B2 (ja) | 2011-08-11 | 2016-07-20 | 日本電気株式会社 | 行動識別装置、行動識別方法、及びプログラム |
-
2019
- 2019-12-24 JP JP2019233146A patent/JP7400449B2/ja active Active
-
2020
- 2020-11-20 US US17/777,294 patent/US20220406036A1/en active Pending
- 2020-11-20 WO PCT/JP2020/043315 patent/WO2021131446A1/ja unknown
- 2020-11-20 EP EP20905422.0A patent/EP4083873A4/en active Pending
- 2020-11-20 CN CN202080080058.5A patent/CN114730392A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017102671A (ja) | 2015-12-01 | 2017-06-08 | キヤノン株式会社 | 識別装置、調整装置、情報処理方法及びプログラム |
JP2019159885A (ja) | 2018-03-14 | 2019-09-19 | オムロン株式会社 | 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム |
Non-Patent Citations (3)
Title |
---|
渡辺博己(外3名),「作業画像分類における特徴抽出器と識別器の検討」,電気学会研究会資料 知覚情報 次世代産業システム 合同研究会,日本,一般社団法人 電気学会,2016年09月05日,Pages 35-40 |
石井良尚(外2名),「識別に悪影響を及ぼす変数の推定・影響排除が可能なautoencoderベース識別器の提案」,情報処理学会論文誌,日本,2019年01月15日,Vol.60, No.1,Pages 260-269,[online], [retrieved on 2019.01.16], Retrieved from the Internet: <URL: http://id.nii.ac.jp/1001/00193817/>,ISSN: 1882-7764 |
粕谷瑠衣(外2名),「Filtered Channel Featuresの情景内文字認識への適用」,電子情報通信学会技術研究報告,日本,2016年03月03日,Vol.115, No.505,Pages 99-104,ISSN: 0913-5685 |
Also Published As
Publication number | Publication date |
---|---|
EP4083873A4 (en) | 2023-07-26 |
WO2021131446A1 (ja) | 2021-07-01 |
EP4083873A1 (en) | 2022-11-02 |
US20220406036A1 (en) | 2022-12-22 |
JP2021101318A (ja) | 2021-07-08 |
CN114730392A (zh) | 2022-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6692488B2 (ja) | ニューロンネットワークをトレーニングする方法及び能動学習システム | |
JP7400449B2 (ja) | 解析装置、解析方法、及び解析プログラム | |
EP3445250B1 (en) | Echocardiographic image analysis | |
JP6837597B2 (ja) | 能動学習のシステム及び方法 | |
CN109478239B (zh) | 检测图像中的对象的方法和对象检测系统 | |
JP2018147474A (ja) | 学習装置、学習結果利用装置、学習方法及び学習プログラム | |
EP4116893A1 (en) | Model generation device, estimation device, model generation method, and model generation program | |
US20210366594A1 (en) | Method and system for refining label information | |
CN114730407A (zh) | 使用神经网络对工作环境中的人类行为进行建模 | |
CN111161883A (zh) | 基于变分自编码器的疾病预测系统及其电子设备 | |
CN116864140A (zh) | 一种心内科术后护理监测数据处理方法及其系统 | |
CN113673244A (zh) | 医疗文本处理方法、装置、计算机设备和存储介质 | |
WO2023108873A1 (zh) | 一种脑网络和脑成瘾连接计算方法及装置 | |
US11586942B2 (en) | Granular binarization for extended reality | |
KR20220007030A (ko) | 관심영역별 골 성숙 분포를 이용한 성장 분석 예측 장치 및 방법 | |
JP7423237B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
CN113569671A (zh) | 异常行为报警方法、装置 | |
KR102033484B1 (ko) | 적대적 인공지능 생성망 (gan)을 활용한 반려동물 검사의 정상범위 기준치 설정 방법 및 장치 | |
JP6915604B2 (ja) | 装置、方法およびプログラム | |
BalaKrishna et al. | Autism spectrum disorder detection using machine learning | |
Meshram et al. | MCBM: Implementation Of Multiclass And Transfer Learning Algorithm Based On Deep Learning Model For Early Detection Of Diabetic Retinopathy | |
US20220327332A1 (en) | Method and device for ascertaining a classification and/or a regression result when missing sensor data | |
CN117594227B (zh) | 基于穿戴设备的健康状态监控方法、装置、介质及设备 | |
WO2022196433A1 (ja) | モデル生成装置、分類装置、データ生成装置、モデル生成方法、及びモデル生成プログラム | |
KR102585149B1 (ko) | 인지 특징을 활용한 딥러닝 기반 맞춤형 자율주행 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230920 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231120 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7400449 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |