JPWO2019151411A1 - 学習装置、学習方法及び学習装置用プログラム、並びに、情報出力装置、情報出力方法及び情報出力用プログラム - Google Patents
学習装置、学習方法及び学習装置用プログラム、並びに、情報出力装置、情報出力方法及び情報出力用プログラム Download PDFInfo
- Publication number
- JPWO2019151411A1 JPWO2019151411A1 JP2019569559A JP2019569559A JPWO2019151411A1 JP WO2019151411 A1 JPWO2019151411 A1 JP WO2019151411A1 JP 2019569559 A JP2019569559 A JP 2019569559A JP 2019569559 A JP2019569559 A JP 2019569559A JP WO2019151411 A1 JPWO2019151411 A1 JP WO2019151411A1
- Authority
- JP
- Japan
- Prior art keywords
- information
- learning
- input
- data
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 136
- 230000008569 process Effects 0.000 claims abstract description 107
- 238000013135 deep learning Methods 0.000 claims abstract description 66
- 238000006243 chemical reaction Methods 0.000 claims description 61
- 238000010219 correlation analysis Methods 0.000 claims description 35
- 230000007177 brain activity Effects 0.000 claims description 22
- 230000000694 effects Effects 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 18
- 230000000007 visual effect Effects 0.000 claims description 10
- 230000003945 visual behavior Effects 0.000 claims description 7
- 230000000875 corresponding effect Effects 0.000 description 67
- 230000006866 deterioration Effects 0.000 description 66
- 238000000605 extraction Methods 0.000 description 42
- 238000007689 inspection Methods 0.000 description 38
- 238000010586 diagram Methods 0.000 description 16
- 230000009471 action Effects 0.000 description 9
- 230000002596 correlated effect Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 230000009466 transformation Effects 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 235000019640 taste Nutrition 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004497 NIR spectroscopy Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012845 near infrared spectroscopy analysis Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
Description
はじめに、実施形態に係る判定システムの全体構成及び動作について、図1を用いて説明する。
次に、上記学習装置Lの構成及び動作について、図2乃至図4を用いて説明する。
次に、上記検査装置Cの構成及び動作について、図5を用いて説明する。
最後に、実施形態に係る判定システムS全体において実行される、実施形態に係る劣化判定処理について、纏めて図6を用いて説明する。
2、5、11、21、23 特徴量抽出部
3 正準相関分析部
4、22 変換部
6 学習パラメータ決定部
7、26 記憶部
8 特徴量選択部
24 分類部
25 出力部
S 判定システム
L 学習装置
C 検査装置
GD 画像データ
BD 外部データ
PD 学習パターンデータ
GC 画像特徴データ
BC 外部特徴データ
LD ラベルデータ
RT 分析結果データ
MC 変換画像特徴データ
CT 分類データ
MCC 学習用特徴データ
CMC 特徴データ
上記認識や分類の高精度化のためには、例えば十万単位の大量の学習用データを必要とすること、及び、認識・分類結果に対する過程が人間と大きく異なること、が問題点として挙げられている。そして現状では、これらを同時に解決可能とする技術の実現には至っていない。またこれらの問題は、個人の嗜好や専門知識に関連する課題において顕著となり、深層学習の実利用を検討する際の障壁ともなっている。
[0005]
なお、少ない学習用データからの学習を可能とするための方法として、学習済みの識別器から学習をし直す、いわゆる「Fine−tuning」なる手法等が知られているが、これらについても、学習用データの量の低減にも限界があり、学習の精度の向上との両立は困難である。
[0006]
そこで本発明は、上記の各問題点に鑑みて為されたもので、その課題の一例は、上記深層学習における層数、及び当該深層学習の結果としての学習パターンのパターン数を削減することで上記学習用データの低減が可能な学習装置、学習方法及び当該学習装置用のプログラム、並びに、生成された学習パターン情報を用いて上記出力情報を出力することが可能な情報出力装置、情報出力方法及び情報出力用プログラムを提供することにある。
課題を解決するための手段
[0007]
上記の課題を解決するために、請求項1に記載の発明は、入力情報に対応した有意な出力情報を当該入力情報に基づいて出力するための学習パターン情報であって、前記入力情報を用いた深層学習処理の結果に対応する学習パターン情報を生成する学習装置において、前記入力情報に対応する外部情報であって、当該入力情報が生成される際の対象となった実在物を当該入力情報の生成とは別個に認識した人の当該認識に関わる活動に起因して電気的に生成され且つ他の情報との間の相関処理が施されていない外部情報を外部から取得する入力インターフェース等の外部情報取得手段と、前記入力情報の特徴を示す入力特徴情報と、前記取得された外部情報の特徴を示す外部特徴情報と、の間の相関に基づいて前記入力特徴情報を変換し、変換入力特徴情報を生成する変換部等の変換手段と、前記生成された変換入力特徴情報を用いて前記深層学習処理を実行し、前記学習パターン情報を生成する学習パラメータ決定部等の深層学習手段と、備える。
[0008]
上記の課題を解決するために、請求項7に記載の発明は、入力情報に対応
した有意な出力情報を当該入力情報に基づいて出力するための学習パターン情報であり、且つ、前記入力情報を用いた深層学習処理の結果に対応する学習パターン情報を生成する学習装置であって、入力インターフェース等の外部情報取得手段と、変換部等の変換手段と、学習パラメータ決定部等の深層学習手段と、を備える学習装置において実行される学習方法であって、前記入力情報に対応する外部情報であって、当該入力情報が生成される際の対象となった実在物を当該入力情報の生成とは別個に認識した人の当該認識に関わる活動に起因して電気的に生成され且つ他の情報との間の相関処理が施されていない外部情報を前記外部情報取得手段により外部から取得する外部情報取得工程と、前記入力情報の特徴を示す入力特徴情報と、前記取得された外部情報の特徴を示す外部特徴情報と、の間の相関に基づいて前記変換手段により前記入力特徴情報を変換し、変換入力特徴情報を生成する変換工程と、前記生成された変換入力特徴情報を用いて前記深層学習手段により前記深層学習処理を実行し、前記学習パターン情報を生成する深層学習工程と、を含む。
[0009]
上記の課題を解決するために、請求項8に記載の発明は、入力情報に対応した有意な出力情報を当該入力情報に基づいて出力するための学習パターン情報であって、前記入力情報を用いた深層学習処理の結果に対応する学習パターン情報を生成する学習装置に含まれるコンピュータを、前記入力情報に対応する外部情報であって、当該入力情報が生成される際の対象となった実在物を当該入力情報の生成とは別個に認識した人の当該認識に関わる活動に起因して電気的に生成され且つ他の情報との間の相関処理が施されていない外部情報を外部から取得する外部情報取得手段、前記入力情報の特徴を示す入力特徴情報と、前記取得された外部情報の特徴を示す外部特徴情報と、の間の相関に基づいて前記入力特徴情報を変換し、変換入力特徴情報を生成する変換手段、及び、前記生成された変換入力特徴情報を用いて前記深層学習処理を実行し、前記学習パターン情報を生成する深層学習手段、として機能させる。
[0010]
請求項1、請求項7又は請求項8のいずれか一項に記載の発明によれば、入力情報に対応した外部情報であって、当該入力情報が生成される際の対象となった実在物を当該入力情報の生成とは別個に認識した人の当該認識に関わる活動に起因して電気的に生成され且つ他の情報との間の相関処理が施されていない外部情報との相関を用いて学習パターン情報を生成することで、入力情報に対応した学習パターン情報を生成するための深層学習処理における層数、及び学習パターン情報としてのパターン数を削減することができる。よって学習パターン情報の生成のために必要な学習用データとしての入力情報の量を低減しつつ、当該入力情報に対応した有意な出力情報を
出力させることができる。
[0011]
上記の課題を解決するために、請求項2に記載の発明は、請求項1に記載の学習装置において、前記外部情報は、前記人の前記認識に関わる専門知識及び嗜好をそれぞれ示す情報を含む外部情報であるように構成される。
[0012]
請求項2に記載の発明によれば、請求項1に記載の発明の作用に加えて、外部情報が、実在物を入力情報の生成とは別個に認識した人の当該認識に関わる専門知識及び嗜好をそれぞれ示す情報を含む外部情報であるので、当該人の専門性や嗜好と当該入力情報の双方に対応した学習パターン情報を生成することができる。
[0013]
上記の課題を解決するために、請求項3に記載の発明は、請求項2に記載の学習装置において、前記外部情報は、前記認識時における前記人の視認行動に対応した視認情報を含むように構成される。
[0014]
請求項3に記載の発明によれば、請求項2に記載の発明の作用に加えて、外部情報が、実在物を入力情報の生成とは別個に認識した人の当該認識時における人の視認行動に対応した視認情報を含むので、当該人の専門性や嗜好により対応した学習パターン情報を生成することができる。
上記の課題を解決するために、請求項4に記載の発明は、請求項3に記載の学習装置において、前記視認情報は、前記視認行動としての前記人の視線の動きを示す視線データであるように構成される。
請求項4に記載の発明によれば、請求項3に記載の発明の作用に加えて、人の視認行動に対応した視認情報が、視認行動としてのその人の視線の動きを示す視線データであるので、当該人の専門性や嗜好に更に対応した学習パターン情報を生成することができる。
[0015]
上記の課題を解決するために、請求項5に記載の発明は、請求項1から請求項4のいずれか一項に記載の学習装置において、前記相関は、前記入力特徴情報と、前記外部特徴情報と、の間の正準相関分析処理の結果たる相関であり、前記変換手段は、当該結果に基づいて前記入力特徴情報を変換して前記変換入力特徴情報を生成するように構成される。
[0016]
請求項5に記載の発明によれば、請求項1から請求項4のいずれか一項に記載の発明の作用に加えて、入力特徴情報と、外部特徴情報と、の間の正準相関分析処理の結果に基づいて入力特徴情報を変換して変換入力特徴情報を生成するので、より外部情報に相関した変換入力特徴情報を生成して学習パ
ターン情報の生成に供させることができる。
[0017]
上記の課題を解決するために、請求項6に記載の発明は、請求項1から請求項5のいずれか一項に記載の学習装置により生成された前記学習パターン情報を用いて前記出力情報を出力する情報出力装置であって、前記生成された学習パターン情報を記憶する記憶部等の記憶手段と、前記入力情報を取得する入力インターフェース等の取得手段と、前記取得された入力情報と、前記記憶されている学習パターン情報と、に基づいて、当該入力情報に対応した前記出力情報を出力する分類部等の情報出力手段と、を備える。
[0018]
上記の課題を解決するために、請求項9に記載の発明は、請求項1から請求項5のいずれか一項に記載の学習装置により生成された前記学習パターン情報を用いて前記出力情報を出力する情報出力装置であって、前記生成された学習パターン情報を記憶する記憶部等の記憶手段と、入力インターフェース等の取得手段と、分類部等の出力手段と、を備える情報出力装置において実行される情報出力方法であって、前記入力情報を前記取得手段により取得する取得工程と、前記取得された入力情報と、前記記憶されている学習パターン情報と、に基づいて、当該入力情報に対応した前記出力情報を前記出力手段により出力する出力工程と、を含む。
[0019]
上記の課題を解決するために、請求項10に記載の発明は、請求項1から請求項5のいずれか一項に記載の学習装置により生成された前記学習パターン情報を用いて前記出力情報を出力する情報出力装置に含まれるコンピュータを、前記生成された学習パターン情報を記憶する記憶手段、前記入力情報を取得する取得手段、及び、前記取得された入力情報と、前記記憶されている学習パターン情報と、に基づいて、当該入力情報に対応した前記出力情報を出力する出力手段、として機能させる。
[0020]
請求項6、請求項9又は請求項10のいずれか一項に記載の発明によれば、請求項1から請求項5のいずれか一項に記載の発明の作用に加えて、入力情報と、記憶されている学習パターン情報と、に基づいて、入力情報に対応した出力情報を出力するので、入力情報により対応した出力情報を出力するこ
とができる。
発明の効果
[0021]
本発明によれば、入力情報に対応した外部情報であって、当該入力情報が生成される際の対象となった実在物を当該入力情報の生成とは別個に認識した人の当該認識に関わる活動に起因して電気的に生成され且つ他の情報との間の相関処理が施されていない外部情報との相関を用いて学習パターン情報を生成することで、入力情報に対応した学習パターン情報を生成するための深層学習処理における層数、及び学習パターン情報としてのパターン数を削減することができる。
[0022]
従って、学習パターン情報の生成のために必要な学習用データとしての入力情報の量を低減しつつ、当該入力情報に対応した有意な出力情報を精度よく出力させることができる。
図面の簡単な説明
[0023]
[図1]実施形態に係る劣化判定システムの概要構成を示すブロック図である。
[図2]実施形態に係る劣化判定システムに含まれる学習装置の細部構成を示すブロック図である。
[図3]実施形態に係る学習処理における正準相関分析処理を示す概念図である。
[図4]実施形態に係る学習処理の全体を示す概念図である。
[図5]実施形態に係る劣化判定システムに含まれる検査装置の細部構成を示すブロック図である。
[図6]実施形態に係る劣化判定処理をそれぞれ示すフローチャートであり、(a)は実施形態に係る学習処理を示すフローチャートであり、(b)は実施形態に係る検査処理を示すフローチャートである。
発明を実施するための形態
[0024]
次に、本発明を実施するための形態について、図面に基づいて説明する。なお、以下に説明する実施形態は、例えば橋脚等の建築物や構造物の劣化の状態を、それらの外観を撮影して得られる画像データを用いて判定する劣化判定システムに対して本発明を適用した場合の実施の形態である。このとき以下の説明においては、上記建築物又は構造物を、単に「構造物」と称する。
Claims (9)
- 入力情報に対応した有意な出力情報を当該入力情報に基づいて出力するための学習パターン情報であって、前記入力情報を用いた深層学習処理の結果に対応する学習パターン情報を生成する学習装置において、
前記入力情報に対応する外部情報を外部から取得する外部情報取得手段と、
前記入力情報の特徴を示す入力特徴情報と、前記取得された外部情報の特徴を示す外部特徴情報と、の間の相関に基づいて前記入力特徴情報を変換し、変換入力特徴情報を生成する変換手段と、
前記生成された変換入力特徴情報を用いて前記深層学習処理を実行し、前記学習パターン情報を生成する深層学習手段と、
を備えることを特徴とする学習装置。 - 請求項1に記載の学習装置において、
前記外部情報は、前記生成された学習パターン情報を用いた前記出力情報の生成に関わる人の当該生成に関わる活動に起因して電気的に生成される外部情報であることを特徴とする学習装置。 - 請求項2に記載の学習装置において、
前記外部情報は、前記活動により生じた前記人の脳活動に対応した脳活動情報、又は、前記活動に含まれる前記人の視認行動に対応した視認情報の少なくともいずれか一方を含むことを特徴とする学習装置。 - 請求項1から請求項3のいずれか一項に記載の学習装置において、
前記相関は、前記入力特徴情報と、前記外部特徴情報と、の間の正準相関分析処理の結果たる相関であり、
前記変換手段は、当該結果に基づいて前記入力特徴情報を変換して前記変換入力特徴情報を生成することを特徴とする学習装置。 - 請求項1から請求項4のいずれか一項に記載の学習装置により生成された前記学習パターン情報を用いて前記出力情報を出力する情報出力装置であって、
前記生成された学習パターン情報を記憶する記憶手段と、
前記入力情報を取得する取得手段と、
前記取得された入力情報と、前記記憶されている学習パターン情報と、に基づいて、当該入力情報に対応した前記出力情報を出力する出力手段と、
を備えることを特徴とする情報出力装置。 - 入力情報に対応した有意な出力情報を当該入力情報に基づいて出力するための学習パターン情報であり、且つ、前記入力情報を用いた深層学習処理の結果に対応する学習パターン情報を生成する学習装置であって、外部情報取得手段と、変換手段と、深層学習手段と、を備える学習装置において実行される学習方法であって、
前記入力情報に対応する外部情報を前記外部情報取得手段により外部から取得する外部情報取得工程と、
前記入力情報の特徴を示す入力特徴情報と、前記取得された外部情報の特徴を示す外部特徴情報と、の間の相関に基づいて前記変換手段により前記入力特徴情報を変換し、変換入力特徴情報を生成する変換工程と、
前記生成された変換入力特徴情報を用いて前記深層学習手段により前記深層学習処理を実行し、前記学習パターン情報を生成する深層学習工程と、
を含むことを特徴とする学習方法。 - 入力情報に対応した有意な出力情報を当該入力情報に基づいて出力するための学習パターン情報であって、前記入力情報を用いた深層学習処理の結果に対応する学習パターン情報を生成する学習装置に含まれるコンピュータを、
前記入力情報に対応する外部情報を外部から取得する外部情報取得手段、
前記入力情報の特徴を示す入力特徴情報と、前記取得された外部情報の特徴を示す外部特徴情報と、の間の相関に基づいて前記入力特徴情報を変換し、変換入力特徴情報を生成する変換手段、及び、
前記生成された変換入力特徴情報を用いて前記深層学習処理を実行し、前記学習パターン情報を生成する深層学習手段、
として機能させることを特徴とする学習装置用プログラム。 - 請求項1から請求項4のいずれか一項に記載の学習装置により生成された前記学習パターン情報を用いて前記出力情報を出力する情報出力装置であって、前記生成された学習パターン情報を記憶する記憶手段と、取得手段と、出力手段と、を備える情報出力装置において実行される情報出力方法であって、
前記入力情報を前記取得手段により取得する取得工程と、
前記取得された入力情報と、前記記憶されている学習パターン情報と、に基づいて、当該入力情報に対応した前記出力情報を前記出力手段により出力する出力工程と、
を含むことを特徴とする情報出力方法。 - 請求項1から請求項4のいずれか一項に記載の学習装置により生成された前記学習パターン情報を用いて前記出力情報を出力する情報出力装置に含まれるコンピュータを、
前記生成された学習パターン情報を記憶する記憶手段、
前記入力情報を取得する取得手段、及び、
前記取得された入力情報と、前記記憶されている学習パターン情報と、に基づいて、当該入力情報に対応した前記出力情報を出力する出力手段、
として機能させることを特徴とする情報出力用プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018017044 | 2018-02-02 | ||
JP2018017044 | 2018-02-02 | ||
PCT/JP2019/003420 WO2019151411A1 (ja) | 2018-02-02 | 2019-01-31 | 学習装置、学習方法及び学習装置用プログラム、並びに、情報出力装置、情報出力方法及び情報出力用プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019151411A1 true JPWO2019151411A1 (ja) | 2021-01-28 |
JP7257682B2 JP7257682B2 (ja) | 2023-04-14 |
Family
ID=67479264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019569559A Active JP7257682B2 (ja) | 2018-02-02 | 2019-01-31 | 学習装置、学習方法及び学習装置用プログラム、並びに、情報出力装置、情報出力方法及び情報出力用プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210056414A1 (ja) |
JP (1) | JP7257682B2 (ja) |
WO (1) | WO2019151411A1 (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012181607A (ja) * | 2011-02-28 | 2012-09-20 | Toyota Central R&D Labs Inc | 感覚データ識別装置及びプログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3441896B1 (en) * | 2012-09-14 | 2021-04-21 | InteraXon Inc. | Systems and methods for collecting, analyzing, and sharing bio-signal and non-bio-signal data |
US10151636B2 (en) * | 2015-06-14 | 2018-12-11 | Facense Ltd. | Eyeglasses having inward-facing and outward-facing thermal cameras |
KR102657100B1 (ko) * | 2016-10-05 | 2024-04-12 | 매직 립, 인코포레이티드 | 혼합 현실 교정을 위한 안구주위 테스트 |
-
2019
- 2019-01-31 WO PCT/JP2019/003420 patent/WO2019151411A1/ja active Application Filing
- 2019-01-31 US US16/966,744 patent/US20210056414A1/en not_active Abandoned
- 2019-01-31 JP JP2019569559A patent/JP7257682B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012181607A (ja) * | 2011-02-28 | 2012-09-20 | Toyota Central R&D Labs Inc | 感覚データ識別装置及びプログラム |
Non-Patent Citations (3)
Title |
---|
前田 圭介 ほか: "「正準相関最大化を導入した深層学習に基づく送電鉄塔の劣化レベル分類に関する検討」", 映像情報メディア学会技術報告, vol. 第41巻, 第29号, JPN6019014134, 29 August 2017 (2017-08-29), pages 11 - 14, ISSN: 0005016633 * |
澤田 充奨 ほか: "「楽曲聴取時の個人の脳波信号を利用した好みの楽曲の識別に関する検討 -クラス情報を考慮した正準相関分析", 映像情報メディア学会技術報告, vol. 第39巻, 第7号, JPN6019014136, 16 February 2015 (2015-02-16), pages 179 - 184, ISSN: 0005016634 * |
長谷山 美紀: "「ビッグデータからの価値創出を実現する次世代情報検索 -AI・IoT技術の発想支援型検索への導入-」", 映像情報メディア学会技術報告, vol. 第41巻, 第43号, JPN6020002131, 23 November 2017 (2017-11-23), pages 101 - 106, ISSN: 0005016635 * |
Also Published As
Publication number | Publication date |
---|---|
JP7257682B2 (ja) | 2023-04-14 |
WO2019151411A1 (ja) | 2019-08-08 |
US20210056414A1 (en) | 2021-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230131876A1 (en) | Systems and methods of identity analysis of electrocardiograms | |
US9504420B2 (en) | Methods and arrangements for identifying dermatological diagnoses with clinically negligible probabilities | |
US20140313303A1 (en) | Longitudinal dermoscopic study employing smartphone-based image registration | |
Hasan et al. | Pain level detection from facial image captured by smartphone | |
Adibuzzaman et al. | Assessment of pain using facial pictures taken with a smartphone | |
Mirabet-Herranz et al. | New insights on weight estimation from face images | |
CN114190897A (zh) | 睡眠分期模型的训练方法、睡眠分期方法及装置 | |
CN117883082A (zh) | 一种异常情绪识别方法、系统、设备及介质 | |
JP2009201653A (ja) | 知的活動評価システム、並びにその学習方法及びラベル付与方法 | |
Kaur et al. | Early detection of ASD Traits in Children using CNN | |
JP6201520B2 (ja) | 生理指標を用いる視線分析システムおよび方法 | |
JP7257682B2 (ja) | 学習装置、学習方法及び学習装置用プログラム、並びに、情報出力装置、情報出力方法及び情報出力用プログラム | |
Jiang et al. | Fusion of medical imaging and electronic health records with attention and multi-head machanisms | |
Jeyarani et al. | Eye Tracking Biomarkers for Autism Spectrum Disorder Detection using Machine Learning and Deep Learning Techniques | |
Jeong et al. | Artificial intelligence (AI) based system for the diagnosis and classification of scalp health: AI-ScalpGrader | |
Luo et al. | Exploring adaptive graph topologies and temporal graph networks for eeg-based depression detection | |
Huang et al. | Noise ECG generation method based on generative adversarial network | |
Cheng et al. | Low rank self-calibrated brain network estimation and autoweighted centralized multi-task learning for early mild cognitive impairment diagnosis | |
Sweeney-Fanelli et al. | Automated Emotion Recognition Employing Wearable ECG Sensor and Deep-Learning | |
Hu et al. | Personalized Heart Disease Detection via ECG Digital Twin Generation | |
CN115063188B (zh) | 一种基于脑电信号的智能消费者喜好度指数评估方法 | |
Saha et al. | Personalized Pain Study Platform using Evidence-Based Continuous Learning Tool | |
US20240013917A1 (en) | Systems and methods for end of life analysis | |
Mahajan et al. | Deciphering EEG Waves for the Generation of Images | |
CN114743686A (zh) | 一种儿科护士应急护理方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A5211 Effective date: 20200629 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230328 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7257682 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |