JP7631246B2 - 認識装置、認識方法、およびプログラム - Google Patents
認識装置、認識方法、およびプログラム Download PDFInfo
- Publication number
- JP7631246B2 JP7631246B2 JP2022009531A JP2022009531A JP7631246B2 JP 7631246 B2 JP7631246 B2 JP 7631246B2 JP 2022009531 A JP2022009531 A JP 2022009531A JP 2022009531 A JP2022009531 A JP 2022009531A JP 7631246 B2 JP7631246 B2 JP 7631246B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- unit
- recognition device
- class
- sensor data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D21/00—Measuring or testing not otherwise provided for
- G01D21/02—Measuring two or more variables by means not covered by a single other subclass
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1123—Discriminating type of movement, e.g. walking or running
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/20—Workers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0204—Acoustic sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1103—Detecting muscular movement of the eye, e.g. eyelid movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1113—Local tracking of patients, e.g. in a hospital or private home
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1118—Determining activity level
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/398—Electrooculography [EOG], e.g. detecting nystagmus; Electroretinography [ERG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Physiology (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Fuzzy Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Image Analysis (AREA)
Description
図1は、第1の実施形態に係る認識装置100を含む認識システム1の構成例を示すブロック図である。図1の認識システム1は、認識装置100と、一つ以上のセンサとを備える。図1では、一つ以上のセンサとして、センサ110-1,110-2,…,110-nを例示する。認識装置100と、センサ110-1,110-2,…,110-nとは、ネットワーク120を介して接続されている。尚、ネットワーク120の通信方式は、有線方式でも無線方式でもよい。また、通信方式は、有線方式と無線方式とが組み合わされていてもよい。以下では、センサ110-1,110-2,…,110-nのそれぞれを区別しない場合、単にセンサ110と称する。
認識装置100は、センサ110からセンサデータを取得する。
センサデータを取得した後、特徴量生成部210は、センサデータに基づいて第1の特徴量を生成する。
第1の特徴量を生成した後、特徴量変換部220は、第1の特徴量を第2の特徴量に変換する。
第1の特徴量を第2の特徴量に変換した後、重要特徴量生成部230は、第1の特徴量および第2の特徴量に基づいて重要度を算出する。
重要度を算出した後、重要特徴量生成部230は、第1の特徴量および重要度に基づいて重要特徴量を生成する。
重要特徴量を生成した後、特徴量統合部240は、重要特徴量および第2の特徴量に基づいて統合特徴量を生成する。
統合特徴量を生成した後、識別部250は、統合特徴量に基づいてクラスを識別する。
第1の実施形態では、ネットワークモデルを用いて、センサデータからクラスを識別する認識装置について説明した。他方、第2の実施形態では、クラス識別の条件を変更する場合におけるネットワークモデルの切り替えについて説明する。
認識装置700は、モデル切替データを取得する。
モデル切替データを取得した後、モデル切替部720は、モデル切替データに基づいてネットワークモデルを切り替える。具体的には、モデル切替部720は、モデル切替データに含まれるネットワークモデルに関する情報に対応付けられたネットワークモデルを記憶部710から読み出し、識別モデル200のネットワークモデルを切り替える。
ネットワークモデルを切り替えた後、認識装置700は、切り替えられたネットワークモデルを利用したクラス識別処理を実行する。
第1の実施形態および第2の実施形態では、予め学習されたネットワークモデルを用いて、センサデータからクラスを識別する認識装置について説明した。他方、第3の実施形態では、クラス識別の条件、或いは認識対象となるセンサデータを変更する場合におけるネットワークモデルの学習について説明する。
認識装置700は、モデル切替データを取得する。
モデル切替データを取得した後、モデル切替部720は、モデル切替データに基づいてネットワークモデルを切り替える。尚、以降では、切り替えられたネットワークモデルについて学習することとする。
ネットワークモデルを切り替えた後、認識装置900は、クラス識別処理を実行する。ネットワークモデルの学習を学習する場合、認識装置900は、学習データセットに含まれるセンサデータを用いてクラス識別処理を実行する。
クラス識別処理を実行した後、学習部910は、識別結果に基づいてネットワークモデルを学習する。具体的には、学習部910は、識別結果と正解データとの誤差がゼロになるようにネットワークモデルのモデルパラメータを更新する。より具体的には、学習部910は、識別結果と正解データとのクロスエントロピー誤差を算出し、誤差逆伝播法に基づいてモデルパラメータを更新する。
図11は、一実施形態に係るコンピュータのハードウェア構成を例示するブロック図である。コンピュータ1100は、ハードウェアとして、CPU(Central Processing Unit)1110と、RAM(Random Access Memory)1120と、プログラムメモリ1130と、補助記憶装置1140と、入出力インタフェース1150とを備える。CPU1110は、バス1160を介して、RAM1120、プログラムメモリ1130、補助記憶装置1140、および入出力インタフェース1150と通信する。
Claims (18)
- センサデータに基づいて、前記センサデータの特徴を有する第1の特徴量を生成する特徴量生成部と、
前記第1の特徴量を、前記センサデータのクラスを識別する際に寄与する特徴を有する第2の特徴量に変換する特徴量変換部と、
前記第1の特徴量および前記第2の特徴量の相互相関に基づいて、前記クラスの識別において重要な特徴を有する重要特徴量を生成する重要特徴量生成部と、
前記第2の特徴量および前記重要特徴量に基づいて、前記第1の特徴量および前記第2の特徴量のそれぞれの特徴を考慮した統合特徴量を生成する特徴量統合部と、
前記統合特徴量に基づいて前記クラスを識別する識別部と
を具備する、認識装置。 - 前記特徴量生成部は、前記センサデータの種類に関して特徴量を融合させること、およびセンサの装着部位に関して特徴量を融合させることの少なくとも一方によって前記第1の特徴量を生成する、
請求項1に記載の認識装置。 - 前記特徴量変換部は、識別する前記クラスの数とフィルタの数とが同じになるように、前記第1の特徴量を前記第2の特徴量に変換する、
請求項1または請求項2に記載の認識装置。 - 前記特徴量変換部は、前記フィルタに割り当てられた前記クラスを活性化するように、前記第1の特徴量を前記第2の特徴量に変換する、
請求項3に記載の認識装置。 - 前記重要特徴量生成部は、
前記第1の特徴量に基づいて、前記第2の特徴量と同じフィルタ数を有する汎用特徴量を生成し、
前記汎用特徴量と前記第2の特徴量とを乗算することによって特徴量重要度を算出し、
前記汎用特徴量と前記特徴量重要度とを乗算することによって前記重要特徴量を生成する、
請求項1から請求項4までのいずれか一項に記載の認識装置。 - 前記重要特徴量生成部は、少なくともセンサデータの周波数特徴を含み、時間、前記センサデータの種類、およびセンサの装着部位のうちの少なくとも一つをさらに含む特徴要素を単位として、前記特徴量重要度を生成する、
請求項5に記載の認識装置。 - 前記特徴量統合部は、前記第2の特徴量と前記重要特徴量とを加算、あるいは乗算することによって前記統合特徴量を生成する、
請求項1から請求項6までのいずれか一項に記載の認識装置。 - 前記識別部は、過去の識別結果を利用して前記クラスを識別する請求項1から請求項7までのいずれか一項に記載の認識装置。
- 前記識別部は、センサ装着者の行動を識別する請求項1から請求項8までのいずれか一項に記載の認識装置。
- 前記識別部は、前記第2の特徴量に基づいて前記センサデータ全体のクラスを識別する、請求項1から請求項9までのいずれか一項に記載の認識装置。
- 前記特徴量生成部、前記特徴量変換部、前記重要特徴量生成部、前記特徴量統合部、および前記識別部を構成するニューラルネットワークモデルに関する情報を記憶する記憶部
を更に具備する、
請求項1から請求項10までのいずれか一項に記載の認識装置。 - 前記ニューラルネットワークモデルおよび前記ニューラルネットワークモデルのパラメータの少なくとも一方を切り替える切替部
を更に具備する、請求項11に記載の認識装置。 - 前記ニューラルネットワークモデルを学習する学習部
を更に具備する、
請求項11または請求項12に記載の認識装置。 - 前記学習部は、前記第2の特徴量に基づいて出力されたクラス識別尤度の分布と、前記統合特徴量に基づいて出力されたクラス識別尤度の分布とが等しくなるように前記ニューラルネットワークモデルを学習する請求項13に記載の認識装置。
- 前記学習部は、学習結果を用いて前記ニューラルネットワークモデルを更新する、
請求項13または請求項14に記載の認識装置。 - 前記学習部は、前記学習結果を前記記憶部へ記憶させる、
請求項15に記載の認識装置。 - センサデータに基づいて、前記センサデータの特徴を有する第1の特徴量を生成することと、
前記第1の特徴量を、前記センサデータのクラスを識別する際に寄与する特徴を有する第2の特徴量に変換することと、
前記第1の特徴量および前記第2の特徴量の相互相関に基づいて、前記クラスの識別において重要な特徴を有する重要特徴量を生成することと、
前記第2の特徴量および前記重要特徴量に基づいて、前記第1の特徴量および前記第2の特徴量のそれぞれの特徴を考慮した統合特徴量を生成することと、
前記統合特徴量に基づいて前記クラスを識別することと
を具備する、認識方法。 - コンピュータを、
センサデータに基づいて、前記センサデータの特徴を有する第1の特徴量を生成する手段と、
前記第1の特徴量を、前記センサデータのクラスを識別する際に寄与する特徴を有する第2の特徴量に変換する手段と、
前記第1の特徴量および前記第2の特徴量の相互相関に基づいて、前記クラスの識別において重要な特徴を有する重要特徴量を生成する手段と、
前記第2の特徴量および前記重要特徴量に基づいて、前記第1の特徴量および前記第2の特徴量のそれぞれの特徴を考慮した統合特徴量を生成する手段と、
前記統合特徴量に基づいて前記クラスを識別する手段
として機能させるためのプログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022009531A JP7631246B2 (ja) | 2022-01-25 | 2022-01-25 | 認識装置、認識方法、およびプログラム |
| US17/823,531 US12460954B2 (en) | 2022-01-25 | 2022-08-31 | Recognition apparatus, recognition method, and non-transitory computer-readable storage medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022009531A JP7631246B2 (ja) | 2022-01-25 | 2022-01-25 | 認識装置、認識方法、およびプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023108413A JP2023108413A (ja) | 2023-08-04 |
| JP7631246B2 true JP7631246B2 (ja) | 2025-02-18 |
Family
ID=87313691
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022009531A Active JP7631246B2 (ja) | 2022-01-25 | 2022-01-25 | 認識装置、認識方法、およびプログラム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US12460954B2 (ja) |
| JP (1) | JP7631246B2 (ja) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016115226A (ja) | 2014-12-17 | 2016-06-23 | 日本電気株式会社 | 特徴量抽出装置、認識装置、情報処理システム、特徴量抽出方法およびプログラム |
| WO2017065241A1 (ja) | 2015-10-14 | 2017-04-20 | 国立大学法人東京工業大学 | 自動診断装置 |
| JP2020190960A (ja) | 2019-05-22 | 2020-11-26 | 株式会社東芝 | 認識装置、認識方法及びプログラム |
Family Cites Families (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5301310B2 (ja) * | 2009-02-17 | 2013-09-25 | 株式会社日立製作所 | 異常検知方法及び異常検知システム |
| JP5530020B1 (ja) * | 2013-11-01 | 2014-06-25 | 株式会社日立パワーソリューションズ | 異常診断システム及び異常診断方法 |
| US10226204B2 (en) * | 2016-06-17 | 2019-03-12 | Philips North America Llc | Method for detecting and responding to falls by residents within a facility |
| WO2018163555A1 (ja) | 2017-03-07 | 2018-09-13 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
| US20230072423A1 (en) * | 2018-01-25 | 2023-03-09 | Meta Platforms Technologies, Llc | Wearable electronic devices and extended reality systems including neuromuscular sensors |
| US12383162B2 (en) * | 2019-06-19 | 2025-08-12 | University Of Southern California | Human activity recognition using magnetic induction-based motion signals and deep recurrent neural networks |
| JP7542802B2 (ja) | 2019-07-25 | 2024-09-02 | 学校法人中部大学 | ニューラルネットワークを用いた画像認識装置および画像認識装置に用いられるプログラム |
| US20230024586A1 (en) | 2019-12-25 | 2023-01-26 | Nec Corporation | Learning device, learning method, and recording medium |
| WO2021130995A1 (ja) | 2019-12-26 | 2021-07-01 | 日本電気株式会社 | データ生成装置、学習システム、データ拡張方法、およびプログラム記録媒体 |
| JP7494033B2 (ja) * | 2020-07-07 | 2024-06-03 | 株式会社日立製作所 | アクティビティ検出装置、アクティビティ検出システム及びアクティビティ検出方法 |
| US20220138536A1 (en) * | 2020-10-29 | 2022-05-05 | Hong Kong Applied Science And Technology Research Institute Co., Ltd | Actional-structural self-attention graph convolutional network for action recognition |
| US20220249906A1 (en) * | 2021-02-05 | 2022-08-11 | Google Llc | On-device activity recognition |
| US12277382B2 (en) * | 2021-10-28 | 2025-04-15 | Lenovo (United States) Inc. | Method and system to modify speech impaired messages utilizing neural network audio filters |
-
2022
- 2022-01-25 JP JP2022009531A patent/JP7631246B2/ja active Active
- 2022-08-31 US US17/823,531 patent/US12460954B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016115226A (ja) | 2014-12-17 | 2016-06-23 | 日本電気株式会社 | 特徴量抽出装置、認識装置、情報処理システム、特徴量抽出方法およびプログラム |
| WO2017065241A1 (ja) | 2015-10-14 | 2017-04-20 | 国立大学法人東京工業大学 | 自動診断装置 |
| JP2020190960A (ja) | 2019-05-22 | 2020-11-26 | 株式会社東芝 | 認識装置、認識方法及びプログラム |
Non-Patent Citations (1)
| Title |
|---|
| 池ヶ谷 剛 外,認知機能自動評価システムのための一人称視点による調理動作認識,情報処理学会 研究報告 モバイルコンピューティングとパーベイシブシステム(MBL) 2017-MBL-082,2017年03月02日,pp. 1-8 |
Also Published As
| Publication number | Publication date |
|---|---|
| US12460954B2 (en) | 2025-11-04 |
| US20230236047A1 (en) | 2023-07-27 |
| JP2023108413A (ja) | 2023-08-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Semwal et al. | An optimized hybrid deep learning model using ensemble learning approach for human walking activities recognition: VB Semwal et al. | |
| JP7213241B2 (ja) | ニューラルネットワークに関するマルチタスク学習のためのメタ学習 | |
| JP7520123B2 (ja) | 人間-ロボット混在製造プロセスにおける自動異常検出のためのシステムおよび方法 | |
| CN110263870B (zh) | 运动状态识别方法、装置、智能终端和存储介质 | |
| JP5520886B2 (ja) | 行動モデル学習装置、方法、及びプログラム | |
| JP2019139277A (ja) | 評価装置、動作制御装置、評価方法、及び評価プログラム | |
| CN113557069B (zh) | 用于手势分类和施加的力估计的无监督机器学习的方法和装置 | |
| CN105411593A (zh) | 用于识别步态任务的方法和设备 | |
| CN109765991A (zh) | 社交互动系统、用于帮助用户进行社交互动的系统及非暂时性计算机可读存储介质 | |
| Espinosa et al. | Application of convolutional neural networks for fall detection using multiple cameras | |
| Hajjej et al. | Deep human motion detection and multi-features analysis for smart healthcare learning tools | |
| JP2022126962A (ja) | 発話内容認識装置、学習データ収集システム、方法及びプログラム | |
| Lastrico et al. | Careful with that! Observation of human movements to estimate objects properties | |
| JP5910249B2 (ja) | インタラクション装置およびインタラクション制御プログラム | |
| Zhang et al. | Human activity recognition based on multi-modal fusion: C. Zhang et al. | |
| Ramadoss et al. | Computer vision for human‐computer interaction using noninvasive technology | |
| JP7631246B2 (ja) | 認識装置、認識方法、およびプログラム | |
| Faye et al. | A two-level approach to characterizing human activities from wearable sensor data | |
| KR20220005945A (ko) | 얼굴 표정에 관한 데이터 세트를 생성하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 | |
| CN118201554A (zh) | 认知功能评估系统和训练方法 | |
| KR20210054349A (ko) | 환자의 상지 동작에 의해 도출되는 특징값을 이용한 임상평가척도 예측 방법 | |
| Goh et al. | Multilayer perceptron neural network classification for human vertical ground reaction forces | |
| Steffan et al. | Online stability estimation based on inertial sensor data for human and humanoid fall prevention | |
| Koo et al. | Post-fall detection using ANN based on ranking algorithms | |
| Jimenez et al. | Toward inertial position tracking for head-mounted displays: a dataset and a deep learning approach evaluation |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230105 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240301 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20241211 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250107 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250205 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7631246 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |