JP2023507343A - 咳嗽自動検出のための方法および装置 - Google Patents
咳嗽自動検出のための方法および装置 Download PDFInfo
- Publication number
- JP2023507343A JP2023507343A JP2022536864A JP2022536864A JP2023507343A JP 2023507343 A JP2023507343 A JP 2023507343A JP 2022536864 A JP2022536864 A JP 2022536864A JP 2022536864 A JP2022536864 A JP 2022536864A JP 2023507343 A JP2023507343 A JP 2023507343A
- Authority
- JP
- Japan
- Prior art keywords
- cough
- processor
- sounds
- sound
- potential
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/66—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/08—Measuring devices for evaluating the respiratory organs
- A61B5/0823—Detecting or evaluating cough events
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6898—Portable consumer electronic devices, e.g. music players, telephones, tablet computers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B7/00—Instruments for auscultation
- A61B7/003—Detecting lung or respiration noise
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Signal Processing (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Theoretical Computer Science (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Veterinary Medicine (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Pulmonology (AREA)
- Biophysics (AREA)
- Physiology (AREA)
- General Physics & Mathematics (AREA)
- Epidemiology (AREA)
- Databases & Information Systems (AREA)
- Fuzzy Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Psychiatry (AREA)
- Mathematical Physics (AREA)
- Primary Health Care (AREA)
- Biodiversity & Conservation Biology (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Quality & Reliability (AREA)
Abstract
【選択図】図1
Description
本出願は、2019年12月16日出願のオーストラリア仮特許出願第2019904755号の優先権を主張し、同出願の開示は参照により本明細書に援用される。
少なくとも一つの電子プロセッサを作動させて、録音における潜在的咳嗽音を識別することと、
少なくとも一つの電子プロセッサを作動させて、1または複数の潜在的咳嗽音を対応する1または複数の画像表現に変換することと、
少なくとも一つの電子プロセッサを作動させて、潜在的咳嗽音が咳嗽音であるか咳嗽音でないかを確認するように訓練済みの表現パターン分類器に1または複数の画像表現を適用することと、
少なくとも一つの電子プロセッサを作動させて、表現パターン分類器の出力に基づいて1または複数の潜在的咳嗽音に確認済みの咳嗽音としてフラグ付けすることと、
を有する。
患者のデジタル録音を電子メモリに記憶するように構成される音声キャプチャ構成と、
事前識別済みの潜在的咳嗽音を対応する画像表現に変換するように構成された音セグメント・画像表現アセンブリと、
音セグメント・画像表現アセンブリとコミュニケーションをとる表現パターン分類器であって、画像表現を処理することにより事前識別済みの潜在的咳嗽音に対応する画像表現が確認済みの咳嗽音である確率を表す信号を発生させるように構成された、表現パターン分類器と、
を有する、装置が提供される。
患者の咳嗽音と非咳嗽音とを対応する画像表現に変換することと、
確認済みの咳嗽音に対応する画像表現の適用に応じて潜在的咳嗽音が確認済みの咳嗽音であると予測する出力を発生させ、非咳嗽音に対応する画像表現の適用に応じて潜在的咳嗽音が咳嗽音でないと予測する出力を発生させるようにパターン分類器を訓練することと、
を有する。
Claims (30)
- 患者の音声記録における咳嗽音を識別するための方法であって、
少なくとも1つの電子プロセッサを動作させて、前記音声記録における潜在的咳嗽音を識別することと、
前記少なくとも1つの電子プロセッサを動作させて、1または複数の前記潜在的咳嗽音を、対応する1または複数の画像表現に変換することと、
前記少なくとも1つの電子プロセッサを動作させて、前記1または複数の画像表現を、潜在的咳嗽音が咳嗽音である、または咳嗽音でないことを確認するために訓練済みの表現パターン分類器に適用することと、
前記少なくとも1つの電子プロセッサを動作させて、前記表現パターン分類器の出力に基づいて、確認済みの咳嗽音として、1または複数の前記潜在的咳嗽音にフラグ付けを行うことと、
を有する方法。 - 前記プロセッサを動作させて、前記1または複数の音声を前記画像表現に変換することを含み、
前記画像表現は、周波数と時間に関連する、請求項1に記載の方法。 - 前記1または複数の画像表現は、スペクトログラムを含む、請求項1または2に記載の方法。
- 前記1または複数の画像表現は、メルスペクトログラムを含む、請求項3に記載の方法。
- 前記プロセッサを動作させて、咳嗽音の初期および後続の位相をそれぞれ検出するために訓練済みの第1および第2の咳嗽音パターン分類器を用いて、前記音声記録の咳嗽音セグメントとして、前記潜在的咳嗽音を識別することを含む、請求項1から4のいずれか一項に記載の方法。
- 前記1または複数の画像表現は、N×Mの画素の寸法を有し、前記咳嗽音セグメントそれぞれのN個のウィンドウを処理する前記プロセッサによって形成され、
前記N個のウィンドウのそれぞれは、M個の周波数ビンにて解析される、請求項5に記載の方法。 - N個のウィンドウは、前記N個のウィンドウのうちの少なくとも1つの他のウィンドウと重複する、請求項6に記載の方法。
- 前記ウィンドウの長さは、その関連付けられた咳嗽音セグメントの長さに比例する、請求項7に記載の方法。
- 前記プロセッサを動作させて、FFT(Fast Fourier Transform)および周波数ビンごとのパワー値を算出し、前記1または複数の画像表現のうちの前記対応する画像表現の対応するパワー値を得ることを含む、請求項8に記載の方法。
- 前記プロセッサを動作させて、前記M個の周波数ビンのそれぞれに対するパワー値である、M個のパワー値の形にて周波数ビンごとのパワー値を計算することを含む、請求項9に記載の方法。
- 前記M個の周波数ビンは、M個のメル周波数ビンを含み、
前記プロセッサを動作させて、前記方法は、前記M個のパワー値を連結および正規化し、メルスペクトログラムの形にて前記対応する画像表現を処理することを含む、請求項9または10に記載の方法。 - 前記画像表現は、正方形であり、
MはNに等しい、請求項6から11のいずれか一項に記載の方法。 - 前記表現パターン分類器は、ニューラルネットワークを含む、請求項1から12のいずれか一項に記載の方法。
- 前記ニューラルネットワークは、CNN(Convolutional Neural Network)である、請求項13に記載の方法。
- 前記プロセッサを動作させて、前記表現パターン分類器の出力を含むまたは基づく確率値と、所定の閾値とを比較することを含む、請求項1から14のいずれか一項に記載の方法。
- 前記プロセッサを動作させて、前記確率値が前記所定の閾値を超えた場合、確認済みの咳嗽音として、1または複数の前記潜在的咳嗽音にフラグ付けを行うことを含む、請求項1に記載の方法。
- 前記プロセッサを動作させて、確認済みの咳嗽音の開始および終了の時間であるとして、前記対応する咳嗽音セグメントの開始および終了の時間を記録することにより、前記確認済みの音声をフラグ付けすることを含む、請求項16に記載の方法。
- 前記プロセッサを動作させて、前記プロセッサに応答するディスプレイ上にてスクリーンを生成することを含み、
前記スクリーンは、処理された潜在的咳嗽音の数、および、確認済みの咳嗽音の数を示す、請求項1から17のいずれか一項に記載の方法。 - 患者の咳嗽音を識別するための装置であって、
患者のデジタル音声記録を、電子メモリに格納する、音声キャプチャ構造と、
予め識別された潜在的咳嗽音を、対応する画像表現に変換する、音声セグメントから画像表現へのアセンブリと、
前記音声セグメントから画像表現へのアセンブリとコミュニケーションをとる表現パターン分類器であって、前記画像表現を処理し、確認済みの咳嗽音である、前記予め識別された潜在的咳嗽音に対応する前記画像表現の確率を示す信号を処理する、表現パターン分類器と、
を有する装置。 - 前記デジタル音声記録の部分を識別し、それにより前記予め識別された潜在的咳嗽音を処理するように訓練済みの1または複数の咳嗽音分類器を含む、請求項19に記載の装置。
- 前記1または複数の咳嗽音分類器は、咳嗽音の最初と後続の位相をそれぞれ検出するために訓練された第1の咳嗽音パターン分類器と第2の咳嗽音パターン分類器を含む、請求項20に記載の装置。
- 前記第1の咳嗽音パターン分類器と前記第2の咳嗽音パターン分類器はそれぞれ、ニューラルネットワークを含む、請求項19から21のいずれか一項に記載の装置。
- 前記音声セグメントから画像表現へのアセンブリは、前記予め識別された潜在的咳嗽音を、スペクトログラムを含む対応する画像表現に変換するように構成される、請求項19から25のいずれか一項に記載の装置。
- 前記音声セグメントから画像表現へのアセンブリは、前記予め識別された潜在的咳嗽音に対して、高速フーリエ変換およびM個のビンごとのパワーを計算することにより、対応する画像表現へ変換するように構成される、請求項23に記載の装置。
- 前記音声セグメントから画像表現へのアセンブリは、前記予め識別された潜在的咳嗽音をスペクトログラムへ変換するように構成される、請求項24に記載の装置。
- 前記スペクトログラムは、メルスペクトログラムを含む、請求項25に記載の装置。
- 前記電子メモリとコミュニケーションをとる少なくとも1つの電子プロセッサを含み、
前記プロセッサは、前記電子メモリに格納された命令により、前記音声セグメントから画像表現へのアセンブリを実装するように構成される、請求項19から26のいずれか一項に記載の装置。 - 前記少なくとも1つの電子プロセッサは、前記電子メモリに格納された命令により、前記表現パターン分類器を実装するように構成される、請求項27に記載の装置。
- 前記少なくとも1つの電子プロセッサは、前記電子メモリに格納された命令により、前記潜在的咳嗽音を識別するように構成された少なくとも1つの咳嗽音パターン分類器を実装するように構成される、請求項27または28に記載の装置。
- 前記少なくとも1つの電子プロセッサは、前記電子メモリに格納された命令により、前記潜在的咳嗽音を識別するように構成された第1の咳嗽音パターン分類器および第2の咳嗽音パターン分類器を実装するように構成される、請求項29に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AU2019904755A AU2019904755A0 (en) | 2019-12-16 | Method and apparatus for automatic cough detection | |
AU2019904755 | 2019-12-16 | ||
PCT/AU2020/051383 WO2021119743A1 (en) | 2019-12-16 | 2020-12-16 | Method and apparatus for automatic cough detection |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023507343A true JP2023507343A (ja) | 2023-02-22 |
Family
ID=76476530
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022536864A Pending JP2023507343A (ja) | 2019-12-16 | 2020-12-16 | 咳嗽自動検出のための方法および装置 |
Country Status (8)
Country | Link |
---|---|
US (1) | US20230039619A1 (ja) |
EP (1) | EP4076177B1 (ja) |
JP (1) | JP2023507343A (ja) |
CN (1) | CN115023183A (ja) |
AU (1) | AU2020404447A1 (ja) |
CA (1) | CA3164373A1 (ja) |
MX (1) | MX2022007501A (ja) |
WO (1) | WO2021119743A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023147131A1 (en) * | 2022-01-31 | 2023-08-03 | Johnson Controls Tyco IP Holdings LLP | Auto adapting deep learning models on edge devices for audio and video |
WO2024163390A1 (en) * | 2023-01-31 | 2024-08-08 | Hyfe Inc | Methods for automatic cough detection and uses thereof |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070118054A1 (en) * | 2005-11-01 | 2007-05-24 | Earlysense Ltd. | Methods and systems for monitoring patients for clinical episodes |
EP1898786B1 (en) * | 2005-06-03 | 2011-03-30 | South Manchester University Hospitals NHS Trust | A method for generating output data |
CN102088911B (zh) * | 2008-06-17 | 2014-10-29 | 皇家飞利浦电子股份有限公司 | 利用声音分类器和麦克风的声学患者监测 |
WO2013040485A2 (en) * | 2011-09-15 | 2013-03-21 | University Of Washington Through Its Center For Commercialization | Cough detecting methods and devices for detecting coughs |
ES2947765T3 (es) * | 2012-03-29 | 2023-08-18 | Univ Queensland | Procedimiento y aparato para procesar grabaciones de sonido de un paciente |
EP3097847A1 (en) * | 2015-05-28 | 2016-11-30 | Nitetronic Holding Limited | Wearable device and system for stopping airway disorders including such a wearable device |
EP3566225B1 (en) * | 2017-02-01 | 2021-04-07 | Resapp Health Limited | Methods and apparatus for cough detection in background noise environments |
EA201800377A1 (ru) * | 2018-05-29 | 2019-12-30 | Пт "Хэлси Нэтворкс" | Способ диагностики заболеваний органов дыхания и система для его реализации |
CN109493874A (zh) * | 2018-11-23 | 2019-03-19 | 东北农业大学 | 一种基于卷积神经网络的生猪咳嗽声音识别方法 |
-
2020
- 2020-12-16 JP JP2022536864A patent/JP2023507343A/ja active Pending
- 2020-12-16 CN CN202080094651.5A patent/CN115023183A/zh active Pending
- 2020-12-16 AU AU2020404447A patent/AU2020404447A1/en active Pending
- 2020-12-16 US US17/757,545 patent/US20230039619A1/en active Pending
- 2020-12-16 MX MX2022007501A patent/MX2022007501A/es unknown
- 2020-12-16 CA CA3164373A patent/CA3164373A1/en active Pending
- 2020-12-16 WO PCT/AU2020/051383 patent/WO2021119743A1/en unknown
- 2020-12-16 EP EP20902253.2A patent/EP4076177B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20230039619A1 (en) | 2023-02-09 |
WO2021119743A1 (en) | 2021-06-24 |
EP4076177A1 (en) | 2022-10-26 |
CA3164373A1 (en) | 2021-06-24 |
CN115023183A (zh) | 2022-09-06 |
MX2022007501A (es) | 2022-09-07 |
EP4076177B1 (en) | 2025-03-19 |
AU2020404447A1 (en) | 2022-06-23 |
EP4076177A4 (en) | 2023-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110010156B (zh) | 基于对事件子部分的序列的建模的声音事件检测 | |
US10540988B2 (en) | Method and apparatus for sound event detection robust to frequency change | |
CN112183099A (zh) | 基于半监督小样本扩展的命名实体识别方法及系统 | |
CN112949708A (zh) | 情绪识别方法、装置、计算机设备和存储介质 | |
CN113646833B (zh) | 语音对抗样本检测方法、装置、设备及计算机可读存储介质 | |
CN113793620B (zh) | 基于场景分类的语音降噪方法、装置、设备及存储介质 | |
CN113223560A (zh) | 情绪识别方法、装置、设备及存储介质 | |
CN113223536A (zh) | 声纹识别方法、装置及终端设备 | |
JP5955925B2 (ja) | カスケード式のオーバ・コンプリート・ディクショナリに基づいた画像認識システム | |
JP2023507344A (ja) | 患者音からの呼吸器疾患の診断 | |
JP2023507343A (ja) | 咳嗽自動検出のための方法および装置 | |
CN110580897B (zh) | 音频校验方法、装置、存储介质及电子设备 | |
CN110969123A (zh) | 基于频域的电磁信息泄漏检测方法、终端设备及存储介质 | |
KR102738235B1 (ko) | 동물 탐지 및 분류를 위한 영상 데이터 라벨링 방법 및 장치 | |
KR20220053475A (ko) | 전자 장치 및 이의 제어 방법 | |
CN116469400A (zh) | 语音转换方法、语音模型训练方法、装置、设备及介质 | |
CN114974205A (zh) | 合成语音识别方法、装置、电子设备及存储介质 | |
KR102140714B1 (ko) | 안드로이드 애플리케이션의 주요부분을 패턴화한 멀웨어 탐지 분류 방법 및 시스템 | |
JP2022086961A (ja) | 話者埋め込みに基づく音声活動検出を利用した話者ダイアライゼーション方法、システム、およびコンピュータプログラム | |
US20250201238A1 (en) | Matching apparatus, matching method, and computer readable recording medium | |
US20250095663A1 (en) | System and methods for generating realistic waveforms | |
CN112820267B (zh) | 波形生成方法以及相关模型的训练方法和相关设备、装置 | |
Chaitra et al. | Unveiling Voices: Deep Learning Based Noise Dissipation with Real-Time Multi-speech Separation and Speaker Recognition | |
AU2021448087A1 (en) | Detection device, detection method, and detection program | |
CN119580716A (zh) | 声音识别方法、装置、电子设备、存储介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230904 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20240705 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240821 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240903 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20241202 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20250203 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20250325 |