TWI820704B - 聲音訊號的分析方法及裝置、晶片的設計方法及裝置 - Google Patents

聲音訊號的分析方法及裝置、晶片的設計方法及裝置 Download PDF

Info

Publication number
TWI820704B
TWI820704B TW111117761A TW111117761A TWI820704B TW I820704 B TWI820704 B TW I820704B TW 111117761 A TW111117761 A TW 111117761A TW 111117761 A TW111117761 A TW 111117761A TW I820704 B TWI820704 B TW I820704B
Authority
TW
Taiwan
Prior art keywords
resolution
signal
model
sound
snoring
Prior art date
Application number
TW111117761A
Other languages
English (en)
Other versions
TW202345140A (zh
Inventor
戴良軒
陳鴻昱
吳彥霆
王婷鈺
Original Assignee
財團法人工業技術研究院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 財團法人工業技術研究院 filed Critical 財團法人工業技術研究院
Priority to TW111117761A priority Critical patent/TWI820704B/zh
Priority to CN202210543152.0A priority patent/CN117113019A/zh
Priority to US17/850,906 priority patent/US20230368810A1/en
Application granted granted Critical
Publication of TWI820704B publication Critical patent/TWI820704B/zh
Publication of TW202345140A publication Critical patent/TW202345140A/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/39Circuit design at the physical level
    • G06F30/392Floor-planning or layout, e.g. partitioning or placement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/39Circuit design at the physical level
    • G06F30/398Design verification or optimisation, e.g. using design rule check [DRC], layout versus schematics [LVS] or finite element methods [FEM]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physiology (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Quality & Reliability (AREA)
  • Architecture (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Stored Programmes (AREA)
  • Input Circuits Of Receivers And Coupling Of Receivers And Audio Equipment (AREA)

Abstract

一種聲音訊號分析方法、聲音訊號分析裝置、晶片設計方法及晶片設計裝置。所述聲音訊號分析方法包括:在第一更新梯度中,使用多組任務集中符合同一分組條件的第一聲音訓練資料來訓練解析度還原模型;在第二更新梯度中,交錯使用所述任務集中符合不同分組條件的第二聲音訓練資料來訓練解析度還原模型;迭代執行第一更新梯度與第二更新梯度,以設定解析度還原模型的初始模型參數;以及使用解析度還原模型將低解析度鼾聲訊號還原為高解析度鼾聲訊號,其中低解析度鼾聲訊號的解析度低於高解析度鼾聲訊號的解析度。

Description

聲音訊號的分析方法及裝置、晶片的設計方法及裝置
本發明是有關於一種聲音訊號分析方法、聲音訊號分析裝置、晶片設計技術及晶片設計裝置。
因應智慧耳機之發展,目前結合生理訊號感測是非常熱門的領域。其中最新穎的應用是鼾聲醫療。但鼾聲長時間感測相當耗電,故市場追求低功耗的生理感測技術。然而,傳統超解析法降低功耗時,還原的訊號容易出現誤差,導致生理訊號計算失準。例如,當智慧耳機進行鼾聲偵測時,傳統上直接降低採樣頻率可以降低功耗,但須再配上使用超解析法,訓練低採樣訊號與高採樣訊號之間的還原模型,還原成高採樣頻率的訊號,但傳統的超解析法會有還原不準確的情況。因此,如何實現低功耗的生理感測技術實為本領域技術人員所致力的課題之一。
此外,市場也追求體積小的電子產品,更容易塞入耳道,符合人因工程。然而,傳統晶片面積縮小使用啟發式演算法,容易找到局部最小值(即次小面積)。因此,如何設計並縮小晶片面積,也為本領域技術人員所致力的課題之一。
本發明提供一種聲音訊號分析方法、聲音訊號分析裝置、晶片設計技術及晶片設計裝置,可改善降低功耗訊號誤差與失準,及可縮小晶片面積的問題。
本發明的實施例提供一種聲音訊號分析方法,其包括:在第一更新梯度中,使用多組任務集中符合同一分組條件的多個第一聲音訓練資料來訓練音訊處理晶片中的解析度還原模型;在第二更新梯度中,交錯使用所述多組任務集中符合不同分組條件的多個第二聲音訓練資料來訓練所述解析度還原模型;迭代執行所述第一更新梯度與所述第二更新梯度,以設定所述解析度還原模型的初始模型參數;以及使用所述解析度還原模型將低解析度鼾聲訊號還原為高解析度鼾聲訊號,其中低解析度鼾聲訊號的解析度低於高解析度鼾聲訊號的解析度。
本發明的實施例另提供一種聲音訊號分析裝置,其包括音訊處理晶片與儲存電路。所述音訊處理晶片內建解析度還原模型。所述儲存電路耦接至所述音訊處理晶片並用以儲存多組任務集。所述音訊處理晶片用以:在第一更新梯度中,使用所述多組任務集中符合同一分組條件的多個第一聲音訓練資料來訓練所述解析度還原模型;在第二更新梯度中,交錯使用所述多組任務集中符合不同分組條件的多個第二聲音訓練資料來訓練所述解析度還原模型;迭代執行所述第一更新梯度與所述第二更新梯度,以設定所述解析度還原模型的初始模型參數;以及使用所述解析度還原模型將低解析度鼾聲訊號還原為高解析度鼾聲訊號,其中低解析度鼾聲訊號的解析度低於高解析度鼾聲訊號的解析度。
本發明的實施例另提供一種晶片設計方法,其用於晶片設計裝置內的晶片布局預測模型。所述晶片設計方法包括:根據多種限制式執行模型重建;以及經由多條決策路徑來迭代尋找對應於音訊處理晶片的晶片布局設計,以生產所述音訊處理晶片,其中所述晶片布局設計滿足所述音訊處理晶片的最小布局面積。
本發明的實施例另提供一種晶片設計裝置,其包括儲存電路與處理器。所述儲存電路用以儲存晶片布局預測模型。所述處理器耦接至所述儲存電路。所述處理器用以運行所述晶片布局預測模型以:根據多種限制式執行模型重建;以及經由多條決策路徑來迭代尋找對應於音訊處理晶片的晶片布局設計,以生產所述音訊處理晶片,其中所述晶片布局設計滿足所述音訊處理晶片的最小布局面積。
在超解析法中,低解析度鼾聲可加入隨機初始化模型參數,並進入第一層神經網路(亦即學習小特徵包括計算權重、計算偏差、計算激勵函數)、第二層神經網路(亦即學習大特徵包括計算權重、計算偏差、計算激勵函數),以產生高解析度鼾聲,但降低功耗時,還原的訊號容易出現誤差,導致生理訊號計算失準。
本發明是利用雙重梯度學習泛化法取代隨機初始化,以改善降低功耗訊號誤差與失準的問題。
圖1A是根據本發明的實施例所繪示的聲音訊號分析裝置的示意圖。請參照圖1A,聲音訊號分析裝置10可包括有線耳機、無線耳機、智慧型手機、平板電腦、筆記型電腦或錄音筆等各式可具有聲音訊號之處理功能的電子裝置,且聲音訊號分析裝置10的類型不限於此。
聲音訊號分析裝置10包括音訊處理晶片11與儲存電路12。音訊處理晶片11用以執行聲音訊號的處理。例如,音訊處理晶片11可包括中央處理單元(Central Processing Unit, CPU)、或是其他可程式化之一般用途或特殊用途的微處理器、數位訊號處理器(Digital Signal Processor, DSP)、可程式化控制器、特殊應用積體電路(Application Specific Integrated Circuits, ASIC)、可程式化邏輯裝置(Programmable Logic Device, PLD)或其他類似裝置或這些裝置的組合。在一實施例中,音訊處理晶片11亦可負責聲音訊號分析裝置10的整體或部分運作。
儲存電路12耦接至音訊處理晶片11。儲存電路12用以儲存資料。例如,儲存電路12可包括揮發性儲存電路與非揮發性儲存電路。揮發性儲存電路用以揮發性地儲存資料。例如,揮發性儲存電路可包括隨機存取記憶體(Random Access Memory, RAM)或類似的揮發性儲存媒體。非揮發性儲存電路用以非揮發性地儲存資料。例如,非揮發性儲存電路可包括唯讀記憶體(Read Only Memory, ROM)、固態硬碟(solid state disk, SSD)及/或傳統硬碟(Hard disk drive, HDD)或類似的非揮發性儲存媒體。
聲音訊號分析裝置10還可包括用以管理聲音訊號分析裝置10之電源的電源管理電路、各式感測器及各式輸入/輸出(I/O)介面。本發明不限制聲音訊號分析裝置10所包含的感測器及I/O介面之類型。
音訊處理晶片11可包括解析度還原模型13。例如,解析度還原模型13可內建於音訊處理晶片11中。解析度還原模型13可用以將具有某一解析度(亦稱為第一解析度)的聲音取樣訊號(亦稱為第一聲音取樣訊號)還原為具有另一解析度(亦稱為第二解析度)的聲音取樣訊號(亦稱為第二聲音取樣訊號)。第二聲音取樣訊號的解析度高於第一聲音取樣訊號的解析度。例如,在對某一聲音訊號(亦稱為原始聲音訊號)進行取樣以獲得具有解析度較低的第一聲音取樣訊號後,解析度還原模型13可將第一聲音取樣訊號還原為解析度較高的第二聲音取樣訊號。例如,第二聲音取樣訊號的解析度可接近或甚至相同於原始聲音訊號的解析度(亦稱為原始解析度)。在一範例實施例中,第一聲音取樣訊號包括低解析度鼾聲訊號,及/或第二聲音取樣訊號包括高解析度鼾聲訊號。低解析度鼾聲訊號的解析度低於高解析度鼾聲訊號的解析度。
解析度還原模型13可包括一或多個神經網路。所述神經網路可採用卷積神經網路(Convolutional Neural Network, CNN)及/或前饋神經網路(Feed Forward Deep Neural Network, FFDNN)等各式神經網路模型及/或深度學習(deep learning)模型來實現並可根據實務需求進行調整。
儲存電路12可用以儲存多組任務集14(1)~14(n)。任務集14(1)~14(n)中的每一任務集可包括至少一聲音訓練資料,以訓練解析度還原模型13。例如,聲音訓練資料可包括聲音訊號的取樣資料(亦稱為聲音取樣資料)。此外,本發明不限制任務集14(1)~14(n)的總數。
任務集14(1)~14(n)中的聲音訓練資料可根據特定的分組條件(亦稱為篩選條件)來進行分組。例如,所述分組條件可包括聲音感測對象的年齡、性別及國籍等可用以區別不同類型的聲音感測對象之條件,且所述分組條件不限於此。符合同一分組條件的聲音訓練資料可被存放於任務集14(1)~14(n)中的同一個任務集中。例如,任務集14(1)可用以存放年齡介於15~18歲的聲音感測對象的聲音訓練資料,任務集14(2)可用以存放年齡介於19~22歲的聲音感測對象的聲音訓練資料,任務集14(3)可用以存放性別為男性的聲音感測對象的聲音訓練資料,且任務集14(4)可用以存放性別為女性的聲音感測對象的聲音訓練資料等,且所述分組條件可根據實務需求調整,本發明不加以限制。此外,任務集14(1)~14(n)中的不同任務集則分別存放符合不同分組條件的聲音訓練資料。此外,音訊處理晶片11可根據任務集14(1)~14(n)來迭代執行不同類型的更新梯度之操作,以設定解析度還原模型13的初始參數(亦稱為初始模型參數)。
圖1B是根據本發明的實施例所繪示的設定解析度還原模型的初始模型參數的流程示意圖。請參照圖1B,在步驟101中,音訊處理晶片11可設定解析度還原模型13的初始化參數。在步驟102中,迭代開始。在步驟103中,音訊處理晶片11可隨機從圖1A的任務集14(1)~14(n)中選擇任務以進行訓練。
在步驟104中,音訊處理晶片11可執行更新梯度(亦稱為第一更新梯度(學習個別任務))之操作。在步驟104(即第一更新梯度)中,音訊處理晶片11可使用任務集14(1)~14(n)中符合同一分組條件的多個聲音訓練資料(亦稱為第一聲音訓練資料)來訓練解析度還原模型13,以學習個別任務之音訊特徵。例如,在步驟104中,任務集14(i)中的所有或至少部分聲音訓練資料可被依序輸入至解析度還原模型13,使解析度還原模型13連續學習任務集14(i)中個別任務之音訊特徵。在完成使用任務集14(i)中的所有或至少部分聲音訓練資料來對解析度還原模型13進行訓練後,任務集14(j)中的所有或至少部分聲音訓練資料可被依序輸入至解析度還原模型13,以使解析度還原模型13連續學習任務集14(j)中個別任務之音訊特徵,其中i不等於j。
在一實施例中,在步驟104中,音訊處理晶片11可根據解析度還原模型13所學習的個別任務之音訊特徵,來執行與解析度還原模型13有關的權重計算、偏差計算及激勵函數計算。接著,音訊處理晶片11可計算交叉熵(Cross-Entropy)並根據計算結果執行解析度還原模型13的參數更新。
圖1C是根據本發明的實施例所繪示的解析度還原模型的運算架構的示意圖。請參照圖1C,輸入訊號110可包括聲音訓練資料而被輸入至解析度還原模型13。輸入訊號110可包括多個輸入值x 1~x N。解析度還原模型13可使用運算模型120(1)~120(L)對聲音訓練資料110進行迭代運算並產生輸出訊號130。輸出訊號130包括多個輸出值y 1~y M。須注意的是,N與M皆為正整數,且M大於N。也就是說,輸出值y 1~y M的總數大於輸出值x 1~x N的總數。藉此,解析度還原模型13可將解析度較低的輸入訊號110還原成解析度較高的輸出訊號130。此外,在訓練解析度還原模型13的過程中,解析度還原模型13採用的運算參數可持續被更新,以尋找最佳參數。
解析度還原模型13可包括多個運算模型120(1)~120(L)。例如,運算模型120(1)~120(L)的層數為L,且L可為大於1的任意正整數。運算模型120(1)~120(L)中的運算模型120(k)用以根據一個權重值W(k)與一個偏差值b(k)來實現激勵函數之計算,且k介於1與L之間。例如,運算模型120(k)可根據以下方程式(1.1)與(1.2)來實現激勵函數之計算。
(1.1)
(1.2)
方程式(1.1)可表示激勵函數。在方程式(1.2)中,W(k)表示運算模型120(k)所採用的權重值,b(k)表示運算模型120(k)所採用的偏差值,且x i表示運算模型120(k)中的某一運算節點的輸入值。此外,在產生輸出訊號130後,音訊處理晶片11可根據以下方程式(1.3)計算交叉熵。
CE= (1.3)
在方程式(1.3)中,CE代表交叉熵,且CE可反映解析度還原模型13所產生的輸出訊號130與驗證資料之間的差值。音訊處理晶片11可根據方程式(1.3)的計算結果來持續更新(例如調整)解析度還原模型13採用的運算參數(例如上述權重值與偏差值),直到找到最佳的參數為止。
請回到圖1B,接續於步驟104,在步驟105中,音訊處理晶片11可執行另一更新梯度(亦稱為第二更新梯度(學習總個別任務))之操作。在步驟105(即第二更新梯度)中,音訊處理晶片11可交錯使用任務集14(1)~14(n)中符合不同分組條件的多個聲音訓練資料(亦稱為第二聲音訓練資料)來訓練解析度還原模型13。例如,在第二更新梯度中,任務集14(p)中的一個聲音訓練資料可先被輸入至解析度還原模型13,以訓練解析度還原模型13。接著,任務集14(q)中的一個聲音訓練資料可被輸入至解析度還原模型13,以訓練解析度還原模型13,其中p不等於q。依此類推,在第二更新梯度中,更多屬於不同的任務集的聲音訓練資料可被交錯地使用以訓練解析度還原模型13,以盡可能提高解析度還原模型13對不同類型的聲音感測對象的聲音訊號的還原準確率。
例如,在步驟105中,音訊處理晶片11可根據解析度還原模型13所學習的總個別任務(即跨任務集之任務)之音訊特徵,來執行與解析度還原模型13有關的權重計算、偏差計算及激勵函數計算。接著,音訊處理晶片11可計算交叉熵並根據計算結果執行解析度還原模型13的總參數更新。相關操作細節可參照步驟104及圖1C之說明,在此不多加贅述。
音訊處理晶片11可迭代執行步驟104與105,以設定解析度還原模型13的初始參數(即初始模型參數)。例如,在完整使用了任務集14(1)~14(n)中的聲音訓練資料來迭代執行步驟104與105以取得最佳(或較佳)參數後,音訊處理晶片11可在步驟106中判定迭代結束並且在步驟107中產生待使用的模型參數(即初始模型參數)。爾後,解析度還原模型13可基於此初始模型參數來執行聲音取樣訊號的還原。在一實施例中,上述設定解析度還原模型13的初始參數(即初始模型參數)的方法亦稱為雙重梯度學習泛化法。
在一實施例中,任務往往是隨機地用來訓練神經網路模型,且模型的初始化參數往往是隨機設置。因此,神經網路模型即便經過訓練也無法有效提高對聲音訊號的還原準確率。然而,在本發明的實施例中,透過強制採用上述客製化且分階段的模型訓練機制,在完成訓練後,解析度還原模型13可基於較佳的初始模型參數來將低解析度鼾聲訊號(即第一聲音取樣訊號)精準還原為高解析度鼾聲訊號(即第二聲音取樣訊號),且還原誤差可被大幅降低。
在一實施例中,透過採用功耗較低的取樣模式來針對原始聲音訊號進行取樣(即感測)以獲得低解析度鼾聲訊號(即第一聲音取樣訊號),可有效降低聲音訊號分析裝置10執行聲音訊號之取樣的功率消耗(例如裝置耗電量)。此外,透過提升解析度還原模型13對低解析度鼾聲訊號(即第一取樣聲音訊號)的還原效率,解析度還原模型13可輸出接近甚至幾乎相同於原始聲音訊號的高解析度鼾聲訊號(即第二聲音取樣訊號),以供後續分析使用。藉此,在整個聲音訊號的取樣(即感測)與還原過程中,聲音訊號分析裝置10的功率消耗可被大幅降低,且對於聲音訊號的分析準確率仍可被維持甚至提升。
在一實施例中,在迭代執行第一更新梯度(即學個別任務)與第二更新梯度(即學總個別任務)的過程中,解析度還原模型13中的神經網路所採用的部分參數(例如權重值)可被持續更新,以降低解析度還原模型13的預測誤差及/或提高解析度還原模型13的預測準確率。此外,音訊處理晶片11可根據神經網路、深度學習及機器學習領域中常用的激勵函數及交叉熵、參數更新(於”學個別任務”中)或總參數更新(於”學總個別任務”中)來評估解析度還原模型13在每一次的迭代中的預測誤差,直到完成迭代運算為止。相關操作細節已詳述於上,在此不多加贅述。
圖2是根據本發明的實施例所繪示的的聲音訊號分析裝置的示意圖。請參照圖2,聲音訊號分析裝置20可包括有線耳機、無線耳機、智慧型手機、平板電腦、筆記型電腦或錄音筆等各式可具有聲音訊號之接收與處理功能的電子裝置,且聲音訊號分析裝置20的類型不限於此。
聲音訊號分析裝置20可包括音訊處理晶片21、儲存電路22、收音裝置23及解析度還原模型24。音訊處理晶片21、儲存電路22及解析度還原模型24分別相同或相似於圖1A的音訊處理晶片11、儲存電路12及解析度還原模型13。
收音裝置23耦接至音訊處理晶片21。收音裝置23用以接收聲音訊號(即原始聲音訊號)。例如,收音裝置23可包括麥克風等音訊接收裝置。原始聲音訊號可包括環境音等由目標人員發出的聲音訊號。例如,原始聲音訊號可反映目標人員在睡眠時或其他時間點發出的呼吸聲。
音訊處理晶片21可經由收音裝置23接收原始聲音訊號。然後,音訊處理晶片21可基於預設取樣頻率(亦稱為第一取樣頻率)對原始聲音訊號進行取樣,以獲得低解析度鼾聲訊號。然後,音訊處理晶片21可透過解析度還原模型24將低解析度鼾聲訊號還原成高解析度鼾聲訊號。例如,低解析度鼾聲訊號對應於第一取樣頻率,高解析度鼾聲訊號對應於另一取樣頻率(亦稱為第二取樣頻率),且第二取樣頻率高於第一取樣頻率。
在一實施例中,第一取樣頻率正相關於音訊處理晶片21對原始聲音訊號進行取樣(即感測)時的功率消耗。亦即,第一取樣頻率越高,則音訊處理晶片21對原始聲音訊號進行取樣時的功率消耗越大。反之,第一取樣頻率越低,則音訊處理晶片21對原始聲音訊號進行取樣時的功率消耗越小。因此,透過降低第一取樣頻率,可有效降低聲音訊號分析裝置20執行訊號取樣時的功率消耗。
圖3是根據本發明的實施例所繪示的將低解析度鼾聲訊號還原成高解析度鼾聲訊號的流程示意圖。請參照圖3,在步驟301中,獲得低解析度鼾聲訊號。在步驟302中,音訊處理晶片21可透過上述雙重梯度學習泛化法設定解析度還原模型13的初始參數(即初始模型參數)。接著,音訊處理晶片21可透過解析度還原模型31將低解析度鼾聲訊號還原為高解析度鼾聲訊號。例如,解析度還原模型31處理低解析度鼾聲訊號的過程可包括提高低解析度鼾聲訊號的解析度。例如,解析度還原模型31可包括圖1C的解析度還原模型13或圖2的解析度還原模型24。以圖1C為例,輸入訊號110可包括低解析度鼾聲訊號,且輸出訊號130可包括高解析度鼾聲訊號。在步驟303中,音訊處理晶片21可根據解析度還原模型31的輸出獲得高解析度鼾聲訊號。爾後,在步驟304中,高解析度鼾聲訊號可被用於各種應用中。
在一實施例中,解析度還原模型31可包括第一層神經網路311與第二層神經網路312。第一層神經網路311與第二層神經網路312可根據步驟302中設定的初始模型參數來依序對低解析度鼾聲訊號進行處理。例如,第一層神經網路311可用以對低解析度鼾聲訊號執行小特徵學習,而第二層神經網路312則可用以對低解析度鼾聲訊號執行大特徵學習。解析度還原模型31可根據小特徵學習的結果與大特徵學習的結果輸出高解析度鼾聲訊號。其中,小特徵學習及大特徵學習的運算過程也包含權重計算、偏差計算及激勵函數計算等,相關操作細節已詳述於上,在此不多加贅述。此外,解析度還原模型31還可包括更多層的神經網路,視實務需求而定。
在一實施例中,在獲得高解析度鼾聲訊號後,音訊處理晶片21可根據高解析度鼾聲訊號的訊號特徵,評估目標人員的呼吸道狀況。例如,音訊處理晶片21可將第二聲音取樣訊號的波形等訊號特徵與資料庫中的訊號特徵樣版進行比對並根據比對結果評估目標人員的呼吸道狀況。例如,當發現第二聲音取樣訊號的訊號特徵與資料庫中的特定訊號樣版相互吻合時,音訊處理晶片21可產生評估資訊以反映目標人員的呼吸道存在特定病徵。例如,所述評估資訊可反映目標人員是否具有呼吸中止症、目標人員的呼吸道是否堵塞及/或目標人員的呼吸道的堵塞位置等與目標人員的呼吸道狀況有關的資訊。此外,若第二聲音取樣訊號的訊號特徵與資料庫中的訊號特徵樣版皆不吻合時,則音訊處理晶片21可產生評估資訊以反映目標人員的呼吸道是健康的。
特別是,在前述實施例中已經提及如何對解析度還原模型31的訓練以提高解析度還原模型31的還原準確率。因此,在圖3的實施例中,解析度還原模型31可根據低解析度鼾聲訊號輸出接近甚至幾乎相同於原始聲音訊號的高解析度鼾聲訊號。爾後,針對高解析度鼾聲訊號的訊號特徵進行分析以評估目標人員的呼吸道狀況,可幾乎等同於針對目標人員發出的原始聲音訊號進行分析。藉此,可在降低裝置功耗與提高檢測準確率之間取得較佳平衡。
晶片縮小面積的步驟可包含定義目標函數、最小化總面積、限制式(包括元件大小、元件腳位、組成配置)、隨機初始參數、啟發式演算法、易得到次小總面積,但進一步如何設計並縮小晶片面積是問題。
本發明是利用鬆弛重建分支法取代啟發式演算法,以得到最小總面積解。
圖4是根據本發明的實施例所繪示的晶片設計裝置的示意圖。請參照圖4,晶片設計裝置40可包括智慧型手機、平板電腦、筆記型電腦、桌上型電腦或伺服器等各式具有資料處理功能的電子裝置,且晶片設計裝置40的類型不限於此。
晶片設計裝置40可包括處理器41與儲存電路42。處理器41可負責晶片設計裝置40的整體或部分運作。例如,處理器41可包括CPU、或是其他可程式化之一般用途或特殊用途的微處理器、DSP、可程式化控制器、ASIC、PLD或其他類似裝置或這些裝置的組合。
儲存電路42耦接至處理器41。儲存電路42可用以儲存資料。例如,儲存電路42可包括揮發性儲存電路與非揮發性儲存電路。揮發性儲存電路用以揮發性地儲存資料。例如,揮發性儲存電路可包括RAM或類似的揮發性儲存媒體。非揮發性儲存電路用以非揮發性地儲存資料。例如,非揮發性儲存電路可包括ROM、SSD、HDD或類似的非揮發性儲存媒體。
儲存電路42可用以儲存晶片布局預測模型43。晶片布局預測模型43可採用客製化的演算法進行設計。例如,所述客製化的演算法可包括鬆弛式重建分支法。晶片布局預測模型43可用以在晶片設計階段中,根據晶片的基本設計需求(例如需放置在晶片內的元件尺寸、元件腳位及元件組成配置等),盡可能減少圖1A的音訊處理晶片11或圖2的音訊處理晶片21的尺寸。
圖5是根據本發明的實施例所繪示的減少晶片尺寸的示意圖。請參照圖5,假設使用傳統的啟發式演算法來估算一個晶片(例如音訊處理晶片)的最小尺寸,則可獲得晶片可能的最小布局區域可包括區域51。例如,區域51的寬、高、面積及總線長可分別為35.9毫米(mm)、37.7毫米、1353.43毫米平方(mm 2)及3622.9毫米。
圖6是一般使用啟發式演算法尋求晶片的最小布局面積的流程示意圖。請參照圖6,在步驟601中,定義目標函數。例如,對目標函數求解,可用以尋找晶片的最小布局面積。在步驟602中,嘗試使用目標函數來尋找晶片的最小布局面積。在步驟603中,導入限制式,以設定晶片的基本設計需求(例如需放置在晶片內的元件大小、元件腳位及元件組成配置等)。在步驟604中,設定隨機初始參數。在步驟605中,透過啟發式演算法尋求晶片的最小布局面積。在步驟606中,根據步驟605的啟發式演算法,容易得到次小的晶片總面積,而非最小的晶片總面積。
請回到圖5,相較於圖6中採用啟發式演算法而容易得到次小的晶片總面積,若以圖4中採用鬆弛式重建分支法的晶片布局預測模型43來尋找同一個晶片(例如音訊處理晶片)可能的最小尺寸,則可將晶片的最小布局區域從區域51縮小到區域52。例如,區域52的寬、高、面積及總線長可分別為34.4毫米、35.8毫米、1231.52毫米平方及3149.2毫米,但本發明不限於此。
請回到圖4,在晶片設計階段,處理器41可運行採用鬆弛式重建分支法的晶片布局預測模型43並導入晶片的基本設計需求(例如需放置在晶片內的元件尺寸、元件腳位及元件組成配置等)。在導入晶片的基本設計需求後,晶片布局預測模型43可根據多種限制式執行模型重建並經由多條決策路徑來迭代尋找對應於目標晶片(例如圖1A的音訊處理晶片11或圖2的音訊處理晶片21)的晶片布局設計,且所述晶片布局設計可用以生產目標晶片。特別是,所述晶片布局設計可滿足所述目標晶片的(接近)最小布局面積。
圖7是根據本發明的實施例所繪示的鬆弛式重建分支法的流程示意圖。請參照圖4與圖7,在步驟701中,在晶片設計階段,處理器41可啟用鬆弛式重建分支法(亦稱為限制式鬆弛法)。在步驟702中,處理器41可取得對應於鬆弛式重建分支法的第一類限制式(亦稱為硬限制式)與第二類限制式(亦稱為軟限制式)。在步驟703中,處理器41可根據硬限制式與軟限制式執行模型重建。特別是,硬限制式在執行模型重建的過程中必須被滿足,且軟限制式在執行模型重建的過程中可不被滿足。
在執行模型重建時,處理器41可根據硬限制式與軟限制式重建晶片布局預測模型43所預設採用的數學模型。例如,處理器41可將晶片布局預測模型43所預設採用的數學模型調整為新的數學模型。相較於晶片布局預測模型43所預設採用的數學模型,新的數學模型將更容易找出針對目標函數的最佳解。例如,所述最佳解可包含所預測的目標晶片的最小總面積解(例如目標晶片的長度與寬度等)。
在一實施例中,目標函數可用以下方程式(2.1)來表示。
(2.1)
在方程式(2.1)中,H表示載板的長度,W表示載板的寬度,R e表示第e個網絡表(netlist)的右邊界位置(boundary position),L e表示第e個網絡表的左邊界位置,U e表示第e個網絡表的上邊界位置,D e表示第e個網絡表的下邊界位置。或者,從另一角度而言,α(H+W)可用以表示載板的長度與寬度之總和,且β(R e-L e+U e-D e)可用以表示每一個網絡表(netlist)的線長。透過對方程式(2.1)求最小的解集合,可獲得目標晶片的最小總面積解。
在一實施例中,以下方程式(3.1)~(3.8)的至少其中之一也可搭配上述方程式(2.1)使用。
(3.1)
(3.2)
(3.3)
(3.4)
(3.5)
(3.6)
(3.7)
(3.8)
在方程式(3.1)~(3.8)中,x i表示元件i的中心點的X軸位置,y i表示元件i的中心點的y軸位置,z i,j與z’ i,j表示元件i與j的相對位置,r i表示元件i是否旋轉90度,r’ i表示元件i是否旋轉180度,且r’’ i表示元件i是否旋轉270度。
在完成模型重建後,處理器41可經由步驟704~707所對應的多條決策路徑在步驟708中執行分支法來迭代尋找對應於目標晶片之晶片布局設計的最小面積解。特別是,步驟704~707所對應的多條決策路徑分別對應一個替代求解規則,以滿足對目標函數求解。在步驟709中,處理器41可得到最小總面積解。
具體而言,在步驟704所對應的決策路徑中,處理器41可取代晶片布局預測模型43中的部分決策變數,例如將至少部分未知的決策變數整併或是分割處理(即取代決策變數),然後,處理器41可縮小晶片布局預測模型43所採用的數學模型的可行解或求解空間,以嘗試加快對目標函數求解(即縮小可行解/所小求解空間)。
在步驟705所對應的決策路徑中,處理器41可利用鬆弛變量將晶片布局預測模型43中的部分不等式改變成相同或相似意義的等式求解(即產生有效不等式),然後,處理器41可將部分變量原先只能為“0”或“1”的限制,放寬為介於“0”至“1”之間,以嘗試加快對目標函數求解(即求取強化現性放鬆解)。
在步驟706所對應的決策路徑中,處理器41可對晶片布局預測模型43中部分或全部變數進行優化,例如可選擇部分或全部變數進行求解或調整變數值,以嘗試加快對目標函數求解(即部分變數優化/全部變數優化)。
在步驟707所對應的決策路徑中,處理器41可將晶片布局預測模型43中的部分獨立限制式與目標函數結合,以形成子問題(即獨立限制式),然後,處理器41可將晶片布局預測模型43所採用的數學模型拆解為多個子問題並根據這些子問題的解回推原始問題(即目標函數)的解,以嘗試加快對目標函數求解(即子問題求解)。所述決策路徑的總數可以是更多或更少,視實務需求而定。此外,所述決策路徑的內容也可根據實務需求調整,本發明不加以限制。
在步驟708中,在對目標函數求解的過程中,處理器41可透過分支法來對步驟704~707所對應的多條決策路徑進行組合優化。例如,處理器41可透過分支法來執行迭代搜尋,以透過所述多個決策路徑中的不同分支變量及/或子問題進行求解。最終獲得的針對目標函數的最佳解即為最小總面積解。最小總面積解可反映晶片布局預測模型43所推導出的目標晶片的最小布局面積(例如目標晶片的長度與寬度等)。從另一角度而言,圖7所示的鬆弛式重建分支法可用以取代圖6的步驟605中傳統的啟發式演算法,以嘗試更進一步縮小晶片布局面積。
在一實施例中,在獲得所述目標晶片的(接近)最小布局面積(或所述晶片布局設計)後,處理器41可將所述晶片布局設計提供給下一階段的晶片製造部門或晶片製造商,以規劃並生產所述目標晶片。特別是,針對諸如無線耳機等需要盡可能縮小裝置尺寸的裝置類型而言,若可有效縮小內部音訊處理晶片的尺寸,則可大幅增加無線耳機的設計彈性及/或用戶配戴無線耳機時的舒適度。
圖8是根據本發明的實施例所繪示的聲音訊號分析方法的流程圖。請參照圖8,在步驟S801中,在第一更新梯度中,使用多組任務集中符合同一分組條件的多個第一聲音訓練資料來訓練音訊處理晶片中的解析度還原模型。在步驟S802中,在第二更新梯度中,交錯使用所述多組任務集中符合不同分組條件的多個第二聲音訓練資料來訓練所述解析度還原模型。在步驟S803中,迭代執行所述第一更新梯度與所述第二更新梯度,以設定所述解析度還原模型的初始模型參數。在步驟S804中,使用所述解析度還原模型將低解析度鼾聲訊號還原為高解析度鼾聲訊號,其中低解析度鼾聲訊號的解析度低於高解析度鼾聲訊號的解析度。
圖9是根據本發明的實施例所繪示的晶片設計方法的流程圖。請參照圖9,在步驟S901中,根據多種限制式執行模型重建。在步驟S902中,經由多條決策路徑來迭代尋找對應於音訊處理晶片的晶片布局設計,以生產所述音訊處理晶片,其中所述晶片布局設計滿足所述音訊處理晶片的最小布局面積。
然而,圖8與圖9中各步驟已詳細說明如上,在此便不再贅述。圖8與圖9中各步驟可以實作為多個程式碼或是電路,本發明不加以限制。此外,圖8與圖9的方法可以搭配以上範例實施例使用,也可以單獨使用,本發明不加以限制。
綜上所述,透過在不同的更新梯度採用不同的更新梯度機制對音訊處理晶片中的解析度還原模型進行初始參數設定,可有效提高解析度還原模型針對聲音取樣訊號進行解析度還原的準確率。此外,透過客製化的模型重建與多條決策路徑的鬆弛重建分支技術,晶片布局預測模型可更容易找到音訊處理晶片的最小布局面積。
雖然本發明已以實施例發明如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
10, 20:聲音訊號分析裝置 11, 21:音訊處理晶片 12, 22, 42:儲存電路 13, 24, 31:解析度還原模型 14(1)~14(n):任務集 110:輸入訊號 120(1)~120(L):運算模型 130:輸出訊號 23:收音裝置 311:第一層神經網路 312:第二層神經網路 40:晶片設計裝置 41:處理器 43:晶片布局預測模型 51, 52:區域 101~107, 301~304, 601~606, 701~709, S801~S804、S901、S902:步驟
圖1A是根據本發明的實施例所繪示的聲音訊號分析裝置的示意圖。 圖1B是根據本發明的實施例所繪示的設定解析度還原模型的初始模型參數的流程示意圖。 圖1C是根據本發明的實施例所繪示的解析度還原模型的運算架構的示意圖。 圖2是根據本發明的實施例所繪示的的聲音訊號分析裝置的示意圖。 圖3是根據本發明的實施例所繪示的將低解析度鼾聲訊號還原成高解析度鼾聲訊號的流程示意圖。 圖4是根據本發明的實施例所繪示的晶片設計裝置的示意圖。 圖5是根據本發明的實施例所繪示的減少晶片尺寸的示意圖。 圖6是傳統上使用啟發式演算法尋求晶片的最小布局面積的流程示意圖。 圖7是根據本發明的實施例所繪示的鬆弛式重建分支法的流程示意圖。 圖8是根據本發明的實施例所繪示的聲音訊號分析方法的流程圖。 圖9是根據本發明的實施例所繪示的晶片設計方法的流程圖。
S801~S804:步驟

Claims (9)

  1. 一種聲音訊號分析方法,包括:在第一更新梯度中,依序使用多組任務集中屬於同一任務集的多個第一聲音訓練資料來訓練音訊處理晶片中的解析度還原模型;在第二更新梯度中,交錯使用該多組任務集中屬於不同任務集的多個第二聲音訓練資料來訓練該解析度還原模型;連續執行該第一更新梯度與該第二更新梯度,以根據該第一更新梯度與該第二更新梯度的執行結果設定該解析度還原模型的初始模型參數;以及使用該解析度還原模型將低解析度鼾聲訊號還原為高解析度鼾聲訊號,其中該低解析度鼾聲訊號的解析度低於該高解析度鼾聲訊號的解析度。
  2. 如請求項1所述的聲音訊號分析方法,其中該低解析度鼾聲訊號對應於第一取樣頻率,該高解析度鼾聲訊號對應於第二取樣頻率,且該第二取樣頻率高於該第一取樣頻率。
  3. 如請求項1所述的聲音訊號分析方法,其中使用該解析度還原模型將該低解析度鼾聲訊號還原為該高解析度鼾聲訊號的步驟包括:由該解析度還原模型中的第一層神經網路對該低解析度鼾聲訊號執行小特徵學習;以及由該解析度還原模型中的第二層神經網路對該低解析度鼾聲 訊號執行大特徵學習;以及根據該小特徵學習的結果與該大特徵學習的結果產生該高解析度鼾聲訊號。
  4. 如請求項1所述的聲音訊號分析方法,更包括:在晶片設計階段,由晶片布局預測模型根據多種限制式執行模型重建並經由多條決策路徑來迭代尋找對應於該音訊處理晶片的晶片布局設計,以生產該音訊處理晶片,其中該晶片布局設計滿足該音訊處理晶片的最小布局面積。
  5. 如請求項4所述的聲音訊號分析方法,其中該多種限制式包括硬限制式與軟限制式,該硬限制式在該模型重建的過程中必須被滿足,且該軟限制式在該模型重建的過程中可不被滿足。
  6. 如請求項5所述的聲音訊號分析方法,其中該多條決策路徑分別對應一個替代求解規則,以滿足對目標函數求解。
  7. 一種聲音訊號分析裝置,包括:音訊處理晶片,內建解析度還原模型;以及儲存電路,耦接至該音訊處理晶片並用以儲存多組任務集,其中該音訊處理晶片用以:在第一更新梯度中,依序使用該多組任務集中屬於同一任務集的多個第一聲音訓練資料來訓練該解析度還原模型;在第二更新梯度中,交錯使用該多組任務集中屬於不同任務集的多個第二聲音訓練資料來訓練該解析度還原模型;連續執行該第一更新梯度與該第二更新梯度,以根據該 第一更新梯度與該第二更新梯度的執行結果設定該解析度還原模型的初始模型參數;以及使用該解析度還原模型將低解析度鼾聲訊號還原為高解析度鼾聲訊號,其中該低解析度鼾聲訊號的解析度低於該高解析度鼾聲訊號的解析度。
  8. 如請求項7所述的聲音訊號分析裝置,其中該低解析度鼾聲訊號對應於第一取樣頻率,該高解析度鼾聲訊號對應於第二取樣頻率,且該第二取樣頻率高於該第一取樣頻率。
  9. 如請求項7所述的聲音訊號分析裝置,其中該音訊處理晶片將該低解析度鼾聲訊號還原為該高解析度鼾聲訊號的操作包括:由該解析度還原模型中的第一層神經網路對該低解析度鼾聲訊號執行小特徵學習;由該解析度還原模型中的第二層神經網路對該低解析度鼾聲訊號執行大特徵學習;以及由該解析度還原模型根據該小特徵學習的結果與該大特徵學習的結果產生該高解析度鼾聲訊號。
TW111117761A 2022-05-12 2022-05-12 聲音訊號的分析方法及裝置、晶片的設計方法及裝置 TWI820704B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW111117761A TWI820704B (zh) 2022-05-12 2022-05-12 聲音訊號的分析方法及裝置、晶片的設計方法及裝置
CN202210543152.0A CN117113019A (zh) 2022-05-12 2022-05-18 声音信号的分析方法及装置、芯片的设计方法及装置
US17/850,906 US20230368810A1 (en) 2022-05-12 2022-06-27 Voice signal analysis method and device and chip design method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW111117761A TWI820704B (zh) 2022-05-12 2022-05-12 聲音訊號的分析方法及裝置、晶片的設計方法及裝置

Publications (2)

Publication Number Publication Date
TWI820704B true TWI820704B (zh) 2023-11-01
TW202345140A TW202345140A (zh) 2023-11-16

Family

ID=88699397

Family Applications (1)

Application Number Title Priority Date Filing Date
TW111117761A TWI820704B (zh) 2022-05-12 2022-05-12 聲音訊號的分析方法及裝置、晶片的設計方法及裝置

Country Status (3)

Country Link
US (1) US20230368810A1 (zh)
CN (1) CN117113019A (zh)
TW (1) TWI820704B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201121495A (en) * 2009-12-16 2011-07-01 Ind Tech Res Inst Method and system for activity monitoring
US20150073306A1 (en) * 2012-03-29 2015-03-12 The University Of Queensland Method and apparatus for processing patient sounds
CN107438398A (zh) * 2015-01-06 2017-12-05 大卫·伯顿 移动式可穿戴的监控系统
US20180235537A1 (en) * 2017-02-21 2018-08-23 Zoll Medical Corporation Assigning zone-based rankings and actions

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201121495A (en) * 2009-12-16 2011-07-01 Ind Tech Res Inst Method and system for activity monitoring
US20150073306A1 (en) * 2012-03-29 2015-03-12 The University Of Queensland Method and apparatus for processing patient sounds
CN107438398A (zh) * 2015-01-06 2017-12-05 大卫·伯顿 移动式可穿戴的监控系统
US20180235537A1 (en) * 2017-02-21 2018-08-23 Zoll Medical Corporation Assigning zone-based rankings and actions

Also Published As

Publication number Publication date
CN117113019A (zh) 2023-11-24
US20230368810A1 (en) 2023-11-16
TW202345140A (zh) 2023-11-16

Similar Documents

Publication Publication Date Title
Li et al. Adaptive swarm balancing algorithms for rare-event prediction in imbalanced healthcare data
CN111126574B (zh) 基于内镜图像对机器学习模型进行训练的方法、装置和存储介质
CN111353579B (zh) 利用反向传播为深度神经网络选择量化参数的方法和系统
Gao et al. Camp: Co-attention memory networks for diagnosis prediction in healthcare
US10755026B1 (en) Circuit design including design rule violation correction utilizing patches based on deep reinforcement learning
CN110009099A (zh) 用于深度神经网络的硬件实现的误差分配格式选择
TW202029079A (zh) 異常群體識別方法及裝置
Xie et al. Two-stage hybrid feature selection algorithms for diagnosing erythemato-squamous diseases
Teng et al. Adaptive feature selection using v-shaped binary particle swarm optimization
Chaudhari et al. Data augmentation for cancer classification in oncogenomics: an improved KNN based approach
Pan et al. Neighborhood-correction algorithm for classification of normal and malignant cells
Sun et al. Feature-frequency–adaptive on-line training for fast and accurate natural language processing
Kavitha et al. Quantum K-means clustering method for detecting heart disease using quantum circuit approach
CN115151909A (zh) 用于半导体设计与制造的统一材料至系统模拟与验证
GB2568081A (en) End-to-end data format selection for hardware implementation of deep neural network
Yue et al. Sparse boosting for high‐dimensional survival data with varying coefficients
Vasudevan Still a fight to get it right: Verification in the era of machine learning
TWI820704B (zh) 聲音訊號的分析方法及裝置、晶片的設計方法及裝置
Alaghi et al. Trading accuracy for energy in stochastic circuit design
Zhang Low-dimensional approximation searching strategy for transfer entropy from non-uniform embedding
TW202345029A (zh) 晶片的設計方法及裝置
Kamkar et al. Stable feature selection with support vector machines
US20190354852A1 (en) Stress indicators associated with instances of input data for training neural networks
Rafiei et al. Meta-learning in healthcare: A survey
Adimari et al. Nearest-neighbor estimation for ROC analysis under verification bias