TWI727432B - 以串流媒體為基礎的歌唱評分方法和歌唱評分系統 - Google Patents

以串流媒體為基礎的歌唱評分方法和歌唱評分系統 Download PDF

Info

Publication number
TWI727432B
TWI727432B TW108134485A TW108134485A TWI727432B TW I727432 B TWI727432 B TW I727432B TW 108134485 A TW108134485 A TW 108134485A TW 108134485 A TW108134485 A TW 108134485A TW I727432 B TWI727432 B TW I727432B
Authority
TW
Taiwan
Prior art keywords
singing
electronic device
time
time difference
streaming
Prior art date
Application number
TW108134485A
Other languages
English (en)
Other versions
TW202113809A (zh
Inventor
鄧傑文
Original Assignee
驊訊電子企業股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 驊訊電子企業股份有限公司 filed Critical 驊訊電子企業股份有限公司
Priority to TW108134485A priority Critical patent/TWI727432B/zh
Priority to US16/747,600 priority patent/US11017754B2/en
Publication of TW202113809A publication Critical patent/TW202113809A/zh
Application granted granted Critical
Publication of TWI727432B publication Critical patent/TWI727432B/zh

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/365Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems the accompaniment information being stored on a host computer and transmitted to a reproducing terminal by means of a network, e.g. public telephone lines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/368Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/81Detection of presence or absence of voice signals for discriminating voice from music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/005Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本發明實施例提供一種以串流媒體為基礎的歌唱評分方法和歌唱評分系統,所述歌唱評分方法和歌唱評分系統除了計算串流影音播放器開始播放該歌曲與電子裝置啟動錄音程式及評分引擎的第一時間差外,所述歌唱評分方法和歌唱評分系統也持續計算串流影音播放器在電子裝置的系統時間每隔一固定時間內的播放時間差,並將播放時間差傳送至評分引擎作累計以形成第二時間差,然後根據第一及第二時間差,評分引擎將可調整演唱歌譜中的每一音符的演唱時間。

Description

以串流媒體為基礎的歌唱評分方法和歌唱評分系統
本發明涉及一種歌唱評分方法和歌唱評分系統,且特別涉及一種以串流媒體(Streaming Media)為基礎的歌唱評分方法和歌唱評分系統。
現有的歌唱評分方法通常會事先儲存歌曲檔案(例如,音樂影片)到本地端電子裝置(例如,卡拉OK機或智慧型手機)中。因此,現有的歌唱評分方法將受限於本地端電子裝置的儲存容量限制而難以擴充曲庫。另外,因為高清畫質的音樂影片通常檔案較大,所以若採用自雲端伺服器來下載歌曲檔案到本地端電子裝置的話,開唱前的等待時間則相對較久。然而,在版權使用上,若版權業者不同意下載的授權形式而只允許串流的話,上述現有技術也就無法實施。
另一方面,即使串流是目前版權業者較普遍的授權形式,但現有技術卻無法解決串流所衍生出的技術難題,例如:網路延遲、串流的緩存時間,以及影音播放器播放串流媒體的時間精度不如播放本地端檔案的時間精度。這些技術難題都將造成現有的歌唱評分方法無法準確比對使用者唱歌的聲音資料與演唱歌譜,從而導致評分不正確及使用者體驗不佳。因此,如何設計出一種以串流媒體為基礎的歌唱評分方法和歌唱評分系統則成為本領域的一項重要課題。
有鑑於此,本發明實施例提供一種以串流媒體為基礎的歌唱評分方法,所述歌唱評分方法執行於一電子裝置中,電子裝置安裝具有一應用程式(Application Program),且在電子裝置啟動應用程式後,電子裝置產生一操作介面,所述歌唱評分方法則包括如下步驟。當使用者經由操作介面選定要進行歌唱評分的一歌曲時,電子裝置透過應用程式從歌譜伺服器中下載該歌曲的演唱歌譜,並且啟動串流影音播放器開始從串流伺服器中串流該歌曲。其次,電子裝置透過應用程式偵測串流影音播放器是否開始播放該歌曲,當偵測串流影音播放器開始播放該歌曲時,電子裝置透過應用程式立刻紀錄電子裝置的系統時間,並且啟動應用程式內的錄音程式開始從電子裝置的麥克風裝置進行錄音,也同時啟動應用程式內的評分引擎開始比對演唱歌譜與錄音程式所錄到的聲音資料。接著,電子裝置透過應用程式計算串流影音播放器開始播放該歌曲與電子裝置啟動錄音程式及評分引擎的第一時間差,並將第一時間差傳送至評分引擎。然後,電子裝置透過應用程式持續計算串流影音播放器在系統時間每隔一固定時間內的播放時間差,並將播放時間差傳送至評分引擎作累計以形成第二時間差,然後根據第一時間差及第二時間差,評分引擎調整演唱歌譜,並藉由比對調整後的演唱歌譜與錄音程式所錄到的聲音資料來進行歌唱評分。
除此之外,本發明實施例另提供一種歌唱評分系統。所述歌唱評分系統包括前述實施例的歌譜伺服器、串流伺服器和電子裝置,並當電子裝置啟動應用程式以產生操作介面後,應用程式則用來指示電子裝置執行前述實施例的歌唱評分方法。
為使能更進一步瞭解本發明的特徵及技術內容,請參閱以下有關本發明的詳細說明與圖式,然而所提供的圖式僅用於提供參考與說明,並非用來對本發明加以限制。
以下是通過特定的具體實施例來說明本發明的實施方式,本領域技術人員可由本說明書所提供的內容瞭解本發明的優點與效果。本發明可通過其他不同的具體實施例加以施行或應用,本說明書中的各項細節也可基於不同觀點與應用,在不悖離本發明的構思下進行各種修改與變更。另外,本發明的附圖僅為簡單示意說明,並非依實際尺寸的描繪,事先聲明。以下的實施方式將進一步詳細說明本發明的相關技術內容,但所提供的內容並非用以限制本發明的保護範圍。
應當理解的是,雖然本文中可能會使用到“第一”、“第二”、“第三”等術語來描述各種元件或者訊號,但這些元件或者訊號不應受這些術語的限制。這些術語主要是用以區分一元件與另一元件,或者一訊號與另一訊號。另外,本文中所使用的術語“或”,應視實際情況可能包含相關聯的列出項目中的任一個或者多個的組合。
首先,請同時參閱圖1及圖2,圖1是本發明實施例所提供的歌唱評分系統的方塊圖,圖2是本發明實施例所提供的歌唱評分方法的步驟流程圖。需說明的是,圖2的歌唱評分方法是可執行於圖1的電子裝置10中,但本發明並不限制圖2的歌唱評分方法僅能夠執行於圖1的電子裝置10中,且如圖1所示,本發明更將電子裝置10、歌譜伺服器20及串流伺服器30構成一歌唱評分系統1。在本實施例中,電子裝置10將可藉由網際網路40連接到歌譜伺服器20及串流伺服器30。因此,電子裝置10可例如是以桌上型電腦、筆記型電腦、智慧型手機、平板電腦或任何具有連網功能的電子裝置來實現,但本發明亦不以此為限制。總而言之,本技術領域中具有通常知識者應可瞭解到電子裝置10由適當的電路及硬體,例如中央處理器和記憶體等所構成。另外,電子裝置10可包括作業系統(Operating System,OS)110和麥克風裝置140,且作業系統110安裝具有應用程式120。
應用程式120可以是由複數個程式碼及指令來實現,這些程式碼及指令就用來指示電子裝置10執行圖2的歌唱評分方法。也就是說,當電子裝置10(的作業系統110)安裝應用程式120後,電子裝置10可選擇性地啟動應用程式120。值得一提的是,本發明亦不限制電子裝置10所安裝及啟動應用程式120時的具體實現方式,本技術領域中具有通常知識者應可依據實際需求或應用來進行設計。另外,在電子裝置10啟動應用程式120後,電子裝置10可透過應用程式120產生一操作介面。在本實施例中,作業系統110除了安裝具有應用程式120外,作業系統110也安裝具有串流影音播放器130。串流影音播放器130可與應用程式120為不同軟體開發商所發布,或者應用程式120可主動包含串流影音播放器130,但無論如何電子裝置10都將能以上述操作介面同時呈現串流影音播放器130,總而言之,本發明亦不限制串流影音播放器130的具體實現方式。
仔細地說,自電子裝置10啟動應用程式120後,如圖2所示,在步驟S201中,當使用者經由應用程式120的操作介面選定要進行歌唱評分的一歌曲時,電子裝置10透過應用程式120從歌譜伺服器20中下載該歌曲的演唱歌譜,並且在步驟S203中,電子裝置10透過應用程式120啟動串流影音播放器130開始從串流伺服器30中串流該歌曲。需說明的是,演唱歌譜不限於指一般歌曲樂譜,它泛指的是任何代表歌曲音高(Pitch)、歌手演唱技巧,或者分析歌曲所得的特徵值等,可用來助於進行歌唱評分的數位資料。接著,在步驟S205中,電子裝置10透過應用程式120偵測串流影音播放器130是否開始播放該歌曲;或者說,電子裝置10可透過應用程式120偵測串流影音播放器130是否收到自串流伺服器30串流來的歌曲檔案並完成緩存而開始播放。若不是(開始播放),電子裝置10即執行步驟S207;若是,電子裝置10則執行步驟S209。在步驟S207中,電子裝置10透過應用程式120檢查電子裝置10的系統時間是否自電子裝置10啟動串流影音播放器130開始(從串流伺服器30中)串流該歌曲起而過了一第一容許時間,例如5秒。若不是,電子裝置10即返回執行步驟S205;若是,電子裝置10則返回執行步驟S203。
舉例來說,在步驟S203的電子裝置10啟動串流影音播放器130開始從串流伺服器30中串流該歌曲時,電子裝置10的系統時間是(GMT+8)2019年8月5日09:58:00:000。接著,因為步驟S205的電子裝置10偵測到串流影音播放器130尚未開始播放該歌曲,所以步驟S207的電子裝置10就檢查這時候的系統時間是否自(GMT+8)2019年8月5日09:58:00:000起而過了5秒。如果這時候的系統時間是自(GMT+8)2019年8月5日09:58:00:000起只過了0.2秒的話,即(GMT+8)2019年8月5日09:58:00:200,電子裝置10則返回執行步驟S205,以此類推,直到步驟S207的電子裝置10檢查出這時候的系統時間是自(GMT+8)2019年8月5日09:58:00:000起而過了5秒的話,即(GMT+8)2019年8月5日09:58:05:000,這就表示串流影音播放器130自被電子裝置10啟動開始串流該歌曲後已過5秒都尚未開始播放該歌曲,因此,電子裝置10將可認定這時候的串流影音播放器130為無法正常串流,電子裝置10則返回執行步驟S203,以重新啟動串流影音播放器130開始從串流伺服器30中串流該歌曲。值得一提的是,為了方便本實施例說明,電子裝置10的系統時間是以年月日時:分:秒:毫秒的形式實現,但其並非用以限制本發明。
應當理解的是,上述第一容許時間為5秒只是舉例,本發明並不限制第一容許時間的具體數值,本技術領域中具有通常知識者應可依據實際需求或應用來進行設計。在其它實施例中,電子裝置10也可將步驟S207省略,此舉並不影響本發明的實現。也就是說,在沒有步驟S207的實施例中,當電子裝置10已啟動串流影音播放器130開始串流該歌曲,但串流影音播放器130卻尚未開始播放該歌曲時,電子裝置10則不斷輪迴執行步驟S205以直到偵測串流影音播放器130開始播放該歌曲止。附帶一提的是,電子裝置10可透過應用程式120來每隔一段時間讀取串流影音播放器130的播放時間以偵測串流影音播放器130是否開始播放該歌曲,總而言之,本發明亦不限制步驟S205的具體實現方式。另外,在步驟S209中,電子裝置10透過應用程式120立即紀錄電子裝置10的系統時間,並且啟動應用程式120內的錄音程式(未繪示)開始從麥克風裝置140進行錄音,也同時啟動應用程式120內的評分引擎(未繪示)開始比對演唱歌譜與錄音程式所錄到的聲音資料。
需說明的是,受限於電子裝置10的記憶體和中央處理器能力,在偵測到串流影音播放器130開始播放該歌曲時,電子裝置10通常無法即刻地啟動錄音程式及評分引擎,而是會延遲一段時間才啟動錄音程式及評分引擎,造成使用者會根據該歌曲的播放而提早開唱,且錄音程式也晚錄了聲音資料,以至於評分引擎無法準確比對使用者唱歌的聲音資料與演唱歌譜。因此,在步驟S209後的步驟S211中,電子裝置10透過應用程式120計算串流影音播放器130開始播放該歌曲與電子裝置10啟動錄音程式及評分引擎的第一時間差。舉例來說,如果電子裝置10偵測到串流影音播放器130開始播放該歌曲時所紀錄的系統時間是(GMT+8)2019年8月5日10:00:00:000,但電子裝置10啟動錄音程式及評分引擎時的系統時間是(GMT+8)2019年8月5日10:00:03:000,這就表示電子裝置10可透過應用程式120計算出第一時間差為3秒。換句話說,在電子裝置10偵測到串流影音播放器130開始播放該歌曲時,電子裝置10卻延遲了3秒才啟動錄音程式及評分引擎,造成使用者會根據該歌曲的播放而提早3秒開唱,且錄音程式晚錄了3秒的聲音資料。
至於評分引擎該如何不受使用者早唱及錄音程式晚錄的影響而又繼續有效進行評分將會在下文中藉由其它內容做說明,因此其細節於此就先不再多加贅述。應當理解的是,因為本實施例採用正數來表示電子裝置10延遲多久才啟動錄音程式及評分引擎,所以第一時間差的數值可為大於等於0,且在該數值為0的情況下,這就表示電子裝置10偵測到串流影音播放器130開始播放該歌曲時,電子裝置10也即刻地啟動錄音程式及評分引擎而沒發生延遲。相對地,電子裝置10也可透過應用程式120比對串流影音播放器130的播放時間而計算出第一時間差。舉例來說,如果串流影音播放器130開始播放該歌曲的播放時間是0:00:00:000,但電子裝置10啟動錄音程式及評分引擎時的串流影音播放器130的播放時間是0:00:03:000,這就表示電子裝置10可透過應用程式120同樣計算出第一時間差為3秒,總而言之,本發明亦不限制電子裝置10透過應用程式120計算出第一時間差的具體實現方式,本技術領域中具有通常知識者應可依據實際需求或應用來進行設計。類似地,為了方便本實施例說明,串流影音播放器130的播放時間是以時:分:秒:毫秒的形式實現,但其亦非用以限制本發明。
另外,在其它實施例中,使用者也可能經由應用程式120的操作介面來選定要從該歌曲的副歌進行歌唱評分,因此,這時候串流影音播放器130開始播放該歌曲的播放時間就不會是0:00:00:000,反正此舉並不影響本發明的實現。接著,在步驟S213中,電子裝置10透過應用程式120檢查第一時間差是否大於一第二容許時間,例如5秒。若是,電子裝置10即認定這時候的評分引擎將受到使用者太早唱及錄音程式太晚錄的嚴重影響而無法有效進行評分,因此,電子裝置10則返回執行步驟S203,以重新啟動串流影音播放器130開始從串流伺服器30中串流該歌曲;若不是,電子裝置10則執行步驟S215,以傳送第一時間差至評分引擎。類似地,上述第二容許時間為5秒只是舉例,本發明並不限制第二容許時間的具體數值,本技術領域中具有通常知識者應可依據實際需求或應用來進行設計。在其它實施例中,電子裝置10也可將步驟S213省略,此舉並不影響本發明的實現。
最後,在步驟S217中,電子裝置10透過應用程式120持續計算串流影音播放器130在系統時間每隔一固定時間(例如,0.1秒)內的播放時間差,並將該播放時間差傳送至評分引擎作累計以形成第二時間差,然後根據第一時間差及第二時間差,評分引擎將可調整演唱歌譜,並藉由比對調整後的演唱歌譜與錄音程式所錄到的聲音資料來進行歌唱評分。舉例來說,自串流影音播放器130開始播放該歌曲起,如果電子裝置10的系統時間是從(GMT+8)2019年8月5日10:00:00:000到(GMT+8)2019年8月5日10:00:00:100歷經0.1秒的話,那麼串流影音播放器130的播放時間也應該是要從0:00:00:000到0:00:00:100歷經0.1秒。然而,受限於網路傳播不穩的影響,這時候的串流就可能會有延遲或超前的現象。例如,假設電子裝置10透過應用程式120偵測到這時候的播放時間卻是從0:00:00:000到0:00:00:090只歷經0.09秒的話,這就表示這時候的串流有延遲0.01秒的現象,因此,電子裝置10可透過應用程式120計算出這時候的播放時間差為+0.01秒,即0.1秒減去0.09秒的結果。本實施例可將這時候的播放時間差簡稱為D 1,並將播放時間差D 1傳送至評分引擎,而且既然評分引擎目前只收到播放時間差D 1,所以這時候的第二時間差也就為+0.01秒。
至於評分引擎該如何根據第一時間差及第二時間差調整演唱歌譜,並藉由比對調整後的演唱歌譜與錄音程式所錄到的聲音資料來進行歌唱評分將會在下文中藉由其它內容做說明,因此其細節於此就先不再多加贅述。應當理解的是,上述固定時間為0.1秒只是舉例,本發明並不限制固定時間的具體數值,本技術領域中具有通常知識者應可依據實際需求或應用來進行設計。接著,如果電子裝置10的系統時間是從(GMT+8)2019年8月5日10:00:00:100到(GMT+8)2019年8月5日10:00:00:200再歷經0.1秒的話,那串流影音播放器130的播放時間也應該是要從0:00:00:090到0:00:00:190歷經0.1秒,但這時候的播放時間卻是從0:00:00:090到0:00:00:170只歷經0.08秒,這就表示這時候的串流又有延遲0.02秒的現象,因此,電子裝置10可透過應用程式120計算出這時候的播放時間差為+0.02秒,即0.1秒減去0.08秒的結果。本實施例可將這時候的播放時間差簡稱為D 2,並將播放時間差D 2傳送至評分引擎,而且既然評分引擎前一刻已收到播放時間差D 1,所以這時候的第二時間差也就為+0.03秒,即播放時間差D 1~D 2的加總。
類似地,如果電子裝置10的系統時間是從(GMT+8)2019年8月5日10:00:00:200到(GMT+8)2019年8月5日10:00:00:300再歷經0.1秒的話,但這時候的播放時間卻是從0:00:00:170到0:00:00:280歷經0.11秒,這就表示這時候的串流又有超前0.01秒的現象,因此,電子裝置10可透過應用程式120計算出這時候的播放時間差D 3為-0.01秒,且這時候的第二時間差也就為+0.02秒。換句話說,當電子裝置10的系統時間每隔0.1秒時,電子裝置10可透過應用程式120偵測串流影音播放器130的播放時間是否同步歷經0.1秒,並且計算這時候的歷經差異以作為播放時間差D i。由於後續細節已如同前述內容所述,故於此就不再多加贅述。總而言之,因為本實施例採用正數及負數來分別表示串流延遲多久及串流超前多久,所以播放時間差D i及第二時間差的數值可為零、正值或負值,且第二時間差的累計公式可表示為
Figure 02_image001
,其中i為1到(T/dt)的正整數,且dt為上述固定時間。另外,在本實施例中,T可先假設為該歌曲的總時長,例如180秒,所以i為1到1800的正整數。
為了減輕電子裝置10的計算負擔,應用程式120也可將T設計為一第三容許時間,例如10秒,所以i為1到100的正整數。也就是說,在這10秒內,電子裝置10才透過應用程式120持續計算串流影音播放器130在系統時間每隔0.1秒內的播放時間差,並將該播放時間差傳送至評分引擎作累計以形成第二時間差。至於這樣做的好處之一就是如果在這10秒內,電子裝置10透過應用程式120偵測到第二時間差的數值大於等於一正門檻值(例如,+3)或小於等於一負門檻值(例如,-3)時,電子裝置10就能認定這時候的串流為延遲或超前的太嚴重,以至於評分引擎將可能無法有效進行評分,所以電子裝置10也可返回執行步驟S203,以重新啟動串流影音播放器130開始從串流伺服器30中串流該歌曲。
需說明的是,因為本實施例採用正數及負數來分別表示串流延遲多久及串流超前多久,所以當第二時間差的數值大於等於正門檻值時,電子裝置10就認定這時候的串流為延遲的太嚴重;反之,當第二時間差的數值小於等於負門檻值時,電子裝置10就認定這時候的串流為超前的太嚴重。然而,如果其它實施例改採用負數及正數來分別表示串流延遲多久及串流超前多久的話,上述認定結果就剛好相反,故於此就不再多加贅述。另外,本發明並不限制正負門檻值的絕對數值必為兩者相同或兩者相異,但在兩者絕對數值為相同的情況下,電子裝置10也可簡化成透過應用程式120偵測第二時間差的絕對數值是否大於等於一門檻值(例如,3)。由於後續細節已如同前述內容所述,故於此也就不再多加贅述。類似地,上述第三容許時間為10秒只是舉例,本發明並不限制第三容許時間的具體數值,本技術領域中具有通常知識者應可依據實際需求或應用來進行設計。
另一方面,在電子裝置10啟動錄音程式及評分引擎時,電子裝置10可開始計數一演唱時間。假設該歌曲具有n個音符,每一音符以N k表示,其中k為1到n的正整數,且每一音符的原先演唱時間則以T k表示,因此,本實施例可將該歌曲的演唱歌譜用以(N k,T k)來表示。也就是說,在習知技藝中,評分引擎是逐一比對使用者在演唱時間T k下所唱的音符是否與演唱歌譜中的音符N k相符,並且計算兩者的差異以作為這時候的評分值,最後統計所有的評分值來形成使用者所演唱該歌曲的評分結果,總而言之,本發明並不限制評分引擎進行評分時的具體實現方式,本技術領域中具有通常知識者應可依據實際需求或應用來進行設計。
但若延續以前述內容為例,因為電子裝置10在偵測到串流影音播放器130開始播放該歌曲時卻延遲了3秒才啟動錄音程式及評分引擎,造成使用者會根據該歌曲的播放而提早3秒開唱,或者說評分引擎要用的演唱時間就比串流影音播放器130的播放時間晚了3秒才開始,且自串流影音播放器130開始播放該歌曲起,串流也可能會有延遲或超前的現象,因此,在評分引擎得到第一時間差及第二時間差時,且本實施例將第一時間差及第二時間差分別簡稱為
Figure 02_image003
Figure 02_image005
,評分引擎可立即調整演唱歌譜為(N k,T k
Figure 02_image007
),並再藉由比對使用者在演唱時間(T k
Figure 02_image007
)下所唱的音符是否與演唱歌譜中的音符N k相符來算出這時候的評分值。
舉例來說,假設一個音符「Do」的原先演唱時間是在4.05秒,且電子裝置10從其系統時間為(GMT+8)2019年8月5日10:00:03:900到(GMT+8)2019年8月5日10:00:04:000時所累計出的第二時間差為+0.05秒的話,這就表示評分引擎可立即調整該音符「Do」的演唱時間為1.1秒,即
Figure 02_image009
,並再藉由比對使用者在演唱時間為1.1秒下所唱的音符是否與該音符「Do」相符來算出這時候的評分值。類似地,假設又一個音符「Re」的原先演唱時間是在4.37秒,且電子裝置10從其系統時間為(GMT+8)2019年8月5日10:00:04:200到(GMT+8)2019年8月5日10:00:04:300時所累計出的第二時間差為0秒的話,這就表示評分引擎可立即調整該音符「Re」的演唱時間為1.37秒,即
Figure 02_image011
,並再藉由比對使用者在演唱時間為1.37秒下所唱的音符是否與該音符「Re」相符來算出這時候的評分值。
由於後續細節已如同前述內容所述,故於此就不再多加贅述,總而言之,每一音符N k的原先演唱時間減去第一時間差就是為了抵銷演唱時間比串流影音播放器130的播放時間晚開始的影響,且每一音符N k的原先演唱時間加上離它時間最近的系統時間所累計出的第二時間差也就是為了抵銷串流在這時期的延遲或超前影響。應當理解的是,如果其它實施例改採用負數來表示電子裝置10延遲多久才啟動錄音程式及評分引擎,且改採用負數及正數來分別表示串流延遲多久及串流超前多久的話,評分引擎也就改成調整演唱歌譜為(N k,T k
Figure 02_image013
),並再藉由比對使用者在演唱時間(T k
Figure 02_image013
)下所唱的音符是否與演唱歌譜中的音符N k相符來算出這時候的評分值,但此舉並不影響本發明的實現。另外,上述固定時間dt也就必須設計為小於任兩連續音符的演唱時間差,例如該音符「Do」與該音符「Re」的演唱時間差為0.32秒,即
Figure 02_image015
,因此,應用程式120就不該將上述固定時間dt設計為大於等於0.32秒。
綜上所述,本發明實施例提供一種以串流媒體為基礎的歌唱評分方法和歌唱評分系統,所述歌唱評分方法和歌唱評分系統除了可計算串流影音播放器開始播放該歌曲與電子裝置啟動錄音程式及評分引擎的第一時間差外,所述歌唱評分方法和歌唱評分系統也持續計算串流影音播放器在電子裝置的系統時間每隔一固定時間內的播放時間差,並將播放時間差傳送至評分引擎作累計以形成第二時間差,然後根據第一時間差及第二時間差,評分引擎將可調整演唱歌譜中的每一音符N k的演唱時間,例如調整後的演唱時間為(T k
Figure 02_image007
),且評分引擎再藉由比對使用者在演唱時間(T k
Figure 02_image007
)下所唱的音符是否與該音符N k相符來計算出這時候的評分值,因此,所述歌唱評分方法和歌唱評分系統將不受限於串流所衍生出的技術難題。
以上所提供的內容僅為本發明的優選可行實施例,並非因此侷限本發明的申請專利範圍,所以凡是運用本發明說明書及圖式內容所做的等效技術變化,均包含於本發明的申請專利範圍內。
1:歌唱評分系統 10:電子裝置                     20:歌譜伺服器 30:串流伺服器            40:網際網路 110:作業系統              120:應用程式 130:串流影音播放器    140:麥克風裝置 S201~S217:流程步驟
圖1是本發明實施例所提供的歌唱評分系統的方塊圖。
圖2是本發明實施例所提供的歌唱評分方法的步驟流程圖。
S201~S217:流程步驟

Claims (12)

  1. 一種以串流媒體為基礎的歌唱評分方法,執行於一電子裝置中,該電子裝置安裝具有一應用程式(Application Program),且在該電子裝置啟動該應用程式後,該電子裝置產生一操作介面,該歌唱評分方法包括:當一使用者經由該操作介面選定要進行歌唱評分的一歌曲時,該電子裝置透過該應用程式從一歌譜伺服器中下載該歌曲的一演唱歌譜,並且啟動一串流影音播放器開始從一串流伺服器中串流該歌曲;該電子裝置透過該應用程式偵測該串流影音播放器是否開始播放該歌曲,當偵測該串流影音播放器開始播放該歌曲時,該電子裝置透過該應用程式立刻紀錄該電子裝置的一系統時間,並且啟動該應用程式內的一錄音程式開始從該電子裝置的一麥克風裝置進行錄音,也同時啟動該應用程式內的一評分引擎開始比對該演唱歌譜與該錄音程式所錄到的聲音資料;該電子裝置透過該應用程式計算該串流影音播放器開始播放該歌曲與該電子裝置啟動該錄音程式及該評分引擎的一第一時間差,並將該第一時間差傳送至該評分引擎;以及該電子裝置透過該應用程式持續計算該串流影音播放器在該系統時間每隔一固定時間內的播放時間差,並將該播放時間差傳送至該評分引擎作累計以形成第二時間差,然後根據該第一時間差及該第二時間差,該評分引擎調整該演唱歌譜,並藉由比對調整後的該演唱歌譜與該錄音程式所錄到的該聲音資料來進行歌唱評分;其中該歌曲具有多個音符,每一該些音符對應一演唱時間來形成該演唱歌譜,且根據該第一時間差及該第二時間差,該評分引擎是調整該演唱歌譜中的每一該些音符的該演唱時間; 當該應用程式是採用正數來表示該電子裝置延遲多久才啟動該錄音程式及該評分引擎,並採用正數及負數來分別表示串流延遲多久及串流超前多久時,調整該演唱歌譜中的每一該些音符的該演唱時間為(Tk-△t1+△t2),Tk為未調整該演唱歌譜前的每一該些音符的該演唱時間,△t1及△t2則分別為該第一時間差及該第二時間差,且該評分引擎藉由比對該使用者在該演唱時間為(Tk-△t1+△t2)下所唱的該音符是否與調整後的該演唱歌譜在該演唱時間為(Tk-△t1+△t2)下的該音符相符來進行歌唱評分;以及當該應用程式是採用負數來表示該電子裝置延遲多久才啟動該錄音程式及該評分引擎,並採用負數及正數來分別表示串流延遲多久及串流超前多久時,調整該演唱歌譜中的每一該些音符的該演唱時間為(Tk+△t1-△t2),且該評分引擎藉由比對該使用者在該演唱時間為(Tk+△t1-△t2)下所唱的該音符是否與調整後的該演唱歌譜在該演唱時間為(Tk+△t1-△t2)下的該音符相符來進行歌唱評分。
  2. 如申請專利範圍第1項所述的歌唱評分方法,其中該電子裝置是透過該應用程式來每隔一段時間讀取該串流影音播放器的播放時間以偵測該串流影音播放器是否開始播放該歌曲。
  3. 如申請專利範圍第1項所述的歌唱評分方法,更包括:當偵測該串流影音播放器尚未開始播放該歌曲時,該電子裝置透過該應用程式檢查該電子裝置的該系統時間是否自該電子裝置啟動該串流影音播放器開始串流該歌曲起而過了一第一容許時間;若不是,該電子裝置即返回執行透過該應用程式偵測該串流影音播放器是否開始播放該歌曲的步驟;以及若是,該電子裝置則返回執行啟動該串流影音播放器開始從該 串流伺服器中串流該歌曲的步驟。
  4. 如申請專利範圍第3項所述的歌唱評分方法,更包括:該電子裝置透過該應用程式檢查該第一時間差是否大於一第二容許時間;若是,該電子裝置則返回執行啟動該串流影音播放器開始從該串流伺服器中串流該歌曲的步驟;以及若不是,該電子裝置才傳送該第一時間差至該評分引擎。
  5. 如申請專利範圍第4項所述的歌唱評分方法,其中累計該第二時間差的公式表示為
    Figure 108134485-A0305-02-0018-1
    ,Di為該播放時間差,T為一第三容許時間,dt為該固定時間並必須設計小於任兩連續音符的演唱時間差,且該歌唱評分方法更包括:該電子裝置透過該應用程式偵測該第二時間差的數值是否大於等於一正門檻值或小於等於一負門檻值;若是,該電子裝置即返回執行啟動該串流影音播放器開始從該串流伺服器中串流該歌曲的步驟;以及若不是,根據該第一時間差及該第二時間差,該評分引擎才調整該演唱歌譜,並藉由比對調整後的該演唱歌譜與該錄音程式所錄到的該聲音資料來進行歌唱評分。
  6. 如申請專利範圍第4項所述的歌唱評分方法,其中累計該第二時間差的公式表示為
    Figure 108134485-A0305-02-0018-7
    ,Di為該播放時間差,T為一第三容許時間,dt為該固定時間並必須設計小於任兩連續音符的演唱時間差,且該歌唱評分方法更包括:該電子裝置透過該應用程式偵測該第二時間差的絕對數值是否大於等於一門檻值;若是,該電子裝置即返回執行啟動該串流影音播放器開始從該串流伺服器中串流該歌曲的步驟;以及若不是,根據該第一時間差及該第二時間差,該評分引擎才調 整該演唱歌譜,並藉由比對調整後的該演唱歌譜與該錄音程式所錄到的該聲音資料來進行歌唱評分。
  7. 一種以串流媒體為基礎的歌唱評分系統,包括:一歌譜伺服器;一串流伺服器;以及一電子裝置,安裝具有一應用程式,並當該電子裝置啟動該應用程式以產生一操作介面後,該應用程式則用來指示該電子裝置執行一歌唱評分方法,該歌唱評分方法包括:當一使用者經由該操作介面選定要進行歌唱評分的一歌曲時,該電子裝置透過該應用程式從該歌譜伺服器中下載該歌曲的一演唱歌譜,並且啟動一串流影音播放器開始從該串流伺服器中串流該歌曲;該電子裝置透過該應用程式偵測該串流影音播放器是否開始播放該歌曲,當偵測該串流影音播放器開始播放該歌曲時,該電子裝置透過該應用程式立刻紀錄該電子裝置的一系統時間,並且啟動該應用程式內的一錄音程式開始從該電子裝置的一麥克風裝置進行錄音,也同時啟動該應用程式內的一評分引擎開始比對該演唱歌譜與該錄音程式所錄到的聲音資料;該電子裝置透過該應用程式計算該串流影音播放器開始播放該歌曲與該電子裝置啟動該錄音程式及該評分引擎的一第一時間差,並將該第一時間差傳送至該評分引擎;以及該電子裝置透過該應用程式持續計算該串流影音播放器在該系統時間每隔一固定時間內的播放時間差,並將該播放時間差傳送至該評分引擎作累計以形成第二時間差,然後根據該第一時間差及該第二時間差,該評分引擎調整該演唱歌譜,並藉由比對調整後的該演唱歌譜與該錄音程式所錄到的該聲音資料來進行歌唱評分; 其中該歌曲具有多個音符,每一該些音符對應一演唱時間來形成該演唱歌譜,且根據該第一時間差及該第二時間差,該評分引擎是調整該演唱歌譜中的每一該些音符的該演唱時間;當該應用程式是採用正數來表示該電子裝置延遲多久才啟動該錄音程式及該評分引擎,並採用正數及負數來分別表示串流延遲多久及串流超前多久時,調整該演唱歌譜中的每一該些音符的該演唱時間為(Tk-△t1+△t2),Tk為未調整該演唱歌譜前的每一該些音符的該演唱時間,△t1及△t2則分別為該第一時間差及該第二時間差,且該評分引擎藉由比對該使用者在該演唱時間為(Tk-△t1+△t2)下所唱的該音符是否與調整後的該演唱歌譜在該演唱時間為(Tk-△t1+△t2)下的該音符相符來進行歌唱評分;以及當該應用程式是採用負數來表示該電子裝置延遲多久才啟動該錄音程式及該評分引擎,並採用負數及正數來分別表示串流延遲多久及串流超前多久時,調整該演唱歌譜中的每一該些音符的該演唱時間為(Tk+△t1-△t2),且該評分引擎藉由比對該使用者在該演唱時間為(Tk+△t1-△t2)下所唱的該音符是否與調整後的該演唱歌譜在該演唱時間為(Tk+△t1-△t2)下的該音符相符來進行歌唱評分。
  8. 如申請專利範圍第7項所述的歌唱評分系統,其中該電子裝置是透過該應用程式來每隔一段時間讀取該串流影音播放器的播放時間以偵測該串流影音播放器是否開始播放該歌曲。
  9. 如申請專利範圍第7項所述的歌唱評分系統,其中該歌唱評分方法更包括:當偵測該串流影音播放器尚未開始播放該歌曲時,該電子裝置透過該應用程式檢查該電子裝置的該系統時間是否自該電子裝置啟動該串流影音播放器開始串流該歌曲起而過了一第一 容許時間;若不是,該電子裝置即返回執行透過該應用程式偵測該串流影音播放器是否開始播放該歌曲的步驟;以及若是,該電子裝置則返回執行啟動該串流影音播放器開始從該串流伺服器中串流該歌曲的步驟。
  10. 如申請專利範圍第9項所述的歌唱評分系統,其中該歌唱評分方法更包括:該電子裝置透過該應用程式檢查該第一時間差是否大於一第二容許時間;若是,該電子裝置則返回執行啟動該串流影音播放器開始從該串流伺服器中串流該歌曲的步驟;以及若不是,該電子裝置才傳送該第一時間差至該評分引擎。
  11. 如申請專利範圍第10項所述的歌唱評分系統,其中累計該第二時間差的公式表示為
    Figure 108134485-A0305-02-0021-8
    ,Di為該播放時間差,T為一第三容許時間,dt為該固定時間並必須設計小於任兩連續音符的演唱時間差,且該歌唱評分方法更包括:該電子裝置透過該應用程式偵測該第二時間差的數值是否大於等於一正門檻值或小於等於一負門檻值;若是,該電子裝置即返回執行啟動該串流影音播放器開始從該串流伺服器中串流該歌曲的步驟;以及若不是,根據該第一時間差及該第二時間差,該評分引擎才調整該演唱歌譜,並藉由比對調整後的該演唱歌譜與該錄音程式所錄到的該聲音資料來進行歌唱評分。
  12. 如申請專利範圍第10項所述的歌唱評分系統,其中累計該第二時間差的公式表示為
    Figure 108134485-A0305-02-0021-9
    ,Di為該播放時間差,T為一第三容許時間,dt為該固定時間並必須設計小於任兩連續音符的演唱時間差,且該歌唱評分方法更包括: 該電子裝置透過該應用程式偵測該第二時間差的絕對數值是否大於等於一門檻值;若是,該電子裝置即返回執行啟動該串流影音播放器開始從該串流伺服器中串流該歌曲的步驟;以及若不是,根據該第一時間差及該第二時間差,該評分引擎才調整該演唱歌譜,並藉由比對調整後的該演唱歌譜與該錄音程式所錄到的該聲音資料來進行歌唱評分。
TW108134485A 2019-09-24 2019-09-24 以串流媒體為基礎的歌唱評分方法和歌唱評分系統 TWI727432B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW108134485A TWI727432B (zh) 2019-09-24 2019-09-24 以串流媒體為基礎的歌唱評分方法和歌唱評分系統
US16/747,600 US11017754B2 (en) 2019-09-24 2020-01-21 Singing scoring method and singing scoring system based on streaming media

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW108134485A TWI727432B (zh) 2019-09-24 2019-09-24 以串流媒體為基礎的歌唱評分方法和歌唱評分系統

Publications (2)

Publication Number Publication Date
TW202113809A TW202113809A (zh) 2021-04-01
TWI727432B true TWI727432B (zh) 2021-05-11

Family

ID=74880248

Family Applications (1)

Application Number Title Priority Date Filing Date
TW108134485A TWI727432B (zh) 2019-09-24 2019-09-24 以串流媒體為基礎的歌唱評分方法和歌唱評分系統

Country Status (2)

Country Link
US (1) US11017754B2 (zh)
TW (1) TWI727432B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI727432B (zh) * 2019-09-24 2021-05-11 驊訊電子企業股份有限公司 以串流媒體為基礎的歌唱評分方法和歌唱評分系統

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWM494991U (zh) * 2014-05-29 2015-02-01 Univ Chia Nan Pharm & Sciency 雲端行動ktv點歌裝置
TW201519642A (zh) * 2013-11-08 2015-05-16 Hua Wei Digital Technology Co Ltd 音樂專輯行動軟體應用程式產品
US20170161999A1 (en) * 2012-07-19 2017-06-08 Philip Paul Givant Specialized slot machine for conducting a wagering game using real time or live action event content
US20190147593A1 (en) * 2016-07-14 2019-05-16 Universidad Tecnica Federico Santa Maria Method for estimating force and pressure of collision in vocal cords from high-speed laryngeal videos

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8138409B2 (en) * 2007-08-10 2012-03-20 Sonicjam, Inc. Interactive music training and entertainment system
US10930256B2 (en) * 2010-04-12 2021-02-23 Smule, Inc. Social music system and method with continuous, real-time pitch correction of vocal performance and dry vocal capture for subsequent re-rendering based on selectively applicable vocal effect(s) schedule(s)
US9601127B2 (en) * 2010-04-12 2017-03-21 Smule, Inc. Social music system and method with continuous, real-time pitch correction of vocal performance and dry vocal capture for subsequent re-rendering based on selectively applicable vocal effect(s) schedule(s)
US9412390B1 (en) * 2010-04-12 2016-08-09 Smule, Inc. Automatic estimation of latency for synchronization of recordings in vocal capture applications
GB2522772B (en) * 2011-09-18 2016-01-13 Touchtunes Music Corp Digital jukebox device with karaoke and/or photo booth features, and associated methods
US8907195B1 (en) * 2012-01-14 2014-12-09 Neset Arda Erol Method and apparatus for musical training
US9459768B2 (en) * 2012-12-12 2016-10-04 Smule, Inc. Audiovisual capture and sharing framework with coordinated user-selectable audio and video effects filters
US20180374461A1 (en) * 2014-08-22 2018-12-27 Zya, Inc, System and method for automatically generating media
AU2016270352B2 (en) * 2015-06-03 2020-10-29 Smule, Inc. Automated generation of coordinated audiovisual work based on content captured from geographically distributed performers
US11488569B2 (en) * 2015-06-03 2022-11-01 Smule, Inc. Audio-visual effects system for augmentation of captured performance based on content thereof
US10761802B2 (en) * 2017-10-03 2020-09-01 Google Llc Identifying music as a particular song
EP3797507A4 (en) * 2018-05-21 2022-03-02 Smule, Inc. NON-LINEAR MULTIMEDIA SEGMENT CAPTURE AND EDITING PLATFORM
TWI727432B (zh) * 2019-09-24 2021-05-11 驊訊電子企業股份有限公司 以串流媒體為基礎的歌唱評分方法和歌唱評分系統

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170161999A1 (en) * 2012-07-19 2017-06-08 Philip Paul Givant Specialized slot machine for conducting a wagering game using real time or live action event content
TW201519642A (zh) * 2013-11-08 2015-05-16 Hua Wei Digital Technology Co Ltd 音樂專輯行動軟體應用程式產品
TWM494991U (zh) * 2014-05-29 2015-02-01 Univ Chia Nan Pharm & Sciency 雲端行動ktv點歌裝置
US20190147593A1 (en) * 2016-07-14 2019-05-16 Universidad Tecnica Federico Santa Maria Method for estimating force and pressure of collision in vocal cords from high-speed laryngeal videos

Also Published As

Publication number Publication date
TW202113809A (zh) 2021-04-01
US11017754B2 (en) 2021-05-25
US20210090541A1 (en) 2021-03-25

Similar Documents

Publication Publication Date Title
JP5022025B2 (ja) コンテンツのデータ・ストリームとメタデータを同期するための方法および装置。
KR101582436B1 (ko) 미디어의 동기화 방법 및 시스템
US8433431B1 (en) Displaying text to end users in coordination with audio playback
US11792464B2 (en) Determining context to initiate interactivity
US9224385B1 (en) Unified recognition of speech and music
EP2011118B1 (en) Method and apparatus for automatic adjustment of play speed of audio data
US11366851B2 (en) Karaoke query processing system
US20140095166A1 (en) Deep tagging background noises
US9471272B2 (en) Skip of a portion of audio
GB2506404A (en) Computer implemented iterative method of cross-fading between two audio tracks
TWI727432B (zh) 以串流媒體為基礎的歌唱評分方法和歌唱評分系統
JP7051889B2 (ja) ポストエンゲージメントメタデータ生成
US20110231426A1 (en) Song transition metadata
US12094448B2 (en) Generating audio files based on user generated scripts and voice components
CN112581976B (zh) 以串流媒体为基础的歌唱评分方法和歌唱评分系统
CA3144023A1 (en) Evaluating user device activations
US20060034581A1 (en) Media device featuring synchronized playback
US10811007B2 (en) Filtering audio-based interference from voice commands using natural language processing
US20190378512A1 (en) Filtering audio-based interference from voice commands using interference information
US11606606B1 (en) Systems and methods for detecting and analyzing audio in a media presentation environment to determine whether to replay a portion of the media
US11522936B2 (en) Synchronization of live streams from web-based clients
JP7261276B2 (ja) マルチメディアコンテンツと音源を同期するための電子装置およびその作動方法
US20230402068A1 (en) Voice-controlled content creation
TWI745763B (zh) 播放裝置的排程管理方法與排程管理系統
AU2019101257A4 (en) Method for integrating different types of media