KR101417975B1 - 오디오 레코드의 엔드포인트를 자동 감지하는 방법 및 시스템 - Google Patents

오디오 레코드의 엔드포인트를 자동 감지하는 방법 및 시스템 Download PDF

Info

Publication number
KR101417975B1
KR101417975B1 KR1020137010783A KR20137010783A KR101417975B1 KR 101417975 B1 KR101417975 B1 KR 101417975B1 KR 1020137010783 A KR1020137010783 A KR 1020137010783A KR 20137010783 A KR20137010783 A KR 20137010783A KR 101417975 B1 KR101417975 B1 KR 101417975B1
Authority
KR
South Korea
Prior art keywords
audio record
frame
acoustic model
record data
data
Prior art date
Application number
KR1020137010783A
Other languages
English (en)
Other versions
KR20130071490A (ko
Inventor
시 웨이
구오핑 후
유 후
큉팽 루
Original Assignee
안후이 유에스티씨 아이플라이텍 캄파니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 안후이 유에스티씨 아이플라이텍 캄파니 리미티드 filed Critical 안후이 유에스티씨 아이플라이텍 캄파니 리미티드
Publication of KR20130071490A publication Critical patent/KR20130071490A/ko
Application granted granted Critical
Publication of KR101417975B1 publication Critical patent/KR101417975B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/083Recognition networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

오디오 레코드의 엔드포인트를 자동 감지하는 방법 및 시스템이 제공된다. 본 방법은 오디오 레코드 텍스트를 얻는 단계와 오디오 레코드 텍스트를 위한 텍스트 엔드포인트 음향 모델을 확인하는 단계와 오디오 레코드 데이터에 있는 오디오 레코드 시작 프레임으로부터 각 프레임의 오디오 레코드 데이터를 차례로 얻는 단계와, 획득한 오디오 레코드 데이터의 현재 프레임을 위한 디코딩 최적 경로의 특성 음향 모델을 확인하는 단계와, 오디오 레코드 데이터의 현재 프레임으로부터 획득한 디코딩 최적 경로의 특성 음향 모델과 텍스트 엔드포인트의 음향 모델이 동일한지를 비교하는 단계와, 만약 같다면 묵음 기간 임계치를 첫번째 시간 임계치보다 더 짧은 두번째 시간 임계치로 업데이트하는 단계를 포함한다. 본 방법에 의하면 오디오 레코드의 엔드포인트를 확인하기 위한 효율성을 향상시킬 수 있다.

Description

오디오 레코드의 엔드포인트를 자동 감지하는 방법 및 시스템{METHOD AND SYSTEM FOR ENDPOINT AUTOMATIC DETECTION OF AUDIO RECORD}
본 발명은 오디오 레코드의 제어 기술에 관한 것으로서, 보다 상세하게는 오디오 레코드의 엔드포인트를 자동 감지하는 기술에 관한 것이다.
문자와 관계된 언어 평가는 다년간의 기술 개발 후에 실질적인 단계에 진입해 오고 있다. 상기 문자와 관계된 언어 평가는 어떤 문자가 사용자에 의해 읽혀지고 언어 평가 시스템은 사용자의 발음 데이터를 저장하며 평가 점수를 주기 위해 발음 데이터를 평가한다.
현존하는 언어 평가 시스템에서, 일반적으로 사용자 오디오 레코드 제어는 사용자에 의해 수동으로 수행된다. 즉, 오디오 레코드는 사용자가 스타트 오디오 레코드의 프리셋 버튼을 클릭할 때 시작하고, 사용자가 엔드 오디오 레코드의 프리셋 버튼을 클릭할 때 오디오 레코드는 끝난다. 상기 오디오 레코드 제어는 사용자가 여러 번 수동으로 클릭하는 것이 필요한데, 이러한 조작은 복잡하고 사용자의 경험에 영향을 받는다.
그러므로 자동 오디오 레코드 제어 방법은 종래기술에 나와 있다. 이러한 방법에서 언어 평가 시스템은 사용자 오디오 레코드의 상태가 발음 상태 또는 묵음 상태인지를 자동적으로 감지하고, 사용자 묵음 기간이 프리셋 시간의 임계치보다 클 때 오디오 레코드의 끝남을 결정한다. 그러나, 자동 오디오 레코드 제어 방법에서, 프리셋 시간 임계치가 더 짧게 설정되면, 사용자의 평균적인 발음 중지가 오디오 레코드의 엔드포인트로 판단될 수 있고, 이는 사용자의 음성이 절단되는 상태에 이르게 된다. 그러므로 종래에는 일반적으로 프리셋 시간의 임계치를 보다 더 큰 값으로, 예컨대 2초 또는 그 이상 설정하는데, 이로써 사용자는 오디오 레코드의 엔드포인트를 인식하고, 사용자가 발음을 끝낸 후에 언어 평가시스템에 의한 오디오 레코드를 끝내기 위해 오랫동안 기다릴 필요가 있다. 이러한 방법에서, 언어 평가 시스템에 의한 오디오 레코드의 엔드포인트를 인식하기 위한 효율이 저하되고, 언어 평가의 효율이 줄어들며 사용자 경험이 영향을 받게 된다.
이러한 관점에서 본 발명이 해결하고자 하는 기술적인 과제는 오디오 레코드의 엔드포인트를 위한 인식 효율을 향상시키기 위해 오디오 레코드의 엔드포인트를 감지하기 위한 방법과 시스템을 제공하고자 하는 것이다.
그러므로 본 발명에 따른 실시예는 하기의 기술적인 해결책을 채용한다.
본 발명에 따른 일 실시예는 최초 시간 임계치로서 묵음 기간 임계치를 프리셋팅하는 단계를 포함하는 오디오 레코드의 엔드포인트를 자동 감지하는 방법을 제공하는 것이다.
본 발명의 상기 및 다른 목적과 이점은 바람직한 실시예를 설명한 하기의 설명으로부터 보다 분명해 질 것이다.
본 발명의 일 실시예에 따른 오디오 레코드의 엔드포인트를 자동 감지하는 방법은, 첫번째 시간 임계치로서 묵음 기간 임계치를 프리셋팅하는 단계를 포함하는 오디오 레코드의 엔드포인트를 자동 감지하는 방법으로서, 오디오 레코드 텍스트를 얻는 단계와, 오디오 레코드 텍스트의 텍스트 엔드포인트를 위한 음향 모델을 결정하는 단계와, 오디오 레코드 데이터의 오디오 레코드 시작 프레임으로부터 시작하는 오디오 레코드 데이터의 각 프레임을 차례로 얻는 단계와, 상기 획득한 오디오 레코드 데이터의 현재 프레임을 위한 디코딩 최적 경로의 특성 음성 모델을 결정하는 단계와, 오디오 레코드 데이터의 현재 프레임을 위한 디코딩 최적 경로의 특성 음성 모델이 엔드포인트를 위한 음향 모델과 동일한지를 결정하는 단계와, 상기 첫번째 시간 임계치보다 더 작은 두번째 시간 임계치에 대한 묵음 기간 임계치를 업데이트하는 단계를 더 포함하는 것을 특징으로 한다.
바람직하게는, 상기 텍스트 엔드포인트를 위한 음향 모델을 결정하는 단계는, 상기 오디오 레코드 텍스트에 따른 텍스트에 대응하는 디코딩 네트워크를 생성하는 단계와, 상기 텍스트 엔드포인트를 위한 음향 모델로서 디코딩 네트워크의 마지막 음향 모델을 결정하는 단계를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 오디오 레코드 데이터의 현재 프레임을 위한 디코딩 최적 경로의 특성 음성 모델을 결정하는 단계는, 상기 오디오 레코드 데이터의 현재 프레임을 위한 디코딩 최적 경로를 얻기 위해 상기 오디오 레코드 데이터의 현재 프레임으로부터 프리셋 음향 모델에 상응하는 MFCC 특성을 추출하는 단계와, 디코딩 최적 경로의 특성 음향 모델로서 상기 오디오 레코드 데이터의 현재 프레임을 위한 디코딩 최적 경로의 마지막 음향 모델을 결정하는 단계를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 오디오 레코드 데이터의 현재 프레임을 위한 디코딩 최적 경로의 특성 음향 모델이 엔드포인트를 위한 음향 모델과 다르다는 것이 결정되면 상기 묵음 기간 임계치를 상기 첫번째 시간 임계치로 유지하는 단계를 더 포함하는 것을 특징으로 한다.
바람직하게는, 하나의 오디오 레코드 데이터의 프레임을 획득한 후, 상기 획득된 현재 오디오 레코드 데이터의 프레임이 묵음 데이터이고, 현재 묵음 기간이 현재 묵음 지속 임계치보다 더 큰지가 결정되면 오디오 레코드를 끝내는 단계를 더 포함하는 것을 특징으로 한다.
바람직하게는, 오디오 레코드 데이터의 각 프레임을 얻기 전에, 오디오 레코드 데이터를 수신하는 단계와 상기 오디오 레코드 데이터의 오디오 레코드 시작 프레임을 결정하는 단계를 더 포함하는 것을 특징으로 한다.
바람직하게는, 상기 오디오 레코드 데이터의 오디오 레코드 시작 프레임을 결정하는 단계는, 상기 오디오 레코드 데이터의 각 프레임이 묵음 데이터인지 또는 비묵음 데이터인지를 차례로 판단하는 단계와, 상기 비묵음 데이터의 첫번째 프레임을 상기 오디오 레코드 시작 프레임으로 사용하는 단계를 포함하는 것을 특징으로 한다.
또한 본 발명의 일 실시예에 따른 오디오 레코드의 엔드포인트를 자동 감지하는 시스템은, 오디오 레코드 데이터를 획득하고 상기 오디오 레코드 텍스트의 텍스트 엔드포인트를 위한 음향 모델을 결정하는 제1 결정 유닛과, 상기 오디오 레코드 데이터의 오디오 레코드 시작 프레임으로부터 시작하는 오디오 레코드 데이터의 각 프레임을 차례로 획득하는 제1 획득 유닛과, 획득된 상기 오디오 레코드의 현재 프레임을 위한 디코딩 최적 경로의 특성 음향 모델을 결정하는 제2 결정 유닛과, 오디오 레코드 데이터 현재 프레임을 위한 디코딩 최적 경로의 특성 음성 모델이 엔드포인트를 위한 음향 모델과 동일한지가 결정되면, 첫번째 시간 임계치보다 적은 두번째 시간 임계치에 대한 묵음 기간 임계치를 업데이트하는 임계치 결정 유닛을 포함하는 것을 특징으로 한다.
바람직하게는, 상기 제1결정 유닛은, 상기 오디오 레코드 텍스트를 획득하는 획득 서브유닛과, 상기 오디오 레코드 텍스트에 따른 텍스트에 상응하는 디코딩 네트워크를 설정하는 네트워크 설정 서브유닛과, 상기 텍스트 엔드포인트를 위한 음향 모델로서 상기 디코딩 네트워크의 마지막 음향 모델을 결정하는 제 1 특성 결정 서브유닛을 포함하는 것으로 특징으로 한다.
바람직하게는, 상기 제 2 결정 유닛은, 상기 오디오 레코드 데이터의 현재 프레임을 위한 디코딩 최적 경로를 획득하기 위해 상기 현재의 오디오 레코드 데이터 프레임으로부터 프리셋 음향 모델에 상응하는 MFCC 특성을 추출하는 추출 서브유닛과, 상기 디코딩 최적 경로의 특성 음향 모델로서 상기 현재의 오디오 레코드 데이터 프레임을 위한 디코딩 최적 경로의 마지막 음향 모델을 결정하는 제 2 특성 결정 서브유닛을 포함하는 것을 특징으로 한다.
바람직하게는, 상기 임계치 결정 유닛은, 오디오 레코드 데이터의 현재 프레임을 위한 상기 디코딩 최적 경로의 특성 음향 모델이 상기 엔드포인트의 음향 모델과 다르다는 것이 결정되면 상기 묵음 기간 임계치를 첫번째 기간 임계치로 더 유지시키는 것을 특징으로 한다.
바람직하게는, 상기 시스템은 상기 획득된 오디오 레코드 데이터의 현재 프레임이 묵음 데이터이고 현재의 묵음 기간이 현재의 묵음 기간 임계치보다 더 길다는 것이 결정되면, 오디오 레코드를 정지시키는 오디오 레코드 제어 유닛을 더 포함하는 것을 특징으로 한다.
바람직하게는, 상기 시스템은 상기 오디오 레코드 데이터를 수신하고 상기 오디오 레코드 데이터의 오디오 레코드 시작 프레임을 결정하는 수신 유닛을 더 포함하는 것을 특징으로 한다.
바람직하게는, 상기 수신 유닛은, 상기 오디오 레코드 데이터를 수신하는 수신 서브유닛과, 각각의 상기 오디오 레코드 데이터 프레임이 묵음 데이터인지 비묵음 데이터인지를 차례로 결정하고 상기 비묵음 데이터의 첫번째 프레임을 상기 오디오 레코드 시작 프레임으로 사용하는 시작 프레임 결정 서브유닛을 포함하는 것을 특징으로 한다.
상술한 해결하고자 하는 과제의 기술적인 효과의 분석은 다음과 같다.
오디오 레코드 데이터의 현재 프레임에 상응하는 디코딩 최적 경로의 특성 음향 모델과 텍스트 엔드포인트의 음향 모델을 비교한다. 만약 이들이 같다면, 사용자가 이미 오디오 레코드 텍스트 읽기를 끝냈다는 것을 의미하고 묵음 기간 임계치는 첫번째 시간 임계치보다 더 짧은 두번째 시간 임계치로 업데이트된다. 그런 다음, 사용자 묵음 기간이 두번째 시간 임계치보다 더 길 때 오디오 레코드가 종료된다. 이에 의하면, 종래 기술과 비교하여, 본 발명은 오디오 레코드의 엔드포인트를 확인하기 위한 효율성을 향상시킬 수 있고 오디오 레코드의 종료 후에 사용자가 기다려야만 하는 기간을 줄일 수 있게 된다.
도 1은 본 발명의 실시예에 따른 오디오 레코드의 엔드포인트를 자동 감지하는 방법을 보여주는 플로우차트이다.
도 2는 본 발명의 실시예에 따른 오디오 레코드의 엔드포인트를 자동 감지하는 다른 방법을 보여주는 플로우차트이다.
도 3 본 발명의 실시예에 따른 비터비 알고리즘을 보여주는 구성도이다.
도 4는 본 발명의 실시예에 따른 디코딩 네트워크의 일 예를 보여주는 다이어그램이다.
도 5는 본 발명의 실시예에 따른 오디오 레코드의 엔드포인트를 자동 감지하는 시스템을 보여주는 구성도이다.
도 6은 본 발명의 실시예에 따른 오디오 레코드의 엔드포인트를 자동 감지하는 시스템에서 있는 유닛의 실례를 보여주는 구성도이다.
도 7은 본 발명의 실시예에 따른 오디오 레코드의 엔드포인트를 자동 감지하는 시스템에서 있는 다른 유닛의 실례를 보여주는 구성도이다.
이하, 본 발명의 실시예와 도면을 참조하여 본 발명을 상세히 설명한다. 이들 실시예는 오로지 본 발명을 보다 구체적으로 설명하기 위해 예시적으로 제시한 것일 뿐, 본 발명의 범위가 이들 실시예에 의해 제한되지 않는다는 것을 당업계에서 통상의 지식을 가지는 자에 있어서 자명할 것이다.
이하, 본 발명의 실시예에 따른 오디오 레코드의 엔드포인트를 감지하기 위한 방법과 시스템을 첨부된 도면과 함께 상세히 설명할 것이다.
도 1은 본 발명의 실시예에 따른 오디오 레코드의 엔드포인트를 감지하기 위한 방법을 나타내는 플로우차트이다.
묵음 기간 임계치를 첫번째 시간 임계치로 미리 설정.
본 발명에 따른 오디오 레코드의 엔드포인트를 감지하기 위한 방법은 다음의 단계들을 포함한다.
단계 101: 오디오 레코드 텍스트를 얻고 오디오 레코드 텍스트의 텍스트 엔드포인트를 위한 음향 모델을 결정.
특히, 오디오 레코드 텍스트는 오디오 레코딩하는 동안 사용자가 읽을 필요가 있는 텍스트이다. 텍스트는 어떠한 언어, 예컨대 중국어, 영어 등이 될 수 있으나 이에 한정되는 것은 아니다.
단계 102: 오디오 레코드 데이터의 오디오 레코드 시작 프레임으로부터 시작하여 오디오 레코드 데이터의 각 프레임을 차례로 얻는 단계이다.
오디오 레코드 데이터는 오디오를 레코딩하는 과정 동안에 오디오 레코드 장치에 의해 얻어지는 음성 데이터일 수 있다.
단계 103: 획득된 오디오 레코드 데이터의 현재 프레임을 위한 디코딩 최적 경로의 특성 음향 모델을 결정하는 단계이다.
단계 101과 단계 102 내지 103의 실행 순서는 단계 104 전에 이들 단계가 수행되는 한, 한정되지 않는다.
단계 104: 오디오 레코드 데이터의 현재 프레임을 위한 디코딩 최적 경로의 특성 음향 모델이 엔드포인트를 위한 음향 모델과 동일한지를 결정하고 묵음 기간 임계치를 두번째 시간 임계치로 업데이트하는 단계이다. 여기서 두번째 시간 임계치는 첫번째 시간 임계치보다 작다.
도 1에 도시된 오디오 레코드의 엔드포인트를 감지하기 위한 방법에서 텍스트 엔드포인트용 음향 모델은 디코딩 최적 경로의 특성 음향 모델과 비교되어 진다. 만약 이 둘이 같다면 사용자는 이미 오디오 레코드 텍스트를 읽는 것을 끝낸 것이고, 묵음 기간 임계치의 값은 첫번째 시간 임계치보다 짧은 두번째 시간 임계치로 업데이트된다. 사용자 묵음 기간이 두번째 시간 임계치보다 클 때 오디오 레코드는 종료된다. 따라서 종래 기술과 비교하여 본 발명에 따른 방법은 오디오 레코드의 엔드포인트를 확인하기 위한 효율성을 향상시킬 수 있고 오디오 레코드의 종료 후에 사용자가 기다려야만 하는 기간을 줄일 수 있게 되는 것이다.
도 1에 기초하는 본 발명의 실시예에 따른 오디오 레코드의 엔드포인트를 자동 감지하는 방법을 도 2와 함께 보다 상세히 기술한다.
도 2에 도시된 바와 같이, 본 발명에 따른 방법은 묵음 기간 임계치를 첫번째 시간 임계치로 설정하는 단계를 포함한다.
단계 201: 오디오 레코드 텍스트를 얻고 오디오 레코드 텍스트의 엔드포인트에 상응하는 텍스트 엔드포인트의 음향 모델을 결정하는 단계이다.
오디오 레코드 텍스트의 엔드포인트에 상응하는 텍스트 엔드포인트의 음향 모델을 결정하는 단계는 오디오 레코드 텍스트에 따른 상응하는 디코딩 네트워크를 생성하는 단계와 디코딩 네트워크의 마지막 음향 모델을 텍스트 엔드포인트의 음향 모델로 결정하는 단계를 포함할 수 있다.
특히, 생성된 디코딩 네트워크는 오디오 레코드 텍스트의 시작 점 묵음 모델, 오디오 레코드 텍스트에 있는 각 단어 또는 절의 음향 모델 및 오디오 레코드 텍스트의 엔드포인트를 위한 묵음 모델을 포함할 수 있다. 텍스트 엔드포인트의 음향 모델은 오디오 레코드 텍스트의 엔드포인트를 위한 묵음 모델일 수 있다.
예컨대, 도 4에 도시된 바와 같이, 오디오 레코드 텍스트 "Hello World"에 대해 살펴 보면, 생성된 디코딩 네트워크는 오디오 레코드 텍스트의 시작 점을 위한 묵음 모델 "Sil_Begin", 단어 "Hello"의 음향 모델, 단어 "World"의 음향 모델 및 오디오 레코드 텍스트의 엔드포인트의 묵음 모델 "Sil_End"을 포함할 수 있다. 묵음 모델 "Sil_End"는 이 단계에서 얻어질 필요가 있다.
단계 202: 오디오 레코드 데이터를 수신하고 오디오 레코드 데이터를 프리셋 버퍼에 저장하는 단계.
단계 203: 오디오 레코드 데이터의 오디오 레코드 시작 프레임을 결정하는 단계.
오디오 레코드 데이터의 오디오 레코드 시작 프레임을 결정하는 단계는, 오디오 레코드 데이터의 각 프레임이 묵음 데이터인지 또는 비묵음 데이터인지를 차례로 판단하는 단계와, 상기 비묵음 데이터의 제1 프레임을 상기 오디오 레코드 시작 프레임으로 사용하는 단계를 포함할 수 있다.
오디오 레코드 데이터가 묵음 데이터인지 또는 비묵음 데이터인지를 차례로 판단하는 단계는 VAD (Voice Activity Detection) 정책에 의해 수행될 수 있다. 예컨대, VAD 정책에 의해 수행되는 묵음 데이터인지 또는 비묵음 데이터인지를 결정하는 방법은 하기 2개의 문헌에 상세히 기술되어 있으므로 이에 대한 설명은 생략하기로 한다.
(문헌 1)
A statistical model-based voice activity detection ( J. Sohn, N. S. Kim, and W. Sung, IEEE Signal Process. Lett., vol. 16, no. 1, pp. 1-3, 1999)
(문헌 2)
Speech processing, transmission and quality aspects (STQ); distributed speech recognition; advanced front-end feature extraction algorithm; compression algorithms (ETSI, ETSI ES 202 050 Rec., 2002)
오디오 레코드 데이터의 각 프레임을 위한 시간 간격과 샘플링 윈도우의 길이는 다른 적용 환경에 따라 달라질 수 있으므로, 여기에 한정되지 않는다. 예컨대, 일반적으로 시간 간격(즉 프레임 오프셋)은 10ms로 설정될 수 있고 샘플링 윈도우의 길이는 25ms로 설정될 수 있다.
단계 204: 오디오 레코드 시작 프레임으로부터 시작하는 오디오 레코드 데이터의 프레임을 버퍼로부터 차례대로 얻는 단계이다.
단계 205: 오디오 레코드 데이터의 프레임에 상응하는 디코딩 최적 경로의 특성 음향 모델을 얻기 위해 획득된 오디오 레코드 데이터의 현재 프레임을 디코딩하는 단계이다.
특히, 단계 205에서 오디오 레코드 데이터를 디코딩하는 단계는, 오디오 레코드 데이터의 프레임에 상응하는 디코딩 최적 경로를 얻기 위해 오디오 레코드 데이터의 현재 프레임으로부터 프리셋 음향 모델에 상응하는 MFCC(Mel Frequency Cepstrum Coefficient) 특성을 추출하는 단계와 디코딩 최적 경로의 특성 음향 모델을 결정하는 단계를 포함할 수 있다.
단계 201과 함께 살펴 보면, 디코딩 최적 경로의 마지막 음향 모델은 디코딩 최적 경로의 특성 음향 모델로서 결정될 수 있다.
디코딩을 위해 사용되는 프리셋 음향 모델은 음소(phoneme) 수준의 모노-폰(Mono-Phone) 모델 또는 문맥 의존 트리-폰(Tri-phone) 모델일 수 있고, 더욱이 묵음 모델을 더 포함할 수도 있다.
MFCC 특성은 오디오 레코드 데이터에 상응하는 디코딩 최적 경로를 얻기 위해 프리셋 음향 모델을 사용함으로써 디코딩된다. 디코딩 최적 경로는 상기 모델의 최대 공산(maximum likelihood) 또는 최대 비용 기능을 가진 경로일 수 있다.
또한 비터비 알고리즘(Viterbi algorithm) 등에 의해 디코딩이 수행될 수 있다.
예컨대, 도 3에 도시된 디코딩 결과는 비터비 알고리즘에 의해 디코딩이 수행된 후에 얻어진 것이다. 본 발명에 따른 실시예에 의하면, 디코딩 최적 경로의 마지막 음향 모델은 마지막 순간(t)에 상응하는 음향 모델이다. 오디오 레코드 데이터에 상응하는 디코딩 최적 경로의 마지막 음향 모델은 오디오 레코드 데이터의 프레임에 상응하는 디코딩 최적 경로의 특성 음향 모델로 사용되는 것이 결정된다.
단계 206: 텍스트 엔드포인트용 음향 모델이 오디오 레코드 데이터의 프레임을 위한 디코딩 최적 경로의 특성 음향 모델과 같은지를 결정하는 단계로서, 만약 같다면 단계 207로 진행되고 그렇지 않으면 단계 208로 진행된다.
단계 207: 묵음 기간 임계치를 두번째 시간 임계치로 업데이트하고 단계 209로 진행하는 단계로서, 여기서 두번째 시간 임계치는 첫번째 시간 임계치보다 더 작다.
단계 208: 묵음 기간 임계치를 첫번째 시간 임계치로 유지하고 단계 209로 진행하는 단계이다.
단계 209: 버퍼로부터 획득한 오디오 레코드 데이터의 현재 프레임이 묵음 데이터인지 비묵음 데이터인지를 결정하는 단계로서, 만약 묵음 데이터이면 단계 210으로 진행하고, 그렇지 않으면 단계 204로 되돌아가서 버퍼로부터 현재 프레임의 다음 프레임을 위한 오디오 레코드 데이터를 얻는다.
연속하여 오디오 레코드 데이터가 버퍼로부터 프레임 안에서 얻어진다. 단계 209에서 오디오 레코드 데이터의 현재 프레임은 버퍼로부터 현재 얻어진 오디오 레코드 데이터의 프레임이고 진행되어야 한다.
오디오 레코드 데이터가 묵음 데이터인지 또는 비묵음 데이터인지를 판단하는 단계는 또한 VAD (Voice Activity Detection) 정책에 의해 수행될 수 있다. 예컨대, VAD 정책에 의해 수행되는 묵음 데이터인지 또는 비묵음 데이터인지를 결정하는 방법은 하기 2개의 문헌에 상세히 기술되어 있으므로 이에 대한 설명은 생략하기로 한다.
(문헌 1)
A statistical model-based voice activity detection ( J. Sohn, N. S. Kim, and W. Sung, IEEE Signal Process. Lett., vol. 16, no. 1, pp. 1-3, 1999)
(문헌 2)
Speech processing, transmission and quality aspects (STQ); distributed speech recognition; advanced front-end feature extraction algorithm; compression algorithms (ETSI, ETSI ES 202 050 Rec., 2002)
단계 210: 현재 묵음 기간이 현재 묵음 기간 임계치보다 큰지를 결정하는 단계로서, 현재 묵음 기간이 현재 묵음 기간 임계치보다 큰 경우에는 오디오 레코드를 종료하고, 그렇지 않으면 단계 204로 돌아가서 버퍼로부터 현재 프레임의 다음 프레임을 위한 오디오 레코드 데이터를 얻고 오디오 레코드 데이터의 프레임을 오디오 레코드 데이터의 현재 프레임으로 사용한다.
단계 209는 단계 204와 단계 210 사이에서만 수행되어야 하고, 단계 205 내지 208의 실행 순서는 제한되지 않는다.
단계 210에서, 현재 묵음 기간은 오디오 레코드 데이터의 현재 프레임 전의 오디오 레코드 데이터의 연속적인 여러 프레임들이 묵음 데이터라는 사실과 관련된다. 특히 현재 묵음 기간은 다음 수학식 1에 따라 계산될 수 있다.
(수학식 1)
현재 묵음 기간 = (현재 프레임의 시리얼 번호 ­ 현재 프레임 전의 비묵음 데이터의 첫번째 프레임에 해당하는 프레임의 시리얼 번호) * 한 프레임의 길이
예컨대, 오디오 레코드 데이터의 (m-1)번째 프레임과 (m-2)번째 프레임이 둘다 비묵음 데이터이고 오디오 레코드 데이터의 (m)번째 프레임에서 (m+n)번째 프레임이 모두 묵음 데이터인 경우에, 현재 묵음 기간은 오디오 레코드 데이터의 (m)번째 프레임이 진행될 때 한 프레임의 길이다. 즉 현재 묵음 기간은 오디오 레코드 데이터의 (m+1)번째 프레임이 진행될 때 2개의 프레임들의 길이다. 계속하여 마찬가지로 현재 묵음 기간은 오디오 레코드 데이터의 (m+n)번째 프레임이 진행될 때 (n+1) 프레임들의 길이다.
더욱이, 단계 210에서 현재 묵음 기간 임계치는 다른 순간에 첫번째 시간 임계치 또는 두번째 시간 임계치일 수 있다. 특히 특성 음향 모델이 텍스트 엔드포인트를 위한 음향 모델과 같은 오디오 레코드 데이터의 프레임이 단계 206에서 있다는 것이 결정되기 전에 현재 묵음 기간은 항상 첫번째 시간 임계치이다. 그리고, 어떤 프레임을 위한 디코딩 최적 경로의 특성 음향 모델이 텍스트 엔드포인트의 음향 모델과 같다는 것이 단계 206에서 결정되기만 하면 묵음 기간 임계치는 더 짧은 시간 길이로 두번째 시간 임계치로 업데이트된다.
도 2에 도시된 바와 같이, 디코딩 최적 경로의 특성 음향 모델이 텍스트 엔드포인트의 음향 모델과 다른 것이 항상 결정된다면, 이는 사용자가 오디오 레코드 텍스트 읽기를 마치지 않았고, 이때 묵음 기간 임계치가 첫번째 시간 임계치라는 것을 의미한다. 오디오 레코드는 사용자가 비정상적인 오디오 레코드(예컨대, 읽기에서 실수가 발생하거나 또는 읽기가 중간에서 끝날 때)를 수행할 때조차 자동적으로 끝날 수 있다는 것을 보장하기 위해 사용자에 의해 유지된 묵음 기간이 현재 묵음 기간 임계치(즉, 첫번째 시간 임계치)보다 더 클 때만 오디오 레코드가 끝난다. 디코딩 최적 경로의 특성 음향 모델이 텍스트 엔드포인트의 음향 모델과 같다는 것이 결정되면, 사용자가 오디오 레코드 텍스트 읽기를 이미 끝냈고, 이때 묵음 기간 임계치가 두번째 시간 임계치로 업데이트된다는 것을 의미한다. 여기서, 두번째 시간 임계치는 첫번째 시간 임계치와 두번째 시간 임계치 사이에 더 짧은 값이다. 따라서 오디오 레코드는 사용자 묵음 기간이 현재 묵음 기간 임계치(즉, 두번째 시간 임계치)보다 커지자 마자 곧 끝난다. 이러한 방법에 의하면 사용자가 오디오 레코드 텍스트 읽기를 정상적으로 끝내는 경우에 사용자가 기다리는 기간은 단지 두번째 시간 임계치일 뿐이다. 그러므로 기다리는 기간은 종래기술에 있는 첫번째 시간 임계치에 비해 더 줄어들고 오디오 레코드의 엔드포인트를 인식하는 효율이 개선된다.
그러나 도 2에서 도시된 바와 같이, 단계 206에서 디코딩 최적 경로의 특성 음향 모델이 텍스트 엔드포인트의 음향 모델과 같다는 것이 결정되는 경우에는, 비록 사용자가 오디오 레코드 텍스트 읽기를 끝냈다는 것을 결정하더라도 단계 206의 결정은 사용자가 오디오 레코드 텍스트 읽기를 끝냈다는 것을 결정한 후에 연속적으로 오디오 레코드 데이터의 다음 프레임 각각에 또한 수행된다. 이 경우에 단계 206에서의 결정 단계는 반드시 필요한 것은 아니다. 예를 들어 오디오 레코드 데이터의 N번째 프레임을 위한 결정 결과가 단계 206에서 같다면, 사용자가 오디오 레코드 데이터의 N번째 프레임에 있는 오디오 레코드 텍스트 읽기를 이미 끝냈다는 것을 의미한다. 또한 이 경우에 오디오 레코드 데이터의 N+1번째 프레임과 이후의 여러 프레임들에 대해서는 단계 206의 결정 과정을 수행할 필요가 없다. 그러므로 실제적인 적용에 있어서, 오디오 레코드의 엔드포인트를 인식하고 수행하는 효율을 더 개선하려는 목적을 위해서는 단계 206에서 오디오 레코드 데이터의 특성 음향 모델이 첫번째 시간에서 텍스트 엔드포인트의 음향 모델과 같다는 것을 결정한 후에 단계 205 내지 208 보다는 단계 209 내지 210이 오디오 레코드 데이터의 연속적인 프레임들에 수행된다. 즉 획득된 오디오 레코드 데이터의 현재 프레임이 묵음 데이터인지 아닌지 만을 결정하고, 묵음 기간은 획득된 오디오 레코드 데이터의 현재 프레임이 묵음 데이터일 때만 결정된다.
본 발명의 일 실시예에 따르면, 도 5에 도시된 바와 같이, 오디오 레코드의 엔드포인트를 자동 감지하는 방법에 대응하여, 오디오 레코드의 엔드포인트를 자동 감지하는 시스템이 제공된다. 본 시스템에서 묵음 기간 임계치는 첫번째 시간 임계치로 프리셋된다.
본 발명에 따른 시스템은 오디오 레코드 데이터를 획득하고 상기 오디오 레코드 텍스트의 텍스트 엔드포인트를 위한 음향 모델을 결정하는 제1 결정 유닛(510)과, 상기 오디오 레코드 데이터의 오디오 레코드 시작 프레임으로부터 시작하는 오디오 레코드 데이터의 각 프레임을 차례로 획득하는 제1 획득 유닛(520)과, 획득된 상기 오디오 레코드의 현재 프레임을 위한 디코딩 최적 경로의 특성 음향 모델을 결정하는 두번째 결정 유닛(530) 및 오디오 레코드 데이터 현재 프레임을 위한 디코딩 최적 경로의 특성 음성 모델이 엔드포인트를 위한 음향 모델과 동일한지가 결정되면, 첫번째 시간 임계치보다 적은 두번째 시간 임계치에 대한 묵음 기간 임계치를 업데이트하는 임계치 결정 유닛(540)을 더 포함한다.
바람직하게는, 임계치 결정 유닛(540)은, 오디오 레코드 데이터의 현재 프레임을 위한 상기 디코딩 최적 경로의 특성 음향 모델이 상기 엔드포인트의 음향 모델과 다르다는 것이 결정되면 상기 묵음 기간 임계치를 첫번째 기간 임계치로 더 유지시키는 것을 특징으로 한다.
또한 도 5에 도시된 바와 같이, 본 발명에 따른 시스템은 상기 획득된 오디오 레코드의 현재 프레임이 묵음 데이터이고 현재의 묵음 기간이 현재의 묵음 기간 임계치보다 더 길다는 것이 결정되면, 오디오 레코드를 종료시키는 오디오 레코드 제어 유닛(550)을 더 포함할 수 있다.
바람직하게는, 도 6에 도시된 바와 같이, 상기 제1 결정 유닛(510)은, 상기 오디오 레코드 텍스트를 획득하는 획득 서브유닛(610)과, 상기 오디오 레코드 텍스트에 따른 텍스트에 상응하는 디코딩 네트워크를 설정하는 네트워크 설정 서브유닛(620)과, 상기 텍스트 엔드포인트를 위한 음향 모델로서 상기 디코딩 네트워크의 마지막 음향 모델을 결정하는 첫번째 특성 결정 서브유닛(630)을 더 포함할 수 있다.
바람직하게는, 도 7에 도시된 바와 같이, 상기 제2 결정 유닛(520)은, 상기 오디오 레코드 데이터의 현재 프레임을 위한 디코딩 최적 경로를 획득하기 위해 상기 현재의 오디오 레코드 데이터 프레임으로부터 프리셋 음향 모델에 상응하는 MFCC 특성을 추출하는 추출 서브유닛(710)과, 상기 디코딩 최적 경로의 특성 음향 모델로서 상기 현재의 오디오 레코드 데이터 프레임을 위한 디코딩 최적 경로의 마지막 음향 모델을 결정하는 두번째 특성 결정 서브유닛(720)을 더 포함할 수 있다.
또한 도 5에 도시된 바와 같이, 본 발명에 따른 시스템은 상기 오디오 레코드 데이터를 수신하고 상기 오디오 레코드 데이터의 오디오 레코드 시작 프레임을 결정하는 수신 유닛(500)을 더 포함할 수 있다.
또한 상기 수신 유닛(500)은 상기 오디오 레코드 데이터를 수신하는 수신 서브유닛과, 각각의 상기 오디오 레코드 데이터 프레임이 묵음 데이터인지 비묵음 데이터인지를 차례로 결정하고 상기 비묵음 데이터의 첫번째 프레임을 상기 오디오 레코드 시작 프레임으로 사용하는 시작 프레임 결정 서브유닛을 포함할 수 있다.
오디오 레코드 데이터가 묵음 데이터인지 비묵음 데이터인지를 결정하는 단계는 상술한 VAD 정책에 따라 수행될 수 있고, 이에 대한 상세한 설명은 생략한다.
도 5 내지 7에 도시된 바와 같이, 오디오 레코드의 엔드포인트를 자동 감지하는 시스템에서는, 임계치 결정 유닛은 디코딩 최적 경로의 특성 음향 모델과 텍스트 엔드포인트의 음향 모델을 비교한다. 만약 이들이 같다면, 사용자가 이미 오디오 레코드 텍스트 읽기를 끝냈다는 것을 의미하고 묵음 기간 임계치는 첫번째 시간 임계치보다 더 짧은 두번째 시간 임계치로 업데이트된다. 그런 다음, 현재 묵음 기간이 두번째 시간 임계치보다 더 길다는 것을 오디오 레코드 제어 유닛이 결정할 때 오디오 레코드가 종료된다. 이러한 방식에 의한 본 발명에 따른 시스템은, 종래 기술과 비교하여 오디오 레코드의 엔드포인트를 확인하기 위한 효율성을 향상시킬 수 있고 오디오 레코드의 종료 후에 사용자가 기다려야만 하는 기간을 줄일 수 있으며, 또한 사용자 경험을 향상시킬 수 있게 되는 것이다.
본 발명에 따른 오디오 레코드의 엔드포인트를 감지하기 위한 방법 및 시스템은 언어 평가 시스템뿐만 아니라 오디오 레코드를 수행하기 위해 알고 있는 텍스트가 읽혀질 필요가 있는 다른 분야에서도 적용될 수 있는 것이다.
상술한 실시예에 따른 오디오 레코드의 엔드포인트를 자동 감지하는 방법을 수행하는 과정은 프로그램 지시에 따른 하드웨어에 의해 실시될 수 있다는 것을 당업자라면 쉽게 알 수 있을 것이다. 프로그램은 읽기 가능한 저장 매체에 저장될 수 있고, 프로그램은 실행될 때 상기 방법에 있는 상응하는 단계들을 수행한다. 저장 매채는 ROM/RAM, 자기 디스크, 광디스크 등이 될 수 있다.
상술한 내용은 단순히 본 발명에 따른 바람직한 실시예에 관한 것이다. 본 발명의 원리로부터 벗어나지 않고도 여러 가지의 향상과 개선이 이루어질 수 있고 이러한 향상과 개선은 본 발명의 보호범위 내에 있다는 것은 당업자에 의해 자명한 것이다.

Claims (14)

  1. 첫번째 시간 임계치로서 묵음 기간 임계치를 프리셋팅하는 단계를 포함하는 오디오 레코드의 엔드포인트를 자동 감지하는 방법으로서,
    오디오 레코드 텍스트를 얻는 단계; 오디오 레코드 텍스트의 텍스트 엔드포인트를 위한 음향 모델을 결정하는 단계; 오디오 레코드 데이터의 오디오 레코드 시작 프레임으로부터 시작하는 오디오 레코드 데이터의 각 프레임을 차례로 얻는 단계;
    상기 획득한 오디오 레코드 데이터의 현재 프레임을 위한 디코딩 최적 경로의 특성 음성 모델을 결정하는 단계; 및
    오디오 레코드 데이터의 현재 프레임을 위한 디코딩 최적 경로의 특성 음성 모델이 엔드포인트를 위한 음향 모델과 동일한지를 결정하는 단계; 상기 첫번째 시간 임계치보다 더 작은 두번째 시간 임계치에 대한 묵음 기간 임계치를 업데이트하는 단계를 더 포함하는 것을 특징으로 하는, 오디오 레코드의 엔드포인트를 자동 감지하는 방법.
  2. 제1항에 있어서,
    상기 텍스트 엔드포인트를 위한 음향 모델을 결정하는 단계는,
    상기 오디오 레코드 텍스트에 따른 텍스트에 대응하는 디코딩 네트워크를 생성하는 단계와, 상기 텍스트 엔드포인트를 위한 음향 모델로서 디코딩 네트워크의 마지막 음향 모델을 결정하는 단계를 포함하는 것을 특징으로 하는, 오디오 레코드의 엔드포인트를 자동 감지하는 방법.
  3. 제2항에 있어서,
    상기 오디오 레코드 데이터의 현재 프레임을 위한 디코딩 최적 경로의 특성 음성 모델을 결정하는 단계는,
    상기 오디오 레코드 데이터의 현재 프레임을 위한 디코딩 최적 경로를 얻기 위해 상기 오디오 레코드 데이터의 현재 프레임으로부터 프리셋 음향 모델에 상응하는 MFCC 특성을 추출하는 단계; 및
    디코딩 최적 경로의 특성 음향 모델로서 상기 오디오 레코드 데이터의 현재 프레임을 위한 디코딩 최적 경로의 마지막 음향 모델을 결정하는 단계를 포함하는 것을 특징으로 하는, 오디오 레코드의 엔드포인트를 자동 감지하는 방법.
  4. 제1항에 있어서,
    상기 오디오 레코드 데이터의 현재 프레임을 위한 디코딩 최적 경로의 특성 음향 모델이 엔드포인트를 위한 음향 모델과 다르다는 것이 결정되면 상기 묵음 기간 임계치를 상기 첫번째 시간 임계치로 유지하는 단계를 더 포함하는 것을 특징으로 하는, 오디오 레코드의 엔드포인트를 자동 감지하는 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    하나의 오디오 레코드 데이터의 프레임을 획득한 후, 상기 획득된 현재 오디오 레코드 데이터의 프레임이 묵음 데이터이고, 현재 묵음 기간이 현재 묵음 지속 임계치보다 더 큰지가 결정되면 오디오 레코드를 끝내는 단계를 더 포함하는 것을 특징으로 하는, 오디오 레코드의 엔드포인트를 자동 감지하는 방법.
  6. 제1항 내지 제4항 중 어느 한 항에 있어서,
    오디오 레코드 데이터의 각 프레임을 얻기 전에, 오디오 레코드 데이터를 수신하는 단계와 상기 오디오 레코드 데이터의 오디오 레코드 시작 프레임을 결정하는 단계를 더 포함하는 것을 특징으로 하는, 오디오 레코드의 엔드포인트를 자동 감지하는 방법.
  7. 제6항에 있어서,
    상기 오디오 레코드 데이터의 오디오 레코드 시작 프레임을 결정하는 단계는,
    상기 오디오 레코드 데이터의 각 프레임이 묵음 데이터인지 또는 비묵음 데이터인지를 차례로 판단하는 단계와, 상기 비묵음 데이터의 첫번째 프레임을 상기 오디오 레코드 시작 프레임으로 사용하는 단계를 포함하는 것을 특징으로 하는, 오디오 레코드의 엔드포인트를 자동 감지하는 방법.
  8. 묵음 기간 임계치가 첫번째 시간 임계치로 프리셋되는 오디오 레코드의 엔드포인트를 자동 감지하는 시스템으로서,
    오디오 레코드 데이터를 획득하고 상기 오디오 레코드 텍스트의 텍스트 엔드포인트를 위한 음향 모델을 결정하는 제1 결정 유닛;
    상기 오디오 레코드 데이터의 오디오 레코드 시작 프레임으로부터 시작하는 오디오 레코드 데이터의 각 프레임을 차례로 획득하는 제1 획득 유닛;
    획득된 상기 오디오 레코드의 현재 프레임을 위한 디코딩 최적 경로의 특성 음향 모델을 결정하는 제2 결정 유닛; 및
    오디오 레코드 데이터 현재 프레임을 위한 디코딩 최적 경로의 특성 음성 모델이 엔드포인트를 위한 음향 모델과 동일한지가 결정되면, 첫번째 시간 임계치보다 적은 두번째 시간 임계치에 대한 묵음 기간 임계치를 업데이트하는 임계치 결정 유닛을 포함하는 것을 특징으로 하는, 오디오 레코드의 엔드포인트를 자동 감지하는 시스템.
  9. 제8항에 있어서,
    상기 제1결정 유닛은,
    상기 오디오 레코드 텍스트를 획득하는 획득 서브유닛;
    상기 오디오 레코드 텍스트에 따른 텍스트에 상응하는 디코딩 네트워크를 설정하는 네트워크 설정 서브유닛; 및
    상기 텍스트 엔드포인트를 위한 음향 모델로서 상기 디코딩 네트워크의 마지막 음향 모델을 결정하는 제1 특성 결정 서브유닛을 포함하는 것을 특징으로 하는, 오디오 레코드의 엔드포인트를 자동 감지하는 시스템.
  10. 제 9항에 있어서,
    상기 제2 결정 유닛은,
    상기 오디오 레코드 데이터의 현재 프레임을 위한 디코딩 최적 경로를 획득하기 위해 상기 현재의 오디오 레코드 데이터 프레임으로부터 프리셋 음향 모델에 상응하는 MFCC 특성을 추출하는 추출 서브유닛; 및
    상기 디코딩 최적 경로의 특성 음향 모델로서 상기 현재의 오디오 레코드 데이터 프레임을 위한 디코딩 최적 경로의 마지막 음향 모델을 결정하는 제2 특성 결정 서브유닛을 포함하는 것을 특징으로 하는, 오디오 레코드의 엔드포인트를 자동 감지하는 시스템.
  11. 제8항에 있어서,
    상기 임계치 결정 유닛은,
    상기 오디오 레코드 데이터의 현재 프레임을 위한 상기 디코딩 최적 경로의 특성 음향 모델이 상기 엔드포인트의 음향 모델과 다르다는 것이 결정되면 상기 묵음 기간 임계치를 첫번째 기간 임계치로 더 유지시키는 것을 특징으로 하는, 오디오 레코드의 엔드포인트를 자동 감지하는 시스템.
  12. 제8항 내지 제11항 중 어느 한 항에 있어서,
    상기 획득된 오디오 레코드 데이터의 현재 프레임이 묵음 데이터이고 현재의 묵음 기간이 현재의 묵음 기간 임계치보다 더 길다는 것이 결정되면, 오디오 레코드를 정지시키는 오디오 레코드 제어 유닛을 더 포함하는 것을 특징으로 하는, 오디오 레코드의 엔드포인트를 자동 감지하는 시스템.
  13. 제8항 내지 제11항 중 어느 한 항에 있어서,
    상기 오디오 레코드 데이터를 수신하고 상기 오디오 레코드 데이터의 오디오 레코드 시작 프레임을 결정하는 수신 유닛을 더 포함하는 것을 특징으로 하는, 오디오 레코드의 엔드포인트를 자동 감지하는 시스템.
  14. 제13항에 있어서,
    상기 수신 유닛은,
    상기 오디오 레코드 데이터를 수신하는 수신 서브유닛; 및
    각각의 상기 오디오 레코드 데이터 프레임이 묵음 데이터인지 비묵음 데이터인지를 차례로 결정하고 상기 비묵음 데이터의 첫번째 프레임을 상기 오디오 레코드 시작 프레임으로 사용하는 시작 프레임 결정 서브유닛을 포함하는 것을 특징으로 하는, 오디오 레코드의 엔드포인트를 자동 감지하는 시스템.
KR1020137010783A 2010-10-29 2010-10-29 오디오 레코드의 엔드포인트를 자동 감지하는 방법 및 시스템 KR101417975B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2010/078223 WO2012055113A1 (zh) 2010-10-29 2010-10-29 录音结束点检测方法及系统

Publications (2)

Publication Number Publication Date
KR20130071490A KR20130071490A (ko) 2013-06-28
KR101417975B1 true KR101417975B1 (ko) 2014-07-09

Family

ID=45993073

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137010783A KR101417975B1 (ko) 2010-10-29 2010-10-29 오디오 레코드의 엔드포인트를 자동 감지하는 방법 및 시스템

Country Status (7)

Country Link
US (1) US9330667B2 (ko)
JP (1) JP5883014B2 (ko)
KR (1) KR101417975B1 (ko)
CN (1) CN102971787B (ko)
DE (1) DE112010005959B4 (ko)
SG (1) SG189182A1 (ko)
WO (1) WO2012055113A1 (ko)

Families Citing this family (157)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
CN102456343A (zh) * 2010-10-29 2012-05-16 安徽科大讯飞信息科技股份有限公司 录音结束点检测方法及系统
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
CN113470641B (zh) 2013-02-07 2023-12-15 苹果公司 数字助理的语音触发器
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
CN104112446B (zh) * 2013-04-19 2018-03-09 华为技术有限公司 呼吸声检测方法及装置
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
KR101772152B1 (ko) 2013-06-09 2017-08-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
CN105453026A (zh) 2013-08-06 2016-03-30 苹果公司 基于来自远程设备的活动自动激活智能响应
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9564128B2 (en) * 2013-12-09 2017-02-07 Qualcomm Incorporated Controlling a speech recognition process of a computing device
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
WO2015184186A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
CN104078076B (zh) * 2014-06-13 2017-04-05 科大讯飞股份有限公司 一种语音录入方法及系统
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10186254B2 (en) * 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
CN105825870B (zh) * 2016-03-14 2019-04-02 江苏时间环三维科技有限公司 一种语音指令数据获取方法及装置
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10339918B2 (en) * 2016-09-27 2019-07-02 Intel IP Corporation Adaptive speech endpoint detector
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
CN108986844B (zh) * 2018-08-06 2020-08-28 东北大学 一种基于说话人语音特征的语音端点检测方法
CN110827795A (zh) * 2018-08-07 2020-02-21 阿里巴巴集团控股有限公司 语音输入结束判断方法、装置、设备、系统以及存储介质
CN110910905B (zh) * 2018-09-18 2023-05-02 京东科技控股股份有限公司 静音点检测方法及装置、存储介质、电子设备
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
CN112151073B (zh) * 2019-06-28 2024-07-09 北京声智科技有限公司 一种语音处理方法、系统、设备及介质
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
CN113160854B (zh) * 2020-01-22 2024-10-18 阿里巴巴集团控股有限公司 语音交互系统、相关方法、装置及设备
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
CN111583912A (zh) * 2020-05-26 2020-08-25 阳光保险集团股份有限公司 语音端点检测方法、装置以及电子设备
CN111768800B (zh) * 2020-06-23 2024-06-25 中兴通讯股份有限公司 语音信号处理方法、设备及存储介质
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11984124B2 (en) 2020-11-13 2024-05-14 Apple Inc. Speculative task flow execution

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1763843A (zh) * 2005-11-18 2006-04-26 清华大学 用于语言学习机的发音质量评价方法
CN101197084A (zh) 2007-11-06 2008-06-11 安徽科大讯飞信息科技股份有限公司 自动化英语口语评测学习系统

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4977599A (en) * 1985-05-29 1990-12-11 International Business Machines Corporation Speech recognition employing a set of Markov models that includes Markov models representing transitions to and from silence
US4797929A (en) * 1986-01-03 1989-01-10 Motorola, Inc. Word recognition in a speech recognition system using data reduced word templates
US4870686A (en) * 1987-10-19 1989-09-26 Motorola, Inc. Method for entering digit sequences by voice command
EP0692135B1 (en) * 1993-03-12 2000-08-16 Sri International Method and apparatus for voice-interactive language instruction
GB2303471B (en) 1995-07-19 2000-03-22 Olympus Optical Co Voice activated recording apparatus
JPH0990994A (ja) * 1995-07-19 1997-04-04 Olympus Optical Co Ltd 音声起動録音装置
US5799065A (en) * 1996-05-06 1998-08-25 Matsushita Electric Industrial Co., Ltd. Call routing device employing continuous speech
US6172675B1 (en) * 1996-12-05 2001-01-09 Interval Research Corporation Indirect manipulation of data using temporally related data, with particular application to manipulation of audio or audiovisual data
US6076056A (en) * 1997-09-19 2000-06-13 Microsoft Corporation Speech recognition system for recognizing continuous and isolated speech
US6163768A (en) 1998-06-15 2000-12-19 Dragon Systems, Inc. Non-interactive enrollment in speech recognition
US6456970B1 (en) * 1998-07-31 2002-09-24 Texas Instruments Incorporated Minimization of search network in speech recognition
CN1425980A (zh) 2003-01-14 2003-06-25 杨宏惠 个性化开放式电脑语音录入方法
CN1182513C (zh) 2003-02-21 2004-12-29 清华大学 基于局部能量加权的抗噪声语音识别方法
US7720683B1 (en) * 2003-06-13 2010-05-18 Sensory, Inc. Method and apparatus of specifying and performing speech recognition operations
JP2005242182A (ja) * 2004-02-27 2005-09-08 Toshiba Corp 音声検出装置、音声認識装置、音声検出方法および音声認識方法
KR100636317B1 (ko) * 2004-09-06 2006-10-18 삼성전자주식회사 분산 음성 인식 시스템 및 그 방법
US20080294433A1 (en) 2005-05-27 2008-11-27 Minerva Yeung Automatic Text-Speech Mapping Tool
US8311819B2 (en) 2005-06-15 2012-11-13 Qnx Software Systems Limited System for detecting speech with background voice estimates and noise estimates
US8170875B2 (en) 2005-06-15 2012-05-01 Qnx Software Systems Limited Speech end-pointer
JP4906379B2 (ja) 2006-03-22 2012-03-28 富士通株式会社 音声認識装置、音声認識方法、及びコンピュータプログラム
JP2007266807A (ja) * 2006-03-28 2007-10-11 Funai Electric Co Ltd 映像音声記録再生装置
CN101025981B (zh) 2007-01-23 2010-04-07 无敌科技(西安)有限公司 一种数字录音系统及方法
JP5446874B2 (ja) 2007-11-27 2014-03-19 日本電気株式会社 音声検出システム、音声検出方法および音声検出プログラム
US20090204407A1 (en) * 2008-02-08 2009-08-13 Shields T Russell System and method for processing a spoken request from a user
CN101308653A (zh) 2008-07-17 2008-11-19 安徽科大讯飞信息科技股份有限公司 一种应用于语音识别系统的端点检测方法
CN101685633A (zh) 2008-09-28 2010-03-31 富士通株式会社 基于韵律参照的语音合成装置和方法
US8315871B2 (en) * 2009-06-04 2012-11-20 Microsoft Corporation Hidden Markov model based text to speech systems employing rope-jumping algorithm
CN102456343A (zh) * 2010-10-29 2012-05-16 安徽科大讯飞信息科技股份有限公司 录音结束点检测方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1763843A (zh) * 2005-11-18 2006-04-26 清华大学 用于语言学习机的发音质量评价方法
CN101197084A (zh) 2007-11-06 2008-06-11 安徽科大讯飞信息科技股份有限公司 自动化英语口语评测学习系统

Also Published As

Publication number Publication date
US9330667B2 (en) 2016-05-03
KR20130071490A (ko) 2013-06-28
US20130197911A1 (en) 2013-08-01
CN102971787A (zh) 2013-03-13
CN102971787B (zh) 2014-04-23
SG189182A1 (en) 2013-05-31
JP5883014B2 (ja) 2016-03-09
JP2013545133A (ja) 2013-12-19
DE112010005959T5 (de) 2013-08-14
WO2012055113A1 (zh) 2012-05-03
DE112010005959B4 (de) 2019-08-29

Similar Documents

Publication Publication Date Title
KR101417975B1 (ko) 오디오 레코드의 엔드포인트를 자동 감지하는 방법 및 시스템
CN108962227B (zh) 语音起点和终点检测方法、装置、计算机设备及存储介质
EP3132442B1 (en) Keyword model generation for detecting a user-defined keyword
EP1199708B1 (en) Noise robust pattern recognition
US7881930B2 (en) ASR-aided transcription with segmented feedback training
JP4414088B2 (ja) 音声認識において無音を使用するシステム
CN110047481B (zh) 用于语音识别的方法和装置
CN112614514B (zh) 有效语音片段检测方法、相关设备及可读存储介质
JP2016180839A (ja) 雑音抑圧音声認識装置およびそのプログラム
CN113053390B (zh) 基于语音识别的文本处理方法、装置、电子设备及介质
CN112634908B (zh) 一种语音识别方法、装置、设备及存储介质
JP2023539948A (ja) ロングコンテキストエンドツーエンド音声認識システム
CN102456343A (zh) 录音结束点检测方法及系统
KR101122590B1 (ko) 음성 데이터 분할에 의한 음성 인식 장치 및 방법
CN109065026B (zh) 一种录音控制方法及装置
JP2011053569A (ja) 音響処理装置およびプログラム
KR101122591B1 (ko) 핵심어 인식에 의한 음성 인식 장치 및 방법
JP4791857B2 (ja) 発話区間検出装置及び発話区間検出プログラム
JP7098587B2 (ja) 情報処理装置、キーワード検出装置、情報処理方法およびプログラム
CN115512687B (zh) 一种语音断句方法、装置、存储介质及电子设备
CN115691478A (zh) 语音唤醒方法、装置、人机交互设备和存储介质
CN106920558B (zh) 关键词识别方法及装置
JP2003241787A (ja) 音声認識装置および方法、並びにプログラム
JP7035476B2 (ja) 音声処理プログラム、音声処理装置、及び音声処理方法
US8768695B2 (en) Channel normalization using recognition feedback

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170629

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180702

Year of fee payment: 5