KR0143076B1 - 다중-요소 신호 코딩 방법 및 장치 - Google Patents

다중-요소 신호 코딩 방법 및 장치

Info

Publication number
KR0143076B1
KR0143076B1 KR1019900008313A KR900008313A KR0143076B1 KR 0143076 B1 KR0143076 B1 KR 0143076B1 KR 1019900008313 A KR1019900008313 A KR 1019900008313A KR 900008313 A KR900008313 A KR 900008313A KR 0143076 B1 KR0143076 B1 KR 0143076B1
Authority
KR
South Korea
Prior art keywords
signal
projection
reference signal
distance
input signal
Prior art date
Application number
KR1019900008313A
Other languages
English (en)
Other versions
KR910002144A (ko
Inventor
츄엔린 왕 로버트
Original Assignee
존 제이 키세인
에이 티 앤드 티 코퍼레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 존 제이 키세인, 에이 티 앤드 티 코퍼레이션 filed Critical 존 제이 키세인
Publication of KR910002144A publication Critical patent/KR910002144A/ko
Application granted granted Critical
Publication of KR0143076B1 publication Critical patent/KR0143076B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/94Vector quantisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/008Vector quantisation
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/3082Vector coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

내용 없음.

Description

다중-요소 신호 코딩 방법 및 장치
제1도는 본 발명을 설명하는 벡터 선택 방법의 순서도
제2도는 본 발명을 설명하는 벡터 양자화 언어 코딩 장치의 일반적인 블럭선도
제3도는 제1도의 순서도를 실시하는데 이용될 수 있는 신호 프로세서의 일반적인 블럭선도
제4도는 본 발명을 설명하는 벡터 양자화 언어 디코딩 장치의 일반적인 블럭선도
제5도는 제2도내의 선형 예측 벡터 양자화 탐색 장치의 동작을 설명하는 순서도
제6도는 제2도내의 여기(excitation) 벡터 탐색 장치의 동작을 설명하는 순서도
제7도는 제6도의 순서도 중 좀더 상세한 부분적 거리 비교 동작의 순서도
제8도는 제4도의 디코더의 동작을 설명하는 순서도
제9도는 제1도의 순서도에 도시된 탐색 동작을 설명하는 그래프도
* 도면의 주요부분에 대한 부호의 설명
201,440 : 트랜스듀서 203 : 필터 및 샘플러
205 : 아날로그-디지틀 변환기 215 : 선형 예측 프로세서
본 발명은 신호 코딩에 관한 것으로서, 특히 디지틀 언어 및 영상 신호 코딩용 벡터 양자화 장치에 관한 것이다.
디지틀 언어 및 영상 전송 시스템에 있어서, 전송될 신호의 복잡한 특성은 높은 비트 속도와 시간이 많이 소비되는 프로세싱을 필요로 한다. 본 기술분야에 공지된 바와 같이, 통상적으로 용인 가능한 언어 또는 영상 신호의 근사치를 전송하는 것이면 충분하다. 따라서, 기대되는 신호의 범위를 포괄하는 인덱스화된 코드의 세트를 결정하고 신호에 가장 근접한 인덱스화된 코드를 전송함으로써 전송 장치는 간략화될 수 있다. 이러한 공정은 벡터 양자화 라고 알려진 것으로, 여기서 주어진 벡터 공간으로부터 언어 또는 영상 신호를 나타내는 벡터는 공지된 집단화 기술에 의해 오리지널 벡터 공간 또는 다른 표현의 벡터 공간내의 감축된 벡터의 세트로 맵된다. 관련 맵핑에 따라 감축된 벡터의 세트는 어떤 왜곡 측정치에 따라 에러를 최소화하도록 선택된다. 이러한 표현식의 벡터의 세트는 코드북(codebook)으로 인용되며 고정 메모리에 기억된다.
전송 시스템에서, 벡터 양자화에 의해 발생된 코드북은 송신기 및 수신기 모두에 기억된다. 전송될 입력 신호는 기억된 코드에서 신호를 가장 잘 매칭시키는 것을 탐색함으로써 송신기에서 처리된다. 베스트 매칭 코드의 인덱스트 입력 신호의 표현식으로서 전송된다. 전송된 인덱스에 대응하는 코드는 수신기에서 코드북으로부터 검색되어 전송 비트 속도는 상당히 감소된다.
그런데 베스트 매칭 코드는 입력 신호에만 가까워진다. 단지 소수의 엔트리를 가진 코드북은 신속한 탐색을 가능케한다. 그런데, 선택된 코드는 불량한 입력 신호의 표현식이 될 수 있으므로 정확한 신호 표현식을 얻는 것이 어렵다. 만약 코드북이 모든 가능한 입력 신호를 정확하게 표시하기에 충분한 엔트리를 포함한다면, 가장 근접한 매칭 코드를 결정하기 위해 매우 큰 코드의 세트를 통한 시간이 많이 소비되는 탐색이 필요하게 된다. 처리 지연이 신호의 전송을 위해 할당된 시간을 초과할 수도 있다. 어떤 경우에, 벡터 양자화가 표준 신호 품질을 만족시킬 수 없으며, 또다른 경우에, 신호 표현의 정확도와 전송의 속도 사이에 절충이 이루어져야만 한다. 큰 코드북을 가진 벡터 양자화의 장점을 달성하기 위해 탐색 처리에 있어 여러 가지 개선책이 제안되어 왔다.
1988년 2월 23일자 허여된 미합중국 특허 제4,727,354호는 벡터 양자화 엔코딩에 있어 가장 적합한 벡터 코드를 선택하기 위한 시스템을 개시하고 있는데, 여기에서 코드북 메모리를 통한 순차적 탐색은 미리 기억된 관련 에러 코드 벡터의 시리즈를 출력시킨다. 상기 에러 코드 벡터들은 최소 에러 코드 벡터(가장 적합한 벡터 코드)를 선택하기 위해 시간의 주기를 통해 비교된다. 클럭킹-시퀀싱 장치는 출력 래치가 현재 최소 왜곡을 가진 특정 에러 코드 벡터를 나타내는 인덱스 번호를 보유하게 된다. 입력 벡터 성분의 새로운 세트 각각은 최소 에러 코드 벡터 및 입력 벡터 성분의 특정 세트용 인덱스를 탐색하도록 시퀀스화된다.
1989년 1월 10일자 허여된 미합중국 특허 제4,797,925호는 낮은 비트 속도로 언어를 코딩하는 방법을 개시하는데, 여기에서 각각의 코드 시퀀스는 기억된 코드북의 사용시 계산상의 복잡성이 감소되도록 선행 코드 시퀀스와 관련된다. 1986년, 음향, 언어 및 신호 처리에 관한 국제회의(ICASSP)의 회의록, 페이지 2375 내지 2378 에 발표된 트란코소(I. M. Trancoso)와 아틀(B.S.Atal)의 논문 확률적 코더에서 최적 혁신을 발견하기 위한 효율적 절차에는 탐색 처리를 간략화하기 위해 신호 및 벡터가 주파수 영역으로 변환되는 장치를 개시하고 있다.
1989년 5월, 통신을 위한 IEEE 트랩색션 37권, 5호, 페이지 538 내지 540에 발표된 폴리발(K.K.Paliwal)과 라마수브라마니안(V. Ramasubramanian)의 논문 벡터 양자화를 위한 부분적 거리 탐색 알고리즘의 효율성에 대한 코드북 순서화의 효과에서는 코드 벡터와 신호 사이의 거리는 가능한한 조기에 벡터를 고려 대상에서 제거하도록 계산됨으로써 평가되어지는 탐색 알고리즘을 설명하고 있다. 상기 알고리즘은 코드북내의 벡터를 대응 집단의 크기에 따라 순서화함으로써 더욱 개선된다.
상술한 체계들에서는 정확한 매칭을 얻기 위해 전체 코드북을 통한 탐색을 하는 복잡한 신호 처리를 필요로 한다. 본 발명의 목적은 신호 처리 요구 조건이 감소된 개선된 벡터 코드북 탐색을 제공하려는 것이다.
상술한 목적은, 다중-성분 입력 신호에 대한 코드 탐색이 규정된 벡터 공간에서 선정된 방향으로 코드북의 다중-성분 코드의 프로젝션(projection)에 대응하는 신호의 세트를 발생시킴으로써 속도가 증가하는 장치에 의해 달성된다. 입력 신호의 선정된 방향으로의 프로젝션은 코드북의 베스트 매칭 코드를 탐색하는데 있어 신호 처리를 감소시키도록 코드북으로부터의 코드 프로젝션에 비교된다.
본 발명은 규정된 벡터 공간에서 표현 가능한 다수 N개 요소 기준 신호 및 기준 신호를 인덱스화하는 신호의 세트가 기억되어 있는 디지틀 신호 코딩용 장치에 관한 것이다. 규정된 벡터 공간에서 표현 가능한 N 요소 기준 신호가 수신되고 기준 신호중 하나가 선택되어 입력 신호를 나타낸다. 상기한 선택에는 선택된 방향으로의 기준 신호중 하나의 프로젝션을 각각 나타내는 신호의 세트 및 규정된 벡터 공간에서 선정된 방향으로의 입력 신호의 프로젝션을 나타내는 신호를 형성하는 것을 포함한다. 기준 신호들은 그 프로젝션에 있어 선정된 방향으로의 입력 신호의 프로젝션과 차이에 따라 선택된다. 프로젝션 차이 신호는 입력 신호에 대해 최소 거리를 가진 기준 신호를 결정한다.
제1도는 본 발명을 설명하는 N 요소 입력 신호를 가장 잘 매칭시키는 기준 신호를 선택하기 위해 N 요소 기준 신호의 코드북을 통해 탐색하는 장치를 보이는 순서도이다. 다중 신호 입력 신호
Figure kpo00001
는 영상 또는 언어 패턴의 일부를 나타낸다. 각각의 기준신호는 다중-요소 언어 또는 영상 표현 신호
Figure kpo00002
이며, 규정된 N 차원 벡터 공간에서 벡터로서 표현가능하다. 본 발명에 따르면, 코드북 탐색에 필요한 시간은 입력 신호 및 기준 신호를 선정된 방향으로 또는 규정된 벡터 공간의 차원으로 프로젝션함으로써 감소된다. 입력 신호의 프로젝션을 기준 신호의 프로젝션과 비교하는 것은 베스트 매칭 기준 신호를 얻는데 필요한 신호 처리를 상당히 감소시킨다. 규정된 성분을 프로젝션에 대한 선정된 방향으로서 선택함으로써, 비교하는데 필요한 신호 처리는 더욱 감소된다. 코드북내의 기준 신호를 증가하는 프로젝션 순서로 배열함으로써 부수적인 감축이 이루어진다. 이러한 방법에 있어, 비교의 횟수도 역시 감소된다.
제1도를 보면, 유클리드 공간(Euclidean space; RN)에서 식(2)에서 처럼 표현될 수 있는 기준 신호 벡터의 세트(y1,y2,...,yN) 각각은 공간에서 라인 상으로 프로젝트된다. 프로젝션 값 Pyn은 각각의 기준 신호 벡터에 대해 얻어진다. 기준 신호 벡터는 단계(101)에서 증가하는 프로젝션 값(P)의 순서로 기억되며 상기 순서로 코드북에 기억된다(단계(101)). 1976년, 컴퓨터 사이언스 프레스에서 출판된 호로비츠(E. Horowitz)와 샤니(S. Sahni)의 저서 데이터 구조의 기초에 기술된 이진 분류와 같은 임의의 공지된 분류 기술이 이용될 수 있다. 프로젝션 순서화된 코드북이 일단 형성되면 그후로는 어떤 입력 신호 또는 입력 신호의 시퀀스용으로도 사용될 수 있다.
각각의 기준 신호 벡터(yn) 및 각각의 입력 신호 벡터는 N 차원을 갖는다. 벡터의 프로젝션용으로 선택된 라인은 규정된 벡터 공간에서 다중-성분 신호의 성분중 하나와 일치한다. 프로젝션은 단축 맵핑되어 임의의 두 벡터, 즉 U 와 V 사이의 프로젝트된 거리 e(U,V)는
Figure kpo00003
로 규정되며, 여기서 d(U,V)는 유클리드 공간(RK)에서 벡터 U 와 V 사이의 거리이다. 이러한 방법으로, 프로젝션 맵핑은 벡터 사이를 근접시켜 탐색 속도를 증가시킨다. 본 기술에서 공지된 바와 같이, 단축 요건은 프로젝션용 라인의 선택에 제한을 가하지 않는다.
코드북이 기억된 후 단계(103)에서 탐색을 시작한다. 입력 신호의 프로젝션(Px)에 대응하는 신호가 단계(103)에서 처럼 형성된다. 단계(105)에서, 코드 북은 입력 신호 프로젝션(Px)보다 작거나 같은 프로젝션(Ps)를 가진 입력 신호의 프로젝션에 가장 근접한 벡터(ys)의 인덱스(S)를 찾기 위해 탐색된다. 이러한 탐색은 전술한 호로비츠와 샤니의 데이타 구조의 기초에 기술된 이진 탐색과 같은 본 기술분야에 공지된 임의의 탐색 방법에 의해 실행된다. 인덱스 S 가 결정되면, 인덱스
Figure kpo00004
이 단계(110)에서 형성된다. 입력 신호 프로젝션(Px)은
Figure kpo00005
로 한정되며 기준 신호 벡터는 여기에 가장 근접한 프로젝션을 갖는다.
최소 벡터 거리 신호(dm) 및 그 인덱스(m)는 단계(115)에서 신호 프로세서에서 사용할 수 있는 최대 숫자(LPN)로 먼저 세트된다. 이제, 단계(120)에서 단계(160)까지의 루프로 들어가서 입력 신호 벡터에 가장 근접한 기준 신호 벡터를 결정한다. 즉 최소 거리 신호(dm)를 제공한다. 단계(120)에서, 기준 신호 프로젝션(Pt)과 입력 신호 프로젝션(Px)과의 차이는 기준 신호 프로젝션(Ps)과 입력 신호 프로젝션(Px)과의 차이와 비교된다. 프로젝션(Pt)이 프로젝션(Ps)보다 (Px)에 근접한다면, 가장 근접한 프로젝션 인덱스(i)는 (t)로 세트되고 인덱스(t)는 증가된다(단계(125)). 그렇지 않다면, 인덱스(i)는 S로 세트되고 인덱스(s)가 증가된다(단계(130)). 단계(120)에서 단계(160)까지의 루프의 첫번째 반복에 있어서, 단계(105) 및 (110)에서 발견된 기준 신호 벡터는 단계(120)에서 베스트 매칭 벡터의 후보자로서 이용된다.
단계(125) 또는 단계(130)로부터 가장 근접한 기준 신호 프로젝션과 입력 신호 프로젝션 사이의 거리에 대응하는 신호
Figure kpo00006
가 단계(135)에서 발생된다. 만약 프로젝션 차이 신호(e)가 현재의 최소 거리 신호(dm)보다 크다면, 먼저 고찰된 기준 신호 벡터가 입력 신호(X)에 가장 근접한다. 그 이유는 거리 d(yi,x)가 대응 프로젝션 거리(e)보다 항상 크기 때문이다. 초기의 코드북 벡터 후보자의 프로젝션이 입력 신호의 프로젝션에 가장 근접하기 때문에 신호(e)는 후속하는 반복의 각각에 대해 크다는 것이다. 본 발명에 따르면, 베스트 매칭 기준 신호의 선택은 비교적 작은 수의 기준 신호에 국한된다. 부수적으로, 프로젝션 거리에 대한 신호 처리는 벡터 공간 거리에 대한 것보다 상당히 간단하다.
단계(140)에서 식(5)의 프로젝션 거리 신호(e)가 dm보다 크지 않은 경우, 베스트 매칭 기준 신호에 대한 가능성 있는 후보자는 yi이다. 단계(145)로 들어와서, 규정된 벡터 공간에서의 또다른 라인 또는 2차 라인을 따른 yi의 프로젝션(qi)와, 벡터 공간에서 2차 라인을 따른 x 의 프로젝션(qx)사이의 거리가 형성된다. 2차 프로젝션
Figure kpo00007
은 미리 구해진 최소 거리 신호(dm)과 비교된다(단계(145)). dm이 초과되는 경우, 기준신호(yi)는 베스트 매칭 기준 신호로 받아들여질 수 없다. 그 이유는 yi에 대한 어떤 프로젝션 거리(e)도 대응 벡터 공간 거리 d(yi, x)보다 항상 작기 때문에 그러하다. 이제 콘트롤은 단계(120)으로 되돌아가서 다음번 근접한 프로젝션을 가진 기준 신호에 대해 고찰한다.
만약 단계(145)에서 2차 프로젝션이 dm보다 작다면, 기준 신호는 기준 신호(ym)보다 더 좋은 후보자이다. 발생된 벡터 공간거리(d(Yi,x); 단계(150))는 최소 거리 신호(dm)와 비교된다(단계(155)). 벡터 공간 거리 d(yi,x)가 dm보다 작을때 단계(155)에서 단계(160)으로 들어간다. 최소 거리 벡터에 대한 코드북 인덱스(m)은 이제 i 와 동일하게 세트되고 dm는 d(yi,x)와 동일하게 세트된다. 그 다음 콘트롤은 다음번 반복을 하기 위해 단계(120)로 전해진다. 단계(155)에서 d(yi,x)가 dm보다 크면, 콘트롤은 곧바로 단계(120)로 가고, 최고 거리 신호(dm)는 변동되지 않는다.
제9도는 2차원적으로 입력 신호 및 다수의 기준 벡터의 위치를 도시한 것으로서 본 발명의 양자화 방법을 설명하는 것이다. 1차 프로젝션은 수평선(901)을 따라 취해지고 2차 프로젝션은 수직선(903)을 따라 취해진다. 기준 신호 벡터(y1내지 y8)는 포인트(910-1 내지 910-8)에 각각 위치한다. 벡터(y1내지 y8)의 1차 프로젝션은 포인트(915-1 내지 915-8)에 있다. 입력 신호(X)는 포인트(920)에 위치하며 그 1차 프로젝션은 기준 신호(y4와 y5)에 대한 프로젝션 포인트(915-4 내지 915-5) 사이의 포인트(925)에 있다.
표 1는 기준 신호 벡터 좌표, 1차 프로젝션
Figure kpo00008
, 2차 프로젝션
Figure kpo00009
, 거리 d(x,yi)를 열거한 것이다.
Figure kpo00010
제1도를 참조하면, 기준 신호 벡터들은 단계(101)에서 처럼 1차 프로젝션(915-1 내지 915-8)에 따라 코드북 기억 장치에 배열된다. 프로젝션들은 1차 프로젝션 좌표에 대응하기 때문에, 이들 값은 이미 기억되어 있다. 프로젝션 값을 계산할 필요는 없다. 입력 신호(X)의 좌표(14,18)가 단계(103)에서 구해지며 단계(105 및 110)의 코드북 탐색의 결과 초기 프로젝션 인덱스s=4 이고 t=5가 된다. 최소 벡터 거리 및 대응 벡터 인덱스는 단계(115)에서 가능한 최대 거리 신호(LPN)보다 큰 임의의 수로 세트된다.
첫번째 반복이 시작할 때s=4, t=5, d=LPN 이다. 단계(120)에서 1차 프로젝션
Figure kpo00011
은 1차 프로젝션
Figure kpo00012
보다 작게 결정된다. 이제 단계(130)에서 i 는 4로 세트되고 S 는 3으로 결정된다. 단계(135)에서 프로젝션 신호 e=2 가 형성된다. 1차 프로젝션 신호(e)가 dm=LPN 보다 작으므로, 2차 프로젝션
Figure kpo00013
은 단계(145)에서 dm=LPN과 비교된다. 단계(150)에서 발생된 거리 신호 d(x,y4)=13.15 는 dm=LPN 보다 작은 것이 발견된다(단계(155)). dm는 d(x,y4)로 세트되고(단계(160)) 두번째 반복을 하기 위해 단계(120)으로 다시 들어간다.
두번째 반복하는 동안, 1차 프로젝션
Figure kpo00014
Figure kpo00015
보다 작으므로 단계(125)에서 i 는 5로 세트되고 t는 6으로 증가된다. 프로젝션
Figure kpo00016
은 dm=13.15 보다 작고(단계(135)). 2차 프로젝션
Figure kpo00017
도 13.15 보다 작다(단계(140)). 거리 신호 d(x,y5)=5 가 단계(150)에서 발생되어 단계(155)에서 13.15 와 비교된다. 그 결과, 최소 거리 신호(dm)는 5가 되고 m은 5로 된다(단계(160)).
1차 프로젝션
Figure kpo00018
Figure kpo00019
보다 작으므로(단계(120)). 세번째 반복의 단계(125)에서 i는 6으로 세트되고 t는 7로 증가된다. 1차 프로젝션
Figure kpo00020
는 dm보다 작지만, 2차 프로젝션
Figure kpo00021
는 dm보다 크다. 신호(dm)는 변경되지 않고 4번째 반복이 단계(120)에서 개시된다. 인덱스(i)는 7로 변동하고 t는 8로 증가된다(단계(125)). 2차 프로젝션
Figure kpo00022
이 최소 거리 신호 dm=5보다 크므로(단계(140)), 선택 루프는 단계(140)로부터 밖으로 나가게 된다. 가장 적합한 기준 신호 벡터는 ys로서 결정되며 대응 인덱스 신호 m=5가 전송용으로 이용 가능하다.
다행히도, 본 발명에 따른 프로젝션 장치는 기준 신호 코드북을 통한 탐색의 범위를 감소시키며 제한된 탐색에 있어 각각의 기준 신호 벡터와 입력 신호를 비교하는데 필요한 신호 처리를 감소시킨다. 전술한 실시예에서는 2차원이 이용되었는데, 이는 설명을 위한 것이다. 본 발명 방법은 복잡한 언어 및 영상 신호를 표현하는데, 사용되는 것과 같은 다차원 벡터 공간에 까지 손쉽게 확장 가능한 것으로 이해해야겠다.
제2도는 본 발명을 설명하는 언어 프로세서의 일반적인 블록 다이어그램을 도시한다. 제2도에서, 발음된 메시지와 같은 언어 패턴은 마이크로폰과 같은 트랜스듀서(201)에 의해 수신된다. 마이크로폰에서 얻은 아날로그 언어 신호는 대역이 제한되며 필터 및 샘플러(203)에서 펄스 샘플의 시퀀스로 변환된다. 본 기술에서 공지된 바와 같이, 필터링은 4.0KHz 이상의 언어 신호의 주파수 성분을 제거하려는 것이며, 샘플링은 8KHz 속도로 행해진다. 샘플의 타이밍은 클럭 발생기(225)로부터의 샘플 클럭 신호 CL에 의해 제어된다. 필터 및 샘플러(203)로부터의 각각의 샘플은 아날로그-디지틀 변환기(205)에서 진폭 표시 디지틀 신호로 변환된다.
변환기(205)로부터의 디지틀 신호 샘플의 시퀀스는 선형 예측 프로세서(215)로 인가된다. 상기 프로세서는, 본 기술분야에 공지된 바와 같이, 언어 샘플을 10 내지 20 미리초의 시간 간격 또는 프레임으로 분할하며, 각각의 시간 프레임에 대해 선형 예측 계수 신호의 세트(Xa=x1,x2,...,xp)를 발생시킨다. 계수 신호들은 시간 간격의 NP 언어 샘플의 예측된 짧은 기간의 스펙트럼을 나타낸다. 시간 프레임에 대한 자동 상관 계수에 대응하는 신호(R)도 역시 프로세서(215)에서 발생된다. 지연회로(210)는 변환기(205)로부터의 디지틀 샘플을 지연시켜 시간 간격에 대한 계수 신호(xa)를 형성할 시간을 준다. 지연된 디지틀 샘플은 잉여 신호 발생기(220)에 공급되며 여기서 지연 언어 샘플과 예측 매개 변수(Xa)는 그들 사이의 차이에 대응하는 신호를 형성한다. 예측 매개변수 및 잉여 신호의 형성은 1973년 6월 19일 B.S. Atal에게 허여된 미합중국 특허 제3,740,476호에 개시된 장치에 따라서, 또는 본 기술 분야에 공지된 다른 기술에 의해 실행될 수 있다.
본 발명에 따르면, 선형 예측 계수(LPC) 코드북(235)은 공지된 벡터 양자화 절차에 따라 LPC 프로세서(215)로부터 기대되는 LPC 신호의 범위를 포괄하는 기준 신호의 세트(an=an1,an2,...,anp)를 기억한다. 각각의 시간 간격에 대한 LPC 신호 Xa 는 LPC 벡터 탐색 프로세서(230)에 인가되며 LPC 벡터 코드북은 거기에서 베스트 매칭 기준 신호가 탐색된다. 시간 간격에 대한 베스트 매칭 기준 신호에 대응하는 인덱스 신호(Ia)가 이제 프로세서(215)로부터의 LPC 신호를 표현하도록 전송된다.
유사한 방법으로, 코드북(245)은 잉여 신호 발생기(220)로 부터의 잉여 신호의 범위를 포괄하는 기준 여기 신호를 기억한다. 여러 가지 형태의 잉여 신호가 사용될 수 있지만, 셉스트럴(cepstral) 타입 신호를 사용하는 것이 탐색에 유익하다는 것이 알려져 있다. 따라서, 여기 코드북은 셉스트럴 기준 신호를 기억한다. 비교하기 위한 목적으로, 잉여 신호 발생기(220)로 부터의 잉여 신호(Xe)는 여기 탐색 프로세서(250)에 인가되기 이전에 셉스트럴 변환 프로세서(240)에서 셉스트럴 영역으로 변환된다. 각각의 시간 간격에서, 셉스트럴 여기 코드북은 프로세서(240)으로부터의 셉스트럴 변환된 잉여 신호
Figure kpo00023
를 가장 잘 매칭시키는 셉스트럴 기준 신호
Figure kpo00024
를 찾도록 탐색된다. 베스트 매칭 셉스트럴 기준 신호에 대응하는 인덱스 신호(Ie)는 발생기(220)로부터의 잉여 신호를 표시하는데 이용된다. 각각의 시간 간격에 대한 LPC 표현 인덱스 신호 및 여기 표현 인덱스 신호는 전송하기 위해 멀티플렉서(255)에서 조합된다.
제3도는 제2도에서 탐색 처리 동작에 이용될 수 있는 웨스턴 일렉트릭 타입 DSP 16 디지탈 신호 처리기와 같은 디지틀 신호 프로세서의 일반적인 블럭 다이어그램이다. 제3도를 보면, 입-출력 인터페이스(301)는 각각의 시간 간격에서 LPC 프로세서(215)로부터 LPC 신호(Xa)와, 잉여 신호 발생기(220)로부터 잉여 신호(Xe)를 수신하고 이들 신호를 버스(340)를 거쳐 랜덤 액세스 메모리(305)에 전달한다. 제3도에서 인덱스 신호(Ia및 Ie)가 확인된 다음, 이들은 인터페이스를 거쳐 멀티플렉서(255)로 전달된다. 메모리(305)는 신호(Xa, Xe)를 기억하며 가장 적합한 기준 벡터를 판별하는데 필요한 다른 신호들을 기억하고, 연산 논리부는 셉스트럴 변환과 LPC 및 여기 탐색 동작에 필요한 신호 처리를 실행한다. 제어부(315)는 프로그램 리드 온리 메모리(ROM; 325,330,335)로부터의 명령에 응답하여 제3도의 프로세서의 동작의 시퀀스를 제어한다. ROM(325,330,335)으로부터의 명령은 프로그램 메모리 인터페이스(320)를 거쳐 제어부(315)에 공급된다. 제2도에 관해 전술한 바와 같이, 여기 코드북(245)은 셉스트럴 여기 기준 신호를 기억하고 LPC 벡터 코드북(235)은 선형 예측 기준 신호를 기억한다.
제5도의 순서도는 제3도의 LPC 탐색 동작을 설명하는 것으로, 프로그램 ROM(335)에 영구 기억된 명령의 세트에 대응한다. 제5도를 보면, 기대되는 LPC 신호(Xa)의 범위를 포괄하는 LPC 기준 신호의 세트(a1, a2, ..., aN)가 발생되어 코드북 메모리(235)에 기억된다(단계(501)). 제1도에 관해 언급한 바와같이, 기준 신호들은 다중-성분 신호의 선택된 성분에 대응하는 선정된 순서에 따라 기억된다. 각각의 기억된 LPC 기준 신호는 P 계수를 포함한다. LPC 기준 신호에 대해 측정한 왜곡에 대응하는 성분
Figure kpo00025
도 역시 기억된다. Rn은 기준 신호에 대한 자동 상관 매트릭스이다. 기억된 LPC 기준 신호(an)는 다음 형태를 한다.
Figure kpo00026
단계(501)에서와 같이, LPC 기준 신호의 세트는 프로젝션 성분
Figure kpo00027
의 증가하는 순서에 따라 기억된다. 일단 순서화된 코드북이 발생되면, 그것은 제2도의 언어 코더에서 사용하기 위해 리드 온리 메모리(235)에 기억된다.
LPC 프로세서(215)는 LPC 프로세서(215)로부터 얻은 각각의 시간 프레임에 대한 LPC 신호를 발생시키고 그 신호를 제3도의 인터페이스 회로(310)에 인가한다. 입력 LPC 신호
Figure kpo00028
는 제어부(315)를 거쳐 프로그램 기억 장치(325)에서 명령의 제어하에 메모리(305)에 위치한다(단계(503)). 프로젝션 성분
Figure kpo00029
은 연산 논리부(310)에서 발생되어 메모리(305)에 기억된다. 프로젝션
Figure kpo00030
을 가진 기억된 기준 벡터는 입력 신호 프로젝션
Figure kpo00031
에 가장 근접하지만 이보다는 작은 기억된 벡터인데 이에 대한 탐색은 단계(505)에 따라 실행된다. 인덱스(S)가 세트되고 인덱스(t)는 S+1 로 세트되어, 입력 신호 프로젝션(Pa)은 프로젝션(Ps)과 Pt 사이에 묶여진다(단계(510)). 최소 거리 신호(dm)와 그 인덱스(m)는 제1도에 관해 기술한 바와 같이 단계(515)에서 LPN 으로 먼저 세트된다. 입력 LPC 신호(Xa)를 가장 잘 매칭시키는 기준 입력 신호에 대한 인덱스를 결정하기 위해, 단계(520 내지 560)의 루프가 이제 반복된다.
단계(520)에서, 기준 신호 프로젝션(Pt)과 입력 신호 프로젝션(Pa)간의 차이는 기준 신호 프로젝션(Ps)과 입력 신호 프로젝션(Pa)간의 차이와 비교된다. 두 프로젝션 거리중 작은 것이 선택된다. 프로젝션(Pt)이 Pa에 더 근접하고 있다면, 단계(525)로 가서, 가장 근접한 프로젝션 인덱스(i)는 t 로 세트되고 인덱스(t)는 증가된다(단계(525)). 그렇지 않다면, 인덱스(i)는 s 로 세트되고 인덱스(s)는 증가된다(단계(530)). 단계(520) 내지 (560)의 루트를 처음 반복함에 있어, 단계(505) 및 (510)에서 입력 신호 프로젝션에 가장 근접한 것으로 알려진 기준 신호 프로젝션이 단계(520)에서 베스트 매칭 벡터에 대한 후보자로서 사용된다.
단계(535)에서는 단계(525) 또는 (530)으로부터 입력 신호 프로젝션과 가장 인접한 기준 신호 프로젝션간의 거리에 대응하는 프로젝션 거리 신호
Figure kpo00032
가 발생된다. 만약 프로젝션 차이 신호(e)가 현재의 최소 거리 신호(dm)보다 작다면, 기준 신호(ai)가 입력 신호(Xa)에 가장 근접한 기준 신호 벡터로 될 수 있다. 제1도에 대해 설명한 2차 프로젝션 비교는 부수적인 검사로서 이용된다. LPC 기준 신호에 대해, 2차 프로젝션을 선택하는 것은 용이하지 않다. 따라서, 단계(545)의 부분적 거리 비교가 이용된다. 단계(545)에서, 거리 신호는 한 성분씩 발생되고 각각의 성분이 더해진 후 최소 거리 신호(dm)와 비교된다. 단계(545)에서 부분적 거리중 하나가 최소 거리(dm) 보다 크게 된다면, LPC 기준 벡터(ai)와 입력 신호 LPC 벡터(Xa)간의 거리는 너무 큰 것이다. 이제 콘트롤은 단계(520)로 되돌려지고 다음번 후보자 기준 신호에 대해 고찰한다.
단계(545)의 부분적 거리 발생 및 비교 동작은 제7도의 순서도에 더욱 상세히 도시되어 있다. 제7도를 참조하면, 단계(540)에서 이미 결정된 최소 거리보다 프로젝션 거리(e)가 작을 경우 단계(701)로 들어오게 된다. 단계(701)에서, 기준 신호 성분 인덱스(j)는 1로 세트되고 부분적 거리 신호(dp)는 0으로 세트된다. 부분적 거리는 단계(705)에서 처럼
Figure kpo00033
에 따라 성분 j만큼 증가된다. j가 1일 때, di는 차이 신호 ai1-Xa1의 절대값에 대응한다. 부분적 거리는 이미 결정된 최소 거리 신호(단계(71))와 비교된다. 임의의 j에 있어 식(12)의 부분적 거리가 최소 거리(dm)보다 크다면, 단계(710)로부터 단계(520)로 다시 들어간다. 그렇지 않다면, 최종 성분 j=p가 부분적 거리 신호에 더해질 때까지, 단계(715)에서 성분 인덱스(j)가 증가되며 단계(720)로부터 단계(705)로 다시 들어가게 된다. 이때, 후보자 LPC 기준 신호(ai)는 베스트 매칭 후보자로 결정된다. 단계(560)로 들어가서 m은 i로 세트되고 dm는 단계(545)에서 발견된 dp로 세트되며 단계(520)로 다시 들어간다.
단계(540)에서 프로젝션 차이 신호(e)가 현재의 최소 거리 신호(dm)보다 클 때, 이전에 고찰된 기준 신호 벡터(am)는 입력 신호(Xa)에 가장 근접한 것으로 선택된다. 제1도에 관해 전술한 바와 같이, 가장 근접한 프로젝션(Ps및 Pt)이 개시시의 코드북 벡터 후보자로 선택되며, 프로젝션 신호는 단계(520 내지 560)의 루프가 연속적으로 각각 반복하는 동안 증가한다. 이때, 선택된 기준 신호 Ia에 대한 인덱스는 제3도의 프로세서에서 m 으로 세트되고 채널(260)상으로 전송하기 위해 제2도의 멀티플렉서(255)로 보내진다.
선택된 LPC기준 신호에 대한 인덱스를 결정하는 것에 덧붙여, 제2도의 코더는 또한 잉여 신호 발생기(220)에서 발생된 잉여 신호(Xe)를 가장 잘 매칭시키는 여기 기준 신호에 대응하는 인덱스 신호(Ie)를 제공한다. 그런데, 시간 프레임 간격에 대한 잉여 신호는 비교적 복잡하다, 예를들면, 16ms 속도 패턴 간격에 대한 Xe는 128개의 무작위로 변동하는 성분을 갖는다. 잉여에 대한 시간 영역 벡터 양자화 코드북이 이용될 수 있다. 본 기술분야에 공지된 방법으로 시간 영역 기준 신호 엔트리를 셉스트럴 영역으로 변환함으로써 좀더 간결한 코드북이 형성될 수 있다. 유익하게도, 잉여(Xe)에 대응하는 셉스트럴 영역 기준 신호는 더 적은 성분, 즉 16개 성분을 가지며, 이들 성분은 무작위보다는 양호하게 행동한다. 신호 처리에 있어 셉스트럴의 형성 및 이용에 대해서는 1978년, 프랜딕 홀(Prentice Hall)에서 발행한 엘.알.레비너(L. R. Rabiner)와 알. 더블유. 샤퍼(R. W. Schafer)의 언어 신호의 디지틀 프로세싱(Digital Processing of Speech Signals) 페이지 355 내지 390, 또한 1987년 에디슨-웨슬리 출판사에서 발행한 D. O′Shaughnessy의 언어 통신 인간 및 기계(Speech Communication Human and Machine) 페이지 226 내지 231 및 309 내지 310 에 기술되어 있다.
잉여신호
Figure kpo00034
(여기서 N은 128)는 변환 신호
Figure kpo00035
를 형성하고, 역 분산 푸리에 변환(Inverse Discrete Fourier Transform)
Figure kpo00036
(여기서 M은 32임)을 발생시킴으로써 셉스트럴 영역으로 변환된다. 이러한 방법으로, 잉여 신호는 더욱 처리가 쉬운 형태로 된다.
제2도 및 3도에서 코드북(245)은 증가하는 1차 프로젝션 값의 순서로 기억된 셉스트럴 영역 여기 기준 신호의 세트를 포함한다. 각각의 신호(eci)는 M개 성분을 가진 셉스트럴 벡터로서 기억된다.
Figure kpo00037
성분 eci1은 1차 프로젝션으로 선택되고 성분 eci2은 2차 프로젝션으로 선택된다. 잉여 신호(ex)는 제2도의 셉스트럴 변환 프로세서(240)에서 셉스트럴 신호
Figure kpo00038
로 변환된다. 셉스트럴 변환 프로세서는 제3도의 신호 프로세서 장치에서의 다른 기능에 따라 또는 본 기술에서 공지된 다른 수단에 의해 실행될 것이다. 신호(ecx)가 얻어지면, 제3도의 신호 프로세서는 제6도의 순서도에 설명된 여기 탐색 처리 동작을 수행한다. 이러한 동작은 프로그램 메모리(230)에 기억된 명령의 제어하에 수행된다.
제6도를 참고하면, 양자화된 기준 셉스트럴 벡터의 세트(ec1, ec2, ..., ecN)는 1차 프로젝션 성분의 순서에 따라 셉스트럴 여기 벡터 코드북(245)에 영구 기억된다(단계(601)). 잉여 신호 발생기(220)로부터의 입력 잉여 신호
Figure kpo00039
는 셉스트럴 변환 프로세서(240)에 인가되어 식(17)의 셉스트럴 신호가 발생된다(단계(603)). 코드북은 셉스트럴 변환된 입력 신호 잉여
Figure kpo00040
의 프로젝션(Pe)보다 작은 셉스트럴 여기 기준 신호 벡터
Figure kpo00041
의 프로젝션 (Ps)에 대응하는 인덱스(S)를 결정하기 위해 탐색된다. 이제 다음의 식
Figure kpo00042
을 만족시키는 가장 근접한 여기 기준 신호
Figure kpo00043
에 대응하여 여기 기준 신호 인덱스 t=s+1가 발생된다(단계(610)).
셉스트럴 여기 기준 신호 벡터
Figure kpo00044
는 여기 입력 신호 성분(Xce1)에 가장 근접한 성분(ec1)을 따라 프로젝션을 갖는다. 최소 거리 신호(dm) 및 그 인덱스(m)는 제3도의 신호 프로세서에서 가능한 가장 큰 수로 먼저 세트되(단계(615))고, 단계(620 내지 660)의 루프는 셉스트럴 영역에서 가장 근접한 매칭 여기 기준 신호의 인덱스를 결정하기 위해 반복된다.
단계(620)에서, 기준 신호 프로젝션(Pt)과 입력 신호 프로젝션(Pe)간의 차이는 기준 신호 프로젝션(Ps)과 입력 신호 프로젝션(Pc)간의 차이와 비교된다. 만약 프로젝션(Pt)이 프로젝션(Ps)보다 프로젝션(Pe)에 근접한다면, 가장 근접한 프로젝션 인덱스(i)는 t로 세트되고 인덱스(t)는 증가된다(단계(625)). 그렇지 않다면, 인덱스(i)는 S로 세트되고 인덱스(t)는 감소된다(단계(630)). 단계(620 내지 660)의 루프의 첫번째 반복에 있어서, 단계(605 및 610)에서 발견된 셉스트럴 기준 신호 벡터는 단계(620)에서 베스트 매칭 셉스트럴 벡터에 대한 후보자로서 사용된다.
단계(625 또는 630)로부터 입력 신호 프로젝션과 가장 근접한 기준 신호 프로젝션과의 거리에 대응하는 신호
Figure kpo00045
는 단계(635)에서 발생된다. 만약 프로젝션 차이 신호(e)가 현재의 최소 거리 신호(dm)보다 크다면, 이전에 고찰된 셉스트럴 기준 신호 벡터가 여기 입력 신호(Xe)에 가장 근접한 것이다. 그러면 인덱스 신호(Ie)가 제3도의 프로세서에서 m으로 세트되고 인터페이스(301)로부터 출력된다. 거리
Figure kpo00046
는 대응 프로젝션 거리(e)보다 항상 크기 때문에 상기 선택이 가능하다. 처음의 코드북 셉스트럴 벡터 후보자의 프로젝션이 입력 신호의 프로젝션에 가장 근접하기 때문에 신호(e)는 후속하는 각각의 반복에 있어 큰 것으로 된다. 제1도에 관해 전술한 바와 같이, 베스트 매칭 기준 신호의 선택은 비교적 적은 수의 기준 신호에 국한되며 프로젝션 거리에 대한 신호 처리는 벡터 공간 거리에 대한 것보다 상당히 간단하다.
단계(640)에서 식(19)의 프로젝션 거리 신호(e)가 (dm)보다 크지 않은 경우, ei가 베스트 매칭 여기 기준 신호에 대한 가능한 후보자가 된다. 단계(645)로 들어가서, 셉스트럴 벡터 공간에서 2차 프로젝션 라인을 따른
Figure kpo00047
의 프로젝션, qi과 셉스트럴 벡터 공간에서 2차 라인을 따른 Xe 의 프로젝션(qe)간의 거리가 형성된다. 이 2차 프로젝션
Figure kpo00048
은 최소 거리 신호(dm)와 비교된다(단계(645)). dm이 초과되면,
Figure kpo00049
에 대한 어떤 프로젝션 거리(e)도 대응 셉스트럴 벡터 공간 거리
Figure kpo00050
보다 항상 작기 때문에 기준 신호
Figure kpo00051
는 베스트 매칭 기준 신호로 받아들어질 수 없다. 콘트롤은 이제 단계(620)로 되돌려지고 다음번 인접한 프로젝션을 가진 기준 신호에 대해 고찰한다.
만약 단계(645)에서 2차 프로젝션이 dm보다 작으면, 기준 신호
Figure kpo00052
는 기준 신호
Figure kpo00053
보다 양호한 후보자이다. 단계(650)에서 발생된 셉스트럴 공간 거리
Figure kpo00054
는 최소 거리 신호(dm)와 비교된다(단계(655)). 셉스트럴 벡터 공간 거리
Figure kpo00055
가 dm보다 작을 때 단계(655)에서 단계(660)으로 들어간다. 최소 거리 셉스트럴 벡터에 대한 코드북 인덱스(m)는 이제 i와 동일하게 세트되고 dm
Figure kpo00056
와 동일하게 세트된다. 콘트롤은 다음번 반복을 하기 위해 이제 단계(620)로 전달된다. 최소 거리 신호(dm)은 변동되지 않고 남아 있는다.
각각의 시간 프레임 간격에서, 입력 신호에 대한 가장 근접한 매칭 LPC 기준 신호 인덱스(Ia)는 제2도의 LPC벡터 탐색 프로세서(230)에서 발생된다. 입력 신호에 대한 가장 근접한 매칭 여기 인덱스(Ie)는 여기 탐색 프로세서(250)에서 발생된다. 상기 두 인덱스는 멀티플렉서(255)에서 프레임 표현 코드로 조합된다. 제2도의 코더가 통신 시스템에서 사용되는 경우, 신호(Ia및 Ie)를 포함한 코드는 전송용으로 조성되어 채널(260)에 인가된다.
제4도는 인덱스 신호(Ia및 Ie)를 시간 프레임 간격에 대한 언어 패턴으로 변환하기에 적합한 디코더를 도시한다. 제8도는 제4도의 디코더의 동작을 설명하는 순서도이다. 각각의 시간 프레임에 대한 인덱스(Ia및 Ie)를 포함한 코드가 수신되고(제8도의 단계(801)). 제4도의 디코더는 그 인덱스를 디멀티플렉서(401)에서 분리한다. LPC 인덱스(Ia)는 LPC 벡터 선택기(405)에 공급된다. LPC 벡터 선택기는 인덱스(Ia)를 LPC 코드북(410)내의 대응 기준 코드를 어드레스 하는데 이용한다. 코드북(410)은 제2도의 코드북(235)에 기억되어 있는 것과 동일한 기준 신호를 갖는다. 대응 LPC 기준 코드(aIa)는 코드북(410)으로부터 검색되고(단계(805)) 언어 합성기(425)로 인가된다. 합성기는 본 기술분야에 공지된 임의의 LPC 합성기이다.
디멀티플렉서(401)로부터의 인덱스 신호(Ie)는 여기 벡터 선택기(415)에 인가된다. 여기 인덱스 신호는 여기 벡터 코드북(420)을 어드레스한다. 상기 여기 벡터 코드북은 언어 합성기(425)용 여기 신호로서 바로 사용될 수 있는 시간 영역 여기 기준 신호를 포함한다. 인덱스(Ie)에 대응하는 시간 영역 여기 기준 신호가 검색되고(단계(810)) 합성기(425)로 인가된다. 언어 합성기(425)는 선택기(405)로부터의 현재의 시간 프레임 LPC 신호(aIa)를 선택기(415)로부터의 현재의 시간 프레임 여기 신호(eIe)와 조합하고(단계(815)) 제2도의 코더에 인가된 시간 프레임 입력 신호를 본뜬 디지틀 신호(Sn)를 형성한다.
디지틀-아날로그 변환기(430)는 현재 시간 프레임의 언어 패턴을 표현하는 샘플의 시퀀스를 발생시킨다. 저역통과 필터(435)는 샘플 시퀀스로부터 원치 않는 고주파 성분을 제거하여 아날로그 언어 신호를 소리(sound) 패턴으로 변환한다. LPC 벡터 선택기(405), 여기 벡터 선택기(415), 언어 합성기(425)의 동작은 본 기술분야에 공지된 기술에 의해 제3도에 도시된 것과 같은 신호 프로세서 장치에서 실행될 수 있다.
본 발명은 실시예를 참고로 하여 기술되었지만, 본 기술분야에 숙련된 사람이면 본 발명의 정신 및 범주에서 벗어나지 않고도 여러 가지 수정 및 변경을 이룰 수 있다는 것은 분명하다. 본 발명은 언어 통신 코딩 장치에 대해 설명되었지만, 영상 타입 코딩 장치에도 똑같이 적용 가능하며, 언어 또는 영상이 추후의 검색을 위해 엔코드되고 기록매체에 기억되는 시스템에서 이용될 수도 있다.

Claims (12)

  1. 규정된 벡터 공간에서 표현 가능한 다수의 다중-요소 기준 신호(y1,y2,...,yN)를 기억시키는 단계와, 상기 규정된 벡터 공간에서 표현 가능한 다중-요소 입력 신호(X)를 수신하는 단계 및, 상기 다중-요소 입력 신호를 나타내기 위해 기억된 기준 신호(ym)중 하나를 선택하는 단계를 구비하며, 상기 선택 단계는 상기 규정된 벡터 공간에서 선정된 방향을 지정하는 단계와, 상기 규정된 벡터 공간에서 선정된 방향으로의 기준 신호(yn)의 프로젝션(Pyn)을 각각 나타내는 신호의 세트를 형성하는 단계와, 상기 규정된 벡터 공간에서 선정된 방향으로의 입력 신호의 프로젝션(Px)을 나타내는 신호를 형성하는 단계와, 선정된 방향으로의 프로젝션(Pyi)에 응답하여 기억된 기준 신호(yi)중 하나 또는 여러개를 선정하는 단계와, 각각의 선정된 기준 신호(yi)에 대해, 기준 신호 프로젝션(Pyi) 및 입력 신호 프로젝션(Px)에 응답하여 선정된 방향으로의 기준 신호 프로젝션과 입력 신호 프로젝션간의 차이
    Figure kpo00057
    를 나타내는 신호를 발생시키는 단계 및, 프로젝션 차이 신호에 응답하여 입력 신호를 가장 근접하게 매칭시키는 기준 신호(ym)를 결정하는 단계를 포함하는 다중-요소 신호 코딩 방법.
  2. 제1항에 있어서, 상기 기억된 기준 신호들은 선정된 방향으로의 프로젝션의 순서
    Figure kpo00058
    에 따라 배열되며, 하나 또는 여러개의 기준 신호를 선정하는 단계는 입력 신호 프로젝션(Px)으로부터 프로젝션(Pyi)의 증가하는 거리의 순서에 따라 기준 신호(yi)를 연속적으로 선택하는 단계를 포함하는 다중-요소 신호 코딩 방법.
  3. 제2항에 있어서, 프로젝션 차이 신호에 응답하여 입력 신호를 가장 근접하게 매칭시키는 기준 신호(ym)를 결정하는 단계는 가장 근접하게 매칭한 기준 신호의 인덱스에 대응하는 신호(m)를 N 보다 큰 값으로 초기에 세팅하고 가장 근접한 매칭 기준 신호(ym)와 입력 신호(X)간의 거리에 대응하는 신호(dm)를 규정된 벡터 공간에서 임의의 기준 신호와 입력 신호간의 가장 큰 거리보다 큰 값으로 세팅하는 단계와, 연속적으로 선택된 기준 신호(yi) 각각에 대해, 프로젝션 거리 신호
    Figure kpo00059
    를 거리 신호(dm)와 비교하는 단계와, 비교 단계에 있어 선택된 기준 신호 프로젝션 거리
    Figure kpo00060
    가 규정된 벡터 공간 거리 dm보다 작은 것에 응답하여, a) 규정된 벡터 공간에서 입력 신호(X)와 기준 신호(yi) 간의 벡터 공간 거리 d(yi,x)에 대응하는 신호를 형성시키고, b)벡터 공간 거리 신호(dm)를 d(yi,x)dm에 응답하여 벡터 공간 거리 신호 d(yi,x)로 대체하고, c) 선택된 기준 신호 인덱스(m)를 기준 신호 인덱스(i)와 동일하게 세팅하고, d) 후속하여 선정된 기준 신호(i)에 대한 비교 단계로 되돌아가는 단계와, 비교 단계에 있어 선택된 기준 신호 프로젝션 거리(Pyi)가 벡터 공간 거리(dm)보다 크거나 같은 것에 응답하여, 기준 신호(m)를 가장 근접한 매칭 기준 신호로서 선택하는 단계를 구비하는 다중-요소 신호 코딩 방법.
  4. 제1항, 제2항, 제3항중 어느 한 항에 있어서, 상기 규정된 벡터 공간에서 규정된 방향은 다중-요소 입력 신호의 선정된 요소에 대응하는 다중-요소 신호 코딩 방법.
  5. 제1항, 제2항, 제3항중 어느 한 항에 있어서, 상기 다중-요소 입력 신호는 언어 표현 신호인 다중-요소 신호 코딩 방법.
  6. 제1항, 제2항, 제3항중 어느 한 항에 있어서, 상기 다중-요소 입력 신호는 영상 표현 신호인 다중-요소 신호 코딩 방법.
  7. 규정된 벡터 공간에서 표현 가능한 다수의 다중-요소 기준 신호(y1,y2,...,yN)를 기억시키는 수단과, 규정된 벡터 공간에서 표현 가능한 다중-요소 입력 신호(X)를 수신하는 수단과, 다중-요소 입력 신호를 나타내기 위해 기억된 기준 신호(ym)중 하나를 선택하는 수단을 구비하며, 상기 선택 수단은 규정된 벡터 공간에서 선정된 방향을 지정하는 수단과, 기준 신호 및 선정된 방향에 응답하여 규정된 벡터 공간에서 선정된 방향으로의 기준 신호(yn)의 프로젝션(Pyn)을 각각 나타내는 신호의 세트를 형성하는 수단과, 입력 신호 및 선정된 방향에 응답하여 규정된 벡터 공간에서 선정된 방향으로의 입력 신호의 프로젝션(Px)을 나타내는 신호를 형성하는 수단과, 기준 신호(yn)의 선정된 방향으로의 프로젝션(Pyn)에 응답하여 선정된 방향으로의 프로젝션(Pyi)에 응답하여 기억된 기준 신호(yi)중 하나 또는 여러개를 선정하는 수단과, 기준 신호 프로젝션(Pyi) 및 입력 신호 프로젝션(Px)에 응답하여 각각의 선정된 준 신호(yi)에 대해, 기준 신호 프로젝션(Pyi) 및 입력 신호 프로젝션(Px)에 응답하여 선정된 방향으로의 기준 신호 프로젝션과 입력 신호 프로젝션간의 차이
    Figure kpo00061
    를 나타내는 신호를 발생시키는 수단 및, 프로젝션 차이 신호에 응답하여 입력 신호를 가장 근접하게 매칭시키는 기준 신호(ym)를 결정하는 수단을 구비하는 다중-요소 신호 코딩 장치.
  8. 제7항에 있어서, 기억된 기준 신호들은 선정된 방향으로의 프로젝션의 순서
    Figure kpo00062
    에 따라 배열되며, 하나 또는 여러개의 기준 신호를 선정하는 수단은 입력 신호 프로젝션(Px)으로부터 프로젝션(Pyi)의 증가하는 거리의 순서에 따라 기준 신호(yi)를 연속적으로 선택하는 수단을 포함하는 다중-요소 신호 코딩 장지.
  9. 제8항에 있어서, 프로젝션 차이 신호에 응답하여 입력 신호를 가장 근접하게 매칭시키는 기준 신호(ym)를 결정하는 수단은 가장 근접하게 매칭한 기준 신호의 인덱스에 대응하는 신호(m)를 N 보다 큰 값으로 초기에 세팅하고 가장 근접한 매칭 기준 신호(ym)와 입력 신호(X)간의 거리에 대응하는 신호(dm)를 규정된 벡터 공간에서 임의의 기준 신호와 입력 신호간의 가장 큰 거리보다 큰 값으로 세팅하는 수단과, 연속적으로 선택된 기준 신호(yi) 각각에 대해, 프로젝션 거리 신호
    Figure kpo00063
    를 거리 신호 dm와 비교하도록 동작하는 수단과, 비교 수단에서 선택된 기준 신호 프로젝션 거리
    Figure kpo00064
    가 규정된 벡터 공간 거리(dm)보다 작은 것에 응답하여, 규정된 벡터 공간에서 입력 신호(X)와 기준 신호(yi)간의 벡터 공간 거리 d(yi,x)에 대응하는 신호를 형성시키는 수단과, 벡터 공간 거리 신호(dm)를 d(yi,x)dm에 응답하여 벡터 공간 거리 신호 d(yi,x)로 대체하고, 선택된 기준 신호 인덱스(m)를 기준 신호 인덱스(i)와 동일하게 세팅하는 수단과, 비교 수단에서 선택된 기준 신호 프로젝션 거리
    Figure kpo00065
    가 벡터 공간 거리(dm)보다 크거나 같은 것에 응답하여, 기준 신호(m)를 가장 근접한 매칭 기준 신호로서 선택하는 수단을 구비하는 다중-요소 신호 코딩 장치.
  10. 제7항, 제8항, 제9항 중 어느 한 항에 있어서, 상기 규정된 벡터 공간에서 선정된 방향은 다중-요소 입력 신호의 선정된 요소에 대응하는 다중-요소 신호 코딩 장치.
  11. 제7항, 제8항, 제9항중 어느 한 항에 있어서, 상기 다중-요소 입력 신호는 언어 표현 신호인 다중-요소 신호 코딩 장치.
  12. 제7항, 제8항, 제9항중 어느 한 항에 있어서, 상기 다중-요소 입력 신호는 영상 표현 신호인 다중-요소 신호 코딩 장치.
KR1019900008313A 1989-06-13 1990-06-07 다중-요소 신호 코딩 방법 및 장치 KR0143076B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US365,642 1989-06-13
US07/365,642 US5010574A (en) 1989-06-13 1989-06-13 Vector quantizer search arrangement

Publications (2)

Publication Number Publication Date
KR910002144A KR910002144A (ko) 1991-01-31
KR0143076B1 true KR0143076B1 (ko) 1998-08-17

Family

ID=23439717

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019900008313A KR0143076B1 (ko) 1989-06-13 1990-06-07 다중-요소 신호 코딩 방법 및 장치

Country Status (5)

Country Link
US (1) US5010574A (ko)
EP (1) EP0403154B1 (ko)
JP (1) JPH0779252B2 (ko)
KR (1) KR0143076B1 (ko)
CA (1) CA2013247C (ko)

Families Citing this family (166)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5010574A (en) 1989-06-13 1991-04-23 At&T Bell Laboratories Vector quantizer search arrangement
GB9017600D0 (en) * 1990-08-10 1990-09-26 British Aerospace An assembly and method for binary tree-searched vector quanisation data compression processing
US5194864A (en) * 1990-10-03 1993-03-16 Olympus Optical Co., Ltd. Vector quantization method and apparatus
US5765127A (en) * 1992-03-18 1998-06-09 Sony Corp High efficiency encoding method
US5337394A (en) * 1992-06-09 1994-08-09 Kurzweil Applied Intelligence, Inc. Speech recognizer
EP0751496B1 (en) * 1992-06-29 2000-04-19 Nippon Telegraph And Telephone Corporation Speech coding method and apparatus for the same
US5821924A (en) * 1992-09-04 1998-10-13 Elonex I.P. Holdings, Ltd. Computer peripherals low-power-consumption standby system
DE4315313C2 (de) * 1993-05-07 2001-11-08 Bosch Gmbh Robert Vektorcodierverfahren insbesondere für Sprachsignale
US6304675B1 (en) 1993-12-28 2001-10-16 Sandia Corporation Visual cluster analysis and pattern recognition methods
US5598505A (en) * 1994-09-30 1997-01-28 Apple Computer, Inc. Cepstral correction vector quantizer for speech recognition
JP3273455B2 (ja) * 1994-10-07 2002-04-08 日本電信電話株式会社 ベクトル量子化方法及びその復号化器
CA2191972A1 (en) * 1995-04-19 1996-10-31 James Patrick Ashley Method and apparatus for low rate coding and decoding
US5706392A (en) * 1995-06-01 1998-01-06 Rutgers, The State University Of New Jersey Perceptual speech coder and method
US6192336B1 (en) * 1996-09-30 2001-02-20 Apple Computer, Inc. Method and system for searching for an optimal codevector
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
ITFI20010199A1 (it) 2001-10-22 2003-04-22 Riccardo Vieri Sistema e metodo per trasformare in voce comunicazioni testuali ed inviarle con una connessione internet a qualsiasi apparato telefonico
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
FR2893432B1 (fr) * 2005-11-16 2008-01-04 Atmel Corp Quantificateur de vecteur fonde sur une dichotomie spatiale a n dimensions
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
JP2008102092A (ja) * 2006-10-20 2008-05-01 Denso Corp 計器
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9053089B2 (en) 2007-10-02 2015-06-09 Apple Inc. Part-of-speech tagging using latent analogy
US8620662B2 (en) 2007-11-20 2013-12-31 Apple Inc. Context-aware unit selection
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8065143B2 (en) 2008-02-22 2011-11-22 Apple Inc. Providing text input using speech data and non-speech data
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8464150B2 (en) 2008-06-07 2013-06-11 Apple Inc. Automatic language identification for dynamic text processing
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8768702B2 (en) 2008-09-05 2014-07-01 Apple Inc. Multi-tiered voice feedback in an electronic device
US8898568B2 (en) 2008-09-09 2014-11-25 Apple Inc. Audio user interface
US8583418B2 (en) 2008-09-29 2013-11-12 Apple Inc. Systems and methods of detecting language and natural language strings for text to speech synthesis
US8712776B2 (en) 2008-09-29 2014-04-29 Apple Inc. Systems and methods for selective text to speech synthesis
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US8862252B2 (en) 2009-01-30 2014-10-14 Apple Inc. Audio user interface for displayless electronic device
US8380507B2 (en) 2009-03-09 2013-02-19 Apple Inc. Systems and methods for determining the language to use for speech generated by a text to speech engine
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10540976B2 (en) 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US8682649B2 (en) 2009-11-12 2014-03-25 Apple Inc. Sentiment prediction from textual data
US8600743B2 (en) 2010-01-06 2013-12-03 Apple Inc. Noise profile determination for voice-related feature
US8311838B2 (en) 2010-01-13 2012-11-13 Apple Inc. Devices and methods for identifying a prompt corresponding to a voice input in a sequence of prompts
US8381107B2 (en) 2010-01-13 2013-02-19 Apple Inc. Adaptive audio feedback system and method
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
DE112011100329T5 (de) 2010-01-25 2012-10-31 Andrew Peter Nelson Jerram Vorrichtungen, Verfahren und Systeme für eine Digitalkonversationsmanagementplattform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US8713021B2 (en) 2010-07-07 2014-04-29 Apple Inc. Unsupervised document clustering using latent semantic density analysis
US8719006B2 (en) 2010-08-27 2014-05-06 Apple Inc. Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis
US8719014B2 (en) 2010-09-27 2014-05-06 Apple Inc. Electronic device with text error correction based on voice recognition data
US10515147B2 (en) 2010-12-22 2019-12-24 Apple Inc. Using statistical language models for contextual lookup
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US8781836B2 (en) 2011-02-22 2014-07-15 Apple Inc. Hearing assistance system for providing consistent human speech
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10672399B2 (en) 2011-06-03 2020-06-02 Apple Inc. Switching between text data and audio data based on a mapping
US8812294B2 (en) 2011-06-21 2014-08-19 Apple Inc. Translating phrases from one language into another using an order-based set of declarative rules
KR20140056276A (ko) * 2011-07-18 2014-05-09 톰슨 라이센싱 접속된 컴포넌트의 오리엔테이션 벡터를 인코딩하기 위한 방법 및 디바이스, 대응하는 디코딩 방법 및 디바이스, 및 그 인코딩된 데이터를 전달하는 저장 매체
US8706472B2 (en) 2011-08-11 2014-04-22 Apple Inc. Method for disambiguating multiple readings in language conversion
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US8762156B2 (en) 2011-09-28 2014-06-24 Apple Inc. Speech recognition repair using contextual information
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US8775442B2 (en) 2012-05-15 2014-07-08 Apple Inc. Semantic search using a single-source semantic model
US10019994B2 (en) 2012-06-08 2018-07-10 Apple Inc. Systems and methods for recognizing textual identifiers within a plurality of words
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US8935167B2 (en) 2012-09-25 2015-01-13 Apple Inc. Exemplar-based latent perceptual modeling for automatic speech recognition
DE212014000045U1 (de) 2013-02-07 2015-09-24 Apple Inc. Sprach-Trigger für einen digitalen Assistenten
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US10572476B2 (en) 2013-03-14 2020-02-25 Apple Inc. Refining a search based on schedule items
US9977779B2 (en) 2013-03-14 2018-05-22 Apple Inc. Automatic supplementation of word correction dictionaries
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10642574B2 (en) 2013-03-14 2020-05-05 Apple Inc. Device, method, and graphical user interface for outputting captions
US9733821B2 (en) 2013-03-14 2017-08-15 Apple Inc. Voice control to diagnose inadvertent activation of accessibility features
WO2014144949A2 (en) 2013-03-15 2014-09-18 Apple Inc. Training an at least partial voice command system
US11151899B2 (en) 2013-03-15 2021-10-19 Apple Inc. User training by intelligent digital assistant
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
KR101904293B1 (ko) 2013-03-15 2018-10-05 애플 인크. 콘텍스트-민감성 방해 처리
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
DE112014002747T5 (de) 2013-06-09 2016-03-03 Apple Inc. Vorrichtung, Verfahren und grafische Benutzerschnittstelle zum Ermöglichen einer Konversationspersistenz über zwei oder mehr Instanzen eines digitalen Assistenten
CN105265005B (zh) 2013-06-13 2019-09-17 苹果公司 用于由语音命令发起的紧急呼叫的系统和方法
AU2014306221B2 (en) 2013-08-06 2017-04-06 Apple Inc. Auto-activating smart responses based on activities from remote devices
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
EP3149728B1 (en) 2014-05-30 2019-01-16 Apple Inc. Multi-command single utterance input method
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3740476A (en) * 1971-07-09 1973-06-19 Bell Telephone Labor Inc Speech signal pitch detector using prediction error data
JPS5272504A (en) * 1975-12-15 1977-06-17 Fuji Xerox Co Ltd Device for recognizing word audio
DE3382796T2 (de) * 1982-06-11 1996-03-28 Mitsubishi Electric Corp Vorrichtung zur Zwischenbildkodierung.
JPS6143875A (ja) * 1984-08-08 1986-03-03 Nippon Telegr & Teleph Corp <Ntt> ベ−シツクセル式全探索ベクトル量子化符号化器
IT1190565B (it) * 1986-04-07 1988-02-16 Cselt Centro Studi Lab Telecom Procedimento e dispositivo di codifica di segnali numerizati mediante quantizzazione vettoriale
US4797925A (en) * 1986-09-26 1989-01-10 Bell Communications Research, Inc. Method for coding speech at low bit rates
US4727354A (en) * 1987-01-07 1988-02-23 Unisys Corporation System for selecting best fit vector code in vector quantization encoding
US5010574A (en) 1989-06-13 1991-04-23 At&T Bell Laboratories Vector quantizer search arrangement

Also Published As

Publication number Publication date
EP0403154A3 (en) 1993-12-01
JPH03101423A (ja) 1991-04-26
JPH0779252B2 (ja) 1995-08-23
KR910002144A (ko) 1991-01-31
EP0403154B1 (en) 1996-01-17
US5010574A (en) 1991-04-23
CA2013247A1 (en) 1990-12-13
EP0403154A2 (en) 1990-12-19
CA2013247C (en) 1993-12-14

Similar Documents

Publication Publication Date Title
KR0143076B1 (ko) 다중-요소 신호 코딩 방법 및 장치
US5774839A (en) Delayed decision switched prediction multi-stage LSF vector quantization
US5729655A (en) Method and apparatus for speech compression using multi-mode code excited linear predictive coding
US4944013A (en) Multi-pulse speech coder
KR0127901B1 (ko) 음성 인코딩 장치 및 그 방법
AU707307B2 (en) Depth-first algebraic-codebook search for fast coding of speech
CA1338387C (en) Vector excitation speech or audio coder for transmission or storage
US6014622A (en) Low bit rate speech coder using adaptive open-loop subframe pitch lag estimation and vector quantization
EP0175752B1 (en) Multipulse lpc speech processing arrangement
KR950013372B1 (ko) 음성 부호화 장치와 그 방법
EP0342687B1 (en) Coded speech communication system having code books for synthesizing small-amplitude components
US5193140A (en) Excitation pulse positioning method in a linear predictive speech coder
EP0784846B1 (en) A multi-pulse analysis speech processing system and method
US4890328A (en) Voice synthesis utilizing multi-level filter excitation
US5822724A (en) Optimized pulse location in codebook searching techniques for speech processing
US5797119A (en) Comb filter speech coding with preselected excitation code vectors
US6064956A (en) Method to determine the excitation pulse positions within a speech frame
US5884252A (en) Method of and apparatus for coding speech signal
USRE34247E (en) Digital speech processor using arbitrary excitation coding
EP0713208A2 (en) Pitch lag estimation system
KR950013373B1 (ko) 음성 메시지 공급 장치와 음성 메시지 생성 방법
JPH08320700A (ja) 音声符号化装置
KR960011132B1 (ko) 씨이엘피(celp) 보코더에서의 피치검색방법
JPH08194499A (ja) 音声符号化装置
De Iacovo et al. Vector quantization and perceptual criteria in SVD based CELP coders

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20100331

Year of fee payment: 13

LAPS Lapse due to unpaid annual fee