KR0143076B1 - 다중-요소 신호 코딩 방법 및 장치 - Google Patents
다중-요소 신호 코딩 방법 및 장치Info
- Publication number
- KR0143076B1 KR0143076B1 KR1019900008313A KR900008313A KR0143076B1 KR 0143076 B1 KR0143076 B1 KR 0143076B1 KR 1019900008313 A KR1019900008313 A KR 1019900008313A KR 900008313 A KR900008313 A KR 900008313A KR 0143076 B1 KR0143076 B1 KR 0143076B1
- Authority
- KR
- South Korea
- Prior art keywords
- signal
- projection
- reference signal
- distance
- input signal
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/94—Vector quantisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/008—Vector quantisation
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/30—Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
- H03M7/3082—Vector coding
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
Abstract
내용 없음.
Description
제1도는 본 발명을 설명하는 벡터 선택 방법의 순서도
제2도는 본 발명을 설명하는 벡터 양자화 언어 코딩 장치의 일반적인 블럭선도
제3도는 제1도의 순서도를 실시하는데 이용될 수 있는 신호 프로세서의 일반적인 블럭선도
제4도는 본 발명을 설명하는 벡터 양자화 언어 디코딩 장치의 일반적인 블럭선도
제5도는 제2도내의 선형 예측 벡터 양자화 탐색 장치의 동작을 설명하는 순서도
제6도는 제2도내의 여기(excitation) 벡터 탐색 장치의 동작을 설명하는 순서도
제7도는 제6도의 순서도 중 좀더 상세한 부분적 거리 비교 동작의 순서도
제8도는 제4도의 디코더의 동작을 설명하는 순서도
제9도는 제1도의 순서도에 도시된 탐색 동작을 설명하는 그래프도
* 도면의 주요부분에 대한 부호의 설명
201,440 : 트랜스듀서 203 : 필터 및 샘플러
205 : 아날로그-디지틀 변환기 215 : 선형 예측 프로세서
본 발명은 신호 코딩에 관한 것으로서, 특히 디지틀 언어 및 영상 신호 코딩용 벡터 양자화 장치에 관한 것이다.
디지틀 언어 및 영상 전송 시스템에 있어서, 전송될 신호의 복잡한 특성은 높은 비트 속도와 시간이 많이 소비되는 프로세싱을 필요로 한다. 본 기술분야에 공지된 바와 같이, 통상적으로 용인 가능한 언어 또는 영상 신호의 근사치를 전송하는 것이면 충분하다. 따라서, 기대되는 신호의 범위를 포괄하는 인덱스화된 코드의 세트를 결정하고 신호에 가장 근접한 인덱스화된 코드를 전송함으로써 전송 장치는 간략화될 수 있다. 이러한 공정은 벡터 양자화 라고 알려진 것으로, 여기서 주어진 벡터 공간으로부터 언어 또는 영상 신호를 나타내는 벡터는 공지된 집단화 기술에 의해 오리지널 벡터 공간 또는 다른 표현의 벡터 공간내의 감축된 벡터의 세트로 맵된다. 관련 맵핑에 따라 감축된 벡터의 세트는 어떤 왜곡 측정치에 따라 에러를 최소화하도록 선택된다. 이러한 표현식의 벡터의 세트는 코드북(codebook)으로 인용되며 고정 메모리에 기억된다.
전송 시스템에서, 벡터 양자화에 의해 발생된 코드북은 송신기 및 수신기 모두에 기억된다. 전송될 입력 신호는 기억된 코드에서 신호를 가장 잘 매칭시키는 것을 탐색함으로써 송신기에서 처리된다. 베스트 매칭 코드의 인덱스트 입력 신호의 표현식으로서 전송된다. 전송된 인덱스에 대응하는 코드는 수신기에서 코드북으로부터 검색되어 전송 비트 속도는 상당히 감소된다.
그런데 베스트 매칭 코드는 입력 신호에만 가까워진다. 단지 소수의 엔트리를 가진 코드북은 신속한 탐색을 가능케한다. 그런데, 선택된 코드는 불량한 입력 신호의 표현식이 될 수 있으므로 정확한 신호 표현식을 얻는 것이 어렵다. 만약 코드북이 모든 가능한 입력 신호를 정확하게 표시하기에 충분한 엔트리를 포함한다면, 가장 근접한 매칭 코드를 결정하기 위해 매우 큰 코드의 세트를 통한 시간이 많이 소비되는 탐색이 필요하게 된다. 처리 지연이 신호의 전송을 위해 할당된 시간을 초과할 수도 있다. 어떤 경우에, 벡터 양자화가 표준 신호 품질을 만족시킬 수 없으며, 또다른 경우에, 신호 표현의 정확도와 전송의 속도 사이에 절충이 이루어져야만 한다. 큰 코드북을 가진 벡터 양자화의 장점을 달성하기 위해 탐색 처리에 있어 여러 가지 개선책이 제안되어 왔다.
1988년 2월 23일자 허여된 미합중국 특허 제4,727,354호는 벡터 양자화 엔코딩에 있어 가장 적합한 벡터 코드를 선택하기 위한 시스템을 개시하고 있는데, 여기에서 코드북 메모리를 통한 순차적 탐색은 미리 기억된 관련 에러 코드 벡터의 시리즈를 출력시킨다. 상기 에러 코드 벡터들은 최소 에러 코드 벡터(가장 적합한 벡터 코드)를 선택하기 위해 시간의 주기를 통해 비교된다. 클럭킹-시퀀싱 장치는 출력 래치가 현재 최소 왜곡을 가진 특정 에러 코드 벡터를 나타내는 인덱스 번호를 보유하게 된다. 입력 벡터 성분의 새로운 세트 각각은 최소 에러 코드 벡터 및 입력 벡터 성분의 특정 세트용 인덱스를 탐색하도록 시퀀스화된다.
1989년 1월 10일자 허여된 미합중국 특허 제4,797,925호는 낮은 비트 속도로 언어를 코딩하는 방법을 개시하는데, 여기에서 각각의 코드 시퀀스는 기억된 코드북의 사용시 계산상의 복잡성이 감소되도록 선행 코드 시퀀스와 관련된다. 1986년, 음향, 언어 및 신호 처리에 관한 국제회의(ICASSP)의 회의록, 페이지 2375 내지 2378 에 발표된 트란코소(I. M. Trancoso)와 아틀(B.S.Atal)의 논문 확률적 코더에서 최적 혁신을 발견하기 위한 효율적 절차에는 탐색 처리를 간략화하기 위해 신호 및 벡터가 주파수 영역으로 변환되는 장치를 개시하고 있다.
1989년 5월, 통신을 위한 IEEE 트랩색션 37권, 5호, 페이지 538 내지 540에 발표된 폴리발(K.K.Paliwal)과 라마수브라마니안(V. Ramasubramanian)의 논문 벡터 양자화를 위한 부분적 거리 탐색 알고리즘의 효율성에 대한 코드북 순서화의 효과에서는 코드 벡터와 신호 사이의 거리는 가능한한 조기에 벡터를 고려 대상에서 제거하도록 계산됨으로써 평가되어지는 탐색 알고리즘을 설명하고 있다. 상기 알고리즘은 코드북내의 벡터를 대응 집단의 크기에 따라 순서화함으로써 더욱 개선된다.
상술한 체계들에서는 정확한 매칭을 얻기 위해 전체 코드북을 통한 탐색을 하는 복잡한 신호 처리를 필요로 한다. 본 발명의 목적은 신호 처리 요구 조건이 감소된 개선된 벡터 코드북 탐색을 제공하려는 것이다.
상술한 목적은, 다중-성분 입력 신호에 대한 코드 탐색이 규정된 벡터 공간에서 선정된 방향으로 코드북의 다중-성분 코드의 프로젝션(projection)에 대응하는 신호의 세트를 발생시킴으로써 속도가 증가하는 장치에 의해 달성된다. 입력 신호의 선정된 방향으로의 프로젝션은 코드북의 베스트 매칭 코드를 탐색하는데 있어 신호 처리를 감소시키도록 코드북으로부터의 코드 프로젝션에 비교된다.
본 발명은 규정된 벡터 공간에서 표현 가능한 다수 N개 요소 기준 신호 및 기준 신호를 인덱스화하는 신호의 세트가 기억되어 있는 디지틀 신호 코딩용 장치에 관한 것이다. 규정된 벡터 공간에서 표현 가능한 N 요소 기준 신호가 수신되고 기준 신호중 하나가 선택되어 입력 신호를 나타낸다. 상기한 선택에는 선택된 방향으로의 기준 신호중 하나의 프로젝션을 각각 나타내는 신호의 세트 및 규정된 벡터 공간에서 선정된 방향으로의 입력 신호의 프로젝션을 나타내는 신호를 형성하는 것을 포함한다. 기준 신호들은 그 프로젝션에 있어 선정된 방향으로의 입력 신호의 프로젝션과 차이에 따라 선택된다. 프로젝션 차이 신호는 입력 신호에 대해 최소 거리를 가진 기준 신호를 결정한다.
제1도는 본 발명을 설명하는 N 요소 입력 신호를 가장 잘 매칭시키는 기준 신호를 선택하기 위해 N 요소 기준 신호의 코드북을 통해 탐색하는 장치를 보이는 순서도이다. 다중 신호 입력 신호
는 영상 또는 언어 패턴의 일부를 나타낸다. 각각의 기준신호는 다중-요소 언어 또는 영상 표현 신호
이며, 규정된 N 차원 벡터 공간에서 벡터로서 표현가능하다. 본 발명에 따르면, 코드북 탐색에 필요한 시간은 입력 신호 및 기준 신호를 선정된 방향으로 또는 규정된 벡터 공간의 차원으로 프로젝션함으로써 감소된다. 입력 신호의 프로젝션을 기준 신호의 프로젝션과 비교하는 것은 베스트 매칭 기준 신호를 얻는데 필요한 신호 처리를 상당히 감소시킨다. 규정된 성분을 프로젝션에 대한 선정된 방향으로서 선택함으로써, 비교하는데 필요한 신호 처리는 더욱 감소된다. 코드북내의 기준 신호를 증가하는 프로젝션 순서로 배열함으로써 부수적인 감축이 이루어진다. 이러한 방법에 있어, 비교의 횟수도 역시 감소된다.
제1도를 보면, 유클리드 공간(Euclidean space; RN)에서 식(2)에서 처럼 표현될 수 있는 기준 신호 벡터의 세트(y1,y2,...,yN) 각각은 공간에서 라인 상으로 프로젝트된다. 프로젝션 값 Pyn은 각각의 기준 신호 벡터에 대해 얻어진다. 기준 신호 벡터는 단계(101)에서 증가하는 프로젝션 값(P)의 순서로 기억되며 상기 순서로 코드북에 기억된다(단계(101)). 1976년, 컴퓨터 사이언스 프레스에서 출판된 호로비츠(E. Horowitz)와 샤니(S. Sahni)의 저서 데이터 구조의 기초에 기술된 이진 분류와 같은 임의의 공지된 분류 기술이 이용될 수 있다. 프로젝션 순서화된 코드북이 일단 형성되면 그후로는 어떤 입력 신호 또는 입력 신호의 시퀀스용으로도 사용될 수 있다.
각각의 기준 신호 벡터(yn) 및 각각의 입력 신호 벡터는 N 차원을 갖는다. 벡터의 프로젝션용으로 선택된 라인은 규정된 벡터 공간에서 다중-성분 신호의 성분중 하나와 일치한다. 프로젝션은 단축 맵핑되어 임의의 두 벡터, 즉 U 와 V 사이의 프로젝트된 거리 e(U,V)는
로 규정되며, 여기서 d(U,V)는 유클리드 공간(RK)에서 벡터 U 와 V 사이의 거리이다. 이러한 방법으로, 프로젝션 맵핑은 벡터 사이를 근접시켜 탐색 속도를 증가시킨다. 본 기술에서 공지된 바와 같이, 단축 요건은 프로젝션용 라인의 선택에 제한을 가하지 않는다.
코드북이 기억된 후 단계(103)에서 탐색을 시작한다. 입력 신호의 프로젝션(Px)에 대응하는 신호가 단계(103)에서 처럼 형성된다. 단계(105)에서, 코드 북은 입력 신호 프로젝션(Px)보다 작거나 같은 프로젝션(Ps)를 가진 입력 신호의 프로젝션에 가장 근접한 벡터(ys)의 인덱스(S)를 찾기 위해 탐색된다. 이러한 탐색은 전술한 호로비츠와 샤니의 데이타 구조의 기초에 기술된 이진 탐색과 같은 본 기술분야에 공지된 임의의 탐색 방법에 의해 실행된다. 인덱스 S 가 결정되면, 인덱스
이 단계(110)에서 형성된다. 입력 신호 프로젝션(Px)은
로 한정되며 기준 신호 벡터는 여기에 가장 근접한 프로젝션을 갖는다.
최소 벡터 거리 신호(dm) 및 그 인덱스(m)는 단계(115)에서 신호 프로세서에서 사용할 수 있는 최대 숫자(LPN)로 먼저 세트된다. 이제, 단계(120)에서 단계(160)까지의 루프로 들어가서 입력 신호 벡터에 가장 근접한 기준 신호 벡터를 결정한다. 즉 최소 거리 신호(dm)를 제공한다. 단계(120)에서, 기준 신호 프로젝션(Pt)과 입력 신호 프로젝션(Px)과의 차이는 기준 신호 프로젝션(Ps)과 입력 신호 프로젝션(Px)과의 차이와 비교된다. 프로젝션(Pt)이 프로젝션(Ps)보다 (Px)에 근접한다면, 가장 근접한 프로젝션 인덱스(i)는 (t)로 세트되고 인덱스(t)는 증가된다(단계(125)). 그렇지 않다면, 인덱스(i)는 S로 세트되고 인덱스(s)가 증가된다(단계(130)). 단계(120)에서 단계(160)까지의 루프의 첫번째 반복에 있어서, 단계(105) 및 (110)에서 발견된 기준 신호 벡터는 단계(120)에서 베스트 매칭 벡터의 후보자로서 이용된다.
단계(125) 또는 단계(130)로부터 가장 근접한 기준 신호 프로젝션과 입력 신호 프로젝션 사이의 거리에 대응하는 신호
가 단계(135)에서 발생된다. 만약 프로젝션 차이 신호(e)가 현재의 최소 거리 신호(dm)보다 크다면, 먼저 고찰된 기준 신호 벡터가 입력 신호(X)에 가장 근접한다. 그 이유는 거리 d(yi,x)가 대응 프로젝션 거리(e)보다 항상 크기 때문이다. 초기의 코드북 벡터 후보자의 프로젝션이 입력 신호의 프로젝션에 가장 근접하기 때문에 신호(e)는 후속하는 반복의 각각에 대해 크다는 것이다. 본 발명에 따르면, 베스트 매칭 기준 신호의 선택은 비교적 작은 수의 기준 신호에 국한된다. 부수적으로, 프로젝션 거리에 대한 신호 처리는 벡터 공간 거리에 대한 것보다 상당히 간단하다.
단계(140)에서 식(5)의 프로젝션 거리 신호(e)가 dm보다 크지 않은 경우, 베스트 매칭 기준 신호에 대한 가능성 있는 후보자는 yi이다. 단계(145)로 들어와서, 규정된 벡터 공간에서의 또다른 라인 또는 2차 라인을 따른 yi의 프로젝션(qi)와, 벡터 공간에서 2차 라인을 따른 x 의 프로젝션(qx)사이의 거리가 형성된다. 2차 프로젝션은 미리 구해진 최소 거리 신호(dm)과 비교된다(단계(145)). dm이 초과되는 경우, 기준신호(yi)는 베스트 매칭 기준 신호로 받아들여질 수 없다. 그 이유는 yi에 대한 어떤 프로젝션 거리(e)도 대응 벡터 공간 거리 d(yi, x)보다 항상 작기 때문에 그러하다. 이제 콘트롤은 단계(120)으로 되돌아가서 다음번 근접한 프로젝션을 가진 기준 신호에 대해 고찰한다.
만약 단계(145)에서 2차 프로젝션이 dm보다 작다면, 기준 신호는 기준 신호(ym)보다 더 좋은 후보자이다. 발생된 벡터 공간거리(d(Yi,x); 단계(150))는 최소 거리 신호(dm)와 비교된다(단계(155)). 벡터 공간 거리 d(yi,x)가 dm보다 작을때 단계(155)에서 단계(160)으로 들어간다. 최소 거리 벡터에 대한 코드북 인덱스(m)은 이제 i 와 동일하게 세트되고 dm는 d(yi,x)와 동일하게 세트된다. 그 다음 콘트롤은 다음번 반복을 하기 위해 단계(120)로 전해진다. 단계(155)에서 d(yi,x)가 dm보다 크면, 콘트롤은 곧바로 단계(120)로 가고, 최고 거리 신호(dm)는 변동되지 않는다.
제9도는 2차원적으로 입력 신호 및 다수의 기준 벡터의 위치를 도시한 것으로서 본 발명의 양자화 방법을 설명하는 것이다. 1차 프로젝션은 수평선(901)을 따라 취해지고 2차 프로젝션은 수직선(903)을 따라 취해진다. 기준 신호 벡터(y1내지 y8)는 포인트(910-1 내지 910-8)에 각각 위치한다. 벡터(y1내지 y8)의 1차 프로젝션은 포인트(915-1 내지 915-8)에 있다. 입력 신호(X)는 포인트(920)에 위치하며 그 1차 프로젝션은 기준 신호(y4와 y5)에 대한 프로젝션 포인트(915-4 내지 915-5) 사이의 포인트(925)에 있다.
제1도를 참조하면, 기준 신호 벡터들은 단계(101)에서 처럼 1차 프로젝션(915-1 내지 915-8)에 따라 코드북 기억 장치에 배열된다. 프로젝션들은 1차 프로젝션 좌표에 대응하기 때문에, 이들 값은 이미 기억되어 있다. 프로젝션 값을 계산할 필요는 없다. 입력 신호(X)의 좌표(14,18)가 단계(103)에서 구해지며 단계(105 및 110)의 코드북 탐색의 결과 초기 프로젝션 인덱스s=4 이고 t=5가 된다. 최소 벡터 거리 및 대응 벡터 인덱스는 단계(115)에서 가능한 최대 거리 신호(LPN)보다 큰 임의의 수로 세트된다.
첫번째 반복이 시작할 때s=4, t=5, d=LPN 이다. 단계(120)에서 1차 프로젝션은 1차 프로젝션보다 작게 결정된다. 이제 단계(130)에서 i 는 4로 세트되고 S 는 3으로 결정된다. 단계(135)에서 프로젝션 신호 e=2 가 형성된다. 1차 프로젝션 신호(e)가 dm=LPN 보다 작으므로, 2차 프로젝션은 단계(145)에서 dm=LPN과 비교된다. 단계(150)에서 발생된 거리 신호 d(x,y4)=13.15 는 dm=LPN 보다 작은 것이 발견된다(단계(155)). dm는 d(x,y4)로 세트되고(단계(160)) 두번째 반복을 하기 위해 단계(120)으로 다시 들어간다.
두번째 반복하는 동안, 1차 프로젝션은보다 작으므로 단계(125)에서 i 는 5로 세트되고 t는 6으로 증가된다. 프로젝션은 dm=13.15 보다 작고(단계(135)). 2차 프로젝션도 13.15 보다 작다(단계(140)). 거리 신호 d(x,y5)=5 가 단계(150)에서 발생되어 단계(155)에서 13.15 와 비교된다. 그 결과, 최소 거리 신호(dm)는 5가 되고 m은 5로 된다(단계(160)).
는 dm보다 작지만, 2차 프로젝션
는 dm보다 크다. 신호(dm)는 변경되지 않고 4번째 반복이 단계(120)에서 개시된다. 인덱스(i)는 7로 변동하고 t는 8로 증가된다(단계(125)). 2차 프로젝션
이 최소 거리 신호 dm=5보다 크므로(단계(140)), 선택 루프는 단계(140)로부터 밖으로 나가게 된다. 가장 적합한 기준 신호 벡터는 ys로서 결정되며 대응 인덱스 신호 m=5가 전송용으로 이용 가능하다.
다행히도, 본 발명에 따른 프로젝션 장치는 기준 신호 코드북을 통한 탐색의 범위를 감소시키며 제한된 탐색에 있어 각각의 기준 신호 벡터와 입력 신호를 비교하는데 필요한 신호 처리를 감소시킨다. 전술한 실시예에서는 2차원이 이용되었는데, 이는 설명을 위한 것이다. 본 발명 방법은 복잡한 언어 및 영상 신호를 표현하는데, 사용되는 것과 같은 다차원 벡터 공간에 까지 손쉽게 확장 가능한 것으로 이해해야겠다.
제2도는 본 발명을 설명하는 언어 프로세서의 일반적인 블록 다이어그램을 도시한다. 제2도에서, 발음된 메시지와 같은 언어 패턴은 마이크로폰과 같은 트랜스듀서(201)에 의해 수신된다. 마이크로폰에서 얻은 아날로그 언어 신호는 대역이 제한되며 필터 및 샘플러(203)에서 펄스 샘플의 시퀀스로 변환된다. 본 기술에서 공지된 바와 같이, 필터링은 4.0KHz 이상의 언어 신호의 주파수 성분을 제거하려는 것이며, 샘플링은 8KHz 속도로 행해진다. 샘플의 타이밍은 클럭 발생기(225)로부터의 샘플 클럭 신호 CL에 의해 제어된다. 필터 및 샘플러(203)로부터의 각각의 샘플은 아날로그-디지틀 변환기(205)에서 진폭 표시 디지틀 신호로 변환된다.
변환기(205)로부터의 디지틀 신호 샘플의 시퀀스는 선형 예측 프로세서(215)로 인가된다. 상기 프로세서는, 본 기술분야에 공지된 바와 같이, 언어 샘플을 10 내지 20 미리초의 시간 간격 또는 프레임으로 분할하며, 각각의 시간 프레임에 대해 선형 예측 계수 신호의 세트(Xa=x1,x2,...,xp)를 발생시킨다. 계수 신호들은 시간 간격의 NP 언어 샘플의 예측된 짧은 기간의 스펙트럼을 나타낸다. 시간 프레임에 대한 자동 상관 계수에 대응하는 신호(R)도 역시 프로세서(215)에서 발생된다. 지연회로(210)는 변환기(205)로부터의 디지틀 샘플을 지연시켜 시간 간격에 대한 계수 신호(xa)를 형성할 시간을 준다. 지연된 디지틀 샘플은 잉여 신호 발생기(220)에 공급되며 여기서 지연 언어 샘플과 예측 매개 변수(Xa)는 그들 사이의 차이에 대응하는 신호를 형성한다. 예측 매개변수 및 잉여 신호의 형성은 1973년 6월 19일 B.S. Atal에게 허여된 미합중국 특허 제3,740,476호에 개시된 장치에 따라서, 또는 본 기술 분야에 공지된 다른 기술에 의해 실행될 수 있다.
본 발명에 따르면, 선형 예측 계수(LPC) 코드북(235)은 공지된 벡터 양자화 절차에 따라 LPC 프로세서(215)로부터 기대되는 LPC 신호의 범위를 포괄하는 기준 신호의 세트(an=an1,an2,...,anp)를 기억한다. 각각의 시간 간격에 대한 LPC 신호 Xa 는 LPC 벡터 탐색 프로세서(230)에 인가되며 LPC 벡터 코드북은 거기에서 베스트 매칭 기준 신호가 탐색된다. 시간 간격에 대한 베스트 매칭 기준 신호에 대응하는 인덱스 신호(Ia)가 이제 프로세서(215)로부터의 LPC 신호를 표현하도록 전송된다.
유사한 방법으로, 코드북(245)은 잉여 신호 발생기(220)로 부터의 잉여 신호의 범위를 포괄하는 기준 여기 신호를 기억한다. 여러 가지 형태의 잉여 신호가 사용될 수 있지만, 셉스트럴(cepstral) 타입 신호를 사용하는 것이 탐색에 유익하다는 것이 알려져 있다. 따라서, 여기 코드북은 셉스트럴 기준 신호를 기억한다. 비교하기 위한 목적으로, 잉여 신호 발생기(220)로 부터의 잉여 신호(Xe)는 여기 탐색 프로세서(250)에 인가되기 이전에 셉스트럴 변환 프로세서(240)에서 셉스트럴 영역으로 변환된다. 각각의 시간 간격에서, 셉스트럴 여기 코드북은 프로세서(240)으로부터의 셉스트럴 변환된 잉여 신호를 가장 잘 매칭시키는 셉스트럴 기준 신호를 찾도록 탐색된다. 베스트 매칭 셉스트럴 기준 신호에 대응하는 인덱스 신호(Ie)는 발생기(220)로부터의 잉여 신호를 표시하는데 이용된다. 각각의 시간 간격에 대한 LPC 표현 인덱스 신호 및 여기 표현 인덱스 신호는 전송하기 위해 멀티플렉서(255)에서 조합된다.
제3도는 제2도에서 탐색 처리 동작에 이용될 수 있는 웨스턴 일렉트릭 타입 DSP 16 디지탈 신호 처리기와 같은 디지틀 신호 프로세서의 일반적인 블럭 다이어그램이다. 제3도를 보면, 입-출력 인터페이스(301)는 각각의 시간 간격에서 LPC 프로세서(215)로부터 LPC 신호(Xa)와, 잉여 신호 발생기(220)로부터 잉여 신호(Xe)를 수신하고 이들 신호를 버스(340)를 거쳐 랜덤 액세스 메모리(305)에 전달한다. 제3도에서 인덱스 신호(Ia및 Ie)가 확인된 다음, 이들은 인터페이스를 거쳐 멀티플렉서(255)로 전달된다. 메모리(305)는 신호(Xa, Xe)를 기억하며 가장 적합한 기준 벡터를 판별하는데 필요한 다른 신호들을 기억하고, 연산 논리부는 셉스트럴 변환과 LPC 및 여기 탐색 동작에 필요한 신호 처리를 실행한다. 제어부(315)는 프로그램 리드 온리 메모리(ROM; 325,330,335)로부터의 명령에 응답하여 제3도의 프로세서의 동작의 시퀀스를 제어한다. ROM(325,330,335)으로부터의 명령은 프로그램 메모리 인터페이스(320)를 거쳐 제어부(315)에 공급된다. 제2도에 관해 전술한 바와 같이, 여기 코드북(245)은 셉스트럴 여기 기준 신호를 기억하고 LPC 벡터 코드북(235)은 선형 예측 기준 신호를 기억한다.
제5도의 순서도는 제3도의 LPC 탐색 동작을 설명하는 것으로, 프로그램 ROM(335)에 영구 기억된 명령의 세트에 대응한다. 제5도를 보면, 기대되는 LPC 신호(Xa)의 범위를 포괄하는 LPC 기준 신호의 세트(a1, a2, ..., aN)가 발생되어 코드북 메모리(235)에 기억된다(단계(501)). 제1도에 관해 언급한 바와같이, 기준 신호들은 다중-성분 신호의 선택된 성분에 대응하는 선정된 순서에 따라 기억된다. 각각의 기억된 LPC 기준 신호는 P 계수를 포함한다. LPC 기준 신호에 대해 측정한 왜곡에 대응하는 성분도 역시 기억된다. Rn은 기준 신호에 대한 자동 상관 매트릭스이다. 기억된 LPC 기준 신호(an)는 다음 형태를 한다.
단계(501)에서와 같이, LPC 기준 신호의 세트는 프로젝션 성분의 증가하는 순서에 따라 기억된다. 일단 순서화된 코드북이 발생되면, 그것은 제2도의 언어 코더에서 사용하기 위해 리드 온리 메모리(235)에 기억된다.
LPC 프로세서(215)는 LPC 프로세서(215)로부터 얻은 각각의 시간 프레임에 대한 LPC 신호를 발생시키고 그 신호를 제3도의 인터페이스 회로(310)에 인가한다. 입력 LPC 신호
는 제어부(315)를 거쳐 프로그램 기억 장치(325)에서 명령의 제어하에 메모리(305)에 위치한다(단계(503)). 프로젝션 성분은 연산 논리부(310)에서 발생되어 메모리(305)에 기억된다. 프로젝션
을 가진 기억된 기준 벡터는 입력 신호 프로젝션
에 가장 근접하지만 이보다는 작은 기억된 벡터인데 이에 대한 탐색은 단계(505)에 따라 실행된다. 인덱스(S)가 세트되고 인덱스(t)는 S+1 로 세트되어, 입력 신호 프로젝션(Pa)은 프로젝션(Ps)과 Pt 사이에 묶여진다(단계(510)). 최소 거리 신호(dm)와 그 인덱스(m)는 제1도에 관해 기술한 바와 같이 단계(515)에서 LPN 으로 먼저 세트된다. 입력 LPC 신호(Xa)를 가장 잘 매칭시키는 기준 입력 신호에 대한 인덱스를 결정하기 위해, 단계(520 내지 560)의 루프가 이제 반복된다.
단계(520)에서, 기준 신호 프로젝션(Pt)과 입력 신호 프로젝션(Pa)간의 차이는 기준 신호 프로젝션(Ps)과 입력 신호 프로젝션(Pa)간의 차이와 비교된다. 두 프로젝션 거리중 작은 것이 선택된다. 프로젝션(Pt)이 Pa에 더 근접하고 있다면, 단계(525)로 가서, 가장 근접한 프로젝션 인덱스(i)는 t 로 세트되고 인덱스(t)는 증가된다(단계(525)). 그렇지 않다면, 인덱스(i)는 s 로 세트되고 인덱스(s)는 증가된다(단계(530)). 단계(520) 내지 (560)의 루트를 처음 반복함에 있어, 단계(505) 및 (510)에서 입력 신호 프로젝션에 가장 근접한 것으로 알려진 기준 신호 프로젝션이 단계(520)에서 베스트 매칭 벡터에 대한 후보자로서 사용된다.
단계(535)에서는 단계(525) 또는 (530)으로부터 입력 신호 프로젝션과 가장 인접한 기준 신호 프로젝션간의 거리에 대응하는 프로젝션 거리 신호
가 발생된다. 만약 프로젝션 차이 신호(e)가 현재의 최소 거리 신호(dm)보다 작다면, 기준 신호(ai)가 입력 신호(Xa)에 가장 근접한 기준 신호 벡터로 될 수 있다. 제1도에 대해 설명한 2차 프로젝션 비교는 부수적인 검사로서 이용된다. LPC 기준 신호에 대해, 2차 프로젝션을 선택하는 것은 용이하지 않다. 따라서, 단계(545)의 부분적 거리 비교가 이용된다. 단계(545)에서, 거리 신호는 한 성분씩 발생되고 각각의 성분이 더해진 후 최소 거리 신호(dm)와 비교된다. 단계(545)에서 부분적 거리중 하나가 최소 거리(dm) 보다 크게 된다면, LPC 기준 벡터(ai)와 입력 신호 LPC 벡터(Xa)간의 거리는 너무 큰 것이다. 이제 콘트롤은 단계(520)로 되돌려지고 다음번 후보자 기준 신호에 대해 고찰한다.
단계(545)의 부분적 거리 발생 및 비교 동작은 제7도의 순서도에 더욱 상세히 도시되어 있다. 제7도를 참조하면, 단계(540)에서 이미 결정된 최소 거리보다 프로젝션 거리(e)가 작을 경우 단계(701)로 들어오게 된다. 단계(701)에서, 기준 신호 성분 인덱스(j)는 1로 세트되고 부분적 거리 신호(dp)는 0으로 세트된다. 부분적 거리는 단계(705)에서 처럼
에 따라 성분 j만큼 증가된다. j가 1일 때, di는 차이 신호 ai1-Xa1의 절대값에 대응한다. 부분적 거리는 이미 결정된 최소 거리 신호(단계(71))와 비교된다. 임의의 j에 있어 식(12)의 부분적 거리가 최소 거리(dm)보다 크다면, 단계(710)로부터 단계(520)로 다시 들어간다. 그렇지 않다면, 최종 성분 j=p가 부분적 거리 신호에 더해질 때까지, 단계(715)에서 성분 인덱스(j)가 증가되며 단계(720)로부터 단계(705)로 다시 들어가게 된다. 이때, 후보자 LPC 기준 신호(ai)는 베스트 매칭 후보자로 결정된다. 단계(560)로 들어가서 m은 i로 세트되고 dm는 단계(545)에서 발견된 dp로 세트되며 단계(520)로 다시 들어간다.
단계(540)에서 프로젝션 차이 신호(e)가 현재의 최소 거리 신호(dm)보다 클 때, 이전에 고찰된 기준 신호 벡터(am)는 입력 신호(Xa)에 가장 근접한 것으로 선택된다. 제1도에 관해 전술한 바와 같이, 가장 근접한 프로젝션(Ps및 Pt)이 개시시의 코드북 벡터 후보자로 선택되며, 프로젝션 신호는 단계(520 내지 560)의 루프가 연속적으로 각각 반복하는 동안 증가한다. 이때, 선택된 기준 신호 Ia에 대한 인덱스는 제3도의 프로세서에서 m 으로 세트되고 채널(260)상으로 전송하기 위해 제2도의 멀티플렉서(255)로 보내진다.
선택된 LPC기준 신호에 대한 인덱스를 결정하는 것에 덧붙여, 제2도의 코더는 또한 잉여 신호 발생기(220)에서 발생된 잉여 신호(Xe)를 가장 잘 매칭시키는 여기 기준 신호에 대응하는 인덱스 신호(Ie)를 제공한다. 그런데, 시간 프레임 간격에 대한 잉여 신호는 비교적 복잡하다, 예를들면, 16ms 속도 패턴 간격에 대한 Xe는 128개의 무작위로 변동하는 성분을 갖는다. 잉여에 대한 시간 영역 벡터 양자화 코드북이 이용될 수 있다. 본 기술분야에 공지된 방법으로 시간 영역 기준 신호 엔트리를 셉스트럴 영역으로 변환함으로써 좀더 간결한 코드북이 형성될 수 있다. 유익하게도, 잉여(Xe)에 대응하는 셉스트럴 영역 기준 신호는 더 적은 성분, 즉 16개 성분을 가지며, 이들 성분은 무작위보다는 양호하게 행동한다. 신호 처리에 있어 셉스트럴의 형성 및 이용에 대해서는 1978년, 프랜딕 홀(Prentice Hall)에서 발행한 엘.알.레비너(L. R. Rabiner)와 알. 더블유. 샤퍼(R. W. Schafer)의 언어 신호의 디지틀 프로세싱(Digital Processing of Speech Signals) 페이지 355 내지 390, 또한 1987년 에디슨-웨슬리 출판사에서 발행한 D. O′Shaughnessy의 언어 통신 인간 및 기계(Speech Communication Human and Machine) 페이지 226 내지 231 및 309 내지 310 에 기술되어 있다.
잉여신호
(여기서 N은 128)는 변환 신호
를 형성하고, 역 분산 푸리에 변환(Inverse Discrete Fourier Transform)
(여기서 M은 32임)을 발생시킴으로써 셉스트럴 영역으로 변환된다. 이러한 방법으로, 잉여 신호는 더욱 처리가 쉬운 형태로 된다.
제2도 및 3도에서 코드북(245)은 증가하는 1차 프로젝션 값의 순서로 기억된 셉스트럴 영역 여기 기준 신호의 세트를 포함한다. 각각의 신호(eci)는 M개 성분을 가진 셉스트럴 벡터로서 기억된다.
성분 eci1은 1차 프로젝션으로 선택되고 성분 eci2은 2차 프로젝션으로 선택된다. 잉여 신호(ex)는 제2도의 셉스트럴 변환 프로세서(240)에서 셉스트럴 신호
로 변환된다. 셉스트럴 변환 프로세서는 제3도의 신호 프로세서 장치에서의 다른 기능에 따라 또는 본 기술에서 공지된 다른 수단에 의해 실행될 것이다. 신호(ecx)가 얻어지면, 제3도의 신호 프로세서는 제6도의 순서도에 설명된 여기 탐색 처리 동작을 수행한다. 이러한 동작은 프로그램 메모리(230)에 기억된 명령의 제어하에 수행된다.
제6도를 참고하면, 양자화된 기준 셉스트럴 벡터의 세트(ec1, ec2, ..., ecN)는 1차 프로젝션 성분의 순서에 따라 셉스트럴 여기 벡터 코드북(245)에 영구 기억된다(단계(601)). 잉여 신호 발생기(220)로부터의 입력 잉여 신호는 셉스트럴 변환 프로세서(240)에 인가되어 식(17)의 셉스트럴 신호가 발생된다(단계(603)). 코드북은 셉스트럴 변환된 입력 신호 잉여의 프로젝션(Pe)보다 작은 셉스트럴 여기 기준 신호 벡터의 프로젝션 (Ps)에 대응하는 인덱스(S)를 결정하기 위해 탐색된다. 이제 다음의 식
셉스트럴 여기 기준 신호 벡터는 여기 입력 신호 성분(Xce1)에 가장 근접한 성분(ec1)을 따라 프로젝션을 갖는다. 최소 거리 신호(dm) 및 그 인덱스(m)는 제3도의 신호 프로세서에서 가능한 가장 큰 수로 먼저 세트되(단계(615))고, 단계(620 내지 660)의 루프는 셉스트럴 영역에서 가장 근접한 매칭 여기 기준 신호의 인덱스를 결정하기 위해 반복된다.
단계(620)에서, 기준 신호 프로젝션(Pt)과 입력 신호 프로젝션(Pe)간의 차이는 기준 신호 프로젝션(Ps)과 입력 신호 프로젝션(Pc)간의 차이와 비교된다. 만약 프로젝션(Pt)이 프로젝션(Ps)보다 프로젝션(Pe)에 근접한다면, 가장 근접한 프로젝션 인덱스(i)는 t로 세트되고 인덱스(t)는 증가된다(단계(625)). 그렇지 않다면, 인덱스(i)는 S로 세트되고 인덱스(t)는 감소된다(단계(630)). 단계(620 내지 660)의 루프의 첫번째 반복에 있어서, 단계(605 및 610)에서 발견된 셉스트럴 기준 신호 벡터는 단계(620)에서 베스트 매칭 셉스트럴 벡터에 대한 후보자로서 사용된다.
단계(625 또는 630)로부터 입력 신호 프로젝션과 가장 근접한 기준 신호 프로젝션과의 거리에 대응하는 신호
는 단계(635)에서 발생된다. 만약 프로젝션 차이 신호(e)가 현재의 최소 거리 신호(dm)보다 크다면, 이전에 고찰된 셉스트럴 기준 신호 벡터가 여기 입력 신호(Xe)에 가장 근접한 것이다. 그러면 인덱스 신호(Ie)가 제3도의 프로세서에서 m으로 세트되고 인터페이스(301)로부터 출력된다. 거리
는 대응 프로젝션 거리(e)보다 항상 크기 때문에 상기 선택이 가능하다. 처음의 코드북 셉스트럴 벡터 후보자의 프로젝션이 입력 신호의 프로젝션에 가장 근접하기 때문에 신호(e)는 후속하는 각각의 반복에 있어 큰 것으로 된다. 제1도에 관해 전술한 바와 같이, 베스트 매칭 기준 신호의 선택은 비교적 적은 수의 기준 신호에 국한되며 프로젝션 거리에 대한 신호 처리는 벡터 공간 거리에 대한 것보다 상당히 간단하다.
단계(640)에서 식(19)의 프로젝션 거리 신호(e)가 (dm)보다 크지 않은 경우, ei가 베스트 매칭 여기 기준 신호에 대한 가능한 후보자가 된다. 단계(645)로 들어가서, 셉스트럴 벡터 공간에서 2차 프로젝션 라인을 따른의 프로젝션, qi과 셉스트럴 벡터 공간에서 2차 라인을 따른 Xe 의 프로젝션(qe)간의 거리가 형성된다. 이 2차 프로젝션은 최소 거리 신호(dm)와 비교된다(단계(645)). dm이 초과되면,에 대한 어떤 프로젝션 거리(e)도 대응 셉스트럴 벡터 공간 거리보다 항상 작기 때문에 기준 신호는 베스트 매칭 기준 신호로 받아들어질 수 없다. 콘트롤은 이제 단계(620)로 되돌려지고 다음번 인접한 프로젝션을 가진 기준 신호에 대해 고찰한다.
만약 단계(645)에서 2차 프로젝션이 dm보다 작으면, 기준 신호는 기준 신호보다 양호한 후보자이다. 단계(650)에서 발생된 셉스트럴 공간 거리는 최소 거리 신호(dm)와 비교된다(단계(655)). 셉스트럴 벡터 공간 거리가 dm보다 작을 때 단계(655)에서 단계(660)으로 들어간다. 최소 거리 셉스트럴 벡터에 대한 코드북 인덱스(m)는 이제 i와 동일하게 세트되고 dm는와 동일하게 세트된다. 콘트롤은 다음번 반복을 하기 위해 이제 단계(620)로 전달된다. 최소 거리 신호(dm)은 변동되지 않고 남아 있는다.
각각의 시간 프레임 간격에서, 입력 신호에 대한 가장 근접한 매칭 LPC 기준 신호 인덱스(Ia)는 제2도의 LPC벡터 탐색 프로세서(230)에서 발생된다. 입력 신호에 대한 가장 근접한 매칭 여기 인덱스(Ie)는 여기 탐색 프로세서(250)에서 발생된다. 상기 두 인덱스는 멀티플렉서(255)에서 프레임 표현 코드로 조합된다. 제2도의 코더가 통신 시스템에서 사용되는 경우, 신호(Ia및 Ie)를 포함한 코드는 전송용으로 조성되어 채널(260)에 인가된다.
제4도는 인덱스 신호(Ia및 Ie)를 시간 프레임 간격에 대한 언어 패턴으로 변환하기에 적합한 디코더를 도시한다. 제8도는 제4도의 디코더의 동작을 설명하는 순서도이다. 각각의 시간 프레임에 대한 인덱스(Ia및 Ie)를 포함한 코드가 수신되고(제8도의 단계(801)). 제4도의 디코더는 그 인덱스를 디멀티플렉서(401)에서 분리한다. LPC 인덱스(Ia)는 LPC 벡터 선택기(405)에 공급된다. LPC 벡터 선택기는 인덱스(Ia)를 LPC 코드북(410)내의 대응 기준 코드를 어드레스 하는데 이용한다. 코드북(410)은 제2도의 코드북(235)에 기억되어 있는 것과 동일한 기준 신호를 갖는다. 대응 LPC 기준 코드(aIa)는 코드북(410)으로부터 검색되고(단계(805)) 언어 합성기(425)로 인가된다. 합성기는 본 기술분야에 공지된 임의의 LPC 합성기이다.
디멀티플렉서(401)로부터의 인덱스 신호(Ie)는 여기 벡터 선택기(415)에 인가된다. 여기 인덱스 신호는 여기 벡터 코드북(420)을 어드레스한다. 상기 여기 벡터 코드북은 언어 합성기(425)용 여기 신호로서 바로 사용될 수 있는 시간 영역 여기 기준 신호를 포함한다. 인덱스(Ie)에 대응하는 시간 영역 여기 기준 신호가 검색되고(단계(810)) 합성기(425)로 인가된다. 언어 합성기(425)는 선택기(405)로부터의 현재의 시간 프레임 LPC 신호(aIa)를 선택기(415)로부터의 현재의 시간 프레임 여기 신호(eIe)와 조합하고(단계(815)) 제2도의 코더에 인가된 시간 프레임 입력 신호를 본뜬 디지틀 신호(Sn)를 형성한다.
디지틀-아날로그 변환기(430)는 현재 시간 프레임의 언어 패턴을 표현하는 샘플의 시퀀스를 발생시킨다. 저역통과 필터(435)는 샘플 시퀀스로부터 원치 않는 고주파 성분을 제거하여 아날로그 언어 신호를 소리(sound) 패턴으로 변환한다. LPC 벡터 선택기(405), 여기 벡터 선택기(415), 언어 합성기(425)의 동작은 본 기술분야에 공지된 기술에 의해 제3도에 도시된 것과 같은 신호 프로세서 장치에서 실행될 수 있다.
본 발명은 실시예를 참고로 하여 기술되었지만, 본 기술분야에 숙련된 사람이면 본 발명의 정신 및 범주에서 벗어나지 않고도 여러 가지 수정 및 변경을 이룰 수 있다는 것은 분명하다. 본 발명은 언어 통신 코딩 장치에 대해 설명되었지만, 영상 타입 코딩 장치에도 똑같이 적용 가능하며, 언어 또는 영상이 추후의 검색을 위해 엔코드되고 기록매체에 기억되는 시스템에서 이용될 수도 있다.
Claims (12)
- 규정된 벡터 공간에서 표현 가능한 다수의 다중-요소 기준 신호(y1,y2,...,yN)를 기억시키는 단계와, 상기 규정된 벡터 공간에서 표현 가능한 다중-요소 입력 신호(X)를 수신하는 단계 및, 상기 다중-요소 입력 신호를 나타내기 위해 기억된 기준 신호(ym)중 하나를 선택하는 단계를 구비하며, 상기 선택 단계는 상기 규정된 벡터 공간에서 선정된 방향을 지정하는 단계와, 상기 규정된 벡터 공간에서 선정된 방향으로의 기준 신호(yn)의 프로젝션(Pyn)을 각각 나타내는 신호의 세트를 형성하는 단계와, 상기 규정된 벡터 공간에서 선정된 방향으로의 입력 신호의 프로젝션(Px)을 나타내는 신호를 형성하는 단계와, 선정된 방향으로의 프로젝션(Pyi)에 응답하여 기억된 기준 신호(yi)중 하나 또는 여러개를 선정하는 단계와, 각각의 선정된 기준 신호(yi)에 대해, 기준 신호 프로젝션(Pyi) 및 입력 신호 프로젝션(Px)에 응답하여 선정된 방향으로의 기준 신호 프로젝션과 입력 신호 프로젝션간의 차이를 나타내는 신호를 발생시키는 단계 및, 프로젝션 차이 신호에 응답하여 입력 신호를 가장 근접하게 매칭시키는 기준 신호(ym)를 결정하는 단계를 포함하는 다중-요소 신호 코딩 방법.
- 제2항에 있어서, 프로젝션 차이 신호에 응답하여 입력 신호를 가장 근접하게 매칭시키는 기준 신호(ym)를 결정하는 단계는 가장 근접하게 매칭한 기준 신호의 인덱스에 대응하는 신호(m)를 N 보다 큰 값으로 초기에 세팅하고 가장 근접한 매칭 기준 신호(ym)와 입력 신호(X)간의 거리에 대응하는 신호(dm)를 규정된 벡터 공간에서 임의의 기준 신호와 입력 신호간의 가장 큰 거리보다 큰 값으로 세팅하는 단계와, 연속적으로 선택된 기준 신호(yi) 각각에 대해, 프로젝션 거리 신호를 거리 신호(dm)와 비교하는 단계와, 비교 단계에 있어 선택된 기준 신호 프로젝션 거리가 규정된 벡터 공간 거리 dm보다 작은 것에 응답하여, a) 규정된 벡터 공간에서 입력 신호(X)와 기준 신호(yi) 간의 벡터 공간 거리 d(yi,x)에 대응하는 신호를 형성시키고, b)벡터 공간 거리 신호(dm)를 d(yi,x)dm에 응답하여 벡터 공간 거리 신호 d(yi,x)로 대체하고, c) 선택된 기준 신호 인덱스(m)를 기준 신호 인덱스(i)와 동일하게 세팅하고, d) 후속하여 선정된 기준 신호(i)에 대한 비교 단계로 되돌아가는 단계와, 비교 단계에 있어 선택된 기준 신호 프로젝션 거리(Pyi)가 벡터 공간 거리(dm)보다 크거나 같은 것에 응답하여, 기준 신호(m)를 가장 근접한 매칭 기준 신호로서 선택하는 단계를 구비하는 다중-요소 신호 코딩 방법.
- 제1항, 제2항, 제3항중 어느 한 항에 있어서, 상기 규정된 벡터 공간에서 규정된 방향은 다중-요소 입력 신호의 선정된 요소에 대응하는 다중-요소 신호 코딩 방법.
- 제1항, 제2항, 제3항중 어느 한 항에 있어서, 상기 다중-요소 입력 신호는 언어 표현 신호인 다중-요소 신호 코딩 방법.
- 제1항, 제2항, 제3항중 어느 한 항에 있어서, 상기 다중-요소 입력 신호는 영상 표현 신호인 다중-요소 신호 코딩 방법.
- 규정된 벡터 공간에서 표현 가능한 다수의 다중-요소 기준 신호(y1,y2,...,yN)를 기억시키는 수단과, 규정된 벡터 공간에서 표현 가능한 다중-요소 입력 신호(X)를 수신하는 수단과, 다중-요소 입력 신호를 나타내기 위해 기억된 기준 신호(ym)중 하나를 선택하는 수단을 구비하며, 상기 선택 수단은 규정된 벡터 공간에서 선정된 방향을 지정하는 수단과, 기준 신호 및 선정된 방향에 응답하여 규정된 벡터 공간에서 선정된 방향으로의 기준 신호(yn)의 프로젝션(Pyn)을 각각 나타내는 신호의 세트를 형성하는 수단과, 입력 신호 및 선정된 방향에 응답하여 규정된 벡터 공간에서 선정된 방향으로의 입력 신호의 프로젝션(Px)을 나타내는 신호를 형성하는 수단과, 기준 신호(yn)의 선정된 방향으로의 프로젝션(Pyn)에 응답하여 선정된 방향으로의 프로젝션(Pyi)에 응답하여 기억된 기준 신호(yi)중 하나 또는 여러개를 선정하는 수단과, 기준 신호 프로젝션(Pyi) 및 입력 신호 프로젝션(Px)에 응답하여 각각의 선정된 준 신호(yi)에 대해, 기준 신호 프로젝션(Pyi) 및 입력 신호 프로젝션(Px)에 응답하여 선정된 방향으로의 기준 신호 프로젝션과 입력 신호 프로젝션간의 차이를 나타내는 신호를 발생시키는 수단 및, 프로젝션 차이 신호에 응답하여 입력 신호를 가장 근접하게 매칭시키는 기준 신호(ym)를 결정하는 수단을 구비하는 다중-요소 신호 코딩 장치.
- 제8항에 있어서, 프로젝션 차이 신호에 응답하여 입력 신호를 가장 근접하게 매칭시키는 기준 신호(ym)를 결정하는 수단은 가장 근접하게 매칭한 기준 신호의 인덱스에 대응하는 신호(m)를 N 보다 큰 값으로 초기에 세팅하고 가장 근접한 매칭 기준 신호(ym)와 입력 신호(X)간의 거리에 대응하는 신호(dm)를 규정된 벡터 공간에서 임의의 기준 신호와 입력 신호간의 가장 큰 거리보다 큰 값으로 세팅하는 수단과, 연속적으로 선택된 기준 신호(yi) 각각에 대해, 프로젝션 거리 신호를 거리 신호 dm와 비교하도록 동작하는 수단과, 비교 수단에서 선택된 기준 신호 프로젝션 거리가 규정된 벡터 공간 거리(dm)보다 작은 것에 응답하여, 규정된 벡터 공간에서 입력 신호(X)와 기준 신호(yi)간의 벡터 공간 거리 d(yi,x)에 대응하는 신호를 형성시키는 수단과, 벡터 공간 거리 신호(dm)를 d(yi,x)dm에 응답하여 벡터 공간 거리 신호 d(yi,x)로 대체하고, 선택된 기준 신호 인덱스(m)를 기준 신호 인덱스(i)와 동일하게 세팅하는 수단과, 비교 수단에서 선택된 기준 신호 프로젝션 거리가 벡터 공간 거리(dm)보다 크거나 같은 것에 응답하여, 기준 신호(m)를 가장 근접한 매칭 기준 신호로서 선택하는 수단을 구비하는 다중-요소 신호 코딩 장치.
- 제7항, 제8항, 제9항 중 어느 한 항에 있어서, 상기 규정된 벡터 공간에서 선정된 방향은 다중-요소 입력 신호의 선정된 요소에 대응하는 다중-요소 신호 코딩 장치.
- 제7항, 제8항, 제9항중 어느 한 항에 있어서, 상기 다중-요소 입력 신호는 언어 표현 신호인 다중-요소 신호 코딩 장치.
- 제7항, 제8항, 제9항중 어느 한 항에 있어서, 상기 다중-요소 입력 신호는 영상 표현 신호인 다중-요소 신호 코딩 장치.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US365,642 | 1989-06-13 | ||
US07/365,642 US5010574A (en) | 1989-06-13 | 1989-06-13 | Vector quantizer search arrangement |
Publications (2)
Publication Number | Publication Date |
---|---|
KR910002144A KR910002144A (ko) | 1991-01-31 |
KR0143076B1 true KR0143076B1 (ko) | 1998-08-17 |
Family
ID=23439717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019900008313A KR0143076B1 (ko) | 1989-06-13 | 1990-06-07 | 다중-요소 신호 코딩 방법 및 장치 |
Country Status (5)
Country | Link |
---|---|
US (1) | US5010574A (ko) |
EP (1) | EP0403154B1 (ko) |
JP (1) | JPH0779252B2 (ko) |
KR (1) | KR0143076B1 (ko) |
CA (1) | CA2013247C (ko) |
Families Citing this family (166)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5010574A (en) | 1989-06-13 | 1991-04-23 | At&T Bell Laboratories | Vector quantizer search arrangement |
GB9017600D0 (en) * | 1990-08-10 | 1990-09-26 | British Aerospace | An assembly and method for binary tree-searched vector quanisation data compression processing |
US5194864A (en) * | 1990-10-03 | 1993-03-16 | Olympus Optical Co., Ltd. | Vector quantization method and apparatus |
US5765127A (en) * | 1992-03-18 | 1998-06-09 | Sony Corp | High efficiency encoding method |
US5337394A (en) * | 1992-06-09 | 1994-08-09 | Kurzweil Applied Intelligence, Inc. | Speech recognizer |
EP0751496B1 (en) * | 1992-06-29 | 2000-04-19 | Nippon Telegraph And Telephone Corporation | Speech coding method and apparatus for the same |
US5821924A (en) * | 1992-09-04 | 1998-10-13 | Elonex I.P. Holdings, Ltd. | Computer peripherals low-power-consumption standby system |
DE4315313C2 (de) * | 1993-05-07 | 2001-11-08 | Bosch Gmbh Robert | Vektorcodierverfahren insbesondere für Sprachsignale |
US6304675B1 (en) | 1993-12-28 | 2001-10-16 | Sandia Corporation | Visual cluster analysis and pattern recognition methods |
US5598505A (en) * | 1994-09-30 | 1997-01-28 | Apple Computer, Inc. | Cepstral correction vector quantizer for speech recognition |
JP3273455B2 (ja) * | 1994-10-07 | 2002-04-08 | 日本電信電話株式会社 | ベクトル量子化方法及びその復号化器 |
CA2191972A1 (en) * | 1995-04-19 | 1996-10-31 | James Patrick Ashley | Method and apparatus for low rate coding and decoding |
US5706392A (en) * | 1995-06-01 | 1998-01-06 | Rutgers, The State University Of New Jersey | Perceptual speech coder and method |
US6192336B1 (en) * | 1996-09-30 | 2001-02-20 | Apple Computer, Inc. | Method and system for searching for an optimal codevector |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
ITFI20010199A1 (it) | 2001-10-22 | 2003-04-22 | Riccardo Vieri | Sistema e metodo per trasformare in voce comunicazioni testuali ed inviarle con una connessione internet a qualsiasi apparato telefonico |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US7633076B2 (en) | 2005-09-30 | 2009-12-15 | Apple Inc. | Automated response to and sensing of user activity in portable devices |
FR2893432B1 (fr) * | 2005-11-16 | 2008-01-04 | Atmel Corp | Quantificateur de vecteur fonde sur une dichotomie spatiale a n dimensions |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
JP2008102092A (ja) * | 2006-10-20 | 2008-05-01 | Denso Corp | 計器 |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US9053089B2 (en) | 2007-10-02 | 2015-06-09 | Apple Inc. | Part-of-speech tagging using latent analogy |
US8620662B2 (en) | 2007-11-20 | 2013-12-31 | Apple Inc. | Context-aware unit selection |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8065143B2 (en) | 2008-02-22 | 2011-11-22 | Apple Inc. | Providing text input using speech data and non-speech data |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US8464150B2 (en) | 2008-06-07 | 2013-06-11 | Apple Inc. | Automatic language identification for dynamic text processing |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8768702B2 (en) | 2008-09-05 | 2014-07-01 | Apple Inc. | Multi-tiered voice feedback in an electronic device |
US8898568B2 (en) | 2008-09-09 | 2014-11-25 | Apple Inc. | Audio user interface |
US8583418B2 (en) | 2008-09-29 | 2013-11-12 | Apple Inc. | Systems and methods of detecting language and natural language strings for text to speech synthesis |
US8712776B2 (en) | 2008-09-29 | 2014-04-29 | Apple Inc. | Systems and methods for selective text to speech synthesis |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US9959870B2 (en) | 2008-12-11 | 2018-05-01 | Apple Inc. | Speech recognition involving a mobile device |
US8862252B2 (en) | 2009-01-30 | 2014-10-14 | Apple Inc. | Audio user interface for displayless electronic device |
US8380507B2 (en) | 2009-03-09 | 2013-02-19 | Apple Inc. | Systems and methods for determining the language to use for speech generated by a text to speech engine |
US20120311585A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Organizing task items that represent tasks to perform |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10540976B2 (en) | 2009-06-05 | 2020-01-21 | Apple Inc. | Contextual voice commands |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US8682649B2 (en) | 2009-11-12 | 2014-03-25 | Apple Inc. | Sentiment prediction from textual data |
US8600743B2 (en) | 2010-01-06 | 2013-12-03 | Apple Inc. | Noise profile determination for voice-related feature |
US8311838B2 (en) | 2010-01-13 | 2012-11-13 | Apple Inc. | Devices and methods for identifying a prompt corresponding to a voice input in a sequence of prompts |
US8381107B2 (en) | 2010-01-13 | 2013-02-19 | Apple Inc. | Adaptive audio feedback system and method |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
DE112011100329T5 (de) | 2010-01-25 | 2012-10-31 | Andrew Peter Nelson Jerram | Vorrichtungen, Verfahren und Systeme für eine Digitalkonversationsmanagementplattform |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US8713021B2 (en) | 2010-07-07 | 2014-04-29 | Apple Inc. | Unsupervised document clustering using latent semantic density analysis |
US8719006B2 (en) | 2010-08-27 | 2014-05-06 | Apple Inc. | Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis |
US8719014B2 (en) | 2010-09-27 | 2014-05-06 | Apple Inc. | Electronic device with text error correction based on voice recognition data |
US10515147B2 (en) | 2010-12-22 | 2019-12-24 | Apple Inc. | Using statistical language models for contextual lookup |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US8781836B2 (en) | 2011-02-22 | 2014-07-15 | Apple Inc. | Hearing assistance system for providing consistent human speech |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US10672399B2 (en) | 2011-06-03 | 2020-06-02 | Apple Inc. | Switching between text data and audio data based on a mapping |
US8812294B2 (en) | 2011-06-21 | 2014-08-19 | Apple Inc. | Translating phrases from one language into another using an order-based set of declarative rules |
KR20140056276A (ko) * | 2011-07-18 | 2014-05-09 | 톰슨 라이센싱 | 접속된 컴포넌트의 오리엔테이션 벡터를 인코딩하기 위한 방법 및 디바이스, 대응하는 디코딩 방법 및 디바이스, 및 그 인코딩된 데이터를 전달하는 저장 매체 |
US8706472B2 (en) | 2011-08-11 | 2014-04-22 | Apple Inc. | Method for disambiguating multiple readings in language conversion |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US8762156B2 (en) | 2011-09-28 | 2014-06-24 | Apple Inc. | Speech recognition repair using contextual information |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US8775442B2 (en) | 2012-05-15 | 2014-07-08 | Apple Inc. | Semantic search using a single-source semantic model |
US10019994B2 (en) | 2012-06-08 | 2018-07-10 | Apple Inc. | Systems and methods for recognizing textual identifiers within a plurality of words |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US8935167B2 (en) | 2012-09-25 | 2015-01-13 | Apple Inc. | Exemplar-based latent perceptual modeling for automatic speech recognition |
DE212014000045U1 (de) | 2013-02-07 | 2015-09-24 | Apple Inc. | Sprach-Trigger für einen digitalen Assistenten |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
US10572476B2 (en) | 2013-03-14 | 2020-02-25 | Apple Inc. | Refining a search based on schedule items |
US9977779B2 (en) | 2013-03-14 | 2018-05-22 | Apple Inc. | Automatic supplementation of word correction dictionaries |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10642574B2 (en) | 2013-03-14 | 2020-05-05 | Apple Inc. | Device, method, and graphical user interface for outputting captions |
US9733821B2 (en) | 2013-03-14 | 2017-08-15 | Apple Inc. | Voice control to diagnose inadvertent activation of accessibility features |
WO2014144949A2 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | Training an at least partial voice command system |
US11151899B2 (en) | 2013-03-15 | 2021-10-19 | Apple Inc. | User training by intelligent digital assistant |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
KR101904293B1 (ko) | 2013-03-15 | 2018-10-05 | 애플 인크. | 콘텍스트-민감성 방해 처리 |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
DE112014002747T5 (de) | 2013-06-09 | 2016-03-03 | Apple Inc. | Vorrichtung, Verfahren und grafische Benutzerschnittstelle zum Ermöglichen einer Konversationspersistenz über zwei oder mehr Instanzen eines digitalen Assistenten |
CN105265005B (zh) | 2013-06-13 | 2019-09-17 | 苹果公司 | 用于由语音命令发起的紧急呼叫的系统和方法 |
AU2014306221B2 (en) | 2013-08-06 | 2017-04-06 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
EP3149728B1 (en) | 2014-05-30 | 2019-01-16 | Apple Inc. | Multi-command single utterance input method |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3740476A (en) * | 1971-07-09 | 1973-06-19 | Bell Telephone Labor Inc | Speech signal pitch detector using prediction error data |
JPS5272504A (en) * | 1975-12-15 | 1977-06-17 | Fuji Xerox Co Ltd | Device for recognizing word audio |
DE3382796T2 (de) * | 1982-06-11 | 1996-03-28 | Mitsubishi Electric Corp | Vorrichtung zur Zwischenbildkodierung. |
JPS6143875A (ja) * | 1984-08-08 | 1986-03-03 | Nippon Telegr & Teleph Corp <Ntt> | ベ−シツクセル式全探索ベクトル量子化符号化器 |
IT1190565B (it) * | 1986-04-07 | 1988-02-16 | Cselt Centro Studi Lab Telecom | Procedimento e dispositivo di codifica di segnali numerizati mediante quantizzazione vettoriale |
US4797925A (en) * | 1986-09-26 | 1989-01-10 | Bell Communications Research, Inc. | Method for coding speech at low bit rates |
US4727354A (en) * | 1987-01-07 | 1988-02-23 | Unisys Corporation | System for selecting best fit vector code in vector quantization encoding |
US5010574A (en) | 1989-06-13 | 1991-04-23 | At&T Bell Laboratories | Vector quantizer search arrangement |
-
1989
- 1989-06-13 US US07/365,642 patent/US5010574A/en not_active Expired - Lifetime
-
1990
- 1990-03-28 CA CA002013247A patent/CA2013247C/en not_active Expired - Fee Related
- 1990-06-06 EP EP90306158A patent/EP0403154B1/en not_active Expired - Lifetime
- 1990-06-07 KR KR1019900008313A patent/KR0143076B1/ko not_active IP Right Cessation
- 1990-06-13 JP JP2152894A patent/JPH0779252B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
EP0403154A3 (en) | 1993-12-01 |
JPH03101423A (ja) | 1991-04-26 |
JPH0779252B2 (ja) | 1995-08-23 |
KR910002144A (ko) | 1991-01-31 |
EP0403154B1 (en) | 1996-01-17 |
US5010574A (en) | 1991-04-23 |
CA2013247A1 (en) | 1990-12-13 |
EP0403154A2 (en) | 1990-12-19 |
CA2013247C (en) | 1993-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR0143076B1 (ko) | 다중-요소 신호 코딩 방법 및 장치 | |
US5774839A (en) | Delayed decision switched prediction multi-stage LSF vector quantization | |
US5729655A (en) | Method and apparatus for speech compression using multi-mode code excited linear predictive coding | |
US4944013A (en) | Multi-pulse speech coder | |
KR0127901B1 (ko) | 음성 인코딩 장치 및 그 방법 | |
AU707307B2 (en) | Depth-first algebraic-codebook search for fast coding of speech | |
CA1338387C (en) | Vector excitation speech or audio coder for transmission or storage | |
US6014622A (en) | Low bit rate speech coder using adaptive open-loop subframe pitch lag estimation and vector quantization | |
EP0175752B1 (en) | Multipulse lpc speech processing arrangement | |
KR950013372B1 (ko) | 음성 부호화 장치와 그 방법 | |
EP0342687B1 (en) | Coded speech communication system having code books for synthesizing small-amplitude components | |
US5193140A (en) | Excitation pulse positioning method in a linear predictive speech coder | |
EP0784846B1 (en) | A multi-pulse analysis speech processing system and method | |
US4890328A (en) | Voice synthesis utilizing multi-level filter excitation | |
US5822724A (en) | Optimized pulse location in codebook searching techniques for speech processing | |
US5797119A (en) | Comb filter speech coding with preselected excitation code vectors | |
US6064956A (en) | Method to determine the excitation pulse positions within a speech frame | |
US5884252A (en) | Method of and apparatus for coding speech signal | |
USRE34247E (en) | Digital speech processor using arbitrary excitation coding | |
EP0713208A2 (en) | Pitch lag estimation system | |
KR950013373B1 (ko) | 음성 메시지 공급 장치와 음성 메시지 생성 방법 | |
JPH08320700A (ja) | 音声符号化装置 | |
KR960011132B1 (ko) | 씨이엘피(celp) 보코더에서의 피치검색방법 | |
JPH08194499A (ja) | 音声符号化装置 | |
De Iacovo et al. | Vector quantization and perceptual criteria in SVD based CELP coders |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20100331 Year of fee payment: 13 |
|
LAPS | Lapse due to unpaid annual fee |