KR20050037431A - 신호 처리 시스템, 신호 처리 장치 및 방법, 기록 매체와프로그램 - Google Patents

신호 처리 시스템, 신호 처리 장치 및 방법, 기록 매체와프로그램 Download PDF

Info

Publication number
KR20050037431A
KR20050037431A KR1020047007114A KR20047007114A KR20050037431A KR 20050037431 A KR20050037431 A KR 20050037431A KR 1020047007114 A KR1020047007114 A KR 1020047007114A KR 20047007114 A KR20047007114 A KR 20047007114A KR 20050037431 A KR20050037431 A KR 20050037431A
Authority
KR
South Korea
Prior art keywords
signal
input
processing
frequency component
high frequency
Prior art date
Application number
KR1020047007114A
Other languages
English (en)
Other versions
KR101001475B1 (ko
Inventor
데쯔지로 곤도
마사아끼 하또리
쯔또무 와따나베
히로또 기무라
사꼰 야마모또
아끼히꼬 아리미쯔
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20050037431A publication Critical patent/KR20050037431A/ko
Application granted granted Critical
Publication of KR101001475B1 publication Critical patent/KR101001475B1/ko

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/94Vector quantisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Quality & Reliability (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Picture Signal Circuits (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Telephonic Communication Services (AREA)

Abstract

본 발명은 고역 주파수 성분이 억압된 협대역 신호의 고역 주파수 성분을 양호한 정밀도로 복원할 수 있도록 하는 신호 처리 시스템, 신호 처리 장치 및 방법, 기록 매체와 프로그램에 관한 것이다. 저역 주파수 성분을 갖는 협대역인 음성 신호가 프레임 추출부(11)에서 프레임화되고, DCT 변환부(12)에서 주파수축 상의 신호로 스펙트럼 변환된다. 학습 종료 테이블(14)은 클래스 분류부(13)로부터 공급되는 클래스 코드에 대응하는 어드레스로부터 고역 주파수 성분의 스펙트럼 데이터를 추출한다. 추출된 고역 주파수 성분의 스펙트럼 데이터는 DCT 변환부(12)로부터 출력된 저역 주파수 성분의 스펙트럼 데이터와 스펙트럼 결합부(16)에서 결합된다. 그리고, 고역 주파수 성분과 저역 주파수 성분이 결합된 광대역인 음성 신호로서 출력된다. 본 발명은 휴대 전화기에 적용할 수 있다.

Description

신호 처리 시스템, 신호 처리 장치 및 방법, 기록 매체와 프로그램{SIGNAL PROCESSING SYSTEM, SIGNAL PROCESSING APPARATUS AND METHOD, RECORDING MEDIUM, AND PROGRAM}
본 발명은 신호 처리 시스템, 신호 처리 장치 및 방법, 기록 매체와 프로그램에 관한 것으로, 특히 고역 주파수 성분이 억압된 협대역 신호의 고역 주파수 성분을 양호한 정밀도로 복원하도록 한 신호 처리 시스템, 신호 처리 장치 및 방법, 기록 매체와 프로그램에 관한 것이다.
주파수의 대역이 좁은 음성 신호를 광대역으로 확장하는 기술에 대하여, 현재까지도 다양한 제안이 이루어지고 있다.
예를 들면, 일본 특개평7-36490호 공보(이하, 문헌 1이라고 함)에는, 입력된 음성 신호 스펙트럼에 기초하여, 소실된 배음 성분을 연산에 의해 생성하여 부가하는 방법이 개시되어 있다.
또한, 사이타마 대학에 의한 일본음향학회에서의 논문(이하, 문헌 2라고 함)에 의해, 입력된 음성 신호의 자기 상관 연산에 의해, 유성 음원 파형을 생성하고, 이를 고역 성분으로서 이용하는 방법이 발표되어 있다.
또한, 일본 특개평11-126097호 공보, 일본 특개평11-68515호 공보(이하, 특허 문헌 3이라고 함)에는, 입력 신호보다 높은 표준화 주파수로 D/A 변환을 행할 때의 샘플값 보간 방법이 개시되어 있다.
또한, 일본 특개평6-118995 공보(이하, 문헌 4라고 함)에는, 광대역 음성 신호의 벡터 양자와 코드북과, 협대역 음성 신호의 벡터 양자화 코드북을 대응시킴으로써, 광대역 음성 신호를 복원하는 방법이 개시되어 있다.
문헌 1의 기술은, MP3(Moving Picture Experts Group-1 Audio Layer-3) 등의 비교적 광대역의 음성 신호에 있어서, 그 압축 과정에서 소실된 고역 신호를 예측하여 부가하는 것으로, 전화 음성 대역과 같은 극단적으로 협대역화된 신호의 대역을, 예를 들면 2배로 확장하는 경우에는 적용하는 것이 곤란하다.
또한, 문헌 2의 기술은 유성음만에 대한 처리로서, 무성음(자음부)을 복원할 수 없다고 하는 과제가 있다.
또한, 문헌 3의 기술은 표본화 주파수를 높이는 샘플값 보간 처리 시에, 보간 샘플값의 레벨을 전후 수 샘플의 변화 상황을 보고 적절하다고 생각되는 값으로 설정한다는, 등의 보간 필터의 연장선 상의 기술로서, 소실된 주파수 성분을 복원하는 것은 아니다.
마지막의 문헌 4의 기술은 처리의 중핵에 LPC(Liner Prediction Coefficient) 분석 및 합성 처리를 사용하고 있기 때문에, 입력 신호에 음도 모델을 상정하고 있는 것으로 생각된다. 그 때문에, 악음에 대한 적용이 곤란하다.
〈발명의 개시〉
본 발명은 이러한 상황을 감안하여 이루어진 것으로, 고역 주파수 성분이 억압된 협대역 신호의 고역 주파수 성분을 양호한 정밀도로 복원할 수 있도록 하는 것이다.
본 발명의 신호 처리 시스템은, 제1 신호 처리 장치는, 주파수 성분이 광대역인 제1 신호를 입력하는 제1 신호 입력 수단과, 제1 신호 중의, 고역 주파수 성분이 억압된 협대역인 제2 신호를 입력하는 제2 신호 입력 수단과, 제1 신호 입력 수단에 의해 입력된 제1 신호로부터 고역 주파수 성분을 추출하는 추출 수단과, 제2 신호 입력 수단에 의해 입력된 제2 신호에 기초하여, 제1 클래스 코드를 결정하는 제1 결정 수단과, 제1 결정 수단에 의해 결정된 제1 클래스 코드별로, 추출 수단에 의해 추출된 고역 주파수 성분을 축적하는 축적 수단을 구비하고, 제2 신호 처리 장치는, 고역 주파수 성분이 억압된 협대역인 제3 신호를 입력하는 제3 신호 입력 수단과, 제3 신호 입력 수단에 의해 입력된 제3 신호에 기초하여, 제2 클래스 코드를 결정하는 제2 결정 수단과, 제2 결정 수단에 의해 결정된 제2 클래스 코드에 대응하는, 축적 수단에 의해 축적된 고역 주파수 성분과, 제3 신호 입력 수단에 의해 입력된 제3 신호를 합성하는 합성 수단과, 합성 수단에 의해 생성된 합성 신호를 출력하는 출력 수단을 구비하는 것을 특징으로 한다.
본 발명의 신호 처리 시스템의 신호 처리 방법은, 제1 신호 처리 장치는, 주파수 성분이 광대역인 제1 신호의 입력을 제어하는 제1 신호 입력 제어 단계와, 제1 신호 중의, 고역 주파수 성분이 억압된 협대역인 제2 신호의 입력을 제어하는 제2 신호 입력 제어 단계와, 제1 신호 입력 제어 단계의 처리에 의해 입력이 제어된 제1 신호로부터 고역 주파수 성분을 추출하는 추출 단계와, 제2 신호 입력 제어 단계의 처리에 의해 입력이 제어된 제2 신호에 기초하여, 제1 클래스 코드를 결정하는 제1 결정 단계와, 제1 결정 단계의 처리에 의해 결정된 제1 클래스 코드별로, 추출 단계의 처리에 의해 추출된 고역 주파수 성분을 축적하는 축적 단계를 포함하고, 제2 신호 처리 장치는 고역 주파수 성분이 억압된 협대역인 제3 신호의 입력을 제어하는 제3 신호 입력 제어 단계와, 제2 신호 입력 제어 단계의 처리에 의해 입력이 제어된 제3 신호에 기초하여, 제2 클래스 코드를 결정하는 제2 결정 단계와, 제2 결정 단계의 처리에 의해 결정된 제2 클래스 코드에 대응하는, 축적 단계의 처리에 의해 축적된 고역 주파수 성분과, 제3 신호 입력 제어 단계의 처리에 의해 입력이 제어된 제3 신호를 합성하는 합성 단계와, 합성 단계의 처리에 의해 생성된 합성 신호의 출력을 제어하는 출력 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제1 신호 처리 장치는, 주파수 성분이 광대역인 제1 신호를 입력하는 제1 신호 입력 수단과, 제1 신호 중의, 고역 주파수 성분이 억압된 협대역인 제2 신호를 입력하는 제2 신호 입력 수단과, 제1 신호 입력 수단에 의해 입력된 제1 신호로부터 고역 주파수 성분을 추출하는 추출 수단과, 제2 신호 입력 수단에 의해 입력된 제2 신호에 기초하여, 클래스 코드를 결정하는 결정 수단과, 결정 수단에 의해 결정된 클래스 코드별로, 추출 수단에 의해 추출된 고역 주파수 성분을 축적하는 축적 수단을 구비하는 것을 특징으로 한다.
본 발명의 제1 신호 처리 방법은, 주파수 성분이 광대역인 제1 신호의 입력을 제어하는 제1 신호 입력 제어 단계와, 제1 신호 중의, 고역 주파수 성분이 억압된 협대역인 제2 신호의 입력을 제어하는 제2 신호 입력 제어 단계와, 제1 신호 입력 제어 단계의 처리에 의해 입력이 제어된 제1 신호로부터 고역 주파수 성분을 추출하는 추출 단계와, 제2 신호 입력 제어 단계의 처리에 의해 입력이 제어된 제2 신호에 기초하여, 클래스 코드를 결정하는 결정 단계와, 결정 단계의 처리에 의해 결정된 클래스 코드별로, 추출 단계의 처리에 의해 추출된 고역 주파수 성분을 축적하는 축적 단계를 포함하는 것을 특징으로 한다.
본 발명의 제1 기록 매체의 프로그램은, 주파수 성분이 광대역인 제1 신호의 입력을 제어하는 제1 신호 입력 제어 단계와, 제1 신호 중의, 고역 주파수 성분이 억압된 협대역인 제2 신호의 입력을 제어하는 제2 신호 입력 제어 단계와, 제1 신호 입력 제어 단계의 처리에 의해 입력이 제어된 제1 신호로부터 고역 주파수 성분을 추출하는 추출 단계와, 제2 신호 입력 제어 단계의 처리에 의해 입력이 제어된 제2 신호에 기초하여, 클래스 코드를 결정하는 결정 단계와, 결정 단계의 처리에 의해 결정된 클래스 코드별로, 추출 단계의 처리에 의해 추출된 고역 주파수 성분을 축적하는 축적 단계를 포함하는 것을 특징으로 한다.
본 발명의 제1 프로그램은, 주파수 성분이 광대역인 제1 신호의 입력을 제어하는 제1 신호 입력 제어 단계와, 제1 신호 중의, 고역 주파수 성분이 억압된 협대역인 제2 신호의 입력을 제어하는 제2 신호 입력 제어 단계와, 제1 신호 입력 제어 단계의 처리에 의해 입력이 제어된 제1 신호로부터 고역 주파수 성분을 추출하는 추출 단계와, 제2 신호 입력 제어 단계의 처리에 의해 입력이 제어된 제2 신호에 기초하여, 클래스 코드를 결정하는 결정 단계와, 결정 단계의 처리에 의해 결정된 클래스 코드별로, 추출 단계의 처리에 의해 추출된 고역 주파수 성분을 축적하는 축적 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제1 신호 처리 장치의 입력 수단에는 음성 신호를 입력시키도록 할 수 있다.
본 발명의 제1 신호 처리 장치에 입력된 신호가 음성 신호인 경우, 결정 수단에는, 등(等) 라우드네스 특성에 기초하는 가중치 부여 처리를 행한 신호에 기초하여, 클래스 코드를 결정시킬 수 있다.
본 발명의 제1 신호 처리 장치에 입력된 신호가 음성 신호인 경우, 결정 수단에는, 음성 신호 스펙트럼의 평균 파워값과 최대 파워값의 위치에 기초하여, 클래스 코드를 결정시키도록 할 수 있다.
본 발명의 제1 신호 처리 장치에 입력된 신호가 음성 신호인 경우, 결정 수단에는, 기억 수단에 기억되어 있는 고역 주파수 성분의 최저의 주파수의 1/2배, 또는 1/3배의 주파수 이상의 스펙트럼 성분의 클래스 코드를 결정시키도록 할 수 있다.
본 발명의 제1 신호 처리 장치의 입력 수단에는 화상 신호를 입력시키도록 할 수 있다.
본 발명의 제1 신호 처리 장치에 입력된 신호가 화상 신호인 경우, 결정 수단에는 화상 신호의 스펙트럼의 교류 평균 파워값, 직류 파워값, 및 교류 성분 피크 파워값에 기초하여, 클래스 코드를 결정시키도록 할 수 있다.
본 발명의 제1 신호 처리 장치의 축적 수단에는 추출 수단에 의해 추출된 고역 주파수 성분을 특정 정보에 대응하여 축적시키도록 할 수 있다.
본 발명의 제1 신호 처리 장치의 특정 정보는 전화기의 전화번호이도록 할 수 있다.
본 발명의 제1 신호 처리 장치의 제1 신호를 소정의 시간 간격으로 씨닝하여 제2 신호를 생성하는 생성 수단을 더 구비할 수 있다.
본 발명의 제2 신호 처리 장치는, 고역 주파수 성분이 억압된 협대역인 신호를 입력하는 신호 입력 수단과, 신호 입력 수단에 의해 입력된 신호에 기초하여, 클래스 코드를 결정하는 결정 수단과, 고역 주파수 성분을 기억하는 기억 수단과, 결정 수단에 의해 결정된 클래스 코드에 대응하는, 기억 수단에 기억된 고역 주파수 성분과, 신호 입력 수단에 의해 입력된 신호를 합성하는 합성 수단과, 합성 수단에 의해 생성된 합성 신호를 출력하는 출력 수단을 구비하는 것을 특징으로 한다.
본 발명의 제2 신호 처리 방법은, 고역 주파수 성분이 억압된 협대역인 신호의 입력을 제어하는 신호 입력 제어 단계와, 신호 입력 제어 단계의 처리에 의해 입력이 제어된 신호에 기초하여, 클래스 코드를 결정하는 결정 단계와, 고역 주파수 성분의 기억을 제어하는 기억 제어 단계와, 결정 단계의 처리에 의해 결정된 클래스 코드에 대응하는, 기억 제어 단계의 처리에 의해 기억이 제어된 고역 주파수 성분과, 신호 입력 제어 단계의 처리에 의해 입력된 신호를 합성하는 합성 단계와, 합성 단계의 처리에 의해 생성된 합성 신호의 출력을 제어하는 출력 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제2 기록 매체의 프로그램은, 고역 주파수 성분이 억압된 협대역인 신호의 입력을 제어하는 신호 입력 제어 단계와, 신호 입력 제어 단계의 처리에 의해 입력이 제어된 신호에 기초하여, 클래스 코드를 결정하는 결정 단계와, 고역 주파수 성분의 기억을 제어하는 기억 제어 단계와, 결정 단계의 처리에 의해 결정된 클래스 코드에 대응하는, 기억 제어 단계의 처리에 의해 기억이 제어된 고역 주파수 성분과, 신호 입력 제어 단계의 처리에 의해 입력된 신호를 합성하는 합성 단계와, 합성 단계의 처리에 의해 생성된 합성 신호의 출력을 제어하는 출력 제어 단계를 포함하는 것을 특징으로 한다.
본 발명의 제2 프로그램은, 고역 주파수 성분이 억압된 협대역인 신호의 입력을 제어하는 신호 입력 제어 단계와, 신호 입력 제어 단계의 처리에 의해 입력이 제어된 신호에 기초하여, 클래스 코드를 결정하는 결정 단계와, 고역 주파수 성분의 기억을 제어하는 기억 제어 단계와, 결정 단계의 처리에 의해 결정된 클래스 코드에 대응하는, 기억 제어 단계의 처리에 의해 기억이 제어된 고역 주파수 성분과, 신호 입력 제어 단계의 처리에 의해 입력된 신호를 합성하는 합성 단계와, 합성 단계의 처리에 의해 생성된 합성 신호의 출력을 제어하는 출력 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제2 신호 처리 장치의 입력 수단에는 음성 신호를 입력시키도록 할 수 있다.
본 발명의 제2 신호 처리 장치에 입력된 신호가 음성 신호인 경우, 결정 수단에는 등 라우드네스 특성에 기초하는 가중치 부여 처리를 행한 신호에 기초하여, 클래스 코드를 결정시키도록 할 수 있다.
본 발명의 제2 신호 처리 장치에 입력된 신호가 음성 신호인 경우, 결정 수단에는 음성 신호 스펙트럼의 평균 파워값과 최대 파워값의 위치에 기초하여, 클래스 코드를 결정시키도록 할 수 있다.
본 발명의 제2 신호 처리 장치에 입력된 신호가 음성 신호인 경우, 결정 수단에는 기억 수단에 기억되어 있는 고역 주파수 성분의 최저의 주파수의 1/2배, 또는 1/3배의 주파수 이상의 스펙트럼 성분의 클래스 코드를 결정시키도록 할 수 있다.
본 발명의 제2 신호 처리 장치의 입력 수단에는, 화상 신호를 입력시키도록 할 수 있다.
본 발명의 제2 신호 처리 장치에 입력된 신호가 화상 신호인 경우, 결정 수단에는 화상 신호의 스펙트럼의 교류 평균 파워값, 직류 파워값, 및 교류 성분 피크 파워값에 기초하여, 클래스 코드를 결정시키도록 할 수 있다.
본 발명의 제2 신호 처리 장치의 기억 수단에 의해 기억된 고역 주파수 성분은 소정의 타이밍에서 갱신시키도록 할 수 있다.
본 발명의 제2 신호 처리 장치의 기억 수단에는, 특정 정보에 대응하여 고역 주파수 성분을 기억시키도록 할 수 있다.
본 발명의 제2 신호 처리 장치의 특정 정보는, 전화기의 전화번호이도록 할 수 있다.
본 발명의 신호 처리 시스템 및 신호 처리 방법에 있어서는, 제1 신호 처리 장치에서, 주파수 성분이 광대역인 제1 신호로부터 고역 주파수 성분이 추출되어, 제1 신호 중의, 고역 주파수 성분이 억압된 협대역인 제2 신호에 기초하여 제1 클래스 코드가 결정되고, 클래스 코드별로 고역 주파수 성분이 축적된다. 제2 신호 처리 장치에서, 고역 주파수 성분이 억압된 협대역인 제3 신호에 기초하여 제2 클래스 코드가 결정되고, 제2 클래스 코드에 대응하는 축적된 고역 주파수 성분과, 제3 신호가 합성된다.
제1 신호 처리 장치, 및 방법, 기록 매체와 프로그램에 있어서는, 주파수 성분이 광대역인 제1 신호로부터 고역 주파수 성분이 추출되고, 제1 신호 중의, 고역 주파수 성분이 억압된 협대역인 제2 신호에 기초하여 클래스 코드가 결정되고, 클래스 코드별로 고역 주파수 성분이 축적된다.
제2 신호 처리 장치, 및 방법, 기록 매체와 프로그램에 있어서는, 고역 주파수 성분이 억압된 협대역인 신호에 기초하여 클래스 코드가 결정되고, 클래스 코드에 대응하는 고역 주파수 성분과, 협대역인 신호가 합성되어, 합성 신호가 출력된다.
신호 처리 장치는 독립한 장치이어도 되고, 1개의 장치의 신호 처리를 행하는 블록이어도 된다.
도 1은 본 발명의 제1 실시 형태인 음성 광대역화 장치의 구성예를 나타내는 블록도.
도 2는 도 1의 클래스 분류부의 구성예를 나타내는 블록도.
도 3은 도 1의 음성 광대역화 장치의 음성 광대역화 처리를 설명하는 흐름도.
도 4A는 음성 광대역화 처리의 데이터예를 나타내는 도면.
도 4B는 음성 광대역화 처리의 데이터예를 나타내는 도면.
도 4C는 음성 광대역화 처리의 데이터예를 나타내는 도면.
도 5A는 클래스 분류 처리의 기본 원리를 설명하는 도면.
도 5B는 클래스 분류 처리의 기본 원리를 설명하는 도면.
도 6은 도 3의 단계 S3의 클래스 분류 처리를 설명하는 흐름도.
도 7은 음의 등 라우드네스 곡선을 설명하는 도면.
도 8은 음을 주파수 보정하는 A 특성 커브를 나타내는 도면.
도 9는 도 6의 단계 S25의 처리를 설명하는 도면.
도 10은 음성 신호의 학습 장치의 구성예를 나타내는 블록도.
도 11은 도 10의 학습 장치의 학습 처리를 설명하는 흐름도.
도 12A는 학습 처리의 음성 신호의 데이터예를 나타내는 도면.
도 12B는 학습 처리의 음성 신호의 데이터예를 나타내는 도면.
도 12C는 학습 처리의 음성 신호의 데이터예를 나타내는 도면.
도 12D는 학습 처리의 음성 신호의 데이터예를 나타내는 도면.
도 12E는 학습 처리의 음성 신호의 데이터예를 나타내는 도면.
도 12F는 학습 처리의 음성 신호의 데이터예를 나타내는 도면.
도 13은 도 11의 단계 S53의 클래스 분류 처리를 설명하는 흐름도.
도 14는 본 발명의 제2 실시 형태인 화상 신호 광대역화 장치의 구성예를 나타내는 블록도.
도 15는 도 14의 클래스 분류부의 구성예를 나타내는 블록도.
도 16A는 화상 신호 광대역화 처리의 데이터예를 나타내는 도면.
도 16B는 화상 신호 광대역화 처리의 데이터예를 나타내는 도면.
도 16C는 화상 신호 광대역화 처리의 데이터예를 나타내는 도면.
도 17은 도 14의 화상 신호 광대역화 장치의 클래스 분류 처리를 설명하는 흐름도.
도 18은 도 17의 단계 S92의 처리를 설명하는 도면.
도 19는 화상 신호의 학습 장치의 구성예를 나타내는 블록도.
도 20A는 학습 처리의 화상 신호의 데이터예를 나타내는 도면.
도 20B는 학습 처리의 화상 신호의 데이터예를 나타내는 도면.
도 20C는 학습 처리의 화상 신호의 데이터예를 나타내는 도면.
도 20D는 학습 처리의 화상 신호의 데이터예를 나타내는 도면.
도 20E는 학습 처리의 화상 신호의 데이터예를 나타내는 도면.
도 20F는 학습 처리의 화상 신호의 데이터예를 나타내는 도면.
도 21은 도 19의 학습 장치의 클래스 분류 처리를 설명하는 흐름도.
도 22는 본 발명의 제3 실시 형태인 전송 시스템의 구성예를 나타내는 블록도.
도 23은 도 22의 휴대 전화기의 구성예를 나타내는 블록도.
도 24는 도 23의 송신부의 구성예를 나타내는 블록도.
도 25는 도 23의 수신부의 구성예를 나타내는 블록도.
도 26은 학습 종료 테이블이 고정의 정보로서 공급되는 경우의 도 24의 부호화부의 구성예를 나타내는 블록도.
도 27은 학습 종료 테이블이 고정의 정보로서 공급되는 경우의 도 25의 복호부의 구성예를 나타내는 블록도.
도 28은 학습 종료 테이블이 소정의 타이밍에서 갱신되는 경우의 도 24의 부호화부의 구성예를 나타내는 블록도.
도 29는 학습 종료 테이블이 소정의 타이밍에서 갱신되는 경우의 도 25의 복호부의 구성예를 나타내는 블록도.
도 30은 도 24의 송신부의 송신 처리를 설명하는 흐름도.
도 31은 도 30의 단계 S202의 메모리 데이터 송신 처리를 설명하는 흐름도.
도 32는 도 30의 단계 S205의 부호화 처리를 설명하는 흐름도.
도 33은 도 25의 수신부의 수신 처리를 설명하는 흐름도.
도 34는 도 33의 단계 S252의 메모리 데이터 갱신 처리를 설명하는 흐름도.
도 35는 도 33의 단계 S254의 복호 처리를 설명하는 흐름도.
도 36은 본 발명을 적용한 컴퓨터의 일 실시 형태의 구성예를 나타내는 블록도.
〈발명을 실시하기 위한 최량의 형태〉
도 1은 본 발명의 제1 실시 형태인 음성 광대역화 장치의 구성예를 나타내고 있다.
저역 주파수 성분을 갖는(고역 주파수 성분을 갖지 않는) 협대역인 음성 신호는, 프레임 추출부(11)에 입력된다. 입력된 음성 신호는 소정의 프레임(단위 시간)으로 블록화되어, DCT(Discrete Cosine Transform; 이산 코사인 변환) 변환부(12)에 출력된다.
DCT 변환부(12)는 프레임 추출부(11)로부터 입력된 시간축 상의 음성 신호를, 프레임별로 주파수축 상의 신호로 스펙트럼 변환하여, 클래스 분류부(13)와 스펙트럼 결합부(16)에 각각 출력한다. 스펙트럼 변환하는 방법으로서, 여기서는 양 옆의 블록을 절반씩 오버랩시키는 M-DCT(모디파이드 DCT) 변환이 이용된다.
상술한 M-DCT 변환 이외의 스펙트럼 변환으로서는, DFT(Discrete Fourier Transform; 이산 푸리에 변환), DCT(Discrete Cosine Transform; 이산 코사인 변환), FFT(Fast Fourier Transform; 고속 푸리에 변환), 또는 LPC 등의 방법이 있으며, 시간축 상의 음성 신호를 주파수축 상의 신호로 변환하는 것이면, 어느 것이나 무방하다.
클래스 분류부(13)는 입력된 스펙트럼 신호에 기초하여, 클래스 분류 처리(그 상세는 도 6을 참조하여 후술함)에 의해, 클래스 코드를 산출하여, 학습 종료 테이블(14)에 출력한다.
학습 종료 테이블(14)은 클래스 코드를 어드레스로 한 테이블 메모리로서, 각각의 클래스 코드 어드레스에는, 도 10에서 후술하는 학습 장치에 의해 구해진 고역 주파수 성분의 음성 신호 스펙트럼의 벡터 데이터가 저장되어 있다. 학습 종료 테이블(14)은 클래스 분류부(13)로부터 입력된 클래스 코드 어드레스에 대응하는 고역 주파수 성분의 음성 신호 스펙트럼의 벡터 데이터를 판독하여, 게인 조정부(15)에 출력한다.
게인 조정부(15)는 학습 종료 테이블(14)로부터 입력된 고역 주파수 성분의 음성 신호 스펙트럼 데이터의 게인을, 스펙트럼 결합부(16)에서 결합되는 저역 주파수 성분의 음성 신호 스펙트럼 데이터의 게인에 맞도록 조정한다.
스펙트럼 결합부(16)는 게인 조정부(15)로부터 입력된 고역 주파수 성분의 음성 신호 스펙트럼의 벡터 데이터를, DCT 변환부(12)로부터 입력된 저역 주파수 성분의 음성 신호 스펙트럼의 벡터 데이터의 최종 열 이후에 결합하여, 역 DCT 변환부(17)에 출력한다.
역 DCT 변환부(17)는 M-DCT 변환의 역변환을 행함으로써, 주파수축 상의 스펙트럼 데이터를 시간축 상의 스펙트럼으로 변환하여, 프레임 결합부(18)에 출력한다.
프레임 결합부(18)는 음성이 프레임의 경계부에서 불연속적으로 되지 않기 위한 프레임 오버랩 부분의 가산 처리를 행한 후, 음성 신호를 출력한다.
도 2는 도 1의 클래스 분류부(13)의 상세한 구성예를 나타내고 있다.
파워값 변환부(31)에는 DCT 변환부(12)가 출력한, M-DCT 변환된 DCT 스펙트럼 데이터가 입력된다. 입력된 DCT 스펙트럼 데이터는 파워값으로 변환되고, 또한 파워의 ㏈(데시벨)값으로 변환되어, 가중치 부여 처리부(32)에 출력된다.
가중치 부여 처리부(32)는 입력된 DCT 스펙트럼 데이터에, 도 7을 참조하여 후술하는 등 라우드네스 특성을 고려한 가중치 부여 처리를 실시하여, 스펙트럼 추출부(33)에 출력한다.
스펙트럼 추출부(33)는 입력된 저역 주파수 성분의 DCT 스펙트럼 데이터로부터, 복원하는 고역 주파수 성분의 최저의 주파수의 1/2 또는 1/3배의 주파수 이상의 DCT 스펙트럼 데이터를 추출하여, 서브밴드 분할부(34)에 출력한다.
서브밴드 분할부(34)는 스펙트럼 추출부(33)에서 추출된 DCT 스펙트럼 데이터를 소정의 수의 서브밴드로 분할하여 양자화부(35)에 출력한다.
양자화부(35)는 서브밴드로 분할된 DCT 스펙트럼 데이터를 서브밴드 단위로 통합하여, 입력된(스펙트럼 추출부(33)에서 추출된) 부분의 파워값의 평균값을 구하고, 그 평균값을 양자화하여 클래스 코드를 생성함과 함께, 최대 파워값을 취하는 서브밴드 위치를 구하고, 그에 기초하여 클래스 코드를 생성한다. 2개의 클래스 코드는 클래스 코드 결정부(36)에 출력된다.
클래스 코드 결정부(36)는 양자화부(35)로부터 입력된 파워 평균값에 기초하는 클래스 코드와, 최대 파워 위치에 기초하는 클래스 코드를 다중화하여, 1개의 클래스 코드를 생성하여, 학습 종료 테이블(14)(도 1)에 출력한다.
다음으로, 도 3의 흐름도와 도 4A 내지 도 4C를 참조하여, 음성 광대역화 장치(1)의 음성 광대역화 처리에 대하여 설명한다.
단계 S1에서, 프레임 추출부(11)는 음성 광대역화 장치(1)에 입력된 고역 주파수 성분이 억압된 음성 신호를 프레임화한다. 즉, 음성 신호는 소정의 프레임(단위 시간)별로 블록화된다.
단계 S2에서, DCT 변환부(12)는 단계 S1에서 프레임화된 음성 신호를 M-DCT 변환한다. 도 4A는 1프레임의 음성 신호가 M-DCT 변환된 데이터(이하, DCT 스펙트럼 데이터라고 함)를 나타내고 있다.
단계 S3에서, 클래스 분류부(13)는 도 6을 참조하여 후술하는 클래스 분류 처리를 행하여, 클래스 코드를 산출한다.
단계 S4에서, 학습 종료 테이블(14)은 단계 S3에서 클래스 분류부(13)로부터 출력된 클래스 코드에 대응하는 어드레스에 기억되어 있는 고역 주파수 성분 스펙트럼의 DCT 벡터 데이터를 판독한다. 도 4B는 이와 같이 하여 판독된 고역 주파수 성분의 DCT 스펙트럼 데이터를 나타내고 있다.
단계 S5에서, 스펙트럼 결합부(16)는 음성 광대역화 장치(1)에 입력된 저역 주파수 성분의 DCT 스펙트럼 데이터(도 4A에 스펙트럼 A1로서 나타내는 부분)와, 학습 종료 테이블(14)로부터 판독된 고역 주파수 성분의 DCT 스펙트럼 데이터(도 4B에 스펙트럼 B1로서 나타내는 부분)를 결합한다. 즉, 도 4C에 도시된 바와 같이, 스펙트럼 A1의 후단(주파수가 높은 측)에 스펙트럼 B1의 선단(주파수가 낮은 측)이 접속된다. DCT 변환부(12)가 출력하는 1프레임의 데이터 수는 N개이고, 학습 종료 테이블(14)로부터 판독되는 데이터도 N개이므로, 결합된 데이터의 수는 2N개가 된다.
단계 S6에서, 역 DCT 변환부(17)는 스펙트럼 결합된 DCT 스펙트럼 데이터를 역 M-DCT 변환한다.
단계 S7에서, 프레임 결합부(18)는 프레임의 경계부에 오버랩의 가산 처리를 실시하고, 출력하여, 음성 광대역화 처리를 종료한다. 이 오버랩 처리에 의해, 음성이 프레임의 경계부에서도 불연속적으로 되지 않게 된다.
다음으로, 도 3의 단계 S3의 클래스 분류 처리에 대하여 설명한다.
처음에, 도 5A 및 도 5B를 참조하여, 클래스 분류 처리의 기본 원리에 대하여 설명한다. 도 5A는 대역 폭 2B0의 저역 주파수 성분과 고조파 성분을 갖는 교사 DCT 스펙트럼이고, 도 5B는 교사 DCT 스펙트럼으로부터 고조파 성분을 삭제하여 생성한, 대역 폭 B0이 협대역인 저역 주파수 성분만을 갖는 학생 DCT 스펙트럼이다.
협대역 신호에 포함되는 고역 주파수 성분의 양과, 스펙트럼 형상을 복원해야 할 주파수 성분은 링크 관계에 있다고 하는 전제에 기초하여, 클래스 분류 처리는 행해진다. 즉, 음성 신호가 피치의 주파수와 그 고조파 성분으로 구성된다고 하는 모델을 상정한 경우, 도 5B의 대역 폭 B0의 약 절반인 고역측의 영역 P의 2배, 또는 3배의 고조파 성분에 상당하는 신호가, 도 5A의 대역 폭 2B0의 약 절반인 고역측의 영역 Q에 포함되는 것이 예상된다. 반대로, 영역 P에 스펙트럼이 거의 존재하지 않는 경우에는, 영역 Q에도 신호가 존재할 가능성은 낮다고 예상된다.
다음으로, 도 6을 참조하여 클래스 분류 처리에 대하여 설명한다.
단계 S21에서, 파워값 변환부(31)는 DCT 변환부(12)로부터 입력된 스펙트럼 데이터를 파워값으로 변환하고, 또한 그 파워값을 ㏈(데시벨)값으로 변환한다. 즉, 입력된 스펙트럼 데이터 x[k](k=0, 1, …, N-1)는 다음 수학식 1
에 의해 평균 파워값 PWR로 변환되고, 또한 다음 수학식 2
에 의해 파워값 PWR이 ㏈(데시벨)값 PWR로 변환된다.
단계 S22에서, 가중치 부여 처리부(32)는 단계 S23에서 계산된 파워의 데시벨값 PWR에 대하여, 인간의 귀의 특성을 고려한 가중치 부여 처리를 행한다.
인간이 주관적으로 느끼는 소리의 크기(감각량)와 음압 레벨(물리량)의 관계는, 도 7에 도시되는 바와 같은 등 라우드네스 곡선으로 나타낼 수 있다. 이는 정상적인 청각을 가진 사람이, 같은 크기로 느끼는 순음의 음압 레벨과 주파수의 관계를 나타내고 있다. 이 곡선이 나타내는 바와 같이, 우리 인간의 귀는 낮은 주파수나 높은 주파수에서는 감도가 낮아진다.
이러한 인간의 귀의 특성에 기초한 주파수 보정을 행하는 처리가 단계 S22에서 행해지는 가중치 부여 처리로서, 구체적으로는 도 8에 기호 A로 나타내는 A 특성 커브라고 하는 보정이 입력 신호에 실시된다.
단계 S22에서 가중치 부여 처리가 행해진 후, 단계 S23에서, 스펙트럼 추출부(33)는 입력된 저역 주파수 성분의 스펙트럼 데이터로부터, 복원하고자 하는 고역 주파수 성분의 최저의 주파수의 1/2 또는 1/3배의 주파수 이상의 스펙트럼 데이터를 추출하여, 서브밴드 분할부(34)에 출력한다. 이는, 상술한 클래스 분류 처리의 기본 원리에 기초하여 행해지는 것이다.
즉, 복원하고자 하는 고역 주파수 성분으로서의 도 5A의 영역 Q의 최저의 주파수는 fQ이고, 저역 주파수 성분으로서의 도 5B의 스펙트럼 데이터로부터, 예를 들면 이 주파수 fQ의 1/2의 주파수 fQ/2 이상의 영역 P의 스펙트럼이 추출된다.
단계 S24에서, 서브밴드 분할부(34)는 단계 S23에서 추출된 스펙트럼 데이터(도 5B의 주파수 fQ/2로부터 주파수 fQ까지의 영역 P의 스펙트럼 데이터)를 소정의 수, 예를 들면 32개의 서브밴드로 분할하여, 서브밴드 단위로 스펙트럼 데이터를 통합한다.
단계 S25에서, 도 9에 도시된 바와 같이 32개의 전체의 서브밴드의 평균 파워값 PAV와, 32개의 서브밴드 중에서, 데시벨 파워값 PWR이 최대인 서브밴드 위치 Bn이 구해진다. 또한, 여기서, 스펙트럼의 데시벨 파워값의 범위는, 예를 들면 0 내지 127[㏈]로 되어 있다.
단계 S26에서, 클래스 코드 결정부(36)는 단계 S25에서 출력된 평균 파워값 PAV에 의한 클래스 코드와, 최대 파워 위치 Bn에 의해 클래스 코드를 다중화한다. 도 9의 예에서는, 최대 파워 위치 Bn에 의한 클래스 코드는 0 내지 31의 32가지가 있으며, 평균 파워값 PAV에 의한 클래스 코드는 0 내지 127까지의 128가지가 생각된다. 따라서, 합성된 클래스 코드의 수는 32×128=4096가지가 된다. 4096가지 중 어느 하나가 클래스 코드로서 출력된다.
또한, 스펙트럼 형상을 모델화하는 방법으로서는, 상술한 것 외에, 복수의 스펙트럼 피크를 검출하거나, 스펙트럼의 경사나 파워 분포를 검출하거나, 또는 서브밴드 수를 바꾸는 등의 방법도 고려된다.
다음으로, 도 1의 음성 광대역화 장치(1)의 학습 종료 테이블(14)에 기입되는, 클래스 코드별로 기억된 고역 주파수 성분의 벡터 데이터를 생성하는 학습 장치에 대하여, 도 10을 참조하여 설명한다. 이 학습 장치(50)는, 예를 들면 음성 광대역화 장치(1)를 제작하는 메이커가 갖고 있다.
처음에, 교사 데이터가 되는 고역 주파수 성분을 포함하는 광대역인 음성 신호와, 학생 데이터로서, 교사 데이터의 고역 주파수 성분이 억압된 협대역인 음성 신호가 준비된다. 도 10의 예에서는, 학생 데이터는 씨닝 회로(65)에 의해, 교사 데이터 고역 주파수 성분을 제거하여 생성한 저역 주파수 성분을 절반으로 샘플 씨닝하여 생성되어 있다.
따라서, 프레임 추출부(66)에 입력되는 학생 데이터의 프레임 길이를 N으로 하면, 프레임 추출부(61)에 입력되는 교사 데이터의 프레임 길이는 2N이 된다. 또한, 이 때의 각 프레임의 데이터는 동기하고 있다.
프레임 추출부(61)와 프레임 추출부(66), 및 DCT 변환부(62)와 DCT 변환부(67)의 기능은, 도 1의 프레임 추출부(11), 및 DCT 변환부(12)의 기능과 마찬가지이다.
고역 주파수 성분 추출부(63)는 교사 데이터의 스펙트럼 중, 고주파측의 절반을 추출하여, 가산부(64)에 출력한다.
클래스 분류부(68)는 도 1의 클래스 분류부(13)에서 상술한 것과 마찬가지의 클래스 코드를 생성함과 함께, 클래스 출현 빈도를 더 계산하여, 적산 테이블(69)에 출력한다.
적산 테이블(69)은 클래스 분류부(68)가 출력한 클래스 코드를 어드레스로 하여 입력하고, 그 어드레스에 저장되어 있는 DCT 벡터 데이터를 판독하여, 가산부(64)에 출력한다. 가산부(64)는 고역 주파수 성분 추출부(63)로부터 출력된 N개의 고역 주파수 성분의 DCT 벡터 데이터와, 적산 테이블(69)로부터 출력된 N개의 DCT 벡터 데이터를 벡터 가산하고, 그 결과를 적산 테이블(69)이 출력했을 때와 동일한 클래스 코드 어드레스의 장소에 출력한다. 1개의 클래스 코드 어드레스에는, N개의 DCT 벡터 데이터가 저장되므로, 적산 테이블(69)은 (N×클래스 수)의 데이터 수를 갖는 테이블이 된다. 또한, 소정의 타이밍에서, 적산 테이블(69)은 각각의 클래스 코드 어드레스에 저장되어 있는 벡터 데이터를 클래스 분류부(68)로부터 출력된 클래스 출현 빈도로 제산하여, 학습 종료 테이블(70)에 출력한다.
학습 종료 테이블(70)은 적산 테이블(69)로부터 출력된 (N×클래스 수)개의 DCT 벡터 데이터를 기억한다. 학습 종료 테이블(70)의 데이터는 네트워크를 통하여, 음성 광대역화 장치(1)에 전송되어, 학습 종료 테이블(14)에 기억된다. 또한, 학습 종료 테이블(70)의 데이터는 반도체 메모리 등에 기입되어, 음성 광대역화 장치(1)의 학습 종료 테이블(14)로서 내장된다.
학습 장치(50)의 클래스 분류부(68)의 구성은, 음성 광대역화 장치(1)의 클래스 분류부(13)의 구성과 마찬가지이므로, 도 2의 클래스 분류부(13)의 구성은, 필요에 따라 도 10의 클래스 분류부(68)의 구성으로서도 적절하게 인용한다.
다음으로, 도 11의 흐름도를 참조하여 학습 장치(50)의 학습 처리에 대하여 설명한다.
단계 S51에서, 교사 데이터의 스펙트럼과 학생 데이터의 스펙트럼이 프레임화된다. 즉, 프레임 추출부(61)는 입력된 교사 데이터를 단위 시간별로 프레임화하여, 1프레임에 대하여 2N개의 샘플링을 행한다. 씨닝 회로(65)는 교사 데이터로부터 저역 주파수 성분만을 추출하고, 그 저역 주파수 성분을 하나 걸러 씨닝함으로써 학생 데이터를 생성한다. 프레임 추출부(66)는 학생 데이터를 단위 시간별로 프레임화하여, 1프레임에 대하여 N개의 샘플링을 행한다.
단계 S52에서, DCT 변환부(62)와 DCT 변환부(67)는 교사 데이터와 학생 데이터를 각각 M-DCT 변환한다. 도 12A는 교사 데이터를 M-DCT 변환한 후의 DCT 스펙트럼 데이터를 나타내고 있으며, 도 12B는 학생 데이터를 M-DCT 변환한 후의 DCT 스펙트럼 데이터를 나타내고 있다. 양자를 비교하여 알 수 있는 바와 같이, 도 12B의 학생 데이터의 DCT 스펙트럼은, 도 12A의 교사 데이터의 M-DCT 스펙트럼의 저역 주파수 성분에 대응하고 있다.
단계 S53에서, 클래스 분류부(68)는 학생 데이터의 스펙트럼에 기초하여, 도 13을 참조하여 후술하는 클래스 분류 처리를 행하고, 클래스 코드와 클래스의 출현 빈도를 계산하여, 적산 테이블(69)에 출력한다.
단계 S54에서, 적산 테이블(69)은 클래스 분류부(68)가 출력한 클래스 코드에 대응하는 어드레스에 저장되어 있는 벡터 데이터를 판독한다.
단계 S55에서, 고역 주파수 성분 추출부(63)는 DCT 변환부(62)로부터 입력된 교사 데이터의 고역 주파수 성분을 추출한다. 도 12C는 추출된 고역 주파수 성분의 DCT 스펙트럼을 나타낸다. 이는 도 12A의 교사 데이터의 DCT 스펙트럼 전체 중에서, 고역 주파수측의 부분 R에 상당한다.
단계 S56에서, 가산부(64)는 단계 S54에서 적산 테이블(69)로부터 판독된 벡터 데이터(도 12D에 나타내는 데이터)와, 단계 S55에서 교사 데이터로부터 추출된 고역 주파수 성분의 벡터 데이터(도 12C에 나타내는 데이터)를 벡터 가산한다. 도 12E는 단계 S56에서 벡터 가산된 후의 DCT 스펙트럼 데이터를 나타내고 있다.
단계 S57에서, 가산부(64)는 단계 S56에서 산출한 벡터 데이터(도 12E에 나타내는 데이터)를, 적산 테이블(69)이 판독했을 때와 동일한 클래스 코드의 어드레스의 장소에 저장한다.
단계 S58에서, 학습 처리가 종료하였는지의 여부가 판정된다. 학습 처리가 종료하지 않은 것으로 판단된 경우, 처리를 단계 S51로 되돌아가, 그 이후의 처리가 반복된다. 학습 처리가 종료한 것으로 판단된 경우, 처리를 단계 S59로 진행시킨다.
단계 S58에서 학습 처리가 종료한 것으로 판단된 경우, 단계 S59에서, 적산 테이블(69)은 각각의 클래스 코드의 어드레스에 갖는 N개의 벡터 데이터를 클래스 분류부(68)로부터 출력된, 대응하는 클래스 코드의 클래스 출현 빈도로 제산하여, 벡터 데이터의 평균값을 산출하고, 학습 종료 테이블(70)에 출력하여, 기억시켜 학습 처리를 종료한다. 도 12F는 학습 종료 테이블(70)의 1개의 클래스 코드의 어드레스에 저장된 N개의 벡터 데이터의 예를 나타내고 있다.
다음으로, 도 13의 흐름도를 참조하여, 도 11의 단계 S53의 클래스 분류 처리에 대하여 설명한다.
단계 S71 내지 단계 S76의 처리는, 도 6의 음성 광대역화 장치에서의 클래스 분류 처리의 단계 S21 내지 단계 S26과 마찬가지이므로, 설명은 생략하지만, 이들 처리에 의해, 학생 데이터의 평균 파워값 PAV에 기초하는 클래스 코드와, 최대 파워위치 Bn에 기초하는 클래스 코드가 다중화된다.
단계 S77에서, 클래스 코드 결정부(36)(도 2의 음성 광대역화 장치(1)의 그와 마찬가지임)는 단계 S76에서 결정된 클래스 코드의 카운트를 1만큼 늘려, 어느 클래스 코드가 얼마만큼 출현하였는지라는 카운트 수를 적산 테이블(69)에 출력하여, 클래스 분류 처리를 종료한다.
이와 같이, 음성 광대역화 장치(1)의 클래스 분류 처리와, 학습 장치(50)의 클래스 분류 처리는, 클래스 코드를 산출할 때까지는 마찬가지이며, 그 후 클래스 출현 빈도를 계산하는지의 여부만이 다르다.
도 14는 본 발명의 제2 실시 형태인 화상 신호 광대역화 장치의 구성예를 나타내고 있다. 상술한 음성 신호 광대역화 장치(1)는 입력 신호가 1차원의 음성 신호로서, 프레임 단위로 처리를 행하는 반면, 화상 신호 광대역화 장치(80)는 입력 신호가 2차원의 화상 신호이므로, 블록(예를 들면, 8×8 화소) 단위로 처리를 행하게 된다. 도 14의 블록 추출부(91), DCT 변환부(92), 클래스 분류부(93), 학습 종료 테이블(94), 결합부(95), 및 역 DCT 변환부(96)는 도 1의 프레임 추출부(11), DCT 변환부(12), 클래스 분류부(13), 학습 종료 테이블(14), 스펙트럼 결합부(16), 및 역 DCT 변환부(17)와 기본적으로 마찬가지의 기능을 갖는 것이므로, 그 설명은 생략한다. 또, 도 1에 도시되어 있는 게인 조정부(15)와 프레임 결합부(18)는 화상 신호인 경우, 반드시 필요하지 않기 때문에 생략되어 있다.
도 15는 도 14의 클래스 분류부(93)의 상세한 구성예를 나타내고 있다.
파워값 변환부(101)에는 DCT 변환부(92)로부터 M-DCT 변환된 DCT 데이터가 입력된다. 입력된 DCT 데이터는 상술한 음성 광대역화 장치(1)와 마찬가지로 파워값으로 변환되고, 또한 파워의 데시벨값으로 변환되어, 양자화부(102)에 출력된다.
양자화부(102)는 DCT 블록 내의 DCT 데이터에 대하여, 직류 성분의 파워값과, 교류 성분의 평균 파워값, 교류 성분의 피크값을 취하는 DCT 데이터의 위치를 산출하고, 이들에 기초하는 클래스 코드를 생성하여, 클래스 코드 결정부(103)에 출력한다.
클래스 코드 결정부(103)는 입력된 DCT 블록의 양자화 데이터에 기초하는 클래스 코드를 다중화하여, 1개의 클래스 코드로 하고, 학습 종료 테이블(94)(도 14)에 출력하여, 기억시킨다.
다음으로, 화상 광대역화 장치(80)의 화상 광대역화 처리에 대하여 설명하지만, 흐름도는 도 3의 음성 광대역화 장치(1)의 그것과 마찬가지이므로, 도 3의 흐름도를 인용하여 설명한다.
단계 S1에서, 블록 추출부(91)는 화상 신호 광대역화 장치(80)에 입력된 고역 주파수 성분의 억압된 화상 신호를 블록 단위(예를 들면, 2×2 화소)로 추출한다.
단계 S2에서, DCT 변환부(92)는 단계 S1에서 블록화된 화상 신호를 M-DCT 변환한다. 도 16A는 1개의 블록의 화상 신호가 M-DCT 변환된 데이터(이하, DCT 데이터라고 함)를 나타내고 있다.
단계 S3에서, 클래스 분류부(93)는 도 17을 참조하여 후술하는 클래스 분류 처리를 행하여, 클래스 코드를 산출한다.
단계 S4에서, 학습 종료 테이블(94)은 단계 S3에서 클래스 분류부(93)로부터 출력된 클래스 코드에 대응하는 어드레스에 저장되어 있는 DCT 계수의 벡터 데이터를 판독한다. 도 16B는, 이 때 판독된 고역 주파수 성분의 DCT 계수의 벡터 데이터를 나타내고 있다.
단계 S5에서, 결합부(95)는 화상 신호 광대역화 장치(80)에 입력된 저역 주파수 성분의 DCT 데이터(도 16A)와, 학습 종료 테이블(94)로부터 판독된 고역 주파수 성분의 DCT 데이터(도 16B)를 벡터 가산한다. 도 16C는 결합된 DCT 블록 데이터를 나타내고 있다.
단계 S6에서, 역 DCT 변환부(96)는 결합된 DCT 데이터를 역 M-DCT 변환한다.
단계 S7의 오버랩 처리는, 상술한 바와 같이 화상 신호인 경우, 반드시 행할 필요는 없기 때문에, 단계 S7의 처리를 행하지 않고 화상 신호 광대역화 처리를 종료한다.
다음으로, 도 17의 흐름도를 참조하여, 클래스 분류부(93)가 행하는 클래스 분류 처리에 대하여 설명한다.
단계 S91에서, 파워값 변환부(101)는 DCT 변환부(92)로부터 입력된 DCT 데이터를 파워값으로 변환하고, 또한 파워의 데시벨값으로 변환한다. 이 처리는 상술한 음성 신호의 경우와 마찬가지이다.
단계 S92에서, 양자화부(102)는 DCT 블록 데이터의 교류 평균 파워값과 직류 파워값을 산출하여, 교류 성분 피크 파워 위치를 검출한다. 예를 들면, 도 18에 도시하는 4×4 화소의 DCT 블록 BL이 입력되고, 각각의 화소의 DCT 데이터는 c[n]이고, 그 파워의 범위는 0 내지 127[㏈]로 한다. 교류 평균 파워값은 도 18의 영역 AC 내의 DCT 데이터 c[1] 내지 c[15]의 평균값이고, 직류 파워값은 도 18의 영역 DC 내의 DCT 데이터 c[0]의 값이다. 또한, 교류 성분 피크 파워 위치는 DCT 데이터 c[1] 내지 c[15] 중의, 파워값이 최대인 n(1 내지 15 중 어느 하나)이 된다.
단계 S93에서, 클래스 분류부(93)는 단계 S92에서 구해진 3개의 값에 기초하는 클래스 코드를 1개의 클래스 코드로서 다중화하고, 학습 종료 테이블(94)에 출력하여 클래스 분류 처리를 종료한다. 클래스 코드는 상술한 예의 경우, 교류 평균 파워값에 기초하는 클래스의 수 128가지, 직류 파워값에 기초하는 클래스의 수 128가지, 교류 성분 피크 파워 위치에 기초하는 클래스의 수 15가지이므로, 합쳐서 128×128×15=245760가지 중의 어느 하나가 된다.
도 19는 화상 신호 광대역화 장치(80)의 학습 종료 테이블(94)에 기입되는, 클래스 코드별로 기억된 고역 주파수 성분의 벡터 데이터를 생성하는 학습 장치(120)의 구성예이다. 도 19의 블록 추출부(131), DCT 변환부(132), 고역 주파수 성분 추출부(133), 가산부(134), 씨닝 회로(135), 블록 추출부(136), DCT 변환부(137), 클래스 분류부(138), 및 적산 테이블(139)은, 도 10의 프레임 추출부(61), DCT 변환부(62), 고역 주파수 추출부(63), 가산부(64), 씨닝 회로(65), 프레임 추출부(66), DCT 변환부(67), 클래스 분류부(68), 및 적산 테이블(69)과 기본적으로 마찬가지의 구성과 기능을 갖는 것도 있으므로, 그 설명은 생략한다.
다음으로, 학습 장치(120)의 학습 처리에 대하여 설명하지만, 흐름도는 도 11의 음성 광대역화 장치(1)의 그것과 마찬가지이므로, 도 11의 흐름도를 인용하여 설명한다.
단계 S51에서, 교사 데이터의 DCT 데이터와 학생 데이터의 DCT 데이터가 블록으로 추출된다. 즉, 블록 추출부(131)는 입력된 교사 데이터를 2N×2N 화소마다 블록화한다. 씨닝 회로(135)는 교사 데이터로부터, 저역 주파수 성분만을 추출하고, 그 저역 주파수 성분을 수평 방향과 수직 방향의 각각에 있어서, 1개 걸러 씨닝함으로써, 학생 데이터를 생성한다. 블록 추출부(136)는 학생 데이터를 N×N 화소마다 블록화한다.
단계 S52에서, DCT 변환부(132)와 DCT 변환부(137)는 교사 데이터와 학생 데이터를 각각 M-DCT 변환한다. 도 20A는 교사 데이터를 M-DCT 변환한 후의 DCT 데이터(4×4개의 데이터)를 나타내고 있으며, 도 20B는 학생 데이터를 M-DCT 변환한 후의 DCT 데이터(2×2개의 데이터)를 나타내고 있다.
단계 S53에서, 클래스 분류부(138)는 학생 데이터로서의 DCT 데이터에 대하여 도 21을 참조하여 후술하는 클래스 분류 처리를 행하고, 클래스 코드와 클래스의 출현 빈도를 산출하여, 적산 테이블(139)에 출력한다.
단계 S54에서, 적산 테이블(139)은 클래스 분류부(138)가 출력한 클래스 코드에 대응하는 어드레스에 저장되어 있는 벡터 데이터를 판독한다.
단계 S55에서, 고역 주파수 성분 추출부(133)는 교사 데이터의 고역 주파수 성분을 추출한다. 도 20C는 추출된 고역 주파수 성분을 나타내고, 이것은 도 20A의 교사 데이터의 전체 중의 부분 P(4×4 화소 중, 좌측 위의 2×2 화소를 제외한 부분)에 상당한다.
단계 S56에서, 가산부(134)는 단계 S54에서 적산 테이블(139)로부터 판독된 벡터 데이터(도 20D에 나타내는 데이터)와, 단계 S55에서 교사 데이터로부터 추출된 고역 주파수 성분의 벡터 데이터(도 20C에 나타내는 데이터)를 벡터 가산한다. 도 20E는 단계 S56에서 벡터 가산된 후의 DCT 데이터를 나타내고 있다.
단계 S57에서, 가산부(134)는 단계 S56에서 산출한 벡터 데이터(도 20E에 나타내는 데이터)를 적산 테이블(139)이 판독하였을 때와 동일한 클래스 코드의 어드레스의 장소에 저장한다.
단계 S58에서, 학습 처리가 종료하였는지의 여부가 판정된다. 학습 처리가 종료하지 않은 것으로 판단된 경우, 처리를 단계 S51로 되돌아가, 그 이후의 처리가 반복된다. 학습 처리가 종료한 것으로 판단된 경우, 처리를 단계 S59로 진행시킨다.
단계 S58에서 학습 처리가 종료한 것으로 판단된 경우, 단계 S59에서, 적산 테이블(139)은 각각의 클래스 코드의 어드레스에 갖는 (3N×N)개의 벡터 데이터를 클래스 분류부(138)로부터 출력된 대응하는 클래스 코드의 클래스 출현 빈도로 제산하여, 벡터 데이터의 평균값을 산출하고, 학습 종료 테이블(140)에 출력하여 처리를 종료한다. 도 20F는 학습 종료 테이블(140)의 1개의 클래스 코드의 어드레스에 저장된 (3N×N)개의 벡터 데이터를 DCT 블록으로서 나타낸 것이다.
다음으로, 도 21의 흐름도를 참조하여, 도 19의 클래스 분류부(138)가 행하는 클래스 분류 처리에 대하여 설명한다.
단계 S101 내지 단계 S103의 처리는, 도 17의 화상 신호 광대역화 장치에서의 클래스 분류 처리의 단계 S91 내지 단계 S93과 마찬가지이므로, 그 설명은 생략한다. 즉, 클래스 코드를 산출하는 처리는, 화상 신호 광대역화 장치와 마찬가지로 행해진다. 이 처리에 의해, 교류 평균 파워값, 직류 파워값, 및 교류 성분 피크 파워 위치에 기초하는 클래스 코드가 1개의 클래스 코드로서 다중화된다.
단계 S104에서, 클래스 코드 결정부(103)는 단계 S103에서 결정된 클래스 코드의 카운트를 1만큼 늘려, 어떤 클래스 코드가 얼마만큼 출현하였는지라는 카운트 수를 적산 테이블(139)에 출력하여, 클래스 분류 처리를 종료한다.
도 22는 본 발명을 적용한 제3 실시 형태의 전송 시스템(시스템은, 복수의 장치가 논리적으로 집합한 것을 말하며, 각 구성의 장치가 동일 케이스 내에 있는지의 여부는 불문함)의 구성을 나타내고 있다.
이 전송 시스템에서는, 휴대 전화기(3011, 3012)가 기지국(3021, 3022 ) 각각과의 사이에서, 무선에 의한 송수신을 행함과 함께, 기지국(3021, 3022) 각각이 교환국(303)과의 사이에서 송수신을 행함으로써, 최종적으로는 휴대 전화기(3011, 3012)와의 사이에서, 기지국(3021, 3022), 및 교환국(303)을 통하여, 음성의 송수신을 행할 수 있게 되어 있다. 또, 기지국(3021, 3022)은 동일한 기지국이어도 되고, 다른 기지국이어도 된다.
여기서, 이하, 특별히 구별할 필요가 없는 한, 휴대 전화기(3011, 3012)를 휴대 전화기(301)라고 기술한다.
도 23은 도 22의 휴대 전화기(3011)의 구성예를 나타내고 있다. 또, 휴대 전화기(3012)도, 이하 설명하는 휴대 전화기(3011)와 마찬가지로 구성되므로, 그 설명은 생략한다.
안테나(311)는 기지국(3021) 또는 기지국(3022)으로부터의 전파를 수신하고, 그 수신 신호를 변복조부(312)에 공급함과 함께, 변복조부(312)로부터의 신호를 전파로, 기지국(3021) 또는 기지국(3022)에 송신한다. 변복조부(312)는 안테나(311)로부터의 신호를, 예를 들면 CDMA(Code Division Multiple Access) 방식 등에 의해 복조하고, 그 결과 얻어지는 복조 신호를 수신부(314)에 공급한다. 또한, 변복조부(312)는 송신부(313)로부터 공급되는 송신 데이터를, 예를 들면 CDMA 방식 등으로 변조하고, 그 결과 얻어지는 변조 신호를 안테나(311)에 공급한다. 송신부(313)는 거기에 입력되는 사용자의 음성을 부호화하는 등의 소정의 처리를 행하여, 송신 데이터를 얻어, 변복조부(312)에 공급한다. 수신부(314)는 변복조부(312)로부터의 복조 신호인 수신 데이터를 수신하여, 고음질의 음성을 복호하여 출력한다.
조작부(315)는 발호처의 전화번호나, 소정의 커맨드 등을 입력할 때에, 사용자에 의해 조작되고, 그 조작에 대응하는 조작 신호는 송신부(313)나 수신부(314)에 공급된다.
또, 송신부(313)와 수신부(314)와의 사이에서는, 필요에 따라 정보를 교환할 수 있도록 되어 있다.
도 24는 도 23의 송신부(313)의 구성예를 나타내고 있다.
마이크로폰(321)에는 사용자의 음성이 입력되고, 마이크로폰(321)은 그 사용자의 음성을 전기 신호로서의 음성 신호로서, A/D(Analog/Digital) 변환부(322)에 출력한다. A/D 변환부(322)는 마이크로폰(321)으로부터의 아날로그의 음성 신호를 A/D 변환함으로써, 디지털의 음성 데이터로서, 부호화부(323)에 출력한다.
부호화부(323)는 A/D 변환부(322)로부터의 음성 데이터를 소정의 부호화 방식에 의해 부호화함과 함께, 클래스 코드를 다중화하여, 그 결과 얻어지는 부호화 음성 데이터를 송신 제어부(324)에 출력한다.
관리부(327)는 조작부(315)가 조작됨으로써 입력되는, 발신처의 전화번호나 발신원인 자신의 전화번호, 그 밖의 필요한 정보를 필요에 따라 관리하고, 부호화부(323)와 송신 제어부(324)에 출력한다.
송신 제어부(324)는 부호화부(323)가 출력하는 부호화 음성 데이터와, 관리부(327)가 출력하는 데이터의 송신 제어를 행한다. 즉, 송신 제어부(324)는 부호화부(323)가 출력하는 부호화 음성 데이터, 또는 관리부(327)가 출력하는 데이터를 선택하고, 소정의 송신 타이밍에서, 송신 데이터로서, 변복조부(312)(도 23)에 출력한다.
도 25는 도 23의 수신부(314)의 구성예를 나타내고 있다.
도 23의 변복조부(312)가 출력하는 복조 신호로서의 수신 데이터는 수신 제어부(331)에 공급되고, 수신 제어부(331)는 그 수신 데이터를 수신한다. 그리고, 수신 제어부(331)는 수신 데이터가 부호화 음성 데이터인 경우에는, 그 부호화 음성 데이터를 복호부(332)에 공급한다. 또는 그 수신 데이터가 발신원의 전화번호 그 밖의 정보인 경우에는, 수신 제어부(331)는 그와 같은 정보를 필요에 따라, 관리부(335)나, 송신부(313)(의 관리부(327))에 공급한다.
복호부(332)는 수신 제어부(331)로부터 공급되는 부호화 음성 데이터를 클래스 코드와 분리하고, 또한 고역 주파수 성분을 부가하여, 그 결과 얻어지는 복호 음성 데이터를 D/A(Digital/Analog) 변환부(333)에 공급한다.
D/A 변환부(333)는 복호부(332)가 출력하는 디지털의 복호 음성 데이터를 D/A 변환하고, 그 결과 얻어지는 아날로그의 음성 신호를 스피커(334)에 공급한다. 스피커(334)는 D/A 변환부(333)로부터의 음성 신호에 대응하는 음성을 출력한다.
관리부(335)는 착신 시에, 수신 제어부(331)로부터, 발신원의 전화번호를 수신하여, 그 전화번호를 복호부(332)에 공급한다.
도 26과 도 27은 학습 종료 테이블이 고정의 정보로서 공급되는 경우의 부호화부(323)와 복호부(332)의 구성예를 나타내고 있다.
처음에, 도 26의 부호화부(323)의 구성에 대하여 설명한다.
프레임 추출부(351)와 DCT 변환부(352)의 기능은, 도 1의 음성 광대역화 장치(1)의 프레임 추출부(11)와 DCT 변환부(12)의 기능과 마찬가지이므로, 그 설명은 생략한다.
고역 주파수 성분 제거부(353)는 입력된 DCT 스펙트럼 데이터의 고역 주파수 성분을 제거하여 생성한 저역 주파수 성분을 클래스 분류부(354)와 클래스 코드 다중화부(355)에 출력한다. 압축율은 고역 주파수 성분의 제거율에 의존하고, 예를 들면 대역을 절반으로 압축하면 1/2의 데이터량이 되지만, 이에 후술하는 클래스 코드 다중화부(355)에서 다중화되는 클래스 코드의 수 워드분을 부가한 것이 최종적인 데이터량이 된다.
클래스 분류부(354)는 고역 주파수 성분 제거부(353)로부터 입력된 저역 주파수 성분의 DCT 스펙트럼 데이터에 대하여, 음성 광대역화 장치(1)의 클래스 분류부(13)에서의 경우와 마찬가지의 클래스 분류 처리를 실시하여, 클래스 코드를 클래스 코드 다중화부(355)에 출력한다.
클래스 코드 다중화부(355)는, 클래스 분류부(354)로부터 출력된 클래스 코드와, 고역 주파수 성분 제거부(353)로부터 출력된 저역 주파수 성분의 DCT 스펙트럼 데이터를 다중화하여, 역 DCT 변환부(356)에 출력한다. 클래스 코드를 저역 주파수 성분의 DCT 스펙트럼 데이터와 다중화함으로써, 클래스 코드의 부호 전송로에서의 에러 내성을 높일 수 있음과 함께, 후술하는 복호부(332)(도 27)에서, 재차 클래스 분류 처리를 행하여 구해진 클래스 코드와, 다중화된 클래스 코드의 일치도를 조사함으로써, 다중화된 클래스 코드의 에러 검출이나 수정을 행할 수도 있다.
역 DCT 변환부(356)는 입력된 클래스 코드와 저역 주파수 성분의 DCT 스펙트럼 데이터가 다중화된 데이터를 역 M-DCT 변환하여, 프레임 결합부(357)에 출력한다.
프레임 결합부(357)는 음성 광대역화 장치(1)의 프레임 결합부(18)에서의 경우와 마찬가지의 프레임 오버랩의 처리를 실시하여, 부호화 음성 데이터로서 송신 제어부(324)(도 24)에 출력한다.
다음으로, 도 27의 복호부(332)의 구성에 대하여 설명한다.
프레임 추출부(371)와 DCT 변환부(372)는, 도 1의 음성 광대역화 장치(1)의 프레임 추출부(11)와 DCT 변환부(12)와 마찬가지의 기능을 갖는 것이므로, 그 설명은 생략한다.
클래스 코드 분리부(373)는 다중화된 DCT 스펙트럼 데이터를 클래스 코드와, 저역 주파수 성분의 DCT 스펙트럼 데이터로 분리하여, 저역 주파수 성분의 DCT 스펙트럼 데이터를 스펙트럼 결합부(376)에 출력하고, 클래스 코드를 학습 종료 테이블(374)에 출력한다.
학습 종료 테이블(374)은 클래스 코드 분리부(373)가 출력한 클래스 코드에 대응하는 어드레스에 저장되어 있는 고역 주파수 성분의 DCT 스펙트럼 데이터를 판독하여, 게인 조정부(375)에 출력한다.
게인 조정부(375)는 음성 광대역화 장치(1)의 게인 조정부(15)와 마찬가지로, 스펙트럼 결합부(376)에서 결합되는 저역 주파수 성분 스펙트럼의 게인과 맞도록, 학습 종료 테이블(374)로부터 출력된 고역 주파수 성분의 스펙트럼을 게인 조정하여, 스펙트럼 결합부(376)에 출력한다.
스펙트럼 결합부(376)는 클래스 코드 분리부(373)로부터 출력된 저역 주파수 성분의 DCT 스펙트럼 데이터와, 게인 조정부(375)로부터 출력된 고역 주파수 성분의 DCT 스펙트럼 데이터를 결합하여, 역 DCT 변환부(377)에 출력한다.
역 DCT 변환부(377)는 입력된 스펙트럼 데이터의 역 M-DCT 변환을 행하여, 프레임 결합부(378)에 출력한다.
프레임 결합부(378)는 프레임 오버랩의 처리를 행하여, 광대역인 음성 신호로서, D/A 변환부(333)에 출력한다.
한편, 도 28과 도 29는 고역 주파수 성분의 스펙트럼 데이터를 축적하는 학습 종료 테이블이 발신원의 전화번호별로 대응하여 기억되어, 사용할 때마다 통화자에 대한 테이블 정보를 갱신하도록 한 경우의, 부호화부(323)와 복호부(332)의 구성예를 나타내고 있다. 또, 도면에서, 도 26과 도 27에서의 경우와 대응하는 부분에 대해서는, 동일한 부호를 붙이고 있으며, 이하에서는 그 설명은 생략한다.
처음에, 도 28의 부호화부(323)의 구성에 대하여 설명한다.
스펙트럼 분할부(381)는 입력된 DCT 스펙트럼 데이터를 고역 주파수 성분과 저역 주파수 성분으로 분할하고, 고역 주파수 성분을 테이블 메모리(382)에 출력하고, 저역 주파수 성분을 클래스 분류부(354)와 클래스 코드 다중화부(355)에 출력한다.
클래스 분류부(354)는 클래스 코드를 산출하고, 그 클래스 코드를 테이블 메모리(382)와 클래스 코드 다중화부(355)에 출력한다.
테이블 메모리(382)는 클래스 분류부(354)가 출력한 클래스 코드에 대응하는 어드레스에, 스펙트럼 분할부(381)로부터 입력된 고역 주파수 성분의 DCT 스펙트럼 데이터를 저장한다. 이 테이블 메모리의 내용은 소정의 타이밍에 있어서, 후술하는 복호부(332)의 테이블 메모리(391)(도 29)에 전송된다.
이상과 같이 구성되는 부호화부(323)에서는 통화가 이루어질 때마다, 테이블 메모리(382)에, 통화자별 고역 주파수 성분의 스펙트럼 데이터가 축적되어 간다. 테이블 메모리(382)의 내용은 일종의 통계 정보이므로, 정보를 입력하면 할수록, 클래스 코드 단위로 적절한 편향으로 수속하는 것이 예상되며, 이 효과에 의해, 사용 횟수가 증가해 가면, 보다 고정밀도의 복호가 이루어지게 된다. 도 28의 그 밖의 구성은, 도 26에서의 경우와 마찬가지이다.
다음으로, 도 29의 복호부(332)의 구성에 대하여 설명한다.
테이블 메모리(391)는 클래스 코드 분리부(373)가 출력한 클래스 코드에 대응하는 어드레스로서 지정된 위치에 저장되어 있는 고역 주파수 성분의 DCT 스펙트럼 데이터를 판독하여, 게인 조정부(375)에 출력한다.
이하에서, 도 28과 도 29의 구성으로 나타내는, 학습 종료 테이블이 발신원의 전화번호에 대응하여 기억되고, 소정의 타이밍에서 갱신되는 경우의 휴대 전화기(301)의 동작에 대하여 설명한다.
처음에, 도 30의 흐름도를 참조하여, 발신원인 휴대 전화기(3011)의 송신부(313)가 행하는 송신 처리에 대하여 설명한다.
단계 S201에서, 사용자가 조작부(315)(도 23)를 조작하여, 착신측으로서의 휴대 전화기(3012)의 전화번호를 입력하면, 관리부(327)는 통화의 개시를 검출한다.
단계 S202에서, 송신부(313)는 도 31을 참조하여 후술하는 메모리 데이터 송신 처리를 행한다. 즉, 송신부(313)는 테이블 메모리(382)(도 28)에 기억된 고역 주파수 성분 스펙트럼의 DCT 벡터 데이터를, 착신측의 휴대 전화기(3012)의 테이블 메모리(391)(도 29)에 송신하여, 음성 통화로 전환한다.
단계 S203에서, 마이크로폰(321)은 사용자의 음성을 입력한다.
단계 S204에서, A/D 변환부(322)는 마이크로폰(321)으로부터 입력된 음성 신호를 A/D 변환하여, 디지털의 음성 신호로서, 부호화부(323)에 출력한다.
단계 S205에서, 부호화부(323)는 부호화 처리를 행한다. 그 상세는 도 32를 참조하여 후술하겠지만, 이 처리에 의해, A/D 변환부(322)로부터 입력된 음성 신호가 고역 주파수 성분과 저역 주파수 성분으로 분할된다. 그리고, 고역 주파수 성분은 테이블 메모리(382)에 기억되고, 저역 주파수 성분은 클래스 코드와 다중화되어, 부호화 음성 데이터로서, 송신 제어부(324)에 출력된다.
단계 S206에서, 송신 제어부(324)는 부호화부(323)로부터 입력된 부호화 음성 데이터를 변복조부(312)(도 23)에 송신한다.
단계 S207에서, 관리부(327)는 통화가 종료하였는지의 여부를 판정한다. 통화가 종료하지 않은 것으로 판정된 경우, 관리부(327)는 처리를 단계 S203으로 되돌아가, 그 이후의 처리가 반복된다. 통화가 종료한 것으로 판정된 경우, 관리부(327)는 송신 처리를 종료한다.
다음으로, 도 31의 흐름도를 참조하여, 도 30의 단계 S202에서의 메모리 데이터 송신 처리에 대하여 설명한다.
단계 S221에서, 송신 제어부(324)가, 조작부(315)가 조작됨으로써 입력된 휴대 전화기(3012)의 전화번호를 송신 데이터로서 출력함으로써, 휴대 전화기(3012)의 호출이 행해진다.
그리고, 휴대 전화기(3012)의 사용자가 휴대 전화기(3011)로부터의 호출에 따라, 조작부(315)를 조작함으로써, 휴대 전화기(3012)를 오프훅 상태로 하면, 단계 S222로 진행하여, 송신 제어부(324)는 착신측의 휴대 전화기(3012)와의 사이의 통신 링크를 확립하여, 단계 S223으로 진행한다.
단계 S223에서는, 관리부(327)는 부호화부(323)의 테이블 메모리(382)에 기억되어 있는 데이터를 판독하여, 송신 제어부(324)에 공급한다. 또한, 단계 S223에서는, 송신 제어부(324)가 관리부(327)로부터의 메모리 데이터를 선택하여, 송신 데이터로서 송신한다. 또, 메모리 데이터는 그 메모리 데이터가 학습에 의해 얻어진 일시를 나타내는 갱신 정보와 함께 송신된다.
그 후, 단계 S223으로부터 S224로 진행하여, 관리부(327)는 준비 완료 통지가 착신측의 휴대 전화기(3012)로부터 송신되어 왔는지를 판정한다.
즉, 착신측의 휴대 전화기(3012)는 통상의 음성 통화가 가능한 상태가 되면, 음성 통화의 준비가 완료한 것을 나타내는 준비 완료 통지를 송신하도록 되어 있으며(후술하는 도 34의 단계 S277), 단계 S224에서는 그와 같은 준비 완료 통지가 휴대 전화기(3012)로부터 송신되어 왔는지가 판정된다.
단계 S224에서, 준비 완료 통지가 송신되어 오지 않았다고 판정된 경우, 단계 S224로 되돌아가, 준비 완료 통지가 송신되어 올 때까지 대기한다.
그리고, 단계 S224에서, 준비 완료 통지가 송신되어 왔다고 판정한 경우, 단계 S225로 진행하여, 송신 제어부(324)는 부호화부(323)의 출력을 선택함으로써, 음성 통화가 가능한 상태로 되어, 메모리 데이터 송신 처리를 종료한다.
다음으로, 도 32의 흐름도를 참조하여, 도 30의 단계 S205에서의 부호화 처리에 대하여 설명한다.
단계 S231에서, 프레임 추출부(351)는 A/D 변환부(322)로부터 입력된 음성 신호를 프레임화한다. 여기서 입력되는 음성 신호는, 고역 주파수 성분과 저역 주파수 성분의 양방을 갖고 있다.
단계 S232에서, DCT 변환부(352)는 단계 S231에서 프레임화된 음성 신호를 M-DCT 변환하여, DCT 스펙트럼 데이터로서, 스펙트럼 분할부(381)에 출력한다.
단계 S233에서, 스펙트럼 분할부(381)는 DCT 스펙트럼 데이터를 고역 주파수 성분과 저역 주파수 성분으로 분할하고, 고역 주파수 성분을 테이블 메모리(382)에 출력하고, 저역 주파수 성분을 클래스 분류부(354)에 출력한다.
단계 S234에서, 클래스 분류부(354)는 클래스 분류 처리에 의해, 클래스 코드를 결정하고, 클래스 크드 다중화부(355)와 테이블 메모리(382)에 출력한다. 여기에 있어서의 클래스 분류 처리는, 도 6에서 상술한 음성 광대역화 장치(1)의 클래스 분류 처리와 마찬가지이므로, 그 설명은 생략한다.
단계 S235에서, 테이블 메모리(382)는 클래스 분류부(354)가 출력한 클래스 코드에 대응하는 어드레스에, 스펙트럼 분할부(381)로부터 입력된 고역 주파수 성분의 DCT 스펙트럼 데이터를 저장한다.
단계 S236에서, 클래스 코드 다중화부(355)는 클래스 분류부(354)로부터 입력된 클래스 코드와, 스펙트럼 분할부(381)로부터 입력된 저역 주파수 성분의 DCT 스펙트럼 데이터를 다중화하여, 역 DCT 변환부(356)에 출력한다.
단계 S237에서, 역 DCT 변환부(356)는 다중화된 저역 주파수 성분의 DCT 스펙트럼 데이터를 역 DCT 변환한다.
마지막으로, 단계 S238에서, 프레임 결합부(357)는 오버랩의 처리를 실시하여, 부호화 음성 데이터를 작성한다.
다음으로, 이상의 송신측인 휴대 전화기(3011)가 행하는 도 30의 송신 처리에 대응하여, 착신측인 휴대 전화기(3012)의 수신부(314)가 행하는 수신 처리에 대하여, 도 33을 참조하여 설명한다.
단계 S251에서, 관리부(335)는 수신 제어부(331)를 통하여 전파의 수신을 검지한다.
단계 S252에서, 수신부(314)는 도 34를 참조하여 후술하는 메모리 데이터 갱신 처리를 행한다. 즉, 수신부(314)는 테이블 메모리(391)(도 29)에 기억된 고역 주파수 성분 스펙트럼의 DCT 벡터 데이터를 갱신하여, 음성 통화(부호화 음성 데이터)로 전환한다.
단계 S253에서, 수신 제어부(331)에 입력되는 수신 데이터가 부호화 음성 데이터로 전환되면, 수신 제어부(331)는 그 부호화 음성 데이터를 복호부(332)에 출력한다.
단계 S254에서, 복호부(332)는 복호 처리를 행한다. 그 상세는 도 35를 참조하여 후술하겠지만, 이 처리에 의해, 복호부(332)는 클래스 코드가 다중화된 부호화 음성 데이터를 클래스 코드와 저역 주파수 성분으로 분리하여, 클래스 코드에 대응하는 어드레스에 기억된 고역 주파수 성분을 판독하고, 저역 주파수 성분과 결합하여, 광대역인 음성 신호로서 출력한다.
단계 S255에서, D/A 변환부(333)는, 복호부(332)로부터 입력된 광대역인 음성 신호를 D/A 변환하여, 스피커(334)에 출력한다.
단계 S256에서, 스피커(334)는 D/A 변환부(333)로부터 입력된 아날로그의 음성 신호를 출력한다.
단계 S257에서, 관리부(335)는 통화가 종료하였는지의 여부를 판정한다. 통화가 종료하지 않은 것으로 판정된 경우, 관리부(335)는 처리를 단계 S253으로 되돌아가, 그 이후의 처리가 반복된다. 통화가 종료한 것으로 판정된 경우, 관리부(335)는 수신 처리를 종료한다.
다음으로, 도 34의 흐름도를 참조하여, 도 33의 단계 S252에서의 메모리 데이터 갱신 처리에 대하여 설명한다.
단계 S271에서, 수신 제어부(331)는 사용자가 조작부(315)를 조작함으로써 오프훅 상태로 하였는지를 판정하여, 오프훅 상태로 되어 있지 않았다고 판정한 경우, 단계 S271로 되돌아간다.
또한, 단계 S271에서, 오프훅 상태로 된 것으로 판정된 경우, 단계 S272로 진행하여, 수신 제어부(331)는 통신 링크를 확립하여, 단계 S273으로 진행한다. 단계 S273에서는, 수신 제어부(331)는 발신측의 휴대 전화기(3011)로부터 송신되어 오는 최신의 메모리 데이터를 포함하는 수신 데이터를 수신하여, 관리부(335)에 공급한다.
즉, 도 31의 메모리 데이터 송신 처리에서는, 상술한 바와 같이 단계 S223에서, 휴대 전화기(3011)가, 최신의 메모리 데이터를 갱신 정보와 함께 송신해 오기 때문에, 단계 S273에서는 그 메모리 데이터와 갱신 정보가 수신된다.
그 후, 단계 S274로 진행하여, 관리부(335)는 발신측의 휴대 전화기(3011)로부터 수신한 갱신 정보를 참조하여, 복호부(332)에, 발신측의 휴대 전화기(3011)의 사용자에 대한 최신의 메모리 데이터가 기억되어 있는지를 판정한다.
단계 S274에서, 복호부(332)에, 발신측의 휴대 전화기(3011)의 사용자에 대한 최신의 메모리 데이터가 이미 기억되어 있다고 판정된 경우, 단계 S275로 진행하고, 관리부(335)는 단계 S273에서 수신한 메모리 데이터와 갱신 정보를 파기하여, 단계 S277로 진행한다.
또한, 단계 S274에서, 복호부(332)에, 발신측의 휴대 전화기(3011)의 사용자에 대한 최신의 메모리 데이터가 아직 기억되어 있지 않다고 판정된 경우, 단계 S276으로 진행하고, 관리부(335)는 단계 S273에서 얻은 최신의 메모리 데이터를 착신 시에 수신한 발신측의 휴대 전화기(3011)의 전화번호, 나아가서는 그 메모리 데이터와 함께 송신되어 온 갱신 정보와 대응하여, 복호부(332)에 기억시킴으로써, 복호부(332)의 테이블 메모리(391)의 내용을 갱신한다.
그리고, 단계 S277로 진행하여, 관리부(335)는 송신부(313)의 송신 제어부(324)를 제어함으로써, 음성 통화의 준비가 완료한 것을 나타내는 준비 완료 통지를 송신 데이터로서 송신시켜, 단계 S278로 진행한다.
단계 S278에서는, 수신 제어부(331)는 거기에 공급되는 수신 데이터에 포함되는 부호화 음성 데이터를 복호부(332)에 출력하는, 음성 통화가 가능한 상태가 되어, 메모리 데이터 갱신 처리를 종료한다.
다음으로, 도 35를 참조하여, 도 33의 단계 S254에서의 복호 처리에 대하여 설명한다.
단계 S291에서, 프레임 추출부(371)는 수신 제어부(331)로부터 입력된 부호화 음성 데이터를 프레임화한다.
단계 S292에서, DCT 변환부(372)는 단계 S291에서 프레임화된 부호화 음성 데이터를 M-DCT 변환하여, DCT 스펙트럼 데이터로서, 클래스 코드 분리부(373)에 출력한다.
단계 S293에서, 클래스 코드 분리부(373)는, DCT 스펙트럼 데이터를 클래스 코드와 저역 주파수 성분으로 분리하여, 클래스 코드를 테이블 메모리(391)에 출력하고, 저역 주파수 성분을 스펙트럼 결합부(376)에 출력한다.
단계 S294에서, 테이블 메모리(391)는 클래스 코드 분리부(373)가 출력한 클래스 코드에 대응하는 어드레스에 기억되어 있는 고역 주파수 성분의 DCT 스펙트럼 데이터를 게인 조정부(375)에 출력한다.
단계 S295에서, 스펙트럼 결합부(376)는 게인 조정부(375)에서 게인 조정되어 입력된 고역 주파수 성분과, 클래스 코드 분리부(373)로부터 입력된 저역 주파수 성분을 스펙트럼 결합하여, 역 DCT 변환부(377)에 출력한다.
단계 S296에서, 역 DCT 변환부(377)는 결합된 DCT 스펙트럼 데이터를 역 DCT 변환한다.
마지막으로, 단계 S297에서, 프레임 결합부(378)는 오버랩의 처리를 실시하여, 광대역 디지털의 음성 신호로서 D/A 변환부(333)(도 25)에 출력한다.
도 34의 메모리 데이터 갱신 처리에 따르면, 착신측의 휴대 전화기(3012)에 있어서, 발신측의 휴대 전화기(3011)의 사용자에 대한 최신의 메모리 데이터가 기억되어 있지 않는 한, 반드시 기억 내용이 갱신되게 된다.
그러나, 이에 한정되지 않고, 사용자가 필요한 시간만큼 메모리 데이터의 갱신을 요구하여, 그 요구가 온되었을 때에만, 상술한 갱신 처리를 행하도록 해도 된다.
또한, 본 실시 형태에서는 착신 측에서, 착호 시에, 발신측으로부터 송신되어 오는 전화번호를, 발신측을 특정하는 특정 정보로 하도록 했지만, 기타, 예를 들면 사용자 등에, 고유한 ID(Identification)를 할당해 두고, 그 ID를 특정 정보로서 이용할 수도 있다.
이상으로, 학습 종료 테이블이 발신원의 전화번호에 대응하여 기억되고, 소정의 타이밍에서 갱신되는 경우에 대해서 설명했지만, 도 26과 도 27에서의, 학습 종료 테이블(374)(테이블 메모리)이 고정인 경우의 동작은, 도 30의 단계 S202에서의 메모리 데이터 송신 처리(도 31에 도시되는 처리)와, 도 33의 단계 S252에서의 메모리 데이터 갱신 처리(도 34에 도시되는 처리)가 생략된 경우와 마찬가지이다.
상술한 일련의 처리는 하드웨어에 의해 행할 수도 있고, 소프트웨어에 의해 행할 수도 있다. 일련의 처리를 소프트웨어에 의해 행하는 경우에는, 그 소프트웨어를 구성하는 프로그램이 범용의 컴퓨터 등에 인스톨된다.
따라서, 도 36은 상술한 일련의 처리를 실행하는 프로그램이 인스톨되는 컴퓨터의 일 실시 형태의 구성예를 나타내고 있다.
프로그램은 컴퓨터에 내장되어 있는 기록 매체로서의 하드디스크(405)나 ROM(403)에 미리 기록해 둘 수 있다.
또한, 프로그램은 플렉시블 디스크, CD-ROM(Compact Disc Read Only Memory), MO(Magneto optical) 디스크, DVD(Digital Versatile Disc), 자기 디스크, 반도체 메모리 등의 리무버블 기록 매체(411)에, 일시적 또는 영속적으로 저장(기록)해 둘 수 있다. 이러한 리무버블 기록 매체(411)는, 소위 패키지 소프트웨어로서 제공할 수 있다.
또, 프로그램은 상술한 바와 같은 리무버블 기록 매체(411)로부터 컴퓨터에 인스톨하는 것 외에, 다운로드 사이트로부터 디지털 위성 방송용의 인공위성을 통하여, 컴퓨터에 무선으로 전송하거나, LAN(Local Area Network), 인터넷 등의 네트워크를 통하여, 컴퓨터에 유선으로 전송하고, 컴퓨터에서는 그와 같이 하여 전송되어 오는 프로그램을 통신부(408)에서 수신하여, 내장된 하드디스크(405)에 인스톨할 수 있다.
컴퓨터는 CPU(Central Processing Unit)(402)를 내장하고 있다. CPU(402)에는 버스(401)를 통하여 입출력 인터페이스(410)가 접속되어 있으며, CPU(402)는 입출력 인터페이스(410)를 통하여, 사용자에 의해 키보드나, 마우스, 마이크 등으로 구성되는 입력부(407)가 조작 등됨으로써 명령이 입력되면, 그에 따라 ROM(Read Only Memory)(403)에 저장되어 있는 프로그램을 실행한다. 또는, 또한, CPU(402)는 하드디스크(405)에 저장되어 있는 프로그램, 위성 또는 네트워크로부터 전송되어, 통신부(408)로 수신되어 하드디스크(405)에 인스톨된 프로그램, 또는 드라이브(409)에 장착된 리무버블 기록 매체(411)로부터 판독되어 하드디스크(405)에 인스톨된 프로그램을 RAM(Random Access Memory)(404)에 로드하여 실행한다. 이에 의해, CPU(402)는 상술한 흐름도에 따른 처리, 또는 상술한 블록도의 구성에 의해 행해지는 처리를 행한다. 그리고, CPU(402)는 그 처리 결과를 필요에 따라, 예를 들면 입출력 인터페이스(410)를 통하여, LCD(Liquid Crystal Display)나 스피커 등으로 구성되는 출력부(406)로부터 출력, 또는 통신부(408)로부터 송신, 나아가서는 하드디스크(405)에 기록 등을 시킨다.
여기서, 본 명세서에서, 컴퓨터에 각종 처리를 행하게 하기 위한 프로그램을 기술하는 처리 단계는, 반드시 흐름도로서 기재된 순서에 따라 시계열로 처리할 필요는 없고, 병렬적 또는 개별적으로 실행되는 처리(예를 들면, 병렬 처리 또는 오브젝트에 의한 처리)도 포함하는 것이다.
또한, 프로그램은 하나의 컴퓨터에 의해 처리되는 것이어도 되고, 복수의 컴퓨터에 의해 분산 처리되는 것이어도 된다. 또한, 프로그램은 먼 곳의 컴퓨터에 전송되어 실행되는 것이어도 된다.
본 실시 형태에서는 본 발명을 음성(화상 신호) 광대역화 장치, 및 휴대 전화기끼리 음성 통화를 행하는 전송 시스템에 적용한 경우에 대해서 설명했지만, 기타 본 발명은 고정 전화 음성, AM(Amplitude Modulation)/FM(Frequency Modulation) 라디오 방송 수신 음성, 아날로그 TV(Television) 방송 수신 음성의 음질 개선 등, 음성 통신을 행하는 시스템에 널리 적용 가능하다.
또한, 본 명세서에서, 시스템의 용어는 복수의 장치, 수단 등으로 구성되는 전체적인 장치를 나타내는 것이다.
이상과 같이 본 발명의 신호 처리 시스템, 및 신호 처리 시스템의 신호 처리 방법에 따르면, 고역 주파수 성분이 억압된 협대역 신호의 고역 주파수 성분을 양호한 정밀도로 복원할 수 있는 시스템을 실현할 수 있다.
이상과 같이 본 발명의 제1 신호 처리 장치, 신호 처리 방법, 기록 매체와 프로그램에 따르면, 다른 신호 처리 장치에 대하여, 고역 주파수 성분이 억압된 협대역 신호의 고역 주파수 성분을 양호한 정밀도로 복원시킬 수 있게 된다.
이상과 같이 본 발명의 제2 신호 처리 장치, 신호 처리 방법, 기록 매체와 프로그램에 따르면, 고역 주파수 성분이 억압된 협대역 신호의 고역 주파수 성분을 양호한 정밀도로 복원할 수 있게 된다.

Claims (28)

  1. 입력 신호를 가공하여 축적하는 제1 신호 처리 장치와, 입력 신호를 가공하여 출력하는 제2 신호 처리 장치를 구비하는 신호 처리 시스템에 있어서,
    상기 제1 신호 처리 장치는,
    주파수 성분이 광대역인 제1 신호를 입력하는 제1 신호 입력 수단과,
    상기 제1 신호 중의, 고역 주파수 성분이 억압된 협대역인 제2 신호를 입력하는 제2 신호 입력 수단과,
    상기 제1 신호 입력 수단에 의해 입력된 상기 제1 신호로부터 고역 주파수 성분을 추출하는 추출 수단과,
    상기 제2 신호 입력 수단에 의해 입력된 상기 제2 신호에 기초하여, 제1 클래스 코드를 결정하는 제1 결정 수단과,
    상기 제1 결정 수단에 의해 결정된 상기 제1 클래스 코드별로, 상기 추출 수단에 의해 추출된 상기 고역 주파수 성분을 축적하는 축적 수단을 구비하고,
    상기 제2 신호 처리 장치는,
    고역 주파수 성분이 억압된 협대역인 제3 신호를 입력하는 제3 신호 입력 수단과,
    상기 제3 신호 입력 수단에 의해 입력된 상기 제3 신호에 기초하여, 제2 클래스 코드를 결정하는 제2 결정 수단과,
    상기 제2 결정 수단에 의해 결정된 상기 제2 클래스 코드에 대응하는, 상기 축적 수단에 의해 축적된 상기 고역 주파수 성분과, 상기 제3 신호 입력 수단에 의해 입력된 상기 제3 신호를 합성하는 합성 수단과,
    상기 합성 수단에 의해 생성된 합성 신호를 출력하는 출력 수단을 구비하는 것을 특징으로 하는 신호 처리 시스템.
  2. 입력 신호를 가공하여 축적하는 제1 신호 처리 장치와,
    입력 신호를 가공하여 출력하는 제2 신호 처리 장치를 구비하는 신호 처리 시스템의 신호 처리 방법에 있어서,
    상기 제1 신호 처리 장치는,
    주파수 성분이 광대역인 제1 신호의 입력을 제어하는 제1 신호 입력 제어 단계와,
    상기 제1 신호 중의, 고역 주파수 성분이 억압된 협대역인 제2 신호의 입력을 제어하는 제2 신호 입력 제어 단계와,
    상기 제1 신호 입력 제어 단계의 처리에 의해 입력이 제어된 상기 제1 신호로부터 고역 주파수 성분을 추출하는 추출 단계와,
    상기 제2 신호 입력 제어 단계의 처리에 의해 입력이 제어된 상기 제2 신호에 기초하여, 제1 클래스 코드를 결정하는 제1 결정 단계와,
    상기 제1 결정 단계의 처리에 의해 결정된 상기 제1 클래스 코드별로, 상기 추출 단계의 처리에 의해 추출된 상기 고역 주파수 성분을 축적하는 축적 단계를 포함하고,
    상기 제2 신호 처리 장치는,
    고역 주파수 성분이 억압된 협대역인 제3 신호의 입력을 제어하는 제3 신호 입력 제어 단계와,
    상기 제2 신호 입력 제어 단계의 처리에 의해 입력이 제어된 상기 제3 신호에 기초하여, 제2 클래스 코드를 결정하는 제2 결정 단계와,
    상기 제2 결정 단계의 처리에 의해 결정된 상기 제2 클래스 코드에 대응하는, 상기 축적 단계의 처리에 의해 축적된 상기 고역 주파수 성분과, 상기 제3 신호 입력 제어 단계의 처리에 의해 입력이 제어된 상기 제3 신호를 합성하는 합성 단계와,
    상기 합성 단계의 처리에 생성된 합성 신호의 출력을 제어하는 출력 제어 단계를 포함하는 것을 특징으로 하는 신호 처리 방법.
  3. 주파수 성분이 광대역인 제1 신호를 입력하는 제1 신호 입력 수단과,
    상기 제1 신호 중의, 고역 주파수 성분이 억압된 협대역인 제2 신호를 입력하는 제2 신호 입력 수단과,
    상기 제1 신호 입력 수단에 의해 입력된 상기 제1 신호로부터 고역 주파수 성분을 추출하는 추출 수단과,
    상기 제2 신호 입력 수단에 의해 입력된 상기 제2 신호에 기초하여, 클래스 코드를 결정하는 결정 수단과,
    상기 결정 수단에 의해 결정된 상기 클래스 코드별로, 상기 추출 수단에 의해 추출된 상기 고역 주파수 성분을 축적하는 축적 수단을 구비하는 것을 특징으로 하는 신호 처리 장치.
  4. 제3항에 있어서,
    상기 제1 신호와 상기 제2 신호는 음성 신호인 것을 특징으로 하는 신호 처리 장치.
  5. 제4항에 있어서,
    상기 결정 수단은 등 라우드네스 특성에 기초하는 가중치 부여 처리를 행한 상기 제2 신호에 기초하여, 상기 클래스 코드를 결정하는 것을 특징으로 하는 신호 처리 장치.
  6. 제4항에 있어서,
    상기 결정 수단은 음성 신호 스펙트럼의 평균 파워값과 최대 파워값의 위치에 기초하여, 상기 클래스 코드를 결정하는 것을 특징으로 하는 신호 처리 장치.
  7. 제4항에 있어서,
    상기 결정 수단은 상기 추출 수단에 의해 추출되는 상기 고역 주파수 성분의 최저의 주파수의 1/2배, 또는 1/3배의 주파수 이상의 스펙트럼 성분의 상기 클래스 코드를 결정하는 것을 특징으로 하는 신호 처리 장치.
  8. 제3항에 있어서,
    상기 제1 신호와 상기 제2 신호는 화상 신호인 것을 특징으로 하는 신호 처리 장치.
  9. 제8항에 있어서,
    상기 결정 수단은 상기 화상 신호의 스펙트럼의 교류 평균 파워값, 직류 파워값, 및 교류 성분 피크 파워값에 기초하여, 상기 클래스 코드를 결정하는 것을 특징으로 하는 신호 처리 장치.
  10. 제3항에 있어서,
    상기 축적 수단은 상기 추출 수단에 의해 추출된 상기 고역 주파수 성분을 특정 정보에 대응하여 축적하는 것을 특징으로 하는 신호 처리 장치.
  11. 제10항에 있어서,
    상기 특정 정보는 전화기의 전화번호인 것을 특징으로 하는 신호 처리 장치.
  12. 제3항에 있어서,
    상기 제1 신호를 소정의 시간 간격으로 씨닝하여 상기 제2 신호를 생성하는 생성 수단을 더 구비하는 것을 특징으로 하는 신호 처리 장치.
  13. 입력 신호를 가공하여 축적하는 신호 처리 장치의 신호 처리 방법에 있어서,
    주파수 성분이 광대역인 제1 신호의 입력을 제어하는 제1 신호 입력 제어 단계와,
    상기 제1 신호 중의, 고역 주파수 성분이 억압된 협대역인 제2 신호의 입력을 제어하는 제2 신호 입력 제어 단계와,
    상기 제1 신호 입력 제어 단계의 처리에 의해 입력이 제어된 상기 제1 신호로부터 고역 주파수 성분을 추출하는 추출 단계와,
    상기 제2 신호 입력 제어 단계의 처리에 의해 입력이 제어된 상기 제2 신호에 기초하여, 클래스 코드를 결정하는 결정 단계와,
    상기 결정 단계의 처리에 의해 결정된 상기 클래스 코드별로, 상기 추출 단계의 처리에 의해 추출된 상기 고역 주파수 성분을 축적하는 축적 단계를 포함하는 것을 특징으로 하는 신호 처리 방법.
  14. 입력 신호를 가공하여 축적하는 신호 처리 장치의 프로그램으로서,
    주파수 성분이 광대역인 제1 신호의 입력을 제어하는 제1 신호 입력 제어 단계와,
    상기 제1 신호 중의, 고역 주파수 성분이 억압된 협대역인 제2 신호의 입력을 제어하는 제2 신호 입력 제어 단계와,
    상기 제1 신호 입력 제어 단계의 처리에 의해 입력이 제어된 상기 제1 신호로부터 고역 주파수 성분을 추출하는 추출 단계와,
    상기 제2 신호 입력 제어 단계의 처리에 의해 입력이 제어된 상기 제2 신호에 기초하여, 클래스 코드를 결정하는 결정 단계와,
    상기 결정 단계의 처리에 의해 결정된 상기 클래스 코드별로, 상기 추출 단계의 처리에 의해 추출된 상기 고역 주파수 성분을 축적하는 축적 단계를 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  15. 입력 신호를 가공하여 축적하는 신호 처리 장치를 제어하는 컴퓨터에,
    주파수 성분이 광대역인 제1 신호의 입력을 제어하는 제1 신호 입력 제어 단계와,
    상기 제1 신호 중의, 고역 주파수 성분이 억압된 협대역인 제2 신호의 입력을 제어하는 제2 신호 입력 제어 단계와,
    상기 제1 신호 입력 제어 단계의 처리에 의해 입력이 제어된 상기 제1 신호로부터 고역 주파수 성분을 추출하는 추출 단계와,
    상기 제2 신호 입력 제어 단계의 처리에 의해 입력이 제어된 상기 제2 신호에 기초하여, 클래스 코드를 결정하는 결정 단계와,
    상기 결정 단계의 처리에 의해 결정된 상기 클래스 코드별로, 상기 추출 단계의 처리에 의해 추출된 상기 고역 주파수 성분을 축적하는 축적 단계를 실행시키는 것을 특징으로 하는 프로그램.
  16. 고역 주파수 성분이 억압된 협대역인 신호를 입력하는 신호 입력 수단과,
    상기 신호 입력 수단에 의해 입력된 상기 신호에 기초하여, 클래스 코드를 결정하는 결정 수단과,
    고역 주파수 성분을 기억하는 기억 수단과,
    상기 결정 수단에 의해 결정된 상기 클래스 코드에 대응하는, 상기 기억 수단에 기억된 고역 주파수 성분과, 상기 신호 입력 수단에 의해 입력된 상기 신호를 합성하는 합성 수단과,
    상기 합성 수단에 의해 생성된 합성 신호를 출력하는 출력 수단을 구비하는 것을 특징으로 하는 신호 처리 장치.
  17. 제16항에 있어서,
    상기 신호 입력 수단이 입력하는 신호는 음성 신호인 것을 특징으로 하는 신호 처리 장치.
  18. 제17항에 있어서,
    상기 결정 수단은 등 라우드네스 특성에 기초하는 가중치 부여 처리를 행한 상기 신호에 기초하여, 상기 클래스 코드를 결정하는 것을 특징으로 하는 신호 처리 장치.
  19. 제17항에 있어서,
    상기 결정 수단은 음성 신호 스펙트럼의 평균 파워값과 최대 파워값의 위치에 기초하여, 상기 클래스 코드를 결정하는 것을 특징으로 하는 신호 처리 장치.
  20. 제17항에 있어서,
    상기 결정 수단은 상기 기억 수단에 기억되어 있는 상기 고역 주파수 성분의 최저의 주파수의 1/2배, 또는 1/3배의 주파수 이상의 스펙트럼 성분의 상기 클래스 코드를 결정하는 것을 특징으로 하는 신호 처리 장치.
  21. 제16항에 있어서,
    상기 신호 입력 수단이 입력하는 신호는 화상 신호인 것을 특징으로 하는 신호 처리 장치.
  22. 제21항에 있어서,
    상기 결정 수단은 화상 신호의 스펙트럼의 교류 평균 파워값, 직류 파워값, 및 교류 성분 피크 파워값에 기초하여, 상기 클래스 코드를 결정하는 것을 특징으로 하는 신호 처리 장치.
  23. 제16항에 있어서,
    상기 기억 수단에 의해 기억된 상기 고역 주파수 성분은 소정의 타이밍에서 갱신되는 것을 특징으로 하는 신호 처리 장치.
  24. 제16항에 있어서,
    상기 기억 수단은 특정 정보에 대응하여, 상기 고역 주파수 성분을 기억하는 것을 특징으로 하는 신호 처리 장치.
  25. 제24항에 있어서,
    상기 특정 정보는 전화기의 전화번호인 것을 특징으로 하는 신호 처리 장치.
  26. 입력 신호를 가공하여 출력하는 신호 처리 장치의 신호 처리 방법에 있어서,
    고역 주파수 성분이 억압된 협대역인 신호의 입력을 제어하는 신호 입력 제어 단계와,
    상기 신호 입력 제어 단계의 처리에 의해 입력이 제어된 상기 신호에 기초하여, 클래스 코드를 결정하는 결정 단계와,
    고역 주파수 성분의 기억을 제어하는 기억 제어 단계와,
    상기 결정 단계의 처리에 의해 결정된 상기 클래스 코드에 대응하는, 상기 기억 제어 단계의 처리에 의해 기억이 제어된 고역 주파수 성분과, 상기 신호 입력 제어 단계의 처리에 의해 입력된 상기 신호를 합성하는 합성 단계와,
    상기 합성 단계의 처리에 의해 생성된 합성 신호의 출력을 제어하는 출력 제어 단계를 포함하는 것을 특징으로 하는 신호 처리 방법.
  27. 입력 신호를 가공하여 출력하는 신호 처리 장치의 프로그램으로서,
    고역 주파수 성분이 억압된 협대역인 신호의 입력을 제어하는 신호 입력 제어 단계와,
    상기 신호 입력 제어 단계의 처리에 의해 입력이 제어된 상기 신호에 기초하여, 클래스 코드를 결정하는 결정 단계와,
    고역 주파수 성분의 기억을 제어하는 기억 제어 단계와,
    상기 결정 단계의 처리에 의해 결정된 상기 클래스 코드에 대응하는, 상기 기억 제어 단계의 처리에 의해 기억이 제어된 고역 주파수 성분과, 상기 신호 입력 제어 단계의 처리에 의해 입력된 상기 신호를 합성하는 합성 단계와,
    상기 합성 단계의 처리에 의해 생성된 합성 신호의 출력을 제어하는 출력 제어 단계를 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  28. 입력 신호를 가공하여 출력하는 신호 처리 장치를 제어하는 컴퓨터에,
    고역 주파수 성분이 억압된 협대역인 신호의 입력을 제어하는 신호 입력 제어 단계와,
    상기 신호 입력 제어 단계의 처리에 의해 입력이 제어된 상기 신호에 기초하여, 클래스 코드를 결정하는 결정 단계와,
    고역 주파수 성분의 기억을 제어하는 기억 제어 단계와,
    상기 결정 단계의 처리에 의해 결정된 상기 클래스 코드에 대응하는, 상기 기억 제어 단계의 처리에 의해 기억이 제어된 고역 주파수 성분과, 상기 신호 입력 제어 단계의 처리에 의해 입력된 상기 신호를 합성하는 합성 단계와,
    상기 합성 단계의 처리에 의해 생성된 합성 신호의 출력을 제어하는 출력 제어 단계를 실행시키는 것을 특징으로 하는 프로그램.
KR20047007114A 2002-09-12 2003-08-27 신호 처리 시스템, 신호 처리 장치 및 방법, 및 프로그램이 기록되어 있는 기록 매체 KR101001475B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002266327A JP3879922B2 (ja) 2002-09-12 2002-09-12 信号処理システム、信号処理装置および方法、記録媒体、並びにプログラム
JPJP-P-2002-00266327 2002-09-12

Publications (2)

Publication Number Publication Date
KR20050037431A true KR20050037431A (ko) 2005-04-21
KR101001475B1 KR101001475B1 (ko) 2010-12-14

Family

ID=31986636

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20047007114A KR101001475B1 (ko) 2002-09-12 2003-08-27 신호 처리 시스템, 신호 처리 장치 및 방법, 및 프로그램이 기록되어 있는 기록 매체

Country Status (7)

Country Link
US (2) US7668319B2 (ko)
EP (1) EP1538602B1 (ko)
JP (1) JP3879922B2 (ko)
KR (1) KR101001475B1 (ko)
CN (1) CN1302457C (ko)
DE (1) DE60325741D1 (ko)
WO (1) WO2004025625A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9596542B2 (en) 2012-04-16 2017-03-14 Samsung Electronics Co., Ltd. Apparatus and method with enhancement of sound quality

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3879922B2 (ja) * 2002-09-12 2007-02-14 ソニー株式会社 信号処理システム、信号処理装置および方法、記録媒体、並びにプログラム
DE602004030594D1 (de) * 2003-10-07 2011-01-27 Panasonic Corp Verfahren zur entscheidung der zeitgrenze zur codierung der spektro-hülle und frequenzauflösung
CN101656074B (zh) * 2004-05-14 2013-01-23 松下电器产业株式会社 音频解码装置、音频解码方法以及通信终端和基站装置
US8417515B2 (en) 2004-05-14 2013-04-09 Panasonic Corporation Encoding device, decoding device, and method thereof
EP1638083B1 (en) * 2004-09-17 2009-04-22 Harman Becker Automotive Systems GmbH Bandwidth extension of bandlimited audio signals
JP4899359B2 (ja) * 2005-07-11 2012-03-21 ソニー株式会社 信号符号化装置及び方法、信号復号装置及び方法、並びにプログラム及び記録媒体
JP5383008B2 (ja) * 2007-07-09 2014-01-08 アルパイン株式会社 音声明瞭度改善システム及び音声明瞭度改善方法
ATE477572T1 (de) * 2007-10-01 2010-08-15 Harman Becker Automotive Sys Effiziente audiosignalverarbeitung im subbandbereich, verfahren, vorrichtung und dazugehöriges computerprogramm
JP2009300707A (ja) * 2008-06-13 2009-12-24 Sony Corp 情報処理装置および方法、並びにプログラム
EP2380172B1 (en) 2009-01-16 2013-07-24 Dolby International AB Cross product enhanced harmonic transposition
EP3723090B1 (en) 2009-10-21 2021-12-15 Dolby International AB Oversampling in a combined transposer filter bank
CN102436820B (zh) * 2010-09-29 2013-08-28 华为技术有限公司 高频带信号编码方法及装置、高频带信号解码方法及装置
CN105761724B (zh) * 2012-03-01 2021-02-09 华为技术有限公司 一种语音频信号处理方法和装置
US10008198B2 (en) * 2013-03-28 2018-06-26 Korea Advanced Institute Of Science And Technology Nested segmentation method for speech recognition based on sound processing of brain
KR20150032390A (ko) * 2013-09-16 2015-03-26 삼성전자주식회사 음성 명료도 향상을 위한 음성 신호 처리 장치 및 방법
CN109688531B (zh) * 2017-10-18 2021-01-26 宏达国际电子股份有限公司 获取高音质音频变换信息的方法、电子装置及记录介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2779886B2 (ja) * 1992-10-05 1998-07-23 日本電信電話株式会社 広帯域音声信号復元方法
SE501981C2 (sv) * 1993-11-02 1995-07-03 Ericsson Telefon Ab L M Förfarande och anordning för diskriminering mellan stationära och icke stationära signaler
JP3189598B2 (ja) 1994-10-28 2001-07-16 松下電器産業株式会社 信号合成方法および信号合成装置
DE69619284T3 (de) 1995-03-13 2006-04-27 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zur Erweiterung der Sprachbandbreite
JP2956548B2 (ja) 1995-10-05 1999-10-04 松下電器産業株式会社 音声帯域拡大装置
JPH08278800A (ja) * 1995-04-05 1996-10-22 Fujitsu Ltd 音声通信システム
EP0945852A1 (en) * 1998-03-25 1999-09-29 BRITISH TELECOMMUNICATIONS public limited company Speech synthesis
US6658155B1 (en) * 1999-03-25 2003-12-02 Sony Corporation Encoding apparatus
JP2000305599A (ja) 1999-04-22 2000-11-02 Sony Corp 音声合成装置及び方法、電話装置並びにプログラム提供媒体
US6351733B1 (en) * 2000-03-02 2002-02-26 Hearing Enhancement Company, Llc Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process
JP4596196B2 (ja) * 2000-08-02 2010-12-08 ソニー株式会社 ディジタル信号処理方法、学習方法及びそれらの装置並びにプログラム格納媒体
JP4538705B2 (ja) * 2000-08-02 2010-09-08 ソニー株式会社 ディジタル信号処理方法、学習方法及びそれらの装置並びにプログラム格納媒体
JP3879922B2 (ja) * 2002-09-12 2007-02-14 ソニー株式会社 信号処理システム、信号処理装置および方法、記録媒体、並びにプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9596542B2 (en) 2012-04-16 2017-03-14 Samsung Electronics Co., Ltd. Apparatus and method with enhancement of sound quality

Also Published As

Publication number Publication date
KR101001475B1 (ko) 2010-12-14
US7668319B2 (en) 2010-02-23
JP2004102095A (ja) 2004-04-02
DE60325741D1 (de) 2009-02-26
US20100020827A1 (en) 2010-01-28
EP1538602A4 (en) 2007-07-18
JP3879922B2 (ja) 2007-02-14
US7986797B2 (en) 2011-07-26
US20050073986A1 (en) 2005-04-07
CN1602516A (zh) 2005-03-30
CN1302457C (zh) 2007-02-28
EP1538602A1 (en) 2005-06-08
EP1538602B1 (en) 2009-01-07
WO2004025625A1 (ja) 2004-03-25

Similar Documents

Publication Publication Date Title
US7986797B2 (en) Signal processing system, signal processing apparatus and method, recording medium, and program
KR101844199B1 (ko) 음성 주파수 신호 처리 방법 및 장치
TWI416918B (zh) 利用多頻移鍵調變在無線電話網路的聲音頻道上傳輸資料之系統,方法及裝置
JP2000305599A (ja) 音声合成装置及び方法、電話装置並びにプログラム提供媒体
EP2937861B1 (en) Prediction method and coding/decoding device for high frequency band signal
JP6073456B2 (ja) 音声強調装置
EP1555852A2 (en) Apparatus and method for playing and storing three-dimensional stereo sound in communication terminal
JP2013502619A (ja) 周波数帯信号エネルギーに基づいた、音声符号化における周波数帯スケール・ファクタ測定
WO2013150340A1 (en) Adaptive audio signal filtering
US20100324911A1 (en) Cvsd decoder state update after packet loss
EP1249837A2 (en) A method for decompressing a compressed audio signal
KR101243568B1 (ko) 무선 전화기 네트워크의 음성 채널을 통한 데이터 전송을 위한 시스템, 방법 및 장치
EP4152317A1 (en) Audio encoding method and audio encoding apparatus
EP1136986A2 (en) Audio datastream transcoding apparatus
JP2570603B2 (ja) 音声信号伝送装置およびノイズ抑圧装置
CN116055951B (zh) 信号处理方法和电子设备
EP1531609A1 (en) Apparatus and method for reproducing three dimensional stereo sound for communication terminal
JP2001184090A (ja) 信号符号化装置,及び信号復号化装置,並びに信号符号化プログラムを記録したコンピュータ読み取り可能な記録媒体,及び信号復号化プログラムを記録したコンピュータ読み取り可能な記録媒体
US20080120114A1 (en) Method, Apparatus and Computer Program Product for Performing Stereo Adaptation for Audio Editing
JP2000165251A (ja) オーディオ信号符号化装置及びそれを実現したマイクロホン
JP3594829B2 (ja) Mpegオーディオの復号化方法
EP4336498A1 (en) Audio data encoding method and related apparatus, audio data decoding method and related apparatus, and computer-readable storage medium
JP2000209592A (ja) 画像伝送装置と方法及びシステムとその制御方法
CN1909695A (zh) 在便携式终端中调制语音的设备和方法
JP2002208860A (ja) データ圧縮装置とそのデータ圧縮方法及びデータ圧縮用プログラムを記録したコンピュータ読み取り可能な記録媒体、並びにデータ伸長装置とそのデータ伸長方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee