KR100964096B1 - System and method of extracting supplement information from acoustic signal - Google Patents

System and method of extracting supplement information from acoustic signal Download PDF

Info

Publication number
KR100964096B1
KR100964096B1 KR1020080019092A KR20080019092A KR100964096B1 KR 100964096 B1 KR100964096 B1 KR 100964096B1 KR 1020080019092 A KR1020080019092 A KR 1020080019092A KR 20080019092 A KR20080019092 A KR 20080019092A KR 100964096 B1 KR100964096 B1 KR 100964096B1
Authority
KR
South Korea
Prior art keywords
subband
energy
additional information
subframe
subbands
Prior art date
Application number
KR1020080019092A
Other languages
Korean (ko)
Other versions
KR20090093531A (en
Inventor
최혁
최준환
송원석
Original Assignee
서울시립대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울시립대학교 산학협력단 filed Critical 서울시립대학교 산학협력단
Priority to KR1020080019092A priority Critical patent/KR100964096B1/en
Publication of KR20090093531A publication Critical patent/KR20090093531A/en
Application granted granted Critical
Publication of KR100964096B1 publication Critical patent/KR100964096B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal

Abstract

본 발명은 음향 신호에서 부가정보를 추출하는 시스템 및 추출방법에 관한 것으로, 본 발명에 따른 부가정보를 삽입하는 시스템은 음향 신호를 다수의 프레임으로 분할하는 프레임 분할부, 상기 프레임을 서브 프레임으로 분할하는 서브 프레임 분할부, 상기 각각의 서브 프레임을 푸리에 변환하는 푸리에 변환부, 상기 푸리에 변환된 상기 서브 프레임을 서브밴드로 분할하는 서브밴드 분할부, 상기 음향 신호에 대한 부가 정보를 상기 다수의 서브밴드의 에너지를 조절하여 삽입하는 정보 삽입부를 구비하여 음악, 오디오북, 전화통화 등 모든 음향 신호가 전송될 때 관련된 부가정보를 음향 신호에 삽입하여 전달함으로써 길거리, 각종 대중 교통수단 및 대중장소 등의 스피커에서 출력하는 음향 신호로부터 무선 디바이스 등을 이용하여 부가정보를 추출 획득하게 됨으로써 보다 향상된 모바일 환경을 향유할 수 있게 된다.

Figure R1020080019092

The present invention relates to a system and an extraction method for extracting additional information from an audio signal. The system for inserting additional information according to the present invention includes a frame dividing unit for dividing an audio signal into a plurality of frames, and dividing the frame into subframes. A subframe dividing unit, a Fourier transform unit for Fourier transforming each subframe, a subband dividing unit dividing the Fourier transformed subframe into subbands, and a plurality of subbands for additional information about the sound signal It is equipped with an information insertion unit that inserts by controlling the energy of the speaker, such as music, audiobooks, telephone calls, etc. When all sound signals are transmitted, the relevant information is inserted into the sound signal and transmitted to the speakers of streets, various public transportation means, and public places. Additional information can be obtained from the sound signal output from the By being output to obtain it it is possible to enjoy an improved mobile.

Figure R1020080019092

Description

음향 신호에서 부가정보를 추출하는 시스템 및 추출방법{System and method of extracting supplement information from acoustic signal} System and method of extracting supplement information from acoustic signal

본 발명은 부가정보가 삽입된 음향 신호의 처리방법에 관한 것으로, 더욱 상세하게는 음향 신호에서 부가정보를 추출하는 시스템 및 추출방법에 관한 것이다. The present invention relates to a method of processing a sound signal in which additional information is inserted, and more particularly, to a system and a method for extracting additional information from an acoustic signal.

근래에 무선 이동통신 기술의 급격한 발달로 개인의 무선 디바이스의 보유는 매우 보편화되어 있다. 이 무선 디바이스에는 다양한 기술 및 서비스들이 융합됨에 따라 기능과 사용 편의성이 지속적으로 향상되고 있다. In recent years, with the rapid development of wireless mobile communication technology, the possession of personal wireless devices has become very common. The convergence of various technologies and services in these wireless devices continues to improve functionality and ease of use.

한편, 각종 음악과 오디오북들은 청취자가 원하는 오디오 데이터를 확보한 상태에서는 각종 오디오 재생장치를 통하여 언제든지 청취할 수 있다. 하지만 불특정한 다양한 장소, 예를 들어 공공장소, 광고 및 전시장 그리고 라디오 방송,에서 청취가 이루어진 경우에는 청취한 음악을 이후에 재청취하고자 하는 경우에 청취자가 해당 음악 등에 대한 정보를 보유하여야 한다.Meanwhile, various music and audiobooks can be listened to at any time through various audio reproducing apparatuses while the desired audio data is secured by the listener. However, when listening is made in various places that are unspecified, for example, public places, advertisements and exhibition halls, and radio stations, the listener must retain information about the music when he / she wants to listen to it later.

하지만 불특정 장소에서 청취만 한 상태에서는 해당 음악에 대한 아무런 정 보를 보유하지 못하기 때문에 재청취를 위하여 해당 음악에 대한 데이터를 확보하기는 매우 문제점이 있다. However, there is a very problem in securing data about the music for re-listening because it does not have any information about the music in the state of listening only in an unspecified place.

본 발명은 음향 신호에서 부가정보를 추출하는 시스템 및 추출방법을 제공하기 위한 관한 것이다. The present invention relates to a system and an extraction method for extracting additional information from an acoustic signal.

본 발명에 따른 디지털 신호로 된 부가정보가 에너지 변조로 삽입된 음향신호가 출력되는 스피커에서 상기 음향 신호를 수신하며, 수신한 상기 음향 신호에 삽입된 상기 부가 정보에 대한 시작점을 찾도록 동기화하는 동기화부; 상기 수신한 음향 신호를 다수의 프레임으로 분할하는 프레임 분할부; 상기 프레임을 다수의 서브 프레임으로 분할하는 서브 프레임 분할부; 상기 각각의 서브 프레임을 푸리에 변환하는 푸리에 변환부; 푸리에 변환된 상기 서브 프레임의 주파수 대역을 다수의 서브밴드로 분할하는 서브밴드 분할부; 상기 서브밴드들의 에너지 크기를 비교하여 상기 음향 신호에 포함된 부가 정보를 추출하는 정보 추출부를 구비한다.
상기 정보 추출부는 상기 서브밴드들의 에너지 크기 순서에 따라 상기 서브밴드들의 에너지 크기 중에서 가장 높은 에너지 크기를 가지는 높은 서브밴드와 가장 낮은 에너지 크기를 가지는 낮은 서브밴드와 상기 높은 서브밴드와 상기 낮은 서브밴드의 중간 에너지 크기를 가지는 중간 서브밴드를 구분하고, 상기 중간 서브밴드의 에너지 크기가 상기 높은 서브밴드의 에너지 크기에 근접하거나 또는 상기 낮은 서브밴드의 에너지 크기에 근접하느냐에 따라 상기 부가정보의 디지털 신호를 구분하여 추출할 수 있다.
상기 동기화부는 상기 중간 서브밴드의 에너지 크기를 확인하여 상기 부가정보의 시작점을 찾을 수 있다.
상기 동기화부는 상기 음향 신호의 초기 위치에서 소정 길이를 스킵(skip)하는 초반 스킵부, 스킵한 위치의 상기 음향 신호부터 다수의 프레임으로 분할하는 동기화용 프레임 분할부, 상기 프레임을 다수의 서버 프레임으로 분할하는 동기화용 서브 프레임 분할부, 상기 서브밴드를 푸리에 변환하는 동기화용 푸리에 변환부, 푸리에 변환된 상기 서브 프레임의 주파수 대역을 다수의 서브밴드로 분할하는 동기화용 서브밴드 분할부, 상기 서브밴드의 에너지 크기를 비교하여 상기 프레임들에 대한 스코어링(scoring)을 수행하는 싱크 스코어링부를 구비할 수 있다.
상기 싱크 스코어링부는 상기 중간 서브밴드가 상기 높은 서브밴드 또는 상기 낮은 서브밴드의 에너지 크기에 근접하면 상기 서브 프레임에 상기 디지털 신호가 삽입된 것으로 판단하여 상대적으로 높은 점수로 스코어링 하고, 상기 중간 서브밴드가 상기 높은 서브밴드 또는 상기 낮은 서브밴드의 에너지 크기의 중간 지점에 근접하면 상대적으로 낮은 점수로 스코어링 할 수 있다.
본 발명에 따른 디지털 신호로 된 부가정보가 에너지 변조로 삽입된 음향신호가 출력되는 스피커에서 상기 음향 신호를 수신하고, 상기 음향 신호에 삽입된 상기 디지털 신호에 대한 시작점을 찾도록 동기화하고, 상기 수신한 음향 신호를 다수의 프레임으로 분할하고, 상기 프레임을 다수의 서브 프레임으로 분할하고, 상기 각각의 서브 프레임을 푸리에 변환하고, 푸리에 변환된 상기 서브 프레임의 주파수 대역을 다수의 서브밴드로 분할하고, 상기 서브밴드들을 에너지 크기 순서에 따라 상기 서브밴드들의 에너지 크기 중에서 가장 높은 에너지 크기를 가지는 높은 서브밴드와 가장 낮은 에너지 크기를 가지는 낮은 서브밴드와 상기 높은 서브밴드와 상기 낮은 서브밴드의 중간 에너지 크기를 가지는 중간 서브밴드를 구분하고, 상기 중간 서브밴드의 에너지 크기가 상기 높은 서브밴드의 에너지 크기에 근접하거나 또는 상기 낮은 서브밴드의 에너지 크기에 근접하느냐에 따라 상기 디지털 신호를 구분하여 추출한다.
상기 동기화는 상기 중간 서브밴드의 에너지 크기를 확인하여 상기 디지털 신호의 상기 시작점을 찾을 수 있다.
상기 동기화는 상기 음향 신호의 초기 샘플링 위치에서 미리 설정된 소정 샘플링 위치를 건너뛴 위치부터 상기 중간 서브밴드들의 에너지 크기를 확인할 수 있다.
상기 중간 서브밴드가 상기 높은 서브밴드 또는 상기 낮은 서브밴드의 에너지 크기에 근접하면 상기 서브 프레임에 상기 디지털 신호가 삽입된 것으로 판단할수 있다.
Synchronization to receive the sound signal from the speaker outputs the sound signal inserted by the energy modulation of the digital signal according to the present invention, and to synchronize to find the starting point for the additional information inserted in the received sound signal part; A frame dividing unit dividing the received sound signal into a plurality of frames; A sub frame dividing unit dividing the frame into a plurality of sub frames; A Fourier transform unit for Fourier transforming each subframe; A subband dividing unit dividing a frequency band of the Fourier transformed subframe into a plurality of subbands; And an information extraction unit configured to compare energy levels of the subbands and extract additional information included in the sound signal.
The information extracting unit may include a high subband having the highest energy level and a low subband having the lowest energy level, and the high subband and the low subband according to the order of the energy sizes of the subbands. Distinguish the intermediate subbands having an intermediate energy magnitude, and classify the digital signal of the side information according to whether the energy magnitude of the intermediate subband is close to the energy magnitude of the high subband or the energy magnitude of the low subband. Can be extracted.
The synchronization unit may find the starting point of the additional information by checking the energy level of the intermediate subband.
The synchronization unit may include an early skip unit that skips a predetermined length at an initial position of the sound signal, a synchronization frame divider that divides the sound signal from the skipped position into a plurality of frames, and divides the frame into a plurality of server frames. A synchronization subframe divider for dividing, a Fourier transform for Fourier-transforming the subbands, a synchronization subband divider for dividing a frequency band of the Fourier-transformed subframe into a plurality of subbands, A sync scoring unit may be provided to compare the magnitudes of energy and perform scoring on the frames.
The sync scoring unit determines that the digital signal is inserted into the subframe when the intermediate subband is close to the energy level of the high subband or the low subband, and scores a relatively high score. Close to the midpoint of the energy level of the high subband or the low subband can score a relatively low score.
Receiving the sound signal from a speaker that outputs a sound signal inserted into the energy signal of the digital signal according to the present invention, synchronizes to find a starting point for the digital signal inserted in the sound signal, the reception Divide a sound signal into a plurality of frames, divide the frame into a plurality of subframes, Fourier transform each of the subframes, divide a frequency band of the Fourier transformed subframes into a plurality of subbands, The subbands may be arranged in the order of energy magnitude, and the intermediate energy level of the high subband having the highest energy level and the low energy level and the intermediate energy level of the high subband and the low subband may be determined. Has a middle subband, and the middle subband Depending on whether the close-up energy is the energy amount of the high sub-band energy, or close to the size of the lower sub-band is extracted by separating the digital signal.
The synchronization may find the starting point of the digital signal by checking the energy magnitude of the intermediate subband.
The synchronization may determine the energy level of the intermediate subbands from a position where a predetermined sampling position is skipped at an initial sampling position of the sound signal.
When the intermediate subband is close to the energy level of the high subband or the low subband, it may be determined that the digital signal is inserted into the subframe.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

본 실시예에 따른 음향 신호에서 부가정보를 추출하는 시스템 및 추출방법은 음악, 오디오북, 전화통화 등 모든 음향 신호가 전송될 때 관련된 부가정보를 음향 신호에 삽입하여 전달함으로써 길거리, 각종 대중 교통수단 및 대중장소 등의 스피커에서 출력하는 음향 신호로부터 무선 디바이스 등을 이용하여 부가정보를 추출 획득하게 됨으로써 보다 향상된 모바일 환경을 향유할 수 있게 된다.The system and extraction method for extracting additional information from an acoustic signal according to the present embodiment inserts and transmits additional information related to a sound signal such as music, audiobooks, telephone calls, etc. in a street signal and various public transportation means. And by extracting and obtaining additional information from a sound signal output from a speaker such as a public place using a wireless device, it is possible to enjoy a more improved mobile environment.

도 1은 무선 디바이스에서 청취중인 음향 신호에 대한 부가정보를 획득하는 예를 설명하기 위한 도면이다. FIG. 1 is a diagram for describing an example of acquiring additional information about an acoustic signal being listened to by a wireless device.

도 1에 도시된 바와 같이 본 실시예는 임의의 어떤 장소에서 스피커(10)를 통하여 출력되는 오디오 신호를 무선 디바이스(11) 사용자가 청취하는 경우 스피커(10)에서 출력되는 음향 신호를 소정 범위 이내에서 무선 디바이스(11)를 이용하여 음향 신호를 수신하면, 이 수신된 음향 신호에서 음향 신호에 포함된 부가정보(13)를 무선 디바이스(11)가 획득하여 무선 디바이스(11)의 디스플레이로 출력하도록 한다. As shown in FIG. 1, in the present embodiment, when a user of the wireless device 11 listens to an audio signal output through the speaker 10 at any place, the sound signal output from the speaker 10 is within a predetermined range. Receives an acoustic signal using the wireless device 11, the wireless device 11 obtains the additional information 13 included in the acoustic signal from the received acoustic signal and outputs it to the display of the wireless device 11. do.

이에 따라 사용자는 공간과 장소에 구속되지 않고, 실시간으로 음악, 오디오북과 같은 다양한 음향을 청취하면서 해당 음향에 대한 각종 부가정보를 취득할 수 있기 때문에 보다 진보된 모바일 환경을 향유할 수 있다. Accordingly, the user can enjoy a more advanced mobile environment because the user can acquire various additional information about the corresponding sound while listening to various sounds such as music and audiobook in real time without being constrained by space and place.

이하에서는 이와 같은 모바일 환경의 제공을 위하여 부가정보를 음향 신호를 삽입하는 방법과 부가정보가 삽입된 음향 신호로부터 부가정보를 취득하는 방법에 대한 실시예를 설명한다.Hereinafter, an embodiment of a method of inserting additional information into a sound signal and obtaining additional information from a sound signal into which the additional information is inserted will be described in order to provide such a mobile environment.

도 2는 본 실시예에 따른 음향 신호에 부가 정보를 삽입하는 시스템을 도시한 도면이다.2 is a diagram illustrating a system for inserting additional information into an acoustic signal according to the present embodiment.

도 2에 도시된 바와 같이 본 실시예에서의 음향 신호에 부가 정보를 삽입하는 시스템은 먼저 음악, 오디오북, 각종 통화시 수신되는 음향 신호를 다수의 프레임으로 분할하는 프레임 분할부(100)와, 각각의 프레임들을 복수개의 서브 프레임으로 분할하는 서브 프레임 분할부(101)와, 각각의 서브 프레임을 푸리에 변환하 는 푸리에 변환부(102)를 구비한다.As shown in FIG. 2, a system for inserting additional information into a sound signal according to the present embodiment includes a frame divider 100 which first divides a music signal, an audio book, and a sound signal received in various calls into a plurality of frames; And a subframe division unit 101 for dividing each frame into a plurality of subframes, and a Fourier transform unit 102 for Fourier transforming each subframe.

그리고 푸리에 변환으로 얻어진 각각의 서브 프레임의 주파수 대역에서 다수의 서브밴드를 분할하는 서브밴드 분할부(103)와, 서브밴드들의 에너지 크기를 비교하여 에너지 편차를 표준화하는 에너지편차 표준화부(104)와, 디지털 신호로 된 부가정보를 서브밴드의 에너지 변조로 삽입하는 정보 삽입부(105)를 구비한다. And a subband dividing unit 103 for dividing a plurality of subbands in the frequency band of each subframe obtained by the Fourier transform, and an energy deviation standardizing unit 104 for comparing energy magnitudes of the subbands and normalizing energy deviations. And an information insertion section 105 for inserting additional information, which is a digital signal, by subband energy modulation.

또한 시스템은 음향 신호에 삽입되는 부가정보, 예를 들어 음악의 경우 곡명, 가수이름, 청취를 위한 인터넷 접속 정보, 등을 디지털 신호화하는 이진화부(110)와, 이 디지털 신호를 오류정정 부호화하는 오류정정 부호화부(111)와, 오류정정 부호화된 디지털 신호에 헤더를 삽입하는 헤더 삽입부(112)를 구비하고, 헤더가 삽입된 디지털 신호는 정보 삽입부(105)에서 에너지 변조로 음향 신호에 삽입된다. The system also includes a binarization unit 110 for digitally encoding additional information inserted into an acoustic signal, for example, a music name, a singer's name, Internet connection information for listening, and the like, and error correction encoding the digital signal. An error correction encoder 111 and a header inserter 112 for inserting a header into the error corrected coded digital signal, wherein the digital signal with the header is inserted into the acoustic signal by energy modulation in the information inserter 105. Is inserted.

그리고 시스템은 부가정보가 삽입된 각각의 서브 프레임을 푸리에 역변환하는 푸리에 역변환부(120), 서브 프레임 결합부(121), 프레임 결합부(122)를 각각 구비한다.The system includes a Fourier inverse transform unit 120, a subframe combiner 121, and a frame combiner 122 that perform Fourier inverse transform on each subframe into which additional information is inserted.

이하에서는 각각의 구성 및 시스템의 작용상태에 대하여 상세히 설명한다. Hereinafter, the operation state of each configuration and system will be described in detail.

도 3은 본 실시예에 따른 음향 신호를 프레임 및 서브 프레임으로 분할하는 예를 도시한 도면이다. 도 3에 도시된 바와 같이 프레임 분할부(100)는 사용자의 무선 디바이스(11), 예를 들어 녹음 기능을 가지는 휴대폰, PDA, 노트북 컴퓨터, 등에 녹음된 음향 신호를 시간축 상으로 동일한 길이를 가지는 다수의 프레임으로 분할한다. 그리고 서브 프레임 분할부(101)는 분할된 프레임 중 미리 설정한 위치 (예를 들어 부가정보가 삽입될 시작위치)의 프레임을 다수의 서브 프레임(P1)(P2)(P3)으로 분할한다. 3 is a diagram illustrating an example of dividing an acoustic signal into a frame and a subframe according to the present embodiment. As shown in FIG. 3, the frame dividing unit 100 includes a plurality of sound signals recorded on a wireless device 11 of a user, for example, a mobile phone, a PDA, a notebook computer, and the like, having the same length on a time axis. Split into frames. The subframe dividing unit 101 divides a frame of a predetermined position (for example, a start position at which additional information is to be inserted) among the divided frames into a plurality of subframes P1, P2, and P3.

본 실시예에서 프레임은 3개의 서브 프레임으로 분할될 수 있다. 그러나 서브 프레임의 분할 개수는 보다 다양하게 실시될 수 있다. 그리고 프레임 분할부(100)와 서브 프레임 분할부(101)는 분할시에 사다리꼴 또는 레이즈드 코사인(raised cosine) 형태의 윈도우를 이용하여 프레임들 간에 또는 서브 프레임들 간에 부드러운 중첩이 이루어지도록 한다. In the present embodiment, the frame may be divided into three subframes. However, the number of divisions of the subframe may be implemented in various ways. The frame dividing unit 100 and the sub-frame dividing unit 101 use a trapezoidal or raised cosine-shaped window at the time of dividing so that a smooth overlap is formed between the frames or the sub-frames.

이하에서는 각각의 서브 프레임을 제 1서브 프레임(P1), 제 2서브 프레임(P2), 제 3서브 프레임(P3)이라고 한다. 그리고 각각의 서브 프레임(P1)(P2)(P3)은 샘플링 되어 디지털 데이터화 될 수 있다. 푸리에 변환부(102)는 제 1서브 프레임(P1), 제 2서브 프레임(P2) 그리고 제 3서브 프레임(P3) 각각을 푸리에 변환한다. Hereinafter, each subframe is referred to as a first subframe P1, a second subframe P2, and a third subframe P3. Each subframe P1, P2, or P3 may be sampled and digitalized. The Fourier transform unit 102 performs Fourier transform on each of the first sub frame P1, the second sub frame P2, and the third sub frame P3.

도 4는 본 실시예에 따라 각각의 서브 프레임을 푸리에 변환한 후 서브밴드를 분할하는 하나의 예를 도시한 도면이고, 도 5a는 음향 신호에 부가 정보를 삽입하기 전 특정 위치의 서브밴드들의 에너지 레벨을 각 서브 프레임별로 나타낸 도면이고, 도 5b는 음향 신호에 부가 정보를 삽입한 후 특정 위치의 서브밴드들의 에너지 레벨을 각 서브 프레임별로 나타낸 도면이다.4 is a diagram illustrating an example of dividing a subband after Fourier transforming each subframe according to the present embodiment, and FIG. 5A illustrates energy of subbands at a specific position before inserting additional information into an acoustic signal. FIG. 5B is a diagram illustrating levels of each subframe, and FIG. 5B is a diagram illustrating energy levels of subbands at a specific position after inserting additional information into an acoustic signal.

도 4에 도시된 바와 같이 서브밴드 분할부(103)는 각각의 푸리에 변환된 서브 프레임(P1)(P2)(P3)을 소정 주파수 이상의 범위에 위치하며, 부가 정보를 삽입할 주파수 대역을 다수의 서브밴드로 분할한다. 서브밴드의 분할 수는 입력되는 부 가정보의 크기에 따라 다양하게 이루어질 수 있다. 그리고 서브밴드의 분할을 위한 소정 주파수 대역의 범위는 인간의 귀에 민감한 4kHz 주변 보다 높거나 낮은 주파수 대역을 이용할 수 있다. 따라서 대략 5 ~ 10 kHz 또는 1 ~ 3kHz 등 보다 다양하게 이용될 수 있다.As shown in FIG. 4, the subband divider 103 locates each Fourier-transformed subframe P1, P2, and P3 in a range of a predetermined frequency or more, and includes a plurality of frequency bands for inserting additional information. Split into subbands. The number of divisions of the subbands may vary depending on the size of the additional information input. In addition, the range of a predetermined frequency band for subband division may use a higher or lower frequency band around 4kHz that is sensitive to the human ear. Therefore, it can be used in various ways such as about 5 ~ 10 kHz or 1 ~ 3kHz.

도 5a에 도시된 바와 같이 이하에서는 제 1서브 프레임(P1)에서 분할된 특정위치의 서브밴드를 제 1서브밴드(S1)라고 하고, 제 2서브 프레임(P1)에서 분할된 상기 특정위치의 서브밴드를 제 2서브밴드(S2)라고 하고, 제 3서브 프레임(P3)에서 분할된 상기 특정위치의 서브밴드를 제 3서브밴드(S3)라고 한다. 여기서의 특정위치는 동일한 주파수 대역 위치가 될 수 있다. As shown in FIG. 5A, a subband of a specific position divided in the first subframe P1 is referred to as a first subband S1 and a subband of the specific position divided in the second subframe P1. The band is called a second subband S2, and the subband at the specific position divided in the third subframe P3 is called a third subband S3. The specific position here may be the same frequency band position.

에너지 편차 표준화부(104)는 푸리에 변환후 얻어진 각각의 서브밴드(S1)(S2)(S3)의 에너지, 예를 들어 표준편차 또는 평균 크기(Amplitude), 를 산출한 후, 제 1서브밴드(S1)와 제 2서브밴드(S2) 그리고 제 3서브밴드(S3)의 에너지 크기를 구분한다. 이때 가장 큰 에너지 크기를 가지는 서브밴드와 가장 작은 에너지 크기를 가지는 서브밴드를 비교하여 두 서브밴드의 에너지 차가 미리 설정한 차이값(d) 또는 그 이상이 되도록 한다. The energy deviation standardization unit 104 calculates the energy of each subband S1, S2, and S3 obtained after the Fourier transform, for example, the standard deviation or the average amplitude, and then calculates the first subband ( The energy magnitudes of S1), the second subband S2, and the third subband S3 are distinguished. At this time, the subband having the largest energy magnitude and the subband having the smallest energy magnitude are compared so that the energy difference between the two subbands is equal to or greater than the preset difference value d.

도 5a에 도시된 바와 같이 예를 들어, 에너지 편차 표준화부(104)는 제 1프레임(F1)의 제 3서브 프레임(P3)의 제 3서브밴드(S3)가 가장 큰 에너지 값을 가지고, 제 2서브 프레임(P2)의 제 2서브밴드(S2)가 가장 작은 에너지 값을 가진다고 판단하고, 제 3서브밴드(S3)와 제 2서브밴드(S2)의 에너지 차이가 미리 설정한 차이값(d) 이상(또는 초과)이라고 판단하면 에너지 편차 표준화가 적용하지 않는다.For example, as shown in FIG. 5A, the energy deviation normalization unit 104 may have the highest energy value of the third subband S3 of the third subframe P3 of the first frame F1. It is determined that the second subband S2 of the two subframes P2 has the smallest energy value, and the difference value d preset by the energy difference between the third subband S3 and the second subband S2 is set in advance. Energy deviation standardization does not apply if it is determined to be above (or above).

그러나 다른 프레임(F2)(F3)(F4)에서 가장 큰 에너지를 가지는 서브밴드와 가장 작은 에너지를 가지는 서브밴드의 에너지 차이가 차이값(d) 미만(또는 이하)인 경우에는 가장 큰 에너지 크기를 가지는 서브밴드의 에너지 값을 키우거나, 또는 가장 작은 에너지 크기를 가지는 서브밴드의 에너지 크기를 줄이거나, 또는 하나의 서브밴드의 에너지 크기를 일부 줄이고, 다른 하나의 서브밴드의 에너지 크기를 늘여서 두 서브밴드의 에너지 차이가 차이값 이상(또는 초과)이 되도록 한다. However, if the energy difference between the subband with the largest energy and the subband with the smallest energy in another frame F2 (F3) (F4) is less than (or less than) the difference value d, then the largest energy magnitude is obtained. Two subbands by increasing the energy value of the subband, or by reducing the energy level of the subband having the smallest energy size, or by partially reducing the energy level of one subband, and increasing the energy level of the other subband. Allow the energy difference of the band to be above (or above) the difference.

즉, 도 5a의 실시예의 경우에는 제 1프레임(F1) 이후부터의 프레임들(F2)(F3)(F4)은 모두 에너지 편차 표준화가 이루어진다. 이러한 에너지 편차 표준화의 결과는 도 5b를 참조할 수 있다.That is, in the case of the embodiment of FIG. 5A, all the frames F2, F3, and F4 after the first frame F1 are subjected to energy deviation standardization. The result of this energy deviation normalization may refer to FIG. 5B.

이와 같은 에너지 편차 표준화과정은 서브 프레임 간의 에너지 크기 차이가 너무 작어서 부가정보를 나타내기 위한 신호가 효과적으로 삽입되지 않은 이후 부가정보의 추출이 제대로 이루어지지 않는 것을 방지한다. The energy deviation standardization process prevents the additional information from being extracted properly after the energy size difference between the subframes is too small to effectively insert the signal for indicating the additional information.

정보 삽입부(105)는 디지털 신호로 된 부가정보를 삽입하는데, 부가정보는 서브밴드(P1)(P2)(P3)의 에너지 변조를 통해 삽입된다. 이 정보 삽입부(105)에 부가정보가 삽입되는 작용에 설명하기 전에 삽입 전 부가정보를 처리하는 구성들에 대하여 먼저 설명한다.The information inserting unit 105 inserts additional information of a digital signal, and the additional information is inserted through energy modulation of subbands P1, P2, and P3. Before explaining the operation of inserting additional information into the information insertion section 105, the components for processing the additional information before insertion will be described first.

삽입을 위한 부가정보는 이진화부(110)에서 디지털 신호로 부호화 된다. 그리고 이진화부(110)에서 디지털 신호로 된 부가정보는 오류정정 부호화부(111)에서 오류정정부호로 부호화된다. 본 실시예에서는 오류정정부호는 BCH 코드(Bose, Chaudhuri, Hocquenghem Code)를 사용한다. 그러나 그 외에 다른 오류정정부호를 사용할 수 있다. The additional information for insertion is encoded by the binarization unit 110 into a digital signal. The additional information, which is a digital signal in the binarization unit 110, is encoded by the error correction encoder 111 as an error correction code. In this embodiment, the error correcting code uses BCH codes (Bose, Chaudhuri, Hocquenghem Code). However, other error correction codes may be used.

헤더 삽입부(112)는 부가정보의 가장 앞에 헤더를 삽입하여 최종적으로 삽입될 부가정보에 대한 디지털 시퀀스를 생성한다. 이때 헤더는 고정된 PN 시퀀스(Pseudo Random Noise Sequence)로서 부가 정보의 추출을 위한 시스템은 이 PN 시퀀스를 알고 있어야 한다. 이와 같이 부가정보의 디지털 시퀀스가 완성되면 이 디지털 시퀀스는 정보 삽입부(105)에 전달된다. The header insertion unit 112 inserts a header at the front of the additional information to generate a digital sequence for the additional information to be finally inserted. In this case, the header is a fixed PN sequence (Pseudo Random Noise Sequence) and the system for extracting additional information should know this PN sequence. When the digital sequence of the additional information is completed as described above, the digital sequence is transferred to the information inserting unit 105.

그리고 부가 정보의 디지털 시퀀스가 제공되고, 각각의 프레임에 대한 에너지 편차 표준화가 완료되면 이후 정보 삽입부(105)는 부가정보를 음향 신호에 정보 삽입을 진행한다. When the digital sequence of the additional information is provided and the energy deviation standardization for each frame is completed, the information inserting unit 105 then inserts the additional information into the sound signal.

정보 삽입부(105)의 정보 삽입은 도 5b에 도시된 바와 같이 삽입할 정보의 디지털 신호가 "0"인 경우에는 제 1프레임(F1) 및 제 2프레임(F2)에서와 같이 중간 에너지 크기를 가지는 서브밴드의 에너지 크기를 낮추어 제일 작은 에너지 레벨을 가지는 서브밴드의 에너지 레벨과 같은 상태로 바꾸고, 삽입할 정보가 "1"인 경우에는 제 3프레임(F3) 및 제 4프레임(F4)에서와 같이 중간 에너지 크기를 가지는 서브밴드의 에너지 크기를 키워서 가장 큰 에너지 크기를 가지는 서브밴드의 에너지 크기와 같은 상태로 바꾼다. 또는 이와 반대의 방법으로 각각의 디지털 신호를 삽입한다. Information insertion of the information insertion unit 105, as shown in Figure 5b, when the digital signal of the information to be inserted "0" as shown in the first frame (F1) and the second frame (F2) as shown in The energy level of the subband is lowered to the same state as the energy level of the subband having the smallest energy level. When the information to be inserted is "1", the third and fourth frames F3 and F4 Likewise, the energy size of the subband having the medium energy size is increased to be the same as the energy size of the subband having the largest energy size. Or insert each digital signal in the opposite way.

이러한 삽입방법으로 부가정보의 모든 디지털 시퀀스를 각 프레임의 각 서브밴드별로 차례로 삽입한다. 이러한 삽입방법으로 부가정보를 삽입하게 되면 부가정보의 길이에 따라 서브밴드는 다량으로 분할될 수 있고, 이에 따라 다량의 디지털 데이터가 하나의 프레임에 삽입된다. 즉 예를 들어 하나의 서브 프레임에서 8개의 서브 밴드가 분할되는 경우 하나의 서브 프레임에는 1바이트의 디지털 신호가 저장될 수 있다. In this insertion method, all digital sequences of additional information are inserted in sequence for each subband of each frame. When the additional information is inserted by such an insertion method, the subbands may be divided into a large amount according to the length of the additional information. Accordingly, a large amount of digital data is inserted into one frame. That is, for example, when eight subbands are divided in one subframe, one byte of a digital signal may be stored in one subframe.

한편, 음향 신호는 모노신호 또는 스테레오 신호일 수 있다. 따라서 만약 음향 신호가 모노신호인 경우에는 전술한 바와 같이 정보 삽입을 수행하지만 스테레오 신호인 경우에는 좌측과 우측 두 신호에 대한 처리가 필요하다. The sound signal may be a mono signal or a stereo signal. Therefore, if the audio signal is a mono signal, as described above, information insertion is performed, but in the case of a stereo signal, processing for the left and right two signals is required.

도 6a는 스테레오 음향 신호에 부가 정보를 삽입하기 전 서브밴드들의 에너지 레벨을 예시적으로 도시한 도면이고, 도 6b는 스테레오 음향 신호에 부가 정보를 삽입한 후 서브밴드들의 에너지 레벨을 예시적으로 도시한 도면이다. FIG. 6A is a diagram illustrating energy levels of subbands before inserting additional information into a stereo sound signal, and FIG. 6B is a diagram illustrating energy levels of subbands after inserting additional information into a stereo sound signal. One drawing.

도 6a와 도 6b에 도시된 바와 같이 음향 신호가 스테레오 신호인 경우에 좌측과 우측 신호 중 서브밴드별 에너지 차가 더 큰 쪽을 선택하여 모노신호에 대한 정보 삽입 방법과 동일한 방법으로 정보를 삽입한다. 본 실시예에서는 우측의 에너지 차이가 더 큰 것으로 예시하고 있으므로 우측의 음향 신호에 정보를 삽입한다. 그리고 좌측의 신호는 각 프레임들에서의 에너지 크기에 대한 상호관계가 우측의 에너지 크기에 대한 상호관계와 동일해지도록 강제로 조절한다. As shown in FIGS. 6A and 6B, when the acoustic signal is a stereo signal, an energy difference for each subband is selected among the left and right signals to insert information in the same manner as the information insertion method for the mono signal. In this embodiment, since the energy difference on the right side is illustrated as being larger, information is inserted into the sound signal on the right side. The signal on the left side forces the correlation of energy magnitude in each frame to be equal to the correlation on energy magnitude on the right side.

그리고 푸리에 역변환부(120)는 각 서브밴드를 푸리에 역변환하고, 서브 프레임 결합부(121)는 푸리에 역변환된 각 서브밴드를 서브 프레임별로 결합한다. 그리고 각 서브 프레임들은 프레임 결합부(122)에서 결합된 후 최종적으로 음향 신호로 출력된다.The Fourier inverse transform unit 120 performs Fourier inverse transform on each subband, and the subframe combiner 121 combines the Fourier inverse transformed subbands for each subframe. Each subframe is combined by the frame combiner 122 and finally output as an audio signal.

이와 같이 부가정보가 삽입된 음향 신호가 출력되면 이를 청취하는 청취자는 부가정보를 추출할 수 있는 시스템을 가진 모바일 디바이스(11) 등을 이용하여 해당 음향 신호로부터 부가정보를 추출할 수 있다.As described above, when the sound signal in which the additional information is inserted is output, the listener who listens to the additional information may extract the additional information from the corresponding sound signal by using the mobile device 11 having the system for extracting the additional information.

이하에서는 음향 신호에 삽입된 부가정보를 추출하는 시스템에 대하여 설명한다. 도 7은 본 실시예에 따라 부가정보가 삽입된 음향 신호에서 부가정보를 추출하는 시스템에 대한 구성도이다. Hereinafter, a system for extracting additional information embedded in an audio signal will be described. FIG. 7 is a block diagram of a system for extracting additional information from a sound signal in which additional information is inserted according to the present embodiment.

도 7에 도시된 바와 같이 시스템은 음향 신호에서 최소의 온전히 보존된 프레임의 시작점을 찾는 프레임 동기화부(200)를 구비한다. 프레임 동기화부(200)는 음향 신호의 초반부를 스킵(skip)하는 초반 스킵부(201), 동기화용 프레임 분할부(202), 동기화용 서브 프레임 분할부(203), 동기화용 푸리에 변환부(204), 동기화용 서브밴드 분할부(205), 프레임 싱크 스코어링부(206), 프레임 싱크 맞춤부(207)를 구비한다. As shown in FIG. 7, the system includes a frame synchronizer 200 that finds the starting point of the minimum fully preserved frame in the acoustic signal. The frame synchronizer 200 skips an early part of an audio signal, an initial skip unit 201, a synchronization frame division unit 202, a synchronization subframe division unit 203, and a synchronization Fourier transform unit 204. ), A synchronization subband divider 205, a frame sync scoring unit 206, and a frame sync alignment unit 207.

그리고 시스템은 동기화부(200)에서 프레임 동기화가 완료되면 실제적으로 음향 신호에서 부가정보를 추출하기 프레임 분할부(210), 서브 프레임 분할부(211), 푸리에 변환부(212), 서브밴드 분할부(213), 정보추출부(214), 헤더검출부(215), 오류정정 역부호화부(216) 및 이진화 복원부(217)를 구비한다. When the frame synchronization is completed in the synchronization unit 200, the system actually extracts additional information from the sound signal. The frame divider 210, the subframe divider 211, the Fourier transform unit 212, and the subband divider 213, an information extraction unit 214, a header detection unit 215, an error correction decoding unit 216, and a binarization recovery unit 217.

이하에서는 각각의 구성과 이들 구성의 작용에 대하여 구체적으로 설명한다.Hereinafter, each structure and the effect | action of these structures are demonstrated concretely.

동기화부(200)의 초반 스킵부(201)는 음향 신호를 샘플링하여 초기 샘플에서 "n"개 샘플만큼 건너뛴다. 이때의 "n"은 "0"에서 시작하여 1개의 프레임 길이가 될 때까지 반복하여 증가한다.The initial skip unit 201 of the synchronization unit 200 samples the acoustic signal and skips by "n" samples from the initial sample. At this time, "n" starts at "0" and repeatedly increases until it becomes one frame length.

초반 스킵부(201)에서 스킵이 이루어지면 동기화 프레임 분할부(202)는 음향 신호를 각각의 시간축 상으로 다수의 프레임으로 분할한다. 그리고 동기화 서브 프레임 분할부(203)는 각 프레임을 3개의 서브 프레임으로 분할한다. 또한 동기화 푸리에 변환부(204)는 각 서브 프레임을 푸리에 변환한다. 그리고 서브밴드 분할부(205)는 푸리에 변환 이후 미리 설정된 주파수 대역(즉, 부가 정보 삽입시 이용된 주파수 대역)을 다수의 서브밴드로 분할한다.When skipping is performed in the initial skip unit 201, the synchronization frame dividing unit 202 divides the sound signal into a plurality of frames on each time axis. The synchronization subframe divider 203 divides each frame into three subframes. In addition, the synchronization Fourier transform unit 204 performs Fourier transform on each subframe. The subband dividing unit 205 divides a predetermined frequency band (ie, a frequency band used for inserting additional information) after the Fourier transform into a plurality of subbands.

그리고 프레임 싱크 스코어링부(206)는 각 서브 프레임에 해당하는 각 서브밴드의 에너지 크기를 비교하여 에너지 크기가 큰 순서대로 각각의 서브 프레임의 에너지를 산출한다. 이때 중간 에너지 크기를 가지는 서브밴드의 에너지 크기가 가장 큰 에너지 크기를 가지는 서브밴드 또는 가장 작은 에너지 크기를 가지는 서브밴드의 에너지 크기에 근접하면 상대적으로 높은 점수를 부여한다. 반면에 중간 에너지 크기를 가지는 서브밴드의 에너지 크기가 가장 큰 에너지 크기를 가지는 서브밴드 또는 가장 작은 에너지 크기를 가지는 서브밴드의 에너지 크기의 중간 지점에 근접하면 상대적으로 낮은 점수를 부여한다. 그리고 각 서브밴드별로 계산된 점수를 합하여 최종 점수를 계산한다. The frame sync scoring unit 206 calculates the energy of each subframe in the order of the larger energy levels by comparing the energy magnitudes of the respective subbands corresponding to each subframe. In this case, when the energy size of the subband having the intermediate energy size is close to the energy size of the subband having the largest energy size or the subband having the smallest energy size, a relatively high score is given. On the other hand, a relatively low score is given when the energy magnitude of the subband having the intermediate energy magnitude is close to the midpoint of the energy magnitude of the subband having the largest energy magnitude or the subband having the smallest energy magnitude. The final score is calculated by summing the scores calculated for each subband.

이와 같은 과정을 1개의 프레임 길이가 될 때까지 반복한다. 그리고 프레임 싱크 맞춤부(207)는 최종 점수가 최대가 되는 샘플링 위치를 찾고, 초반 건너뜀 길이를 구한다. 그리고 이 초반 건너뜀 길이만큼 신호의 초반부를 건너뜀으로써 프레임 동기화를 완료한다.This process is repeated until it becomes one frame length. The frame sync alignment unit 207 finds a sampling position where the final score is maximum, and calculates an initial skip length. Frame synchronization is completed by skipping the first part of the signal by this initial skip length.

프레임 동기화가 완료되면 프레임 분할부(210)는 동기 위치부터 음향 신호를 프레임 단위로 분할한다. 그리고 서브 프레임 분할부(211)는 각 프레임을 3개의 서 브 프레임으로 분할한다. 또한 푸리에 변환부(212)는 각 서브 프레임을 푸리에 변환하고, 서브밴드 분할부(213)는 푸리에 변환된 주파수 대역에서 부가 정보 삽입시 이용된 주파수 대역을 다수의 서브밴드로 분할한다. When frame synchronization is completed, the frame dividing unit 210 divides the sound signal in units of frames from the synchronization position. The subframe divider 211 divides each frame into three subframes. In addition, the Fourier transform unit 212 performs Fourier transform on each subframe, and the subband divider 213 divides the frequency band used when the additional information is inserted into the Fourier transformed frequency band into a plurality of subbands.

계속해서 정보 추출부(214)는 각 서브밴드 별로 에너지 크기를 비교하여 디지털 신호를 추출한다. 디지털 신호의 추출은 각 서브 프레임의 해당 서브밴드의 에너지 크기를 계산하여 에너지 크기가 큰 순서대로 각 서브밴드를 구분한다. 이때 중간 크기를 가지는 서브밴드가 가장 큰 에너지 크기를 가지는 서브밴드의 에너지 크기에 가까우면 "1"로 추출하고, 작은 에너지 크기를 가지는 서브밴드의 에너지 크기에 가까우면 "0"으로 추출하거나 또는 그 반대의 방법으로 디지털 신호를 추출하여 각 프레임별로 추출된 디지털 신호를 나열하여 이진수열을 만든다.Subsequently, the information extracting unit 214 extracts a digital signal by comparing energy levels for each subband. Extraction of the digital signal calculates the energy magnitude of the corresponding subband of each subframe and distinguishes each subband in the order of the largest energy magnitude. At this time, if the subband having the middle size is close to the energy size of the subband having the largest energy size, it is extracted as "1", and if it is close to the energy size of the subband having the small energy size, it is extracted as "0" or the In the opposite way, a digital signal is extracted and a binary string is created by listing the extracted digital signals for each frame.

또는 다른 실시예로 중간 크기를 가지는 서브밴드의 에너지 크기에 대한 임계값을 미리 설정하여 중간 크기를 가지는 서브밴드가 이 임계값 이상이 되거나 이하가 되는 것을 판단하여 부가정보의 디지털 신호를 판단, 추출할 수 있다.Alternatively, in another embodiment, the threshold value for the energy level of the subband having the intermediate size is preset, and it is determined that the subband having the intermediate size is above or below this threshold to determine and extract the digital signal of the additional information. can do.

헤더 검출부(215)는 추출된 이진수열에서 헤더로 삽입한 PN 시퀀스와 가장 가까운 부분을 찾아서 삽입된 정보의 시작점을 찾는다. 그리고 오류정정 역부호화부(216)는 삽입된 정보의 시작점부터 시작하여 오류정정 역부호화를 진행하여 이진수 형태로 표현된 부가정보를 복원한다. 그리고 이진화 복원부(217)는 복원된 부가정보를 원래의 정보형태로 복원함으로써 최종적으로 음향 신호에 삽입된 부가정보의 추출이 이루어진다. The header detector 215 finds the closest part of the PN sequence inserted into the header of the extracted binary string to find the starting point of the inserted information. The error correction decoding unit 216 recovers the additional information expressed in binary form by performing error correction decoding starting from the start point of the inserted information. The binarization restoration unit 217 recovers the additional information finally inserted into the sound signal by restoring the restored additional information to the original information form.

그리고 이후 이를 복원한 시스템은 시스템과 연동된 무선 디바이스(11) 등의 디스플레이 또는 기타의 출력 또는 표시장치를 통하여 표시하게 됨으로써 사용자는 해당 음향 신호에 대한 부가정보를 획득하게 된다.Then, the restored system is displayed through a display or other output or display device such as the wireless device 11 interworking with the system, so that the user acquires additional information on the corresponding sound signal.

한편, 전술한 부가정보 추출 시스템의 구성에서 동기화용 프레임 분할부(202)와 프레임 분할부(210), 동기화용 서브 프레임 분할부(203)와 서브 프레임 분할부(211), 동기화용 푸리에 변환부(204)와 푸리에 변환부(212) 그리고 동기화용 서브밴드 분할부(205)와 서브밴드 분할부(213)는 시스템에서 하나의 신호처리 구성으로 구현되어 하나의 구성이 두 가지의 다른 목적을 얻기 위한 구성으로 작용될 수 있다. 즉 이들 구성은 본 실시예에서 이해의 편의를 위하여 기능적으로 구분한 것으로 하드웨어는 동일한 구성요소일 수 있고, 그 외의 다른 구성들도 실시를 위하여 하드웨어가 병합 또는 구분되어 구현될 수 있다.On the other hand, in the configuration of the additional information extraction system described above, the synchronization frame divider 202 and the frame divider 210, the synchronization subframe divider 203 and the subframe divider 211, and the Fourier transform for synchronizer 204 and Fourier transform 212, and the synchronization subband divider 205 and subband divider 213 are implemented in one signal processing configuration in the system so that one configuration achieves two different purposes. It can serve as a configuration for. That is, these configurations are functionally divided for convenience of understanding in this embodiment, and the hardware may be the same component, and other components may be implemented by merging or dividing the hardware for implementation.

이상과 같은 본 실시예에 따른 음향 신호에 부가정보를 삽입하는 시스템 및 삽입방법을 이용한 실험예에서는 "egosys nEar 05" 스피커의 좌우를 50cm 이격시키고, 비트 레이트를 84.8bps로 하여 실험한 결과 스피커의 전방으로 5m 이상의 근거리에서 음향 신호에 포함된 부가정보를 획득할 수 있었다. In the experimental example using the system and the insertion method for inserting additional information into the acoustic signal according to the present embodiment as described above, the result of experimenting by separating the left and right sides of the "egosys nEar 05" speaker by 50cm and setting the bit rate to 84.8bps Additional information included in the acoustic signal could be obtained at a distance of 5 m or more forward.

따라서 이와 같은 본 실시예의 음향 신호에서 부가정보를 추출하는 시스템 및 추출방법은 음악, 오디오북, 전화통화 등 모든 음향 신호가 전송될 때 관련된 부가정보를 음향 신호에 삽입하여 전달함으로써 길거리, 각종 대중 교통수단 및 대중장소 등의 스피커에서 출력하는 음향 신호로부터 무선 디바이스(11) 등을 이용하여 부가정보를 추출 획득하게 됨으로써 보다 향상된 모바일 환경을 향유할 수 있게 된다.Therefore, the system and extraction method for extracting additional information from the acoustic signal of the present embodiment inserts and transmits additional information related to music, audiobooks, telephone calls, and the like when the audio signal is transmitted to the street and various public transportations. By extracting and obtaining additional information using the wireless device 11 or the like from the acoustic signal output from the speaker such as a means and a public place, it is possible to enjoy a more improved mobile environment.

도 1은 무선 디바이스에서 청취중인 음향 신호에 대한 부가정보를 획득하는 예를 설명하기 위한 도면이다.FIG. 1 is a diagram for describing an example of acquiring additional information about an acoustic signal being listened to by a wireless device.

도 2는 본 실시예에 따른 음향 신호에 부가 정보를 삽입하는 시스템에 대한 구성도이다. 2 is a configuration diagram of a system for inserting additional information into an acoustic signal according to the present embodiment.

도 3은 본 실시예에 따른 음향 신호를 프레임 및 서브 프레임으로 분할하는 예를 도시한 도면이다.3 is a diagram illustrating an example of dividing an acoustic signal into a frame and a subframe according to the present embodiment.

도 4는 본 실시예에 따라 각각의 서브 프레임을 푸리에 변환한 후 서브밴드를 분할하는 하나의 예를 도시한 도면이다. 4 is a diagram illustrating an example of dividing a subband after Fourier transforming each subframe according to the present embodiment.

도 5a는 음향 신호에 부가 정보를 삽입하기 전 특정 위치의 서브밴드들의 에너지 레벨을 각 서브 프레임별로 나타낸 도면이다.FIG. 5A is a diagram illustrating energy levels of subbands at a specific position for each subframe before inserting additional information into an acoustic signal. FIG.

도 5b는 음향 신호에 부가 정보를 삽입한 후 특정 위치의 서브밴드들의 에너지 레벨을 각 서브 프레임별로 나타낸 도면이다.5B is a diagram illustrating energy levels of subbands in a specific position for each subframe after additional information is inserted into an acoustic signal.

도 6a는 스테레오 음향 신호에 부가 정보를 삽입하기 전 서브밴드들의 에너지 레벨을 예시적으로 도시한 도면이다.FIG. 6A is a diagram illustrating energy levels of subbands before inserting additional information into a stereo sound signal. FIG.

도 6b는 스테레오 음향 신호에 부가 정보를 삽입한 후 서브밴드들의 에너지 레벨을 예시적으로 도시한 도면이다.6B is a diagram illustrating energy levels of subbands after inserting additional information into a stereo sound signal.

도 7은 본 실시예에 따라 부가정보가 삽입된 음향 신호에서 부가정보를 추출하는 시스템에 대한 구성도이다.FIG. 7 is a block diagram of a system for extracting additional information from a sound signal in which additional information is inserted according to the present embodiment.

Claims (9)

디지털 신호로 된 부가정보가 에너지 변조로 삽입된 음향신호가 출력되는 스피커에서 상기 음향 신호를 수신하며, 수신한 상기 음향 신호에 삽입된 상기 부가 정보에 대한 시작점을 찾도록 동기화하는 동기화부; A synchronization unit configured to receive the sound signal from a speaker to which the sound signal into which the additional information as a digital signal is inserted through energy modulation is output and to find a starting point for the additional information inserted into the received sound signal; 상기 수신한 음향 신호를 다수의 프레임으로 분할하는 프레임 분할부;A frame dividing unit dividing the received sound signal into a plurality of frames; 상기 프레임을 다수의 서브 프레임으로 분할하는 서브 프레임 분할부;A subframe dividing unit dividing the frame into a plurality of subframes; 상기 각각의 서브 프레임을 푸리에 변환하는 푸리에 변환부;A Fourier transform unit for Fourier transforming each subframe; 푸리에 변환된 상기 서브 프레임의 주파수 대역을 다수의 서브밴드로 분할하는 서브밴드 분할부;A subband dividing unit dividing a frequency band of the Fourier transformed subframe into a plurality of subbands; 상기 서브밴드들의 에너지 크기를 비교하여 상기 음향 신호에 포함된 부가 정보를 추출하는 정보 추출부를 구비하는 것을 특징으로 하는 음향 신호에서 부가정보를 추출하는 시스템.And an information extraction unit for comparing the energy levels of the subbands and extracting additional information included in the sound signal. 제 1항에 있어서, 상기 정보 추출부는 상기 서브밴드들의 에너지 크기 순서에 따라 상기 서브밴드들의 에너지 크기 중에서 가장 높은 에너지 크기를 가지는 높은 서브밴드와 가장 낮은 에너지 크기를 가지는 낮은 서브밴드와 상기 높은 서브밴드와 상기 낮은 서브밴드의 중간 에너지 크기를 가지는 중간 서브밴드를 구분하고, 상기 중간 서브밴드의 에너지 크기가 상기 높은 서브밴드의 에너지 크기에 근접하거나 또는 상기 낮은 서브밴드의 에너지 크기에 근접하느냐에 따라 상기 부가정보의 디지털 신호를 구분하여 추출하는 것을 특징으로 하는 음향 신호에서 부가정보를 추출하는 시스템.2. The information extractor of claim 1, wherein the information extracting unit comprises a high subband having the highest energy level and a low subband having the lowest energy level and the high subband according to the order of the energy sizes of the subbands. And an intermediate subband having an intermediate energy magnitude of the low subband, and adding the intermediate subband according to whether the energy magnitude of the intermediate subband is close to the energy magnitude of the high subband or the energy magnitude of the low subband. A system for extracting additional information from an acoustic signal, characterized in that for dividing and extracting the digital signal of the information. 제 2항에 있어서, 상기 동기화부는 상기 중간 서브밴드의 에너지 크기를 확인하여 상기 부가정보의 시작점을 찾는 것을 특징으로 하는 음향 신호에서 부가정보를 추출하는 시스템. The system of claim 2, wherein the synchronization unit finds a starting point of the additional information by checking an energy level of the intermediate subband. 제 3항에 있어서, 상기 동기화부는 상기 음향 신호의 초기 위치에서 소정 길이를 스킵(skip)하는 초반 스킵부, 스킵한 위치의 상기 음향 신호부터 다수의 프레임으로 분할하는 동기화용 프레임 분할부, 상기 프레임을 다수의 서버 프레임으로 분할하는 동기화용 서브 프레임 분할부, 상기 서브밴드를 푸리에 변환하는 동기화용 푸리에 변환부, 푸리에 변환된 상기 서브 프레임의 주파수 대역을 다수의 서브밴드로 분할하는 동기화용 서브밴드 분할부, 상기 서브밴드의 에너지 크기를 비교하여 상기 프레임들에 대한 스코어링(scoring)을 수행하는 싱크 스코어링부를 구비하는 것을 특징으로 하는 음향 신호에서 부가정보를 추출하는 시스템. 4. The apparatus of claim 3, wherein the synchronization unit comprises: an initial skip unit for skipping a predetermined length at an initial position of the sound signal; a synchronization frame divider for dividing the sound signal from the skipped position into a plurality of frames; A subframe division for synchronizing the subframe into a plurality of server frames, a Fourier transform for synchronizing the subbands, and a subband for synchronizing the frequency bands of the Fourier transformed subframes into a plurality of subbands And a sink scoring unit for comparing the energy levels of the subbands to perform scoring on the frames. 제 4항에 있어서, 상기 싱크 스코어링부는 상기 중간 서브밴드가 상기 높은 서브밴드 또는 상기 낮은 서브밴드의 에너지 크기에 근접하면 상기 서브 프레임에 상기 디지털 신호가 삽입된 것으로 판단하여 상대적으로 높은 점수로 스코어링 하고, 상기 중간 서브밴드가 상기 높은 서브밴드 또는 상기 낮은 서브밴드의 에너지 크기의 중간 지점에 근접하면 상대적으로 낮은 점수로 스코어링 하는 것을 특징으로 하는 음향 신호에서 부가정보를 추출하는 시스템.The method of claim 4, wherein the sync scoring unit determines that the digital signal is inserted into the subframe when the intermediate subband is close to an energy level of the high subband or the low subband, and scores a relatively high score. And if the intermediate subband approaches a midpoint of the energy level of the high or low subband, scoring with a relatively low score. 디지털 신호로 된 부가정보가 에너지 변조로 삽입된 음향신호가 출력되는 스피커에서 상기 음향 신호를 수신하고, 상기 음향 신호에 삽입된 상기 디지털 신호에 대한 시작점을 찾도록 동기화하고, 상기 수신한 음향 신호를 다수의 프레임으로 분할하고, 상기 프레임을 다수의 서브 프레임으로 분할하고, 상기 각각의 서브 프레임을 푸리에 변환하고, 푸리에 변환된 상기 서브 프레임의 주파수 대역을 다수의 서브밴드로 분할하고, 상기 서브밴드들을 에너지 크기 순서에 따라 상기 서브밴드들의 에너지 크기 중에서 가장 높은 에너지 크기를 가지는 높은 서브밴드와 가장 낮은 에너지 크기를 가지는 낮은 서브밴드와 상기 높은 서브밴드와 상기 낮은 서브밴드의 중간 에너지 크기를 가지는 중간 서브밴드를 구분하고, 상기 중간 서브밴드의 에너지 크기가 상기 높은 서브밴드의 에너지 크기에 근접하거나 또는 상기 낮은 서브밴드의 에너지 크기에 근접하느냐에 따라 상기 디지털 신호를 구분하여 추출하는 것을 특징으로 하는 음향 신호에서 부가정보를 추출하는 방법. Receiving the sound signal from a speaker outputting the sound signal inserted by the energy modulation of the digital signal, and synchronized to find a starting point for the digital signal inserted in the sound signal, and the received sound signal Divide the frame into a plurality of frames, divide the frame into a plurality of subframes, Fourier transform each of the subframes, divide a frequency band of the Fourier transformed subframe into a plurality of subbands, and divide the subbands. According to the order of energy magnitude, among the energy magnitudes of the subbands, a high subband having the highest energy magnitude and a low subband having the lowest energy magnitude, and an intermediate subband having an intermediate energy magnitude of the high subband and the low subband. , The energy magnitude of the intermediate subband And dividing the digital signal according to whether the energy level of the high subband or the energy level of the low subband is close. 제 6항에 있어서, 상기 동기화는 상기 중간 서브밴드의 에너지 크기를 확인하여 상기 디지털 신호의 상기 시작점을 찾는 것을 특징으로 하는 음향 신호에서 부가정보를 추출하는 방법. 7. The method of claim 6, wherein the synchronization finds the starting point of the digital signal by checking the energy level of the intermediate subband. 제 7항에 있어서, 상기 동기화는 상기 음향 신호의 초기 샘플링 위치에서 미리 설정된 소정 샘플링 위치를 건너뛴 위치부터 상기 중간 서브밴드들의 에너지 크기를 확인하는 것을 특징으로 하는 음향 신호에서 부가정보를 추출하는 방법. 8. The method of claim 7, wherein the synchronization checks the energy level of the intermediate subbands from a position where a predetermined sampling position is skipped at an initial sampling position of the acoustic signal. . 제 7항에 있어서, 상기 중간 서브밴드가 상기 높은 서브밴드 또는 상기 낮은 서브밴드의 에너지 크기에 근접하면 상기 서브 프레임에 상기 디지털 신호가 삽입된 것으로 판단하는 것을 특징으로 하는 음향 신호에서 부가정보를 추출하는 방법.8. The method of claim 7, wherein when the intermediate subband is close to the energy level of the high subband or the low subband, it is determined that the digital signal is inserted into the subframe. How to.
KR1020080019092A 2008-02-29 2008-02-29 System and method of extracting supplement information from acoustic signal KR100964096B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080019092A KR100964096B1 (en) 2008-02-29 2008-02-29 System and method of extracting supplement information from acoustic signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080019092A KR100964096B1 (en) 2008-02-29 2008-02-29 System and method of extracting supplement information from acoustic signal

Publications (2)

Publication Number Publication Date
KR20090093531A KR20090093531A (en) 2009-09-02
KR100964096B1 true KR100964096B1 (en) 2010-06-16

Family

ID=41302004

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080019092A KR100964096B1 (en) 2008-02-29 2008-02-29 System and method of extracting supplement information from acoustic signal

Country Status (1)

Country Link
KR (1) KR100964096B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120009131A (en) * 2010-07-22 2012-02-01 삼성전자주식회사 Apparatus and method for providing augmented reality service using sound

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101600355B1 (en) * 2009-09-23 2016-03-07 삼성전자주식회사 Method and apparatus for synchronizing audios
KR101634609B1 (en) * 2015-07-17 2016-06-29 주식회사 디지워크 Video/audio data processing method and apparatus performing the same

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
J.Herre et al. "Spatial Audio Coding: Next-generation efficient and compatibile coding of multi-channel audio" 117th AES Convention Paper 6186, 2004.Oct.28-31
Jong-Hwa Kim "Lossless Wideband Audio Compression: Prediction and Transform" Technische Universitat Berlin 2004

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120009131A (en) * 2010-07-22 2012-02-01 삼성전자주식회사 Apparatus and method for providing augmented reality service using sound
US9269373B2 (en) 2010-07-22 2016-02-23 Samsung Electronics Co., Ltd Apparatus and method for providing augmented reality service using sound
KR101683676B1 (en) 2010-07-22 2016-12-07 삼성전자 주식회사 Apparatus and method for providing augmented reality service using sound
US9860661B2 (en) 2010-07-22 2018-01-02 Samsung Electronics Co., Ltd Apparatus and method for providing augmented reality service using sound

Also Published As

Publication number Publication date
KR20090093531A (en) 2009-09-02

Similar Documents

Publication Publication Date Title
US20170047073A1 (en) Media synchronisation system
RU2624549C2 (en) Watermark signal generation and embedding watermark
Liu et al. Authentication and recovery algorithm for speech signal based on digital watermarking
AU2013332371B2 (en) Methods and apparatus to perform audio watermark detection and extraction
CN106716527B (en) Noise suppression system and method
KR100964096B1 (en) System and method of extracting supplement information from acoustic signal
JP2008256948A (en) Device for embedding information in sound signal and device for extracting information from sound signal
KR100929961B1 (en) System and method for inserting additional information into sound signal
US9312893B2 (en) Systems, methods and devices for electronic communications having decreased information loss
US9824694B2 (en) Data carriage in encoded and pre-encoded audio bitstreams
KR101592518B1 (en) The method for online conference based on synchronization of voice signal and the voice signal synchronization process device for online conference and the recoding medium for performing the method
KR101946471B1 (en) Apparatus and method for synchronizing video and audio
Zhang et al. An audio covert communication system for anolog channels
Shafi et al. A novel audio steganography scheme using amplitude differencing
JP2009025324A (en) Device for embedding information in sound signal and device for extracting information from sound signal
Xiong et al. Optimized SS-based Audio Watermarking System Using Partial Embedding Method
Nishimura Data hiding in speech sounds using subband amplitude modulation robust against reverberations and background noise
KR102150639B1 (en) Device of audio data for verifying the integrity of digital data and Method of audio data for verifying the integrity of digital data
KR101833463B1 (en) Audio signal quality improvement system and method thereof
Piotrowski et al. Using drift correction modulation for steganographic radio transmission
Yun et al. Spectral magnitude adjustment for MCLT-based acoustic data transmission
JP2009025400A (en) Device for embedding information in sound signal and device for extracting information from sound signal
Cho et al. Spectral magnitude adjusted data hiding in mclt domain of audio signal for robust acoustic data transmission

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130610

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140610

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150609

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160503

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180530

Year of fee payment: 9