KR20150049411A - Broadcasting method and system using inaudible sound and Mixer - Google Patents

Broadcasting method and system using inaudible sound and Mixer Download PDF

Info

Publication number
KR20150049411A
KR20150049411A KR1020130129951A KR20130129951A KR20150049411A KR 20150049411 A KR20150049411 A KR 20150049411A KR 1020130129951 A KR1020130129951 A KR 1020130129951A KR 20130129951 A KR20130129951 A KR 20130129951A KR 20150049411 A KR20150049411 A KR 20150049411A
Authority
KR
South Korea
Prior art keywords
sound
signal
metadata
sound wave
audible range
Prior art date
Application number
KR1020130129951A
Other languages
Korean (ko)
Other versions
KR101519493B1 (en
Inventor
김태현
Original Assignee
주식회사 사운들리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 사운들리 filed Critical 주식회사 사운들리
Priority to KR1020130129951A priority Critical patent/KR101519493B1/en
Priority to PCT/KR2014/003974 priority patent/WO2014178691A1/en
Publication of KR20150049411A publication Critical patent/KR20150049411A/en
Application granted granted Critical
Publication of KR101519493B1 publication Critical patent/KR101519493B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/44Arrangements characterised by circuits or components specially adapted for broadcast
    • H04H20/46Arrangements characterised by circuits or components specially adapted for broadcast specially adapted for broadcast systems covered by groups H04H20/53-H04H20/95
    • H04H20/47Arrangements characterised by circuits or components specially adapted for broadcast specially adapted for broadcast systems covered by groups H04H20/53-H04H20/95 specially adapted for stereophonic broadcast systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/53Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers
    • H04H20/61Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers for local area broadcast, e.g. instore broadcast

Abstract

Disclosed is a guidance broadcasting method for outputting a sound through speakers installed in a noise area which includes the steps of: generating meta data which is related to the sound outputted through the speaker from a sound signal before a sound signal is outputted through at least one speaker among the speakers installed in the noise area; converting the meta data into an inaudible sound signal; and generating a mixing signal by mixing the sound signal with the meta data which is converted into the inaudible sound signal.

Description

비가청 대역의 음파를 이용한 방송방법, 방송시스템, 및 이에 사용되는 믹서{Broadcasting method and system using inaudible sound and Mixer} TECHNICAL FIELD [0001] The present invention relates to a broadcasting method using a sound wave of a non-audible range, a broadcasting system, and a mixer used therein,

본 발명은 비가청 대역의 음파를 이용한 방송방법, 방송시스템, 및 이에 사용되는 믹서에 관한 것이다.The present invention relates to a broadcasting method using a sound wave in a non-audible band, a broadcasting system, and a mixer used therein.

현재 전관 방송시스템, 대중교통 내에 안내 방송시스템, TV 출력을 위한 방송시스템 등의 다양한 방송시스템이 음향으로 정보를 전달하는데 사용되고 있다.Currently, various broadcasting systems such as a public address system, an announcement system in public transit, and a broadcast system for TV output are used to transmit information by sound.

하지만, 종래 구축되어 사용되는 음향 전달을 위한 방송시스템은 (i) 그 정보의 전달하는 대상이 해당 음향을 잘 들을 수 있고, (ii) 해당 언어를 잘 이해할 수 있으며, (iii) 방송시스템의 출력에 주목하고 있는 사람으로 한정되어 있어서, 그 정보의 전달이 한정되고 있다. 예를 들어 외국인, 청각장애인, 방송시스템의 내용이 출력되는 스피커에서 거리가 먼곳에 위치한 사람 혹은 주변 소음이 큰 곳에 위치한 사람에게는 그 정보 전달이 어렵다.However, the broadcasting system for sound transmission which is conventionally constructed and used has a problem that (i) the object to which the information is transmitted can hear the sound well, (ii) it can understand the language well, and (iii) , And the delivery of the information is limited. For example, it is difficult for a foreigner, a hearing-impaired person, or a speaker outputting the contents of a broadcasting system to transmit information to a person located at a remote location or a person located at a place with a large background noise.

또한, 수많은 종류의 스마트기기가 도입될 것으로 예상되는 상황에서, 방송시스템을 통해 출력된 정보의 내용이 스마트기기에게는 전달되기가 어려워서 해당 정보를 활용하여 사용자에게 높은 가치의 서비스를 제공해주기가 어렵다.In addition, in a situation where a large number of smart devices are expected to be introduced, it is difficult to transmit the contents of the information output through the broadcasting system to the smart device, and it is difficult to provide a high value service to the user by utilizing the information.

뿐만 아니라, 차량의 방송시스템의 경우, 방송시스템을 통하여 음향으로 위치정보를 전달하고 있지만, 방송시스템과 연결되는 부가 장치에게 위치정보를 주기 위해서는 별도의 인터페이스를 해야 한다. 보통 대형 차량의 경우 각 국가별로 그 차량 내 기기간의 통신 인터페이스가 다르기 때문에, 부가 장치는 다양한 인터페이스를 지원해야 하는 어려움이 있다.In addition, in the case of a vehicle broadcasting system, although the location information is transmitted through a broadcasting system to sound, a separate interface is required to provide position information to an additional apparatus connected to the broadcasting system. In general, in case of a large-sized vehicle, communication interfaces between the in-vehicle devices are different in each country, and thus it is difficult for the additional device to support various interfaces.

(특허문헌 1) 한국 특허공개번호 10-2006-0095346호 (이동통신 단말기에서 음성 인식을 이용한 목적지 알림 시스템 및 방법)(Patent Document 1) Korean Patent Laid-Open Publication No. 10-2006-0095346 (destination notification system and method using voice recognition in mobile communication terminal)

(특허문헌 2) 한국 특허공개번호 10-2011-0087742호 (청각 장애인을 위한 수화 통역 시스템, 그 장치 및 방법)(Patent Document 2) Korean Patent Laid-Open No. 10-2011-0087742 (Sign Language Interpretation System for the Deaf, apparatus and method thereof)

본 발명의 일 실시예에 따르면, 비가청 대역의 음파를 이용한 안내 방송방법, 안내 방송시스템, 및 이에 사용되는 믹서가 제공될 수 있다. According to an embodiment of the present invention, there can be provided an announcement method, an announcement system, and a mixer used in the announcement method using a sound wave in the non-audible range.

본 발명의 다른 실시예에 따르면, 비가청 대역의 음파를 이용한 방송방법, 방송 시스템, 및 이에 사용되는 믹서가 제공될 수 있다. According to another embodiment of the present invention, a broadcasting method using a sound wave of a non-audible range, a broadcasting system, and a mixer used therefor can be provided.

본 발명의 일 실시예에 따르면, 소음 영역에 설치된 스피커들을 통해서 음향을 출력하는 방송방법에 있어서,According to an embodiment of the present invention, there is provided a broadcasting method for outputting sound through speakers installed in a noise region,

음향 신호를 상기 소음 영역에 설치된 스피커들 중 적어도 하나의 스피커를 통해서 출력하기 전에, 상기 음향 신호로부터 메타 데이터-상기 스피커를 통해서 출력되는 음향과 연관된 것임-를 생성하는 단계;Generating metadata from the sound signal, which is associated with sound output through the speaker, before outputting the sound signal through at least one of the speakers installed in the noise region;

상기 메타 데이터를 비가청 대역의 음파 신호로 변환하는 단계;Converting the metadata into a sound wave signal of a non-audible range;

상기 비가청 대역의 음파 신호로 변환된 메타 데이터와 상기 음향 신호를 믹싱하여 믹싱 신호를 생성하는 단계;를 포함하며,Mixing the audio signal converted into the sound signal of the non-audible range with the sound signal to generate a mixing signal,

상기 믹싱 신호가, 상기 스피커를 통해서 출력되는 것을 특징으로 하는 방송방법이 제공될 수 있다.And the mixing signal is output through the speaker.

본 발명의 일 실시예에 따른 방송방법은,According to an embodiment of the present invention,

상기 메타 데이터를 생성하는 단계 이전에, 상기 음향 신호에 비가청 대역의 음파 데이터가 포함되어 있는지 여부를 판단하는 단계;를 더 포함하며, Determining whether the acoustic signal includes acoustic wave data in a non-audible range before the step of generating the metadata,

상기 음향 신호에 비가청 대역의 음파 데이터-'기존 비가청 대역의 음파 데이터'라고 함-가 포함되어 있지 않은 경우에, 상기 메타 데이터를 생성하는 단계를 수행하는 것일 수 있다.  The step of generating the metadata may include performing a step of generating the metadata when the acoustic signal does not include the acoustic wave data of the non-audible range - the sound wave data of the existing non-audible range.

본 발명의 일 실시예에 따른 방송방법은,According to an embodiment of the present invention,

상기 음향 신호에 기존 비가청 대역의 음파 데이터가 포함되어 있는 경우, 기존 비가청 음파 데이터를 유지 또는 변경할지 여부를 판단하는 단계;를 더 포함할 수 있다.And determining whether to maintain or change existing non-audible sound data when the sound signal includes sound wave data of an existing non-audible range.

본 발명의 일 실시예에 따른 방송방법은,According to an embodiment of the present invention,

상기 기존 비가청 대역의 음파 데이터를 변경할 것으로 판단한 경우, 기존 비가청 대역의 음파 데이터를 삭제하는 단계;를 더 포함하며,And deleting the sound wave data of the existing non-audible range when it is determined to change the sound wave data of the existing non-audible range,

상기 믹싱 신호를 생성하는 단계는, 상기 음파 신호로 변환하는 단계에서 변환된 비가청 대역의 음파 데이터와, 상기 기존 비가청 대역의 음파 데이터가 삭제된 음향 신호를 믹싱하는 단계일 수 있다.The generating of the mixing signal may be a step of mixing the sound wave data of the non-audible range converted in the step of converting the sound signal into the sound signal of which the sound wave data of the existing non-audible range is deleted.

본 발명의 일 실시예에 따른 방송방법은,According to an embodiment of the present invention,

상기 스피커로 출력하기 전의 음향 신호를 입력단이 수신하는 단계;를 더 포함하며,And receiving an acoustic signal before being output to the speaker,

상기 입력단에 의해 수신된 음향 신호로부터 상기 메타 데이터가 생성되며, 그리고 The metadata is generated from the acoustic signal received by the input, and

상기 입력단에 의해 입력 받은 음향 신호는, 바이패스 경로를 통해서, 상기 믹싱 신호를 생성하는 단계로 제공되며,Wherein the acoustic signal input by the input terminal is provided to generate the mixing signal through a bypass path,

상기 바이패스 경로는, 상기 메타 데이터를 생성하는 단계와, 상기 메타 데이터를 비가청 대역의 음파 신호로 변환하는 단계를 우회하는 경로일 수 있다.The bypass path may be a path that bypasses the step of generating the metadata and the step of converting the metadata into an audio signal of an invisible band.

본 발명의 일 실시예에 따른 방송방법은,According to an embodiment of the present invention,

상기 믹싱 신호가 상기 스피커를 통해서 출력된 후, 상기 비가청 대역의 음파 신호로 변환된 메타 데이터를, 소정의 시간 간격으로 상기 스피커를 통해서 지속적으로 출력하는 단계;를 더 포함할 수 있다. And continuously outputting the metadata converted into the sound wave signal of the non-audible range through the speaker at predetermined time intervals after the mixing signal is outputted through the speaker.

본 발명의 일 실시예에 따르면, 외부로 음향을 출력하는 음향시스템에 사용되는 믹서로서,According to an embodiment of the present invention, there is provided a mixer for use in an acoustic system for outputting sound to the outside,

음향 신호를 상기 외부로 출력하기 전에, 상기 음향 신호로부터 음향을 인식하여 메타 데이터-상기 외부로 출력되는 음향과 연관된 것임-를 생성하는 음향인식엔진;A sound recognition engine for recognizing sound from the sound signal and outputting the meta data, which is related to the sound outputted to the outside, before outputting the sound signal to the outside;

상기 메타 데이터를 비가청 대역의 음파 신호로 변환하는 음파생성엔진;A sound wave generating engine for converting the metadata into a sound wave signal in an audible range;

상기 비가청 대역의 음파 신호와 상기 음향 신호를 믹싱한 믹싱신호를 생성하는 결합부;를 포함하는 믹서가 제공될 수 있다. And a combiner for generating a mixing signal obtained by mixing the sound signal of the non-audible range with the sound signal.

상기 음향인식엔진은, 상기 음향 신호에 비가청 대역의 음파 데이터가 포함되어 있는지 여부를 판단하며, 상기 음향 신호에 비가청 대역의 음파 데이터-'기존 비가청 대역의 음파 데이터'라고 함-가 포함되어 있지 않은 경우에, 상기 메타 데이터를 생성하는 것일 수 있다.The sound recognition engine determines whether or not the sound signal includes sound wave data in a non-audible range, and the sound signal includes sound wave data in a non-audible range - 'sound wave data in a conventional non-audible range' If not, the metadata may be generated.

상기 음향인식엔진은, 상기 음향 신호에 기존 비가청 대역의 음파 데이터가 포함되어 있는 경우, 기존 비가청 음파 데이터를 유지 또는 변경할지 여부를 판단하는 것일 수 있다.The acoustic recognition engine may be configured to determine whether to maintain or change existing non-audible sound data when the acoustic signal includes sound wave data of an existing non-audible range.

본 발명의 일 실시예에 따른 믹서는,A mixer according to an embodiment of the present invention includes:

상기 기존 비가청 대역의 음파 데이터를 변경할 것으로 판단된 경우, 기존 비가청 대역의 음파 데이터를 삭제하는 필터;를 더 포함하며,And a filter for deleting the sound wave data of the existing non-audible range when it is determined to change the sound wave data of the existing non-audible range,

상기 결합부는, 상기 음파생성엔진이 변환한 비가청 대역의 음파 데이터와, 상기 필터에 의해 기존 비가청 대역의 음파 데이터가 삭제된 음향 신호를 믹싱하는 것일 수 있다.The combining unit may mix the sound wave data of the non-audible range converted by the sound wave generating engine with the sound signal whose sound wave data of the existing non-audible range is deleted by the filter.

상기 음파생성엔진은, 상기 믹싱 신호가 상기 외부로 출력된 후, 상기 비가청 대역의 음파 신호로 변환된 메타 데이터를, 소정의 시간 간격으로 상기 결합부로 출력하며,Wherein the sound wave generating engine outputs the metadata converted into the sound wave signal of the non-audible frequency band to the combining unit at predetermined time intervals after the mixing signal is output to the outside,

상기 결합부는 상기 소정의 시간 간격으로 수신되는 메타 데이터를 상기 스피커로 출력하는 일 수 있다.And the combining unit may output the metadata received at the predetermined time interval to the speaker.

본 발명의 일 실시예에 따른 믹서는,A mixer according to an embodiment of the present invention includes:

상기 외부로 출력하기 전의 음향 신호를 입력받을 수 있는 입력단;An input terminal capable of receiving an acoustic signal before being output to the outside;

상기 결합부에 의해 생성한 믹싱신호를 입력받아 상기 외부로 출력할 수 있는 출력단; 및An output terminal receiving the mixing signal generated by the coupling unit and outputting the mixed signal to the outside; And

상기 입력단을 통해서 입력받은 음향 신호가 상기 결합부로 이동할 수 있는 경로를 제공하는 바이패스 경로;를 더 포함하는 일 수 있다.And a bypass path for providing a path through which the acoustic signal received through the input terminal can move to the coupling unit.

상기 결합부는, 상기 바이패스 경로를 통해서 음향 신호를 입력받고, 이렇게 입력받은 입향신호로부터 상기 음파생성엔진에 의해 생성된 믹싱신호가 상기 음파생성엔진으로부터 입력되지 않는 경우에, 상기 입력단을 통해서 입력받은 음향 신호를 그대로 출력하는 것일 수 있다.Wherein when the mixing signal generated by the sound wave generating engine is not input from the sound wave generating engine, the combining unit receives the sound signal through the bypass path, It may be to output the acoustic signal as it is.

상기 결합부가, 시각 T1 에 음향신호('제1음향신호'라고 함)를 입력받고, 소정시간 경과 후 시각 T2에 음향신호('제2음향신호'라고 함)를 입력받는 경우, When the combining unit receives the sound signal (referred to as 'first sound signal') at time T1 and receives the sound signal (referred to as 'second sound signal') at time T2 after a predetermined time elapses,

상기 결합부는, The coupling portion

상기 제1음향신호와 상기 음파생성엔진에 의해 상기 제1음향신호로부터 생성된 메타 데이터를 믹싱하여 믹싱신호('제1믹싱신호'라고 함)를 생성하여 상기 출력단으로 출력하고, 그리고Mixes the first sound signal and the metadata generated from the first sound signal by the sound wave generating engine to generate a mixing signal (referred to as a 'first mixing signal') to output to the output stage, and

상기 제2음향신호와 상기 음파생성엔진에 의해 상기 제2음향신호로부터 생성된 메타 데이터를 믹싱하여 믹싱신호('제2믹싱신호'라고 함)를 생성하여 상기 출력단으로 출력하며, Mixes the second sound signal and the metadata generated from the second sound signal by the sound wave generating engine to generate a mixing signal (referred to as a 'second mixing signal') and outputs the mixed signal to the output terminal,

상기 결합부는The coupling portion

상기 제1믹싱신호를 출력하고 상기 제2음향신호로부터 생성된 비가청 대역의 음파신호를 입력받기 전의 시간 동안에는, 상기 제1음향신호로부터 생성된 메타데이터를 상기 출력단으로 소정의 시간간격으로 출력하는 것일 수 있다.And outputs the first mixed signal to the output terminal at a predetermined time interval during a time before the acoustic signal of the non-audible range generated from the second acoustic signal is received Lt; / RTI >

본 발명의 일 실시예에 따른 믹서는,A mixer according to an embodiment of the present invention includes:

i) GPS, 이동통신망, 와이파이 중 적어도 하나와, ii) 관성 센서, 및 상기 음향 신호에서 인식된 음향을 이용하여, 상기 음향 신호를 수신한 위치를 추정하는 위치추정 모듈;을 더 포함하며,and a position estimation module for estimating a position at which the sound signal is received by using at least one of i) at least one of GPS, mobile communication network, and WiFi, ii) an inertia sensor, and sound recognized in the sound signal,

상기 메타 데이터는 상기 위치추정 모듈이 추정한 위치를 포함하고 있는 것일 수 있다. The metadata may include a position estimated by the position estimation module.

본 발명의 다른 실시예에 따르면, 음향을 출력하는 방송방법에 있어서,According to another embodiment of the present invention, there is provided a broadcasting method for outputting sound,

음향 신호를 외부로 출력하기 전에, 상기 음향 신호로부터 메타 데이터-상기 외부로 출력되는 음향과 연관된 것임-를 생성하는 단계;Generating metadata from the sound signal, which is associated with sound output to the outside, before outputting the sound signal to the outside;

상기 메타 데이터를 음파 신호로 변환하는 단계;Converting the metadata into a sound wave signal;

상기 비가청 대역의 음파 신호로 변환된 메타 데이터와 상기 음향 신호를 믹싱하여 믹싱 신호를 생성하는 단계; 및Mixing the audio signal converted into the sound wave signal of the non-audible range with the sound signal to generate a mixing signal; And

상기 믹싱 신호를 압축하는 단계;를 포함하는 방송방법이 제공될 수 있다.And compressing the mixing signal.

본 발명의 다른 실시예에 따른 방송방법은,According to another aspect of the present invention,

상기 메타 데이터를 생성하는 단계 이전에, 상기 음향 신호에 비가청 대역의 음파 데이터가 포함되어 있는지 여부를 판단하는 단계;를 더 포함하며, Determining whether the acoustic signal includes acoustic wave data in a non-audible range before the step of generating the metadata,

상기 음향 신호에 비가청 대역의 음파 데이터-'기존 비가청 대역의 음파 데이터'라고 함-가 포함되어 있지 않은 경우에, 상기 메타 데이터를 생성하는 단계를 수행하는 것일 수 있다. The step of generating the metadata may include performing a step of generating the metadata when the acoustic signal does not include the acoustic wave data of the non-audible range - the sound wave data of the existing non-audible range.

본 발명의 다른 실시예에 따른 방송방법은,According to another aspect of the present invention,

상기 음향 신호에 기존 비가청 대역의 음파 데이터가 포함되어 있는 경우, 기존 비가청 음파 데이터를 유지 또는 변경할지 여부를 판단하는 단계;를 더 포함하는 것일 수 있다.And determining whether to maintain or change the existing non-audible sound data when the sound signal includes sound wave data in the existing non-audible range.

본 발명의 다른 실시예에 따른 방송방법은,According to another aspect of the present invention,

상기 기존 비가청 대역의 음파 데이터를 변경할 것으로 판단한 경우, 기존 비가청 대역의 음파 데이터를 삭제하는 단계;를 더 포함하며,And deleting the sound wave data of the existing non-audible range when it is determined to change the sound wave data of the existing non-audible range,

상기 믹싱 신호를 생성하는 단계는, 상기 음파 신호로 변환하는 단계에서 변환된 비가청 대역의 음파 데이터와, 상기 기존 비가청 대역의 음파 데이터가 삭제된 음향 신호를 믹싱하는 단계일 수 잇다.The generating of the mixing signal may be a step of mixing the sound wave of the non-audible range converted in the step of converting the sound signal into the sound signal of which the sound wave data of the existing non-audible range is deleted.

본 발명의 다른 실시예에 따른 방송방법은,According to another aspect of the present invention,

상기 믹싱 신호가 상기 외부를 통해서 출력된 후, 상기 비가청 대역의 음파 신호로 변환된 메타 데이터를, 소정의 시간 간격으로 상기 외부를 통해서 지속적으로 출력하는 단계;를 더 포함하는 것일 수 있다.And continuously outputting the metadata, which is converted into the sound wave signal of the non-audible range, through the outside at predetermined time intervals after the mixing signal is outputted through the outside.

상술한 방법들 또는 믹서에 있어서,In the above-described methods or mixers,

음향과 연관된 것은, What is associated with sound,

i) 상기 스피커를 통해서 출력되는 음향의 적어도 일부를 텍스트로 변환한 것;i) converting at least a portion of the sound output through the speaker into text;

ii) 상기 스피커를 통해서 출력되는 음향의 적어도 일부와 연관된 정보를 텍스트로 변환한 것;ii) converting information associated with at least a portion of the sound output through the speaker into text;

iii) 상기 스피커를 통해서 음향의 적어도 일부와 연관된 정보를 포함하는 인터넷 주소로 변환한 것; 및iii) converting to an Internet address that includes information associated with at least a portion of the sound through the speaker; And

iv) 상기 i) 내지 iii) 중 어느 하나를 나타내는 ID; iv) an ID representing any one of i) to iii) above;

들 중에서 적어도 어느 하나일 수 있다., Or the like.

본 발명의 하나 이상의 실시예에 따르면, 기존의 방송시스템을 그대로 활용하면서도, 방송이 출력되는 곳의 소음이 매우 심하거나, 최초의 출력 정도가 낮더라도, 해당 장소에 위치한 사람들에게 필요한 정보를 정확하게 제공할 수 있다.According to one or more embodiments of the present invention, even when the existing broadcasting system is used as it is, even if the noise of the broadcast output is very severe or the initial output level is low, can do.

본 발명의 하나 이상의 실시예에 따르면, 기존의 방송시스템을 그대로 활용하면서도, 방송이 출력되는 곳에 출력되는 음향 정보를 담은 언어를 이해할 수 없는 사람(예: 외국인 및 청각장애인)에게도 필요한 정보를 정확하게 제공할 수 있다.According to one or more embodiments of the present invention, it is possible to precisely provide necessary information to a person who can not understand a language containing sound information (e.g., foreigner and hearing-impaired person) can do.

본 발명의 하나 이상의 실시예에 따르면, 기존의 방송시스템을 그대로 활용하면서도, 방송이 출력되는 시점에 해당 음향 정보가 전달되는 공간에 있는 사람이 다른 일에 집중하여 방송을 놓치더라도, 자신의 모바일 기기를 통해서 지나간 방송 내용을 확인 할 수 있다.According to one or more embodiments of the present invention, even if a person in a space in which the corresponding sound information is delivered at the time of outputting the broadcast, It is possible to confirm the broadcast contents passed through.

본 발명의 하나 이상의 실시예에 따르면, 기존의 방송시스템을 그대로 활용하면서도, 방송으로 출력되는 정보를 디지털화하여, 출력이 전달되는 공간에 위치한 다양한 스마트기기들에게 정보를 전달해 줄 수 있으며, 이로 인해 다양한 사용자 맞춤형 서비스를 제공할 수 있다.According to one or more embodiments of the present invention, it is possible to transmit information to various smart devices located in a space through which output is transmitted by digitizing information output through broadcast, while using the existing broadcasting system as it is, It is possible to provide a user-customized service.

본 발명의 하나 이상의 실시예에 따르면, 대형 차량에 부가 설치되는 장치가 위치정보가 필요한 경우, 차량의 종류 별로 상이한 위치정보 전달용 인터페이스를 구현하지 않고, 위치정보를 방송시스템의 음향을 이용하여 부가 장치에게 전달할 수 있기 때문에 부가 설치되는 장비의 호환성을 획기적으로 높일 수 있다.According to one or more embodiments of the present invention, when location information is required for a device installed in a large-sized vehicle, it is possible to implement location information transfer interfaces different for each vehicle type, It is possible to greatly enhance the compatibility of the equipment to be installed.

도 1은 발명의 일 실시예에 따른 믹서를 이용한 안내 방송시스템을 설명하기 위한 도면이고,
도 2는 본 발명의 일 실시예에 따른 믹서에서 출력되는 신호를 설명하기 위한 도면이고,
도 3은 본 발명의 일 실시예에 따른 방송방법을 설명하기 위한 도면이고,
도 4는 본 발명의 일 실시예에 따른 안내 방송시스템을 사용한 예를 설명하기 위한 도면이고,
도 5는 본 발명의 일 실시예에 따른 믹서를 이용한 방송시스템을 설명하기 위한 도면이고,
도 6은 본 발명의 일 실시예에 따른 믹서를 설명하기 위한 도면이고,
도 7은 본 발명의 다른 실시예에 따른 방송방법을 설명하기 위한 도면이고,
도 8은 비가청 주파수 대역을 설명하기 위한 도면이다.
FIG. 1 is a view for explaining an announcement broadcasting system using a mixer according to an embodiment of the present invention, and FIG.
2 is a view for explaining a signal output from a mixer according to an embodiment of the present invention,
3 is a diagram for explaining a broadcasting method according to an embodiment of the present invention,
FIG. 4 is a diagram for explaining an example of using the announcement broadcasting system according to an embodiment of the present invention,
5 is a diagram for explaining a broadcasting system using a mixer according to an embodiment of the present invention,
6 is a view for explaining a mixer according to an embodiment of the present invention,
7 is a view for explaining a broadcasting method according to another embodiment of the present invention,
8 is a diagram for explaining a non-audible frequency band.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features, and advantages of the present invention will become more readily apparent from the following description of preferred embodiments with reference to the accompanying drawings. However, the present invention is not limited to the embodiments described herein but may be embodied in other forms. Rather, the embodiments disclosed herein are provided so that the disclosure can be thorough and complete, and will fully convey the scope of the invention to those skilled in the art.

본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다. 또한, 도면들에 있어서, 구성요소들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다.In this specification, when an element is referred to as being on another element, it may be directly formed on another element, or a third element may be interposed therebetween. Further, in the drawings, the thickness of the components is exaggerated for an effective description of the technical content.

본 명세서에서 제1, 제2 등의 용어가 구성요소들을 기술하기 위해서 사용된 경우, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 여기에 설명되고 예시되는 실시예들은 그것의 상보적인 실시예들도 포함한다.Where the terms first, second, etc. are used herein to describe components, these components should not be limited by such terms. These terms have only been used to distinguish one component from another. The embodiments described and exemplified herein also include their complementary embodiments.

본원의 상세한 설명 및/또는 청구범위에서 구성요소 A와 구성요소 B가 서로 연결(또는 접속 또는 체결 또는 결합)되어 있다는 표현은 구성요소 A와 구성요소 B가 직접 연결되거나 또는 다른 하나 이상의 구성요소의 매개에 의해 연결되는 것을 포함하는 의미로 사용된다.The expression that component A and component B are connected (or connected or fastened or coupled) to each other in the description and / or claims of the present application means that component A and component B are directly connected or that one or more of the other components Quot; is used in the meaning including to be connected by an intermediary.

또한, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.Also, terms used herein are for the purpose of illustrating embodiments and are not intended to limit the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms "comprises" and / or "comprising" used in the specification do not exclude the presence or addition of one or more other elements.

이하, 도면을 참조하여 본 발명을 상세히 설명하도록 한다. 아래의 특정 실시예들을 기술하는데 있어서, 여러 가지의 특정적인 내용들은 발명을 더 구체적으로 설명하고 이해를 돕기 위해 작성되었다. 하지만 본 발명을 이해할 수 있을 정도로 이 분야의 지식을 갖고 있는 독자는 이러한 여러 가지의 특정적인 내용들이 없어도 사용될 수 있다는 것을 인지할 수 있다. 어떤 경우에는, 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는 데 있어 별 이유 없이 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다. Hereinafter, the present invention will be described in detail with reference to the drawings. In describing the specific embodiments below, various specific details have been set forth in order to explain the invention in greater detail and to assist in understanding it. However, it will be appreciated by those skilled in the art that the present invention may be understood by those skilled in the art without departing from such specific details. In some instances, it should be noted that portions of the invention that are not commonly known in the description of the invention and are not significantly related to the invention do not describe confusing reasons for explaining the present invention.

도 1은 발명의 일 실시예에 따른 믹서를 이용한 방송시스템을 설명하기 위한 도면이다.1 is a view for explaining a broadcasting system using a mixer according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 믹서를 이용한 방송시스템(100)은, 음원(또는 '음향 데이터'라고도 함)을 저장하는 저장부(10), 디지털 데이터를 아날로그 신호로 전환하는 DAC(20), 믹서(30), 믹서(30)로부터 출력되는 신호를 증폭하는 앰프(AMP)(40), 및 앰프(40)로부터 출력되는 신호를 외부에 음향으로 출력하는 스피커(50)를 포함할 수 있다. Referring to FIG. 1, a broadcasting system 100 using a mixer according to an embodiment of the present invention includes a storage unit 10 for storing a sound source (also referred to as 'sound data'), An amplifier (AMP) 40 for amplifying a signal output from the DAC 20, the mixer 30 and the mixer 30 and a speaker 50 for outputting a signal output from the amplifier 40 to the outside acoustically, . ≪ / RTI >

본 실시예에서, 스피커(50)는 한 개로 도시되어 있지만, 복수 개로도 구성될 수 있음을 당업자는 이해할 수 있을 것이다. 또한, 본원 명세서에서, 믹서(30)가 믹싱 신호를 스피커(50)로 출력한다고 언급하고 있는 경우, 앰프(40)를 명시적으로 언급하지 않더라도 앰프(40)를 통해서 증폭된 후 스피커(50)를 통해서 출력되는 것으로 이해하여야 한다. In this embodiment, although the speaker 50 is shown as one, it will be understood by those skilled in the art that a plurality of the speakers 50 can also be configured. In the present specification, when the mixer 30 refers to outputting the mixing signal to the speaker 50, even if the amplifier 40 is not explicitly mentioned, it is amplified through the amplifier 40, As shown in FIG.

저장부(10)에 저장된 음원은 음성을 녹음한 파일 또는 노래 파일과 같이 스피커를 통해서 음향으로 출력될 수 있는 임의의 데이터를 의미한다. The sound source stored in the storage unit 10 means any data that can be output as sound through a speaker, such as a file or a song file in which a sound is recorded.

DAC(20)는 음원을 스피커(50)에서 출력가능한 전기적 신호로 변환한다. 본원 명세서에서는, 설명의 목적을 위해서, 전기적 신호로 변환된 음원 (또는 음향 데이터)를 음향 신호라고 부르기로 한다. The DAC 20 converts the sound source into an electrical signal that can be output from the speaker 50. In the present specification, for the purpose of explanation, a sound source (or sound data) converted into an electrical signal will be referred to as an acoustic signal.

믹서(30)는 DAC(20)에 의해 출력된 아날로그 형태의 음향 신호를 입력받아서, 소정의 믹싱 동작을 수행한다. The mixer 30 receives the analog sound signal output by the DAC 20 and performs a predetermined mixing operation.

본 발명의 일 실시예에 따르면, 믹서(30)는, DAC(20)로부터 출력된 음향 신호를 스피커(50)로 출력하기 전에, DAC(20)로부터 출력된 음향 신호로부터 음향을 인식하여 메타 데이터- 스피커로 출력되는 음향과 연관된 것임-를 생성하고, 여기서 생성된 메타 데이터를 비가청 대역의 음파 신호로서 변환하며, 비가청 대역의 음파 신호로서 변환된 메타 데이터를 음향 신호와 믹싱한 믹싱신호를 생성할 수 있다. The mixer 30 recognizes the sound from the acoustic signal output from the DAC 20 before outputting the acoustic signal output from the DAC 20 to the speaker 50, - a sound signal which is related to the sound output from the speaker, converts the generated metadata into a sound signal of the non-audible spectrum, and mixes the sound signal of the non-audible spectrum with the sound signal Can be generated.

한편, 본 발명의 일 실시예에 따르면, 외부로 출력되는 음향과 연관된 것은On the other hand, according to an embodiment of the present invention,

i) 외부로 출력되는 음향의 적어도 일부를 텍스트로 변환한 것; i) converting at least a portion of the sound output to the outside into text;

ii) 외부로 출력되는 음향의 적어도 일부와 연관된 정보를 텍스트로 변환한 것;ii) converting information associated with at least a portion of the sound output to the outside into text;

iii) 외부로 출력되는 음향의 적어도 일부와 연관된 정보를 포함하는 인터넷 주소로 변환한 것;iii) converted to an Internet address containing information associated with at least a portion of the sound output to the outside;

iv) 상기 i) 내지 iii) 중 어느 하나를 나타내는 고유 ID;iv) a unique ID indicating any one of i) to iii) above;

중에서 적어도 어느 하나일 수 있다.
Or the like.

i) 의 예를 들면, 외부로 출력되는 음향이 "안녕하세요, 다음역은 신촌역입니다. 다음역에 내리실 분은 오른쪽 문을 이용하시기 바랍니다"하고 할 때, 메타 데이터는 "다음역은 신촌역, 오른쪽문 이용"를 의미하는 텍스트일 수 있다. For example, in the case of i), when the sound output to the outside is "Hello, the next station is Shinchon station. If you want to get off at the next station, please use the right door" Quot; use ".

ii) 의 예를 들면, 외부로 출력되는 음향이 "안녕하세요, 다음역은 서울역입니다. 다음역에 내리실 분은 오른쪽 문을 이용하시기 바랍니다"하고 할 때, 메타 데이터는 "다음역은 서울역, 오른쪽문 이용, 서울역의 1번출구로 나가면 KTX 역사가 있음"를 의미하는 텍스트일 수 있다. ii) For example, when the sound output to the outside is "Hello, the next station is Seoul station, please use the right door for the next station." Metadata is " If you go to exit 1 of Seoul Station, there is KTX history ".

iii) 의 예를 들면, 외부로 출력되는 음향이 "안녕하세요, 다음역은 서울역입니다. 다음역에 내리실 분은 오른쪽 문을 이용하시기 바랍니다"하고 할 때, 예를 들면 메타 데이터는 "http://www.arex.or.kr/"를 의미하는 텍스트일 수 있다(여기서, 는 서울역을 소개하는 URL임).For example, in the case of iii), when the sound output to the outside is "Hello, the next station is Seoul station, please use the right door for the next station." For example, www.arex.or.kr/ "(where is the URL that introduces Seoul Station).

iv) 의 예를 들면, "안녕하세요, 다음역은 서울역입니다. 다음역에 내리실 분은 오른쪽 문을 이용하시기 바랍니다"하고 할 때, 예를 들면 메타 데이터는 '0031'과 같은 ID일 수 있다. 여기서, ID '0031'은 예시적인 것으로서, 서버(미도시)가 '0031'에 "다음역은 서울역, 오른쪽문 이용, 서울역의 1번출구로 나가면 KTX 역사가 있음"와 같은 정보를 맵핑하여 저장하여 관리하고 있을 수 있다.iv) For example, "Hello, the next station is Seoul Station. If you are going to come to the next station, please use the right door." For example, the metadata may be an ID such as '0031'. Here, the ID '0031' is an example, and the server (not shown) maps and stores information such as " 0031 ", " KTX history exists when the next station goes to Seoul station, .

이상 설명한 메타 데이터의 예들에서는 역을 예로 들어 설명하였지만, 본원 발명에서의 메타 데이터는 역에 한정될 필요가 없을 것이다. 예를 들면, 외부로 출력되는 음향이 "비상 사태입니다. 화재가 났으니 천천히 대피하여 주세요"와 같은 긴급 방송의 경우, 메타 데이터는, 위치 추정부(35)로부터 제공받은 위치 정보와, 그러한 위치 정보를 이용하여 현재 위치에서의 대피 경로를 안내하는 것일 수 있다. While the above examples of metadata have been described by way of example, the metadata in the present invention need not be limited to the reverse. For example, in the case of an emergency broadcast such as an emergency, the sound output to the outside is an emergency state, such as "It is an emergency, so please evacuate slowly because of a fire", the metadata is generated based on the positional information provided by the positional estimation unit 35, Information may be used to guide the evacuation route at the current location.

즉, 음향인식엔진(33)은, '비상' 또는 '화재'와 같은 긴급을 의미하는 음향이, 음향 신호에 포함되어 있다고 판단되면, 현재 위치와 대피 경로를 의미하는 메타 데이터를 생성할 수 있다. That is, the sound recognition engine 33 can generate metadata indicating the current position and the evacuation path if it is determined that the sound signal indicating emergency such as 'emergency' or 'fire' is included in the sound signal .

한편, 본원 명세서에서, 용어 '외부'는 예를 들면 스피커 또는 전송부와 같은 장치들일 수 있으나, 이들에 한정되지 않는다. 용어 '외부'는 넓은 의미로는 믹서(30)로부터 출력되는 신호를 받는 임의의 장치를 의미한다.Meanwhile, in this specification, the term 'external' may be, but not limited to, devices such as, for example, a speaker or a transmission unit. The term " external " means, in a broad sense, any device that receives a signal output from the mixer 30.

본 발명의 일 실시예에 따르면, 믹서(30)는, 믹싱 신호를 스피커(50)로 출력한 이후, DAC(20)로부터 다른 음향 신호가 수신되어 새로운 비가청 대역의 음파 신호로 변환된 메타 데이터가 제공될 때까지, 비가청 대역의 음파 신호로 변환된 메타 데이터를, 소정의 시간 간격으로 스피커(50)로 계속 출력할 수 있다. 이러한 동작에 대하여 도 2를 참조하여 보다 상세히 설명하기로 한다. According to an embodiment of the present invention, the mixer 30 outputs the mixed signal to the speaker 50, and then receives another acoustic signal from the DAC 20 and outputs the converted metadata to the sound wave signal of the new non- It is possible to continue outputting the metadata converted into the sound wave signal of the non-audible range to the speaker 50 at predetermined time intervals until the audio signal is provided. This operation will be described in more detail with reference to FIG.

도 2는 본 발명의 일 실시예에 따른 믹서(30)가, 시각 t1, t2, ... , tN, tN+1, tN+2 .. . 순서대로 출력하는 믹싱 신호를 주파수 대역상에서 나타낸 것(스펙트로그램)이다. 여기서, 시각 t1, t2, ... , tN, tN+1, tN+2 .. . 들 간의 간격은 일정하거나 또는 서로 같지 않을 수도 있으며, 이는 당업자가 적절하게 선택할 수 있을 것이다.FIG. 2 is a block diagram of a mixer 30 according to an embodiment of the present invention, at times t 1 , t 2 , ..., t N , t N + 1 , t N + 2 . (Spectrogram) of the mixing signal outputted in order in the frequency band. Here, the times t 1 , t 2 , ..., t N , t N + 1 , t N + 2 . May be constant or may not be equal to one another, and may be suitably selected by those skilled in the art.

도 2를 참조하면, 믹서(30)는 시각 t1에 음향 신호(S1)(이하, '제1 음향 신호')와 메타 데이터(M1)(이하, '제1 메타 데이터')를 믹싱한 신호를 출력한다. 여기서, 제1 메타 데이터는, 제1 음향 신호를 인식하여 이로부터 생성된 메타 데이터이다.2, the mixer 30 mixes a signal to the sound signal (S1) (hereinafter "first acoustic signal") and the metadata (M1) (hereinafter, the first meta data ") to the time t 1 . Here, the first metadata is metadata generated by recognizing the first acoustic signal.

소정 시각 t2가 되면 믹서(30)는, 제1 메타 데이터(M1)를 스피커(50)로 출력한다. When the predetermined time t 2 the mixer 30 outputs a first metadata (M1) to the speaker (50).

이런 방식으로, 소정 시각이 될 때마다, 믹서(30)는 제1 메타 데이터(M1)를 스피커(50)로 출력하며, 시각 tn이 될 때까지 수행할 수 있다. In this way, whenever the predetermined time comes, the mixer 30 outputs the first meta data M1 to the speaker 50, and can perform it until the time t n .

믹서(30)는, 시각 tn+1에서 음향 신호(S2)(이하, '제2 음향 신호')와 메타 데이터(M2)(이하, '제2 메타 데이터')를 믹싱한 신호를 출력한다. 여기서, 제2 메타 데이터는, 제2 음향 신호로부터 생성된 메타 데이터이다.The mixer 30 outputs a signal obtained by mixing the sound signal S2 (hereinafter referred to as a 'second sound signal') and the meta data M2 (hereinafter, 'second meta data') at time t n + 1 . Here, the second metadata is metadata generated from the second sound signal.

소정 시각 tN+1가 되면 믹서(30)는, 제2 메타 데이터(M2)를 스피커(50)로 출력한다. 이런 방식으로, 소정 시각이 될 때마다, 믹서(30)는 제2 메타 데이터(M2)를 스피커(50)로 출력하며, 이러한 동작은, 새로운 음향 신호(이하, '제3 음향 신호')를 수신하여 새로운 비가청 대역의 음파 신호로 변환된 메타 데이터가 제공될 때까지 수행된다. When the predetermined time becomes t N + 1 , the mixer 30 outputs the second meta data M2 to the speaker 50. In this way, each time a predetermined time is elapsed, the mixer 30 outputs the second metadata M2 to the speaker 50, and this operation causes a new sound signal (hereinafter referred to as a " third sound signal & Until the received metadata is converted into a sound wave signal of a new non-audible range.

도 2를 참조하여 설명한 것처럼, 믹서(30)는, 제1 음향 신호를 수신하면, 제1 음향신호로부터 제1 메타 데이터를 생성하고, 제1 메타 데이터와 제1 음향 신호를 믹싱하여 스피커(50)로 출력한다. 이후, 제 2 음향 신호를 수신하여 새로운 비가청 대역의 음파 신호로 변환된 메타 데이터가 제공되기 전까지는, 비가청 주파수 대역의 음파 신호로 변환된 제1 메타 데이터를 소정 시간 간격으로 반복해서 스피커(50)로 출력한다.2, the mixer 30 generates the first metadata from the first sound signal when it receives the first sound signal, mixes the first metadata with the first sound signal, . Thereafter, the first meta data converted into the sound signal of the non-audible frequency band is repeated at predetermined time intervals until the meta data converted into the sound signal of the new non-audible range is received by receiving the second sound signal, 50).

그리고, 믹서(30)는, 제2 음향 신호를 수신하면, 제2 음향신호로부터 제2 메타 데이터를 생성하고, 제2 메타 데이터와 제2 음향 신호를 믹싱하여 스피커(50)로 출력한다. 이후, 제3 음향 신호를 수신하여 새로운 비가청 대역의 음파 신호로 변환된 메타 데이터가 제공되기 전까지는, 비가청 주파수 대역의 음파 신호로 변환된 제2 메타 데이터를 소정 시간 간격으로 반복해서 스피커(50)로 출력한다. 이하, 믹서(30)는, 후속하여 수신하는 음향 신호에 대하여 같은 방식으로 동작할 수 있다. Upon receiving the second acoustic signal, the mixer 30 generates second metadata from the second acoustic signal, mixes the second metadata and the second acoustic signal, and outputs the mixed data to the speaker 50. Thereafter, the second meta data converted into the sound signal of the non-audible frequency band is repeated at a predetermined time interval until the meta data converted into the sound signal of the new non-audible range is received by receiving the third sound signal, 50). Hereinafter, the mixer 30 can operate in the same manner for the subsequently received acoustic signals.

상술한 바와 같이 동작하는 믹서(30)는, 예를 들면, 입력단(31), 출력단(32), 음향인식엔진(33), 음파생성엔진(34), 결합부(36), 및 바이패스 경로(39)를 포함하도록 구성될 수 있다. The mixer 30 that operates as described above includes an input terminal 31, an output terminal 32, an acoustic recognition engine 33, a sound wave generating engine 34, a coupling section 36, (39).

입력단(31)은, DAC(20)로부터 출력되는 음향 신호를 수신할 수 있다. The input terminal 31 can receive an acoustic signal output from the DAC 20. [

출력단(32)은 결합부(36)에 의해 믹싱된 믹싱 신호를 앰프(40)로 출력할 수 있다. The output stage 32 can output the mixing signal mixed by the combining unit 36 to the amplifier 40.

입력단(31)을 통해서 수신된 음향신호는 바이패스 경로(39)를 통해서 결합부(36)로 제공된다. 이처럼, 바이패스 경로(39)가 존재하기 때문에, 메타 데이터가 생성되지 않는 경우라도, 입력단(31)을 통해서 일단 수신된 음향신호는 앰프(40)로 출력될 수 있게 된다. 또한, 음향인식엔진(33) 혹은 음파생성엔진(34)에 문제가 생겨 동작하지 않더라도, 방송시스템의 음향이 믹서를 통과하여 앰프(40)로 출력될 수 있게 된다.The acoustic signal received through the input terminal 31 is provided to the coupling portion 36 through the bypass path 39. As described above, since the bypass path 39 exists, the acoustic signal once received through the input terminal 31 can be output to the amplifier 40 even if no metadata is generated. Further, even if the sound recognition engine 33 or the sound wave generating engine 34 has a problem, the sound of the broadcasting system can be outputted to the amplifier 40 through the mixer.

음향인식엔진(33)은, 입력단(31)에서 수신된 음향 신호 또는 바이패스 경로(39)를 통해서 결합부(36)로 입력되는 음향 신호를 분석하여 음향을 인식한다. The sound recognition engine 33 analyzes the sound signal received at the input terminal 31 or the sound signal input to the combining section 36 through the bypass path 39 to recognize the sound.

음향인식엔진(33)은, 예를 들면, 입력단(31)에서 수신된 음향 신호는 아날로그 신호의 형태이므로, 디지털 데이터의 형태로 변환한 후, 그러한 디지털 데이터에 포함된 음향을 인식한다. The sound recognition engine 33, for example, receives the sound signal received at the input terminal 31 in the form of an analog signal, converts it into digital data, and recognizes the sound included in such digital data.

음향인식엔진(33)은, 인식된 음향으로부터 메타 데이터를 생성한다. 메타 데이터는, 예를 들면The sound recognition engine 33 generates the metadata from the recognized sound. The metadata may include, for example,

i) 인식한 음향의 적어도 일부를 텍스트로 변환한 것;i) converting at least some of the recognized sounds into text;

ii) 인식한 음향의 적어도 일부와 연관된 정보를 텍스트로 변환한 것;ii) converting information associated with at least part of the recognized sound into text;

iii) 외부로 출력되는 음향의 적어도 일부와 연관된 정보를 포함하는 인터넷 주소로 변환한 것;iii) converted to an Internet address containing information associated with at least a portion of the sound output to the outside;

iv) 상기 i) 내지 iii) 중 어느 하나를 나타내는 고유 ID;iv) a unique ID indicating any one of i) to iii) above;

중에서 적어도 어느 하나일 수 있다. Or the like.

이들에 대한 보다 상세한 설명은 이전의 설명을 참조하기 바란다.
For a more detailed description of these, please refer to the previous description.

음파생성엔진(34)은, 음향인식엔진(33)에 의해 생성된 메타 데이터를 비가청 대역의 음파 신호로 변환할 수 있다. 비가청 대역에 대하여는 도 8을 참조하여 구체적으로 설명하기로 한다. The sound wave generation engine 34 may convert the metadata generated by the sound recognition engine 33 into a sound wave signal in the non-audible range. The non-audible frequency band will be described in detail with reference to FIG.

도 8을 참조하면, 비가청 대역이 빗금으로 표시되어 있다. 본원 명세서에서, 비가청 대역이라고 함은, 음파 대역 내에서 인간이 청각으로 인식할 수 없는 주파수 대역을 의미하며, 이러한 비가청 대역은 출력되는 음향의 음압의 세기에 따라서 달라진다. Referring to FIG. 8, the non-audible range is indicated by a shaded area. In the present specification, the non-audible band means a frequency band that can not be recognized by the human auditory sense in the sound band, and the non-audible band varies depending on the intensity of the sound pressure of the outputted sound.

도 8을 참조하면, 4000 Hz 근처에서는 다른 주파수보다 음압의 세기가 상대적으로 낮아도 인간이 청각으로 인식할 수 있음을 보여준다. 한편, 전반적으로 4000 Hz 근처를 기준으로 주파수가 낮아지거나 높아질수록 인간이 청각으로 인식하기 위해서는 음압의 세기가 높아져야 함을 알 수 있다. Referring to FIG. 8, it can be seen that, even if the sound pressure is relatively lower than other frequencies in the vicinity of 4000 Hz, human beings can perceive sound. On the other hand, it can be seen that as the frequency becomes lower or higher as a whole, about 4000 Hz, the intensity of the sound pressure must be increased in order for the human to perceive the sound.

따라서, 스피커(50)로부터 출력되는 음압의 세기를 고려하여, 비가청 대역이 정해져야 한다. 또, 고려해야 할 것은, 스피커(50)의 출력 범위이다. 스피커(50)의 출력 범위 이내에서 비가청 대역이 정해져야 한다.Therefore, in consideration of the intensity of the sound pressure outputted from the speaker 50, the non-audible range should be determined. Note that the output range of the speaker 50 is to be considered. The non-audible range should be determined within the output range of the speaker 50. [

즉, 스피커(50)의 출력범위와 음압의 세기를 모두 고려하여, 인간이 청각으로 인식할 수 없는 주파수 대역으로, 메타 데이터가 변환되어야 한다.That is, in consideration of both the output range of the speaker 50 and the intensity of the sound pressure, the metadata must be converted into a frequency band that can not be perceived by the human auditory sense.

결합부(36)는, 음파생성엔진(34)에 의해 비가청 대역의 음파 신호로 변환된 메타 데이터와, 바이패스 경로(39)를 통해서 입력받은 음향 신호를 믹싱하여 믹싱 신호를 생성한다. 여기서, 결합부(36)가 출력하는 믹싱 신호의 예는, 도 2의 것을 참조할 수 있다. The combining unit 36 mixes the metadata converted into the sound wave signal of the non-audible range by the sound wave generating engine 34 and the sound signal received through the bypass path 39 to generate a mixing signal. Here, an example of the mixing signal output by the combining unit 36 may be the one shown in Fig.

믹서(30)는, 예를 들면, 대중교통 차량에 설치되기 위해서, GPS 센서, 와이파이 통신부, 이동통신통신부(37) 중 적어도 하나와, 위치 추정부(35) 및 DAC(38) 를 더 포함하도록 구성될 수 있다. The mixer 30 may further include at least one of a GPS sensor, a Wi-Fi communication unit and a mobile communication communication unit 37 and a position estimation unit 35 and a DAC 38 in order to be installed in, for example, Lt; / RTI >

위치 추정부(35)는, GPS 센서, 와이파이 통신부, 이동통신통신부(37) 중 적어도 하나를 이용하여 위치를 추정할 수 있다. 여기서, 위치는, 예를 들면, 입력단(31)이 음향 신호를 수신한 시점의 위치일 수 있다. The position estimating unit 35 can estimate the position using at least one of a GPS sensor, a Wi-Fi communication unit, and a mobile communication communication unit 37. [ Here, the position may be, for example, a position at the time when the input terminal 31 receives the sound signal.

위치 추정부(35)는, 또한 도시하지는 않았지만, 관성 센서에 의해 센싱된 결과를 이용하여 위치를 추정할 수 있다. 이 경우, GPS 센서, 와이파이 통신부, 이동통신통신부(37) 중 적어도 하나와, 관성 센서에 의한 센싱 결과를 이용하여 위치를 추정할 수 있다. Although not shown, the position estimating unit 35 can estimate the position using the result sensed by the inertial sensor. In this case, the position can be estimated using at least one of the GPS sensor, the Wi-Fi communication unit, and the mobile communication communication unit 37 and the sensing result of the inertial sensor.

위치 추정부(35)는, 또한, 음향인식엔진(33)에 의해 인식된 음향을 이용하여 위치 추정을 할 수 있다. 예를 들면, 음향인식엔진(33)에 의해 인식된 음향 속에, "다음역은 강남역입니다"라는 데이터가 있으면, 위치 추정부(35)는, 현재 위치를 강남역에 도착하기 전의 어느 일 지점이라고 추정하는 데 이용할 수 있을 것이다. The position estimating unit 35 can also estimate the position using the sound recognized by the acoustic recognition engine 33. [ For example, in the sound recognized by the sound recognition engine 33, if there is data indicating "the next station is Gangnam station ", the position estimator 35 estimates the present position as a certain point before arriving at Gangnam station It can be used to do.

위치 추정부(35)에 의해 추정된 위치는, 음향인식엔진(33)으로 제공될 수 있다. 음향인식엔진(33)은 위치 추정부(35)로부터 제공받은 위치를 메타 데이터에 포함시킬 수 있다. The position estimated by the position estimating section 35 may be provided to the acoustic recognition engine 33. [ The acoustic recognition engine 33 may include the position provided from the position estimation unit 35 in the metadata.

위치 추정부(35)는, 또한, 음향인식엔진(33)에 의해 인식된 음향에 위치에 대한 정보가 없더라도, GPS 센서, 와이파이 통신부, 이동통신통신부(37) 중 적어도 하나와, 관성 센서에 의한 센싱 결과를 이용하여, 위치-예를 들면, 믹서(30) 또는 믹서(30)가 장착된 장치의 위치-를 추정할 수 있다. The position estimating unit 35 may be configured to determine whether the sound recognized by the acoustic recognition engine 33 includes at least one of the GPS sensor, the Wi-Fi communication unit, and the mobile communication communication unit 37, The sensed result can be used to estimate the position - e.g., the position of the device on which the mixer 30 or the mixer 30 is mounted.

DAC(38)는 음파생성엔진(34)에 의해 생성된 메타 데이터를 아날로그 신호로 변환한 후, 결합부(36)로 제공한다. The DAC 38 converts the metadata generated by the sound wave generation engine 34 into an analog signal, and provides the analog signal to the combining unit 36.

본 발명의 일 실시예에 따른 결합부(36)가, 시각 T1 에 음향신호('제1음향신호'라고 함)를 입력받고, 소정시간 경과 후 시각 T2에 음향신호('제2음향신호'라고 함)를 입력받는다고 가정하자.('Second sound signal') is input at time T1 after a predetermined time elapses, and the sound signal (the 'second sound signal' Quot;).

결합부(36)는, 제1음향신호와 음파생성엔진(34)에 의해 제1음향신호로부터 생성된 메타 데이터를 믹싱하여 믹싱신호('제1믹싱신호'라고 함)를 생성하여 출력단(32)으로 출력한다.The combining unit 36 mixes the first sound signal and the metadata generated from the first sound signal by the sound wave generating engine 34 to generate a mixing signal (referred to as a 'first mixing signal' .

또한, 결합부(36)는, 제2음향신호와 음파생성엔진(34)에 의해 제2음향신호로부터 생성된 메타 데이터를 믹싱하여 믹싱신호('제2믹싱신호'라고 함)를 생성하여 출력단(32)으로 출력한다.The combining unit 36 mixes the second sound signal and the metadata generated from the second sound signal by the sound wave generating engine 34 to generate a mixing signal (referred to as a 'second mixing signal'), (32).

여기서, 결합부(36)는 제1믹싱신호를 출력하고 제2음향신호를 입력받아 제2음향신호로부터 생선된 메타데이터를 입력받기 전의 시간 동안에는, 제1음향신호로부터 생성된 메타데이터를 출력단(32)으로 소정의 시간 간격으로 출력할 수 있다. Here, the combining unit 36 outputs metadata generated from the first sound signal to the output terminal (not shown) during a time period before the first mixing signal is output and the second sound signal is received and the fish metadata is input from the second sound signal, 32 at predetermined time intervals.

예를 들면, 결합부(36)는, 도 2에서 설명한 바와 같이, 비가청 대역의 음파 신호를 소정 시간 간격으로 반복적으로 출력할 수 있다. For example, as described with reference to Fig. 2, the combining unit 36 can repeatedly output the sound wave signal in the non-audible range at predetermined time intervals.

결합부(36)가 비가청 대역의 음파 신호를 소정 시간 간격으로 반복적으로 출력할 수 있는 방법은 다양하게 구현이 가능하다.A variety of methods can be implemented in which the combining unit 36 can repeatedly output the sound wave signal in the non-audible range at predetermined time intervals.

일 예를 들면, 음파생성엔진(34)이 음향인식엔진(33)으로부터 메타 데이터(제1 메타 데이터)를 수신하면, 비가청 대역의 음파 신호로 전환한 후, 음향인식엔진(33)으로부터 새로운 메타 데이터(제2 메타 데이터)를 수신할 때까지, 소정의 시간 간격으로 비가청 대역의 음파 신호로 변환된 제1 메타 데이터를 DAC(38)에게 제공하도록 구성할 수 있다. For example, when the sound wave generating engine 34 receives the meta data (first meta data) from the sound recognition engine 33, it converts it into a sound wave signal in the non-audible range, It is possible to provide the DAC 38 with the first metadata converted into the sound wave signal of the non-audible band at predetermined time intervals until the metadata (second metadata) is received.

다른 예를 들면, 음파생성엔진(34)이 음향인식엔진(33)으로부터 메타 데이터(제1 메타 데이터)를 수신하면, 비가청 대역의 음파 신호로 전환하고, 이렇게 전환된 제1 메타데이터는 DAC(38)를 통해서 결합부(36)로 입력된다. 결합부(36)는, 이후 제2 메타데이터를 수신할 때까지, DAC(38)로부터 수신한 제1 메타 데이터를 소정의 시간 간격으로 출력단(32)으로 출력할 수 있다.In other words, when the sound wave generating engine 34 receives the meta data (first meta data) from the sound recognition engine 33, the first meta data is converted to the sound wave signal of the non-audible range, (38). The combining unit 36 may output the first metadata received from the DAC 38 to the output terminal 32 at a predetermined time interval until receiving the second metadata thereafter.

도 3은 본 발명의 일 실시예에 따른 방송방법을 설명하기 위한 도면이다. 3 is a diagram for explaining a broadcasting method according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 방송방법은, 음향 신호가 외부를 통해서 출력되기 전에, 음향 신호에 메타 데이터를 믹싱하는 동작을 포함한다. 이하에서 설명될 각 단계들은, 예를 들면 도 1, 도 5, 및 도 6을 참조하여 설명한 믹서에 의해 수행될 수 있다.Referring to FIG. 3, a broadcasting method according to an embodiment of the present invention includes mixing metadata with a sound signal before the sound signal is output through the outside. Each of the steps to be described below can be performed by the mixer described with reference to Figs. 1, 5, and 6, for example.

본 발명의 일 실시예에 따른 방송방법은 외부로 출력할 음향 신호(SS)('제1 음향 신호')를 입력단(31)이 수신하는 단계(S101), S101 단계에서 입력단(31)이 수신한 제1 음향 신호에서 음향을 인식하는 단계(S103), S103 단계에서 인식한 음향으로부터 메타 데이터(MD)를 생성하는 단계(S105), S105 단계에서 생성한 메타 데이터(MD)를 비가청 대역의 음파 신호로 변환하는 단계(S107), S107 단계에서 변환된 비가청 대역의 음파 신호(CMD)와, S101 단계에서 수신한 제1 음향 신호를 믹싱하여 믹싱 신호(MS)를 생성하는 단계(S109), S109 단계에서 생성한 믹싱 신호(MS)를 외부로 출력하는 단계(S111), S111 단계에서 믹싱 신호(MS)가 외부로 출력된 이후 소정의 시간이 경과 되면, S107 단계에서 변환된 비가청 대역의 음파 신호(CMD)를 외부로 출력하는 단계(S113)를 포함할 수 있다.The broadcasting method according to an embodiment of the present invention includes a step S101 of receiving an audio signal SS ('first sound signal') to be output to the outside (S101) A step S103 of recognizing the sound in the first acoustic signal S103, a step S105 of generating the metadata MD from the sound recognized in the step S103, and a step S105 of recording the metadata MD generated in the step S105 in the non- A step S109 of mixing the sound wave signal CMD in the non-audible range converted in step S107 and the first sound signal received in step S101 to generate a mixing signal MS; (S111) of outputting the mixing signal (MS) generated in step S109 to the outside, and when a predetermined time has elapsed after the mixing signal (MS) is outputted to the outside in step S111, (S113) of outputting the sound wave signal (CMD) of the sound signal to the outside.

본 발명의 일 실시예에 따른 방송방법은, 또한, 입력단(31)이 수신한 음향 신호를, 바이패스 경로를 통해서, 믹싱 신호를 생성하는 단계(S109)로 제공하는 단계를 더 포함할 수 있다. 믹싱 신호를 생성하는 단계(S109)는 바이패스 경로를 통해서 제공되는 음향 신호와, 비가청 대역의 음파 신호로 변환된 메타 데이터를 믹싱한다.The broadcasting method according to an embodiment of the present invention may further include the step of providing the sound signal received by the input terminal 31 to a mixing signal generating step (S109) through a bypass path . The mixing signal generating step (S109) mixes the acoustic signal provided through the bypass path and the metadata converted into the sound wave signal of the non-audible range.

여기서, 바이패스 경로는, 메타 데이터를 생성하는 단계와, 메타 데이터를 비가청 대역의 음파 신호로 변환하는 단계를 우회하는 경로를 의미한다.Here, the bypass path means a path for bypassing the step of generating metadata and the step of converting the metadata into an audio signal of an invisible band.

본 발명의 일 실시예에 따른 방송방법은, 외부로 출력할 다른 음향 신호('제2 음향 신호')를 수신하거나 제2 음향 신호로부터 생성된 메타 데이터가 비가청대역의 음파로 변환된 것을 수신하는 경우이면(S115; YES) 전술한 S101 단계 이하의 동작을 반복한다.  A broadcasting method according to an embodiment of the present invention is a method of receiving another acoustic signal ('second sound signal') to be output to the outside or converting a meta data generated from a second sound signal into a sound wave of a non- (S115; YES), the operation of step S101 and subsequent steps is repeated.

제2 음향 신호가 수신되거나 또는 제2 음향 신호로부터 생성된 메타 데이터-비가청대역의 음파로 변환된 것-가 생성될 때까지(S115: N0), S107 단계에서 변환된 비가청 대역의 음파 신호(CMD)를 출력하는 동작(S113)을 반복한다. (S115: N0) in which the second acoustic signal is received or the metadata - converted from the second acoustic signal into the sound wave of the non-audible range - is generated, the sound wave signal of the non- (Step S113) of outputting the CMD.

이상과 같이 도 3에 예시적으로 설명된 방송방법은 도 1에서 설명한 방송시스템이나 도 5를 참조하여 설명할 방송시스템에 적용될 수 있다. As described above, the broadcasting method exemplified in FIG. 3 can be applied to the broadcasting system described in FIG. 1 or the broadcasting system described with reference to FIG.

한편, 도 1과 도 2를 참조하여 설명한 방송시스템의 변형예로서, 도 1과 도 2를 참조하여 설명한 방송시스템이, 마이크(미도시)를 더 포함하거나, 또는 음원을 저장하는 저장부(10)와 DAC(20) 대신에 마이크(미도시)를 포함하도록 구성되는 것이 가능하다. 이처럼, 마이크(미도시)를 포함하도록 구성된 경우에는, 마이크(미도시)를 통해서 입력된 음향 신호를, 믹서(30)가 수신하여 제동작을 수행하게 된다. 즉, 믹서(30)는 마이크(미도시)를 통해서 입력된 음향 신호를 수신하고, 이러한 음향 신호에 대하여 소정의 믹싱 동작을 수행한다. 여기서, 소정의 믹싱 동작은 도 1과 도 2를 참조하여 설명한 바와 같다.1 and 2, the broadcasting system described with reference to Figs. 1 and 2 further includes a microphone (not shown) or a storage unit 10 And a microphone (not shown) in place of the DAC 20. When the mixer 30 is configured to include a microphone (not shown), the mixer 30 receives the sound signal input through the microphone (not shown) and performs the operation. That is, the mixer 30 receives an acoustic signal input through a microphone (not shown), and performs a predetermined mixing operation on the acoustic signal. Here, the predetermined mixing operation is as described with reference to FIG. 1 and FIG.

이상과 같이 도 1과 도 2를 참조하여 설명한 방송시스템 및 그 변형예들과, 도 3을 참조하여 설명한 방송방법은, 소음이 심한 영역에 적용되는 경우에 유용할 수 있다. 즉, 지하철 역사나 버스 정류장 등과 같이 소음이 심하여 스피커로 출력되는 음향을 마이크가 인식하기 쉽지 않은 환경에도 유용하게 적용될 수 있다.As described above, the broadcasting system described with reference to FIGS. 1 and 2 and the modified examples thereof and the broadcasting method described with reference to FIG. 3 can be useful when applied to a region where noises are severe. That is, it can be effectively applied to an environment where the microphone is not easy to recognize the sound outputted from the speaker due to the noise such as the subway history or the bus stop.

또한 도 1 내지 도 3을 참조하여 설명한 방송방법은, 자국어로 방송이 되지 않는 외국인이 방송을 들을 때 유용할 수 있다. 즉, 지하철 안내 방송이나, TV 방송, 전관방송을 통한 상품 서비스 안내 등의 방송을 전달 받을 수 있다.Also, the broadcasting method described with reference to Figs. 1 to 3 may be useful when a foreigner who is not broadcasting in the native language is listening to the broadcasting. That is, it is possible to receive a broadcast such as a subway announcement broadcast, a TV broadcast, and a product service guide through a public hall broadcast.

또한 도 1 내지 도 3을 참조하여 설명한 방송방법은, 다른 곳에 집중하고 있어서 방송을 놓치는 사람들에게 유용할 수 있다. 즉, 지하철에서 음악을 듣고 있거나 친구와 얘기하고 있는 경우 방송을 놓칠 수 있으나, 반복 출력되는 음파신호로 놓친 방송을 확인할 수 있다. 다른 작업에 집중하고 있는 사람에게 중요한 재난 방송이 TV에서 출력되고 있는 사실을 알릴 수 있다. 음악을 들으며 쇼핑을 하고 있는 사람에게 응급상황에 관한 정보를 전달 할 수 있다. Also, the broadcasting method described with reference to Figs. 1 to 3 can be useful to people who miss broadcasting because they are concentrated elsewhere. In other words, if you are listening to music on the subway or talking to a friend, you can miss the broadcast, but you can see the missed broadcast with the repeated sound wave signal. It is possible to inform people that they are concentrating on other tasks that a major disaster broadcast is being output on TV. You can communicate information about emergency situations to people shopping while listening to music.

도 4는 본 발명의 일 실시예에 따른 방송시스템을 사용한 예를 설명하기 위한 도면이다. 4 is a view for explaining an example of using a broadcasting system according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시예에 따른 방송시스템(300)은 모바일 기기(200)과 연동될 수 있다. 여기서, 모바일 기기(200)는 예를 들면, 스마트폰, PDA, 노트북, 테블릿 PC 등과 같은 것이 될 수 있으나, 당업자는 본원 발명이 이러한 장치들에만 한정되는 것이 아님을 알아야 한다. Referring to FIG. 4, a broadcasting system 300 according to an embodiment of the present invention may be interworked with a mobile device 200. [ Here, the mobile device 200 may be, for example, a smart phone, a PDA, a notebook, a tablet PC, and the like, but those skilled in the art should understand that the present invention is not limited to such devices.

방송시스템(300)은, 예를 들면 도 1을 참조하여 설명한 방송시스템(100), 도 5를 참조하여 설명하는 방송시스템, 또는 도 6을 참조하여 설명한 믹서를 사용한 방송시스템일 수 있다. 또한, 방송시스템(300)은, 도 3을 참조하여 설명한 방송방법, 또는 도 7을 참조하여 설명한 방송방법이 구현된 방송시스템일 수 있다.The broadcasting system 300 may be, for example, the broadcasting system 100 described with reference to FIG. 1, the broadcasting system described with reference to FIG. 5, or the broadcasting system using the mixer described with reference to FIG. Also, the broadcasting system 300 may be a broadcasting system that has implemented the broadcasting method described with reference to FIG. 3 or the broadcasting method described with reference to FIG.

먼저, 방송시스템(300)이 도 1의 방송시스템(100)이라고 가정하고, 모바일 기기(200)의 동작을 설명하기로 한다. First, the operation of the mobile device 200 will be described assuming that the broadcasting system 300 is the broadcasting system 100 of FIG.

모바일 기기(200)는, 방송시스템(300)을 통해서 출력되는 음향(즉, 스피커를 통해서 출력되는 음향)을 인식할 수 있으며, 인식한 음향 속에 메타 데이터가 포함되어 있으면 추출한다. The mobile device 200 can recognize the sound output through the broadcasting system 300 (that is, the sound output through the speaker), and extracts the meta data if the recognized sound contains the meta data.

모바일 기기(200)는 추출한 메타 데이터를 인식하여 사용자에게 시각적, 청각적, 및/또는 촉각적으로 알려주거나, 서버(미도시)로 메타 데이터를 전송하고 서버(미도시)로부터 메타 데이터에 연관된 정보를 수신하여 사용자에게 알려줄 수도 있다.The mobile device 200 recognizes the extracted metadata to inform the user visually, audibly, and / or tactually, or transmits the metadata to the server (not shown) and receives information related to the metadata from the server And informs the user.

본 발명의 일 실시예에 따른 모바일 기기(200)는, 컴퓨터 명령어에 의해 동작하는 컴퓨터 프로세서(201), 음파를 수신할 수 있는 마이크(203), 사용자 인터페이스부(205), 메모리(207), 및 어플리케이션(209)을 포함할 수 있다. A mobile device 200 according to an embodiment of the present invention includes a computer processor 201 operated by computer instructions, a microphone 203 capable of receiving sound waves, a user interface unit 205, a memory 207, And an application 209.

어플리케이션(209)은 컴퓨터 프로세서(201)의 제어하에 메모리(207)에 로딩되어 제 동작을 수행할 수 있다. The application 209 can be loaded into the memory 207 under the control of the computer processor 201 to perform the operation.

마이크(203)는 안내 방송시스템(300)으로부터 출력되는 음파를 수신할 수 있다. The microphone 203 can receive sound waves output from the announcement system 300. [

어플리케이션(209)은, 마이크(203)가 수신한 음파에 메타 데이터가 있는지 여부를 판단하고, 메타 데이터가 있으면, 사용자가 인식할 수 있는 형태로 변환할 수 있다. 사용자가 인식할 수 있는 형태는 예를 들면 시각, 청각, 또는 촉각으로 인식할 수 있는 형태일 수 있다. The application 209 can determine whether or not there is metadata in the sound wave received by the microphone 203, and convert it into a form recognizable by the user if there is metadata. The user-recognizable form can be, for example, a form that can be recognized by visual, auditory, or tactile sense.

다르게는, 어플리케이션(209)은, 마이크(203)가 수신한 음파에 메타 데이터가 있는지 여부를 판단하고, 메타 데이터가 있으면, 그 메타 데이터를 서버(미도시)로 전송하고 서버로부터 메타 데이터에 대응되는 데이터를 수신받아서, 사용자가 인식할 수 있는 형태로 변환할 수 있다.Alternatively, the application 209 determines whether or not there is metadata in the sound wave received by the microphone 203. If the metadata is present, the application 209 transmits the metadata to a server (not shown) And converts the received data into a form recognizable by the user.

다르게는, 어플리케이션(209)이 수행하는 기능을 모바일 기기가 하드웨어 형태로 포함하거나, OS의 일부로서 포함할 수 있다.Alternatively, the functions performed by the application 209 may be included in the form of hardware by a mobile device, or may be included as part of the OS.

이제, 방송시스템(300)이 도 5를 참조하여 설명하는 방송시스템인 경우를 가정하여, 모바일 기기(200)의 동작을 설명하기로 한다. Now, the operation of the mobile device 200 will be described on the assumption that the broadcasting system 300 is the broadcasting system described with reference to FIG.

모바일 기기(200)의 마이크(203)는 TV 수신기(511)의 스피커(미도시)를 통해서 출력되는 음파를 수신할 수 있으며, 어플리케이션(209)은, 마이크(203)가 수신한 음파에 메타 데이터가 있는지 여부를 판단하고, 메타 데이터가 있으면, 사용자가 인식할 수 있는 형태로 변환할 수 있다.The microphone 203 of the mobile device 200 can receive sound waves output through a speaker (not shown) of the TV receiver 511 and the application 209 can receive the sound data received by the microphone 203, And if there is metadata, it can be converted into a form recognizable by the user.

한편, 모바일 기기(200)는 전송부(509)를 통해서 전송되는 전자기파에 실려있는 영상 데이터를, TV 수신기(511)를 통하지 않고 직접 수신할 수 있으며, 이를 위해서, 안테나(미도시)를 더 포함할 수 있다.Meanwhile, the mobile device 200 can directly receive the image data stored in the electromagnetic wave transmitted through the transmission unit 509 without passing through the TV receiver 511, and further includes an antenna (not shown) can do.

안테나(미도시)가 수신하는 신호는 전자기파로서, 이 전자기파에 실려있는 영상 데이터 중에서 음향에 해당하는 데이터에는 본 발명의 일 실시예에 따라 비가청 대역으로 변조된 메타 데이터가 포함되어 있을 수 있다. The signal received by the antenna (not shown) is an electromagnetic wave, and the data corresponding to the sound among the image data stored in the electromagnetic wave may include the meta data modulated in the non-audible range according to an embodiment of the present invention.

모바일 기기(200)는, 전자기파를 복조하는 구성요소(미도시)를 더 포함할 수 있다. The mobile device 200 may further include a component (not shown) that demodulates electromagnetic waves.

어플리케이션(209)은, 안테나가 수신한 방송신호에 메타 데이터가 있는지 여부를 판단하고, 메타 데이터가 있으면, 사용자가 인식할 수 있는 형태로 변환할 수 있다. The application 209 can determine whether or not there is meta data in the broadcast signal received by the antenna, and convert it into a form recognizable by the user if the meta data is present.

다르게는, 어플리케이션(209)은, 안테나가 수신한 방송신호에 실려있는 영상 데이터 중에서 음향에 해당하는 데이터에 메타 데이터가 있는지 여부를 판단하고, 메타 데이터가 있으면, 그 메타 데이터를 서버(미도시)로 전송하고 서버로부터 메타 데이터에 대응되는 데이터를 수신받아서, 사용자가 인식할 수 있는 형태로 변환할 수 있다.Alternatively, the application 209 may determine whether or not the metadata corresponding to the sound is included in the video data stored in the broadcast signal received by the antenna, and if the metadata includes the metadata, transmit the metadata to a server (not shown) , Receives data corresponding to the meta data from the server, and converts the received data into a format recognizable by the user.

도 5는 본 발명의 일 실시예에 따른 믹서를 이용한 방송시스템을 설명하기 위한 도면이다.5 is a diagram for explaining a broadcasting system using a mixer according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시예에 따른 믹서를 이용한 방송시스템은 비압축 영상 신호와 음향 신호를 저장하는 저장부(501), 믹서(503), 인코더(507), 및 전송부(509)를 포함할 수 있다. 5, a broadcasting system using a mixer according to an embodiment of the present invention includes a storage unit 501 for storing an uncompressed video signal and an acoustic signal, a mixer 503, an encoder 507, 509).

믹서(503)는 도 1을 참조하여 설명한 믹서(30)와 같은 동작을 수행할 수 있다. 즉, 상기 비압축 영상 신호와 음향 신호 중, 음향 신호로부터 전술한 바와 같은 믹싱 신호를 생성하여, 인코더(507)로 출력할 수 있다. The mixer 503 may perform the same operation as the mixer 30 described with reference to FIG. That is, the mixing signal may be generated from the uncompressed video signal and the audio signal, and may be output to the encoder 507. [

믹서(503)는 영상 신호와 음향 신호를 입력받아서, 음향 신호를 전술한 바와 같은 믹싱 신호로 변환하여 영상 신호와 함께 인코더(507)에게 출력한다.The mixer 503 receives the video signal and the sound signal, converts the sound signal into a mixed signal as described above, and outputs the mixed signal to the encoder 507 together with the video signal.

예를 들면, 본 믹서(503)는, 믹서(30)처럼, 도 2와 같은 믹싱 신호를 출력할 수 있다. For example, the mixer 503 can output the mixing signal as shown in FIG. 2, like the mixer 30.

인코더(507)는, 믹서(503)에서 출력되는 믹싱 신호를 손실 압축 코딩 기법을 사용하여 출력할 수 있다. 인코더(507)로부터 출력된 손실 압축 코딩된 데이터는 전송부(509)를 통해서 송출용 네트워크로 전달된다. 여기서, 전송부(509)는 인코더(507)에 의해 손실 압축 코딩된 데이터를 전자기파의 형태로 브로드캐스팅한다.The encoder 507 can output the mixing signal output from the mixer 503 using a lossy compression coding technique. The lossy compression coded data output from the encoder 507 is transmitted to the transmission network through the transmission unit 509. [ Here, the transmission unit 509 broadcasts the loss-compression-coded data by the encoder 507 in the form of electromagnetic waves.

브로드캐스팅된 전자기파는, 송출용 네트워크를 통해서 TV 수신기(511)로 전송되게 된다. 여기서, 송출용 네트워크는, 예를 들면 인터넷 망 및/또는 기지국 등을 포함하도록 구성될 수 있다.The broadcasted electromagnetic wave is transmitted to the TV receiver 511 through the transmission network. Here, the transmission network may be configured to include, for example, an Internet network and / or a base station.

TV 수신기(511)는, 송출용 네트워크를 통해서 전자기파를 수신하며, 수신한 전자기파를 시청가능한 형태(영상과 음성)로 변환하여 출력하게 된다. The TV receiver 511 receives an electromagnetic wave through a transmission network, converts the received electromagnetic wave into a viewable form (video and audio), and outputs it.

도 6은 본 발명의 다른 실시예에 따른 믹서를 설명하기 위한 도면이다. 6 is a view for explaining a mixer according to another embodiment of the present invention.

도 6에 예시된 믹서(130)는 도 1에서 예시적으로 설명된 방송 시스템에서의 믹서(30) 또는 도 5에서 예시적으로 설명된 방송 시스템의 믹서(501) 대신에 사용될 수 있다. The mixer 130 illustrated in FIG. 6 may be used in place of the mixer 30 in the broadcast system illustrated in FIG. 1 or the mixer 501 of the broadcast system illustrated in FIG. 5 illustratively.

믹서(130)가 도 1의 방송 시스템에 사용된다고 가정하면, 믹서(130)는, DAC(20)로부터 출력된 음향 신호를 스피커(50)로 출력하기 전에, DAC(20)로부터 출력된 음향 신호로부터 음향을 인식하여 메타 데이터- 스피커로 출력되는 음향과 연관된 것임-를 생성하고, 여기서 생성된 메타 데이터를 비가청 대역의 음파 신호로서 변환하며, 비가청 대역의 음파 신호로서 변환된 메타 데이터를 음향 신호와 믹싱한 믹싱신호를 생성할 수 있다. The mixer 130 outputs the acoustic signal output from the DAC 20 to the speaker 50 before outputting the acoustic signal output from the DAC 20 to the speaker 50, And converts the generated metadata into a sound wave signal in the non-audible frequency band, and converts the converted metadata into a sound wave signal in the non-audible frequency band, A mixing signal mixed with a signal can be generated.

믹서(130)는, 또한, DAC(20)로부터 수신한 음향 신호에 비가청대역 음파 데이터가 포함되어 있는지 여부를 판단하며, 만약 포함되어 있다면 기존에 포함되어 있던 비가청대역 음파 데이터 대신에 새로운 비가청대역 음파 데이터로 변경(여기서, 변경은, 전체 치환, 부분 치환, 부가, 또는 일부 삭제 중 어느 하나일 수 있음)할지 또는 기존 비가청 대역 음파 데이터를 그대로 유지(이하, '바이패스')할지 여부를 판단한다. The mixer 130 further determines whether or not the acoustic signal received from the DAC 20 includes non-audible band sound wave data, and if so, the new non-audible band sound wave data, (Hereinafter referred to as "bypass") whether to change the sound wave data to blue band sound wave data (here, the change can be either full replacement, partial replacement, addition or partial deletion) .

믹서(130)는, 판단결과, 패스할 것으로 판단하면, DAC(20)로부터 수신한 음향 신호를 그대로 출력한다. 예를 들면, 기존 비가청 대역 음파 데이터가 URL을 의미하거나 또는 URL을 의미하는 ID일 경우, 믹서(130)는 DAC(20)로부터 수신한 음향 신호를 그대로 출력할 수 있다.As a result of the determination, the mixer 130 outputs the acoustic signal received from the DAC 20 as it is. For example, when the existing non-audible band sound wave data is a URL or an ID meaning a URL, the mixer 130 can directly output the sound signal received from the DAC 20.

한편, 믹서(130)는, 기존 비가청대역 음파 데이터를 변경할 것으로 판단하면, 새로운 비가청대역 음파 데이터를 생성하고, 새로운 비가청대역 음파 데이터를 이용해서 기존 비가청대역 음파 데이터를 변경할 수 있다. 여기서, 새로운 비가청대역 음파 데이터는, 예를 들면 위치 추정부(35)에 의한 위치 추정 정보를 더 포함한 것일 수 있다. 새로운 비가청 대역 음파 데이터로 기존 비가청대역 음파 데이터를 변경하는 방법은 다양하게 존재할 수 있으며, 본 발명이 속하는 기술분야의 자라면 용이하게 구현할 수 있을 것이다.On the other hand, if the mixer 130 determines that the existing non-audible band sound wave data is to be changed, the mixer 130 can generate new non-audible band sound wave data and change the existing non-audible band sound wave data using the new non-audible band sound wave data. Here, the new non-audible band sound wave data may further include position estimation information by the position estimation unit 35, for example. There are various ways to change the existing non-audible spectrum sound wave data with the new non-audible spectrum sound wave data, and those skilled in the art can easily implement the present invention.

이상 설명한 기능을 구현하는 믹서(130)는, 예를 들면 도 6과 같은 구성을 가질 수 있으나, 본원 발명에 따른 믹서(130)가 도 6과 같은 구성에만 한정되는 것이 아님을 당업자는 알아야 한다.The mixer 130 that implements the functions described above may have the configuration shown in FIG. 6, for example. However, it should be understood by those skilled in the art that the mixer 130 according to the present invention is not limited to the configuration shown in FIG.

도 6의 믹서(130)는, 도 1의 믹서(30)와 비교할 때, 필터(F), 제2결합부(C), 및 스위치(S)를 더 포함할 수 있다.  The mixer 130 of FIG. 6 may further include a filter F, a second coupling portion C, and a switch S, as compared with the mixer 30 of FIG.

이하에서는, 믹서(30)와 차이가 있는 부분을 위주로 믹서(130)를 설명하기로 한다. Hereinafter, the mixer 130 will be mainly described with respect to a portion that is different from the mixer 30. [

필터(F)는 DAC(20)로부터 출력되는 전기적 신호를 수신하며, 필터(F)는 주파수 대역에서 비가청대역 음파 데이터를 제거한다. The filter F receives an electrical signal output from the DAC 20, and the filter F removes the non-audible band sound wave data in the frequency band.

DAC(38)에서 출력되는 비가청대역 음파 데이터는 결합부(36)('제1결합부'라고 함)와 제2결합부(C)로 출력된다. The non-audible band sound wave data output from the DAC 38 is output to the combining unit 36 (referred to as' first combining unit ') and the second combining unit C'.

스위치(S)는, 컨트롤러(미도시) 또는 음향인식엔진(33)의 제어하에, 제1결합부(36)의 출력을 출력단(32)으로 스위칭하거나 또는 제2결합부(C)의 출력을 출력단(32)으로 스위칭한다.The switch S switches the output of the first coupling section 36 to the output terminal 32 or the output of the second coupling section C to the output terminal 32 under the control of a controller (not shown) And switches to the output terminal 32.

컨트롤러(미도시) 또는 음향인식엔진(33)은, DAC(38)에서 출력되는 음향 신호에 비가청대역 음파 데이터가 이미 포함되어 있는 경우, 기존에 포함된 비가청대역 음파 데이터를 변경할지 여부를 판단하며, 변경하고자 하는 경우에는, 제2결합부(C)의 출력이 출력단(32)으로 출력되도록 스위치(S)를 제어할 수 있다. The controller (not shown) or the sound recognition engine 33 determines whether to change the existing non-audible band sound wave data if the acoustic signal output from the DAC 38 already contains non-audible band sound wave data It is possible to control the switch S so that the output of the second coupling portion C is outputted to the output terminal 32. In this case,

한편, 기존에 포함된 비가청대역 음파 데이터를 그대로 출력하고자 하는 경우에는, 제1결합부(36)의 출력이 출력단(32)으로 출력되도록 스위치(S)를 제어할 수 있다. On the other hand, when it is desired to output the existing non-audible band sound wave data as it is, the switch S can be controlled so that the output of the first coupling portion 36 is outputted to the output terminal 32.

이하에서는, 세 가지 경우를 가정하여 믹서(130)의 동작을 보다 상세히 설명하기로 한다. Hereinafter, the operation of the mixer 130 will be described in more detail assuming three cases.

i) DAC(38)에서 출력되는 음향 신호에 비가청대역 음파 데이터가 포함되어 있지 않은 경우i) When the acoustic signal output from the DAC 38 does not include non-audible band sound wave data

음향인식엔진(33)은 DAC(38)에서 출력되는 음향 신호로부터 메타 데이터를 생성하며, 음파생성엔진(34)은 메타 데이터를 비가청대역의 음파신호로 변환한다. The acoustic recognition engine 33 generates metadata from the acoustic signals output from the DAC 38, and the acoustic wave generating engine 34 converts the metadata into acoustic wave signals of the non-audible range.

DAC(38)는 음파생성엔진(34)에 의해 변환된 비가청대역의 음파신호를 아날로그 신호로 변환한 후, 제1 결합부와 제2 결합부로 출력한다. The DAC 38 converts the sound wave signal of the non-audible range converted by the sound wave generating engine 34 into an analog signal, and then outputs the analog signal to the first combining unit and the second combining unit.

스위치(S)는 제1결합부 또는 제2 결합부 중 어느 하나가 출력단(32)으로 출력되도록 스위칭된다.The switch S is switched so that either the first coupling portion or the second coupling portion is output to the output terminal 32. [

음향인식엔진(33)과 음파생성엔진(34)에 대한 보다 상세한 설명은 도 1을 참조하여 설명한 실시예의 것을 참조하기 바란다.For a more detailed description of the acoustic recognition engine 33 and sound generation engine 34, please refer to the embodiment described with reference to FIG.

ii) DAC(38)에서 출력되는 음향 신호에 비가청대역 음파 데이터가 포함되어 있고, 이를 그대로 패스하는 경우ii) When the acoustic signal output from the DAC 38 includes non-audible band sound wave data and passes the same

음향인식엔진(33)은 DAC(38)에서 출력되는 음향 신호에 특정 비가청대역 음파 데이터-패스할 것이라고 미리 정한 비가청대역 음파 데이터-가 포함되어 있는 경우에는, 메타 데이터를 생성하지 않는다. 따라서, 음파생성엔진(34)에서 생성되는 비가청대역 음파 데이터는 없으며, 스위치(S)는 제1결합부의 출력이 출력단(32)으로 출력되도록 스위칭된다.The sound recognition engine 33 does not generate the metadata when the acoustic signal output from the DAC 38 contains the non-audible band sound wave data predetermined to be subjected to the specific non-audible band sound wave data-passing. Therefore, there is no non-audible band sound wave data generated by the sound wave generating engine 34, and the switch S is switched so that the output of the first coupling portion is output to the output terminal 32. [

iii) DAC(38)에서 출력되는 음향 신호에 비가청대역 음파 데이터가 포함되어 있고, 이를 변경하는 경우iii) When the acoustic signal output from the DAC 38 includes non-audible band sound wave data and changes it

음향인식엔진(33)은 DAC(38)에서 출력되는 음향 신호에 포함되어 있는 비가청 대역 음파 데이터가 변경이 필요하다고 판단하는 경우에는, 해당 비가청 대역의 음파 데이터를 참고하여, 새로운 메타 데이터를 생성한다. 따라서, 음파생성엔진(34)에서 새로운 메타 데이터를 비가청대역 음파 데이터로 변환하여 DAC(38)로 출력하며, DAC(38)의 출력은 제1결합부(36)와 제2결합부(C)로 출력된다. 한편, 스위치(S)는, 제2결합부(C)의 출력이 출력단(32)으로 출력되도록 스위칭된다.When it is determined that the non-audible band sound wave data included in the acoustic signal output from the DAC 38 needs to be changed, the sound recognition engine 33 refers to the sound wave data of the corresponding non-audible band to generate new metadata . Accordingly, the sound wave generating engine 34 converts the new metadata into the non-audible band sound wave data and outputs it to the DAC 38. The output of the DAC 38 is input to the first combining unit 36 and the second combining unit C . On the other hand, the switch S is switched such that the output of the second coupling portion C is output to the output terminal 32. [

필터(F)에서는, DAC(38)에서 출력되는 음향 신호에 포함된 비가청대역 음파 데이터를 제거한 후, 제2결합부(C)로 출력한다. 제2결합부(C)에서는, 기존 비가청대역 음파 데이터가 제거된 상태의 음향 신호와, 새로운 비가청대역 음파 데이터로 변환된 메타 데이터가 결합된다. The filter F removes the non-audible band sound wave data included in the acoustic signal output from the DAC 38 and outputs it to the second combining unit C. In the second combining unit C, the acoustic signal in the state in which the existing non-audible band sound wave data is removed is combined with the new non-audible band sound wave data in the converted metadata.

믹서(130)에서 설명하지 않은 다른 구성요소들에 대한 보다 상세한 설명은 도 1을 참조하여 설명한 실시예의 것을 참조하기 바란다.For a more detailed description of the other components not described in the mixer 130, please refer to the embodiment described with reference to FIG.

본 믹서(130)가 도 5의 방송 시스템의 믹서(503) 대신에 사용된다고 가정하면, 믹서(130)는, 비압축 영상+음향 신호에 대하여 적어도, 상술한 바와 같은 3가지 경우의 동작을 수행할 수 있다. 이에 대한 상세한 설명은 위 설명을 참조하기 바란다. Assuming that this mixer 130 is used in place of the mixer 503 of the broadcasting system of FIG. 5, the mixer 130 performs at least three operations as described above for the uncompressed image + sound signal can do. Please refer to the explanation above for a detailed explanation.

도 7은 본 발명의 다른 실시예에 따른 방송방법을 설명하기 위한 도면이다. 7 is a diagram for explaining a broadcasting method according to another embodiment of the present invention.

도 7을 참조하면, 음향 신호가 외부로 출력되기 전에, 음향 신호에 메타 데이터를 믹싱하는 동작을 포함한다. 이하에서 설명될 각 단계들은, 예를 들면 도 1, 도 5, 및 도 6을 참조하여 설명한 믹서에 의해 수행될 수 있다.Referring to FIG. 7, the method includes mixing metadata into a sound signal before the sound signal is output to the outside. Each of the steps to be described below can be performed by the mixer described with reference to Figs. 1, 5, and 6, for example.

도 7를 참조하여 예시적으로 설명한 방송방법은, 도 3과 비교할 때, S204, S206, S208, S210 단계들을 더 포함하고 있다는 점에서 차이가 있으므로, 이들을 위주로 설명하기로 한다. The broadcasting method illustrated by way of example with reference to FIG. 7 differs from FIG. 3 in that it further includes steps S204, S206, S208, and S210.

S204 단계에서는 S203단계에서 인식된 음향에 비가청 대역의 음파로 된 메타 데이터가 존재하는지를 판단한다. 판단결과 존재하지 않으면, S205 이하의 동작이 수행되며 이에 대하여는 도 3의 것을 참조하기 바란다.In step S204, it is determined whether there is metadata in the acoustic recognized in step S203 as a sound wave in the non-audible range. If the judgment result is negative, the operation of S205 and subsequent steps is carried out, which is referred to in Fig.

S204 단계의 판단결과, 비가청대역의 음파로 된 메타 데이터가 존재하는 경우에는, 기존의 메타 데이터를 그대로 유지하여 패스시킬지 아니면 변경시킬지를 판단한다(S206). As a result of the determination in step S204, if there is metadata in the non-audible range, the existing metadata is retained and it is determined whether to pass or change the metadata in step S206.

S206 단계에서 패스라고 판단이 되면, S210 단계가 수행된 후 S215 단계가 수행된다. If it is determined to be a pass in step S206, step S210 is performed, and then step S215 is performed.

S206 단계에서 기존의 메타 데이터를 변경시킬 것으로 판단이 되면, 새로운 메타 데이터를 생성(S208)하여 비가청 대역의 음파로 변환 시킨다(S207). 이후, S209 단계를 수행하되, 기존의 메타 데이터 대신에 새로운 메타 테이터를 SS와 믹싱하는 동작을 수행한다. 이후 동작은 도 3의 것을 참조하기 바란다.If it is determined in step S206 that the existing metadata is to be changed, new metadata is generated (S208) and converted into sound waves in the non-audible band (S207). Thereafter, in step S209, an operation for mixing a new meta data with an SS is performed instead of the existing metadata. Please refer to Fig. 3 for the subsequent operation.

상기와 같이 본 발명은 비록 한정된 실시예들과 도면에 의해 설명되었으나, 본 발명은 상기의 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, And variations are possible.

본 발명의 범위는 설명된 실시예들에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.The scope of the present invention should not be limited to the above-described embodiments, but should be determined by the scope of the appended claims and equivalents thereof.

10: 저장부 20: DAC
30: 믹서 40: 앰프
50: 스피커 100: 안내 방송시스템
200: 모바일 기기
10: storage unit 20: DAC
30: Mixer 40: Amplifier
50: speaker 100: announcement system
200: Mobile device

Claims (22)

소음 영역에 설치된 스피커들을 통해서 음향을 출력하는 방송방법에 있어서,
음향 신호를 상기 소음 영역에 설치된 스피커들 중 적어도 하나의 스피커를 통해서 출력하기 전에, 상기 음향 신호로부터 메타 데이터-상기 스피커를 통해서 출력되는 음향과 연관된 것임-를 생성하는 단계;
상기 메타 데이터를 비가청 대역의 음파 신호로 변환하는 단계;
상기 비가청 대역의 음파 신호로 변환된 메타 데이터와 상기 음향 신호를 믹싱하여 믹싱 신호를 생성하는 단계;를 포함하며,
상기 믹싱 신호가, 상기 스피커를 통해서 출력되는 것을 특징으로 하는 방송방법.
A broadcasting method for outputting sound through speakers installed in a noise region,
Generating metadata from the sound signal, which is associated with sound output through the speaker, before outputting the sound signal through at least one of the speakers installed in the noise region;
Converting the metadata into a sound wave signal of a non-audible range;
Mixing the audio signal converted into the sound signal of the non-audible range with the sound signal to generate a mixing signal,
Wherein the mixing signal is output through the speaker.
제1항에 있어서,
상기 메타 데이터를 생성하는 단계 이전에, 상기 음향 신호에 비가청 대역의 음파 데이터가 포함되어 있는지 여부를 판단하는 단계;를 더 포함하며,
상기 음향 신호에 비가청 대역의 음파 데이터-'기존 비가청 대역의 음파 데이터'라고 함-가 포함되어 있지 않은 경우에, 상기 메타 데이터를 생성하는 단계를 수행하는 것을 특징으로 하는 방송방법.
The method according to claim 1,
Determining whether the acoustic signal includes acoustic wave data in a non-audible range before the step of generating the metadata,
Wherein the step of generating the metadata includes the step of generating the metadata when the acoustic signal does not include the acoustic wave data in the non-audible range - the sound wave data in the existing non-audible range.
제2항에 있어서,
상기 음향 신호에 기존 비가청 대역의 음파 데이터가 포함되어 있는 경우, 기존 비가청 음파 데이터를 유지 또는 변경할지 여부를 판단하는 단계;를 더 포함하는 것을 특징으로 하는 방송방법.
3. The method of claim 2,
And determining whether to maintain or change existing non-audible sound data when the sound signal includes sound wave data of an existing non-audible range.
제3항에 있어서,
상기 기존 비가청 대역의 음파 데이터를 변경할 것으로 판단한 경우, 기존 비가청 대역의 음파 데이터를 삭제하는 단계;를 더 포함하며,
상기 믹싱 신호를 생성하는 단계는, 상기 음파 신호로 변환하는 단계에서 변환된 비가청 대역의 음파 데이터와, 상기 기존 비가청 대역의 음파 데이터가 삭제된 음향 신호를 믹싱하는 단계인 것을 특징으로 하는 방송방법.
The method of claim 3,
And deleting the sound wave data of the existing non-audible range when it is determined to change the sound wave data of the existing non-audible range,
Wherein the step of generating the mixing signal is a step of mixing the sound wave data of the non-audible spectrum converted in the step of converting the sound signal into the sound signal of which the sound wave data of the existing non- Way.
제1항에 있어서,
상기 스피커를 통해서 출력되는 음향과 연관된 것은,
i) 상기 스피커를 통해서 출력되는 음향의 적어도 일부를 텍스트로 변환한 것;
ii) 상기 스피커를 통해서 출력되는 음향의 적어도 일부와 연관된 정보를 텍스트로 변환한 것;
iii) 상기 스피커를 통해서 음향의 적어도 일부와 연관된 정보를 포함하는 인터넷 주소로 변환한 것; 및
iv) 상기 i) 내지 iii) 중 어느 하나를 나타내는 ID;
들 중에서 적어도 어느 하나인 것을 특징으로 하는 방송방법.
The method according to claim 1,
What is associated with the sound output through the speaker,
i) converting at least a portion of the sound output through the speaker into text;
ii) converting information associated with at least a portion of the sound output through the speaker into text;
iii) converting to an Internet address that includes information associated with at least a portion of the sound through the speaker; And
iv) an ID representing any one of i) to iii) above;
And a broadcast program.
제1항에 있어서,
상기 스피커로 출력하기 전의 음향 신호를 입력단이 수신하는 단계;를 더 포함하며,
상기 입력단에 의해 수신된 음향 신호로부터 상기 메타 데이터가 생성되며, 그리고
상기 입력단에 의해 입력 받은 음향 신호는, 바이패스 경로를 통해서, 상기 믹싱 신호를 생성하는 단계로 제공되며,
상기 바이패스 경로는, 상기 메타 데이터를 생성하는 단계와, 상기 메타 데이터를 비가청 대역의 음파 신호로 변환하는 단계를 우회하는 경로인 것을 특징으로 하는 방송방법.
The method according to claim 1,
And receiving an acoustic signal before being output to the speaker,
The metadata is generated from the acoustic signal received by the input, and
Wherein the acoustic signal input by the input terminal is provided to generate the mixing signal through a bypass path,
Wherein the bypass path is a path that bypasses the step of generating the metadata and the step of converting the metadata into an audio signal of an invisible band.
제1항 내지 제6항 중 어느 하나의 항에 있어서,
상기 믹싱 신호가 상기 스피커를 통해서 출력된 후, 상기 비가청 대역의 음파 신호로 변환된 메타 데이터를, 소정의 시간 간격으로 상기 스피커를 통해서 지속적으로 출력하는 단계;를 더 포함하는 것을 특징으로 하는 방송방법.
7. The method according to any one of claims 1 to 6,
Further comprising the step of continuously outputting the metadata converted into the sound wave signal of the non-audible frequency band through the speaker at a predetermined time interval after the mixing signal is outputted through the speaker Way.
외부로 음향을 출력하는 음향시스템에 사용되는 믹서로서,
음향 신호를 상기 외부로 출력하기 전에, 상기 음향 신호로부터 음향을 인식하여 메타 데이터-상기 외부로 출력되는 음향과 연관된 것임-를 생성하는 음향인식엔진;
상기 메타 데이터를 비가청 대역의 음파 신호로 변환하는 음파생성엔진;
상기 비가청 대역의 음파 신호와 상기 음향 신호를 믹싱한 믹싱신호를 생성하는 결합부;를 포함하는 믹서.
A mixer for use in an acoustic system for outputting sound to the outside,
A sound recognition engine for recognizing sound from the sound signal and outputting the meta data, which is related to the sound outputted to the outside, before outputting the sound signal to the outside;
A sound wave generating engine for converting the metadata into a sound wave signal in an audible range;
And a combiner for generating a mixing signal by mixing the sound signal of the non-audible range with the sound signal.
제8항에 있어서,
상기 음향인식엔진은, 상기 음향 신호에 비가청 대역의 음파 데이터가 포함되어 있는지 여부를 판단하며, 상기 음향 신호에 비가청 대역의 음파 데이터-'기존 비가청 대역의 음파 데이터'라고 함-가 포함되어 있지 않은 경우에, 상기 메타 데이터를 생성하는 것을 특징으로 하는 방송방법.
9. The method of claim 8,
The sound recognition engine determines whether or not the sound signal includes sound wave data in a non-audible range, and the sound signal includes sound wave data in a non-audible range - 'sound wave data in a conventional non-audible range' The metadata generating unit generates the metadata.
제9항에 있어서,
상기 음향인식엔진은, 상기 음향 신호에 기존 비가청 대역의 음파 데이터가 포함되어 있는 경우, 기존 비가청 음파 데이터를 유지 또는 변경할지 여부를 판단하는 것을 특징으로 하는 방송방법.
10. The method of claim 9,
Wherein the sound recognition engine determines whether to maintain or change existing non-audible sound data when the sound signal includes sound wave data of an existing non-audible range.
제10항에 있어서,
상기 기존 비가청 대역의 음파 데이터를 변경할 것으로 판단된 경우, 기존 비가청 대역의 음파 데이터를 삭제하는 필터;를 더 포함하며,
상기 결합부는, 상기 음파생성엔진이 변환한 비가청 대역의 음파 데이터와, 상기 필터에 의해 기존 비가청 대역의 음파 데이터가 삭제된 음향 신호를 믹싱하는 것을 특징으로 하는 방송방법.
11. The method of claim 10,
And a filter for deleting the sound wave data of the existing non-audible range when it is determined to change the sound wave data of the existing non-audible range,
Wherein the combining unit mixes the sound wave data of the non-audible range converted by the sound wave generating engine with the sound signal of which the sound wave data of the existing non-audible range is deleted by the filter.
제8항에 있어서,
상기 외부로 출력되는 음향과 연관된 것은,
i) 상기 외부로 출력되는 음향의 적어도 일부를 텍스트로 변환한 것;
ii) 상기 외부로 출력되는 음향의 적어도 일부와 연관된 정보를 텍스트로 변환한 것;
iii) 상기 외부로 출력되는 음향의 적어도 일부와 연관된 정보를 포함하는 인터넷 주소로 변환한 것; 및
iv) 상기 i) 내지 iii) 중 어느 하나를 나타내는 ID;
중에서 적어도 어느 하나인 것을 특징으로 하는 믹서.
9. The method of claim 8,
Associated with the sound being output to the outside,
i) converting at least a part of the sound outputted to the outside into text;
ii) converting information associated with at least a portion of the sound output to the outside into text;
iii) converting to an Internet address that includes information associated with at least a portion of the sound output to the outside; And
iv) an ID representing any one of i) to iii) above;
And the mixer.
제8항 내지 제12항 중 어느 하나의 항에 있어서,
상기 음파생성엔진은, 상기 믹싱 신호가 상기 외부로 출력된 후, 상기 비가청 대역의 음파 신호로 변환된 메타 데이터를, 소정의 시간 간격으로 상기 결합부로 출력하며,
상기 결합부는 상기 소정의 시간 간격으로 수신되는 메타 데이터를 상기 스피커로 출력하는 것을 특징으로 하는 믹서.
13. The method according to any one of claims 8 to 12,
Wherein the sound wave generating engine outputs the metadata converted into the sound wave signal of the non-audible frequency band to the combining unit at predetermined time intervals after the mixing signal is output to the outside,
Wherein the combining unit outputs the metadata received at the predetermined time interval to the speaker.
제13항에 있어서,
상기 외부로 출력하기 전의 음향 신호를 입력받을 수 있는 입력단;
상기 결합부에 의해 생성한 믹싱신호를 입력받아 상기 외부로 출력할 수 있는 출력단; 및
상기 입력단을 통해서 입력받은 음향 신호가 상기 결합부로 이동할 수 있는 경로를 제공하는 바이패스 경로;를 더 포함하는 것을 특징으로 하는 믹서.
14. The method of claim 13,
An input terminal capable of receiving an acoustic signal before being output to the outside;
An output terminal receiving the mixing signal generated by the coupling unit and outputting the mixed signal to the outside; And
And a bypass path for providing a path through which the acoustic signal received through the input terminal can move to the coupling unit.
제14항에 있어서,
상기 결합부는, 상기 바이패스 경로를 통해서 음향 신호를 입력받고, 이렇게 입력받은 입향신호로부터 상기 음파생성엔진에 의해 생성된 믹싱신호가 상기 음파생성엔진으로부터 입력되지 않는 경우에, 상기 입력단을 통해서 입력받은 음향 신호를 그대로 출력하는 것을 특징으로 하는 믹서.
15. The method of claim 14,
Wherein when the mixing signal generated by the sound wave generating engine is not input from the sound wave generating engine, the combining unit receives the sound signal through the bypass path, And outputs the acoustic signal as it is.
제13항에 있어서,
상기 결합부가, 시각 T1 에 음향신호('제1음향신호'라고 함)를 입력받고, 소정시간 경과 후 시각 T2에 음향신호('제2음향신호'라고 함)를 입력받는 경우,
상기 결합부는,
상기 제1음향신호와 상기 음파생성엔진에 의해 상기 제1음향신호로부터 생성된 메타 데이터를 믹싱하여 믹싱신호('제1믹싱신호'라고 함)를 생성하여 상기 출력단으로 출력하고, 그리고
상기 제2음향신호와 상기 음파생성엔진에 의해 상기 제2음향신호로부터 생성된 메타 데이터를 믹싱하여 믹싱신호('제2믹싱신호'라고 함)를 생성하여 상기 출력단으로 출력하며,
상기 결합부는
상기 제1믹싱신호를 출력하고 상기 제2음향신호로부터 생성된 비가청 대역의 음파신호를 입력받기 전의 시간 동안에는, 상기 제1음향신호로부터 생성된 메타데이터를 상기 출력단으로 소정의 시간간격으로 출력하는 것을 특징으로 하는 믹서.
14. The method of claim 13,
When the combining unit receives the sound signal (referred to as 'first sound signal') at time T1 and receives the sound signal (referred to as 'second sound signal') at time T2 after a predetermined time elapses,
The coupling portion
Mixes the first sound signal and the metadata generated from the first sound signal by the sound wave generating engine to generate a mixing signal (referred to as a 'first mixing signal') to output to the output stage, and
Mixes the second sound signal and the metadata generated from the second sound signal by the sound wave generating engine to generate a mixing signal (referred to as a 'second mixing signal') and outputs the mixed signal to the output terminal,
The coupling portion
And outputs the first mixed signal to the output terminal at a predetermined time interval during a time before the acoustic signal of the non-audible range generated from the second acoustic signal is received Lt; / RTI >
제13항에 있어서,
i) GPS, 이동통신망, 와이파이 중 적어도 하나와, ii) 관성 센서, 및 상기 음향 신호에서 인식된 음향을 이용하여, 상기 음향 신호를 수신한 위치를 추정하는 위치추정 모듈;을 더 포함하며,
상기 메타 데이터는 상기 위치추정 모듈이 추정한 위치를 포함하고 있는 것을 특징으로 하는 믹서.
14. The method of claim 13,
and a position estimation module for estimating a position at which the sound signal is received by using at least one of i) at least one of GPS, mobile communication network, and WiFi, ii) an inertia sensor, and sound recognized in the sound signal,
Wherein the meta data includes a position estimated by the position estimation module.
음향을 출력하는 방송방법에 있어서,
음향 신호를 외부로 출력하기 전에, 상기 음향 신호로부터 메타 데이터-상기 외부로 출력되는 음향과 연관된 것임-를 생성하는 단계;
상기 메타 데이터를 음파 신호로 변환하는 단계;
상기 비가청 대역의 음파 신호로 변환된 메타 데이터와 상기 음향 신호를 믹싱하여 믹싱 신호를 생성하는 단계; 및
상기 믹싱 신호를 압축하는 단계;를 포함하는 방송방법.
A broadcasting method for outputting sound,
Generating metadata from the sound signal, which is associated with sound output to the outside, before outputting the sound signal to the outside;
Converting the metadata into a sound wave signal;
Mixing the audio signal converted into the sound wave signal of the non-audible range with the sound signal to generate a mixing signal; And
And compressing the mixing signal.
제18항에 있어서,
상기 메타 데이터를 생성하는 단계 이전에, 상기 음향 신호에 비가청 대역의 음파 데이터가 포함되어 있는지 여부를 판단하는 단계;를 더 포함하며,
상기 음향 신호에 비가청 대역의 음파 데이터-'기존 비가청 대역의 음파 데이터'라고 함-가 포함되어 있지 않은 경우에, 상기 메타 데이터를 생성하는 단계를 수행하는 것을 특징으로 하는 방송방법.
19. The method of claim 18,
Determining whether the acoustic signal includes acoustic wave data in a non-audible range before the step of generating the metadata,
Wherein the step of generating the metadata includes the step of generating the metadata when the acoustic signal does not include the acoustic wave data in the non-audible range - the sound wave data in the existing non-audible range.
제19항에 있어서,
상기 음향 신호에 기존 비가청 대역의 음파 데이터가 포함되어 있는 경우, 기존 비가청 음파 데이터를 유지 또는 변경할지 여부를 판단하는 단계;를 더 포함하는 것을 특징으로 하는 방송방법.
20. The method of claim 19,
And determining whether to maintain or change existing non-audible sound data when the sound signal includes sound wave data of an existing non-audible range.
제18항에 있어서,
상기 기존 비가청 대역의 음파 데이터를 변경할 것으로 판단한 경우, 기존 비가청 대역의 음파 데이터를 삭제하는 단계;를 더 포함하며,
상기 믹싱 신호를 생성하는 단계는, 상기 음파 신호로 변환하는 단계에서 변환된 비가청 대역의 음파 데이터와, 상기 기존 비가청 대역의 음파 데이터가 삭제된 음향 신호를 믹싱하는 단계인 것을 특징으로 하는 방송방법.
19. The method of claim 18,
And deleting the sound wave data of the existing non-audible range when it is determined to change the sound wave data of the existing non-audible range,
Wherein the step of generating the mixing signal is a step of mixing the sound wave data of the non-audible spectrum converted in the step of converting the sound signal into the sound signal of which the sound wave data of the existing non- Way.
제18항 내지 제21항 중 어느 하나의 항에 있어서,
상기 믹싱 신호가 상기 외부를 통해서 출력된 후, 상기 비가청 대역의 음파 신호로 변환된 메타 데이터를, 소정의 시간 간격으로 상기 외부를 통해서 지속적으로 출력하는 단계;를 더 포함하는 것을 특징으로 하는 방송방법.
22. The method according to any one of claims 18 to 21,
Further comprising the step of continuously outputting the metadata, which is converted into the sound wave signal of the non-audible frequency band after the mixing signal is outputted through the outside, through the outside at predetermined time intervals Way.
KR1020130129951A 2013-05-02 2013-10-30 Broadcasting method and system using inaudible sound and Mixer KR101519493B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130129951A KR101519493B1 (en) 2013-10-30 2013-10-30 Broadcasting method and system using inaudible sound and Mixer
PCT/KR2014/003974 WO2014178691A1 (en) 2013-05-02 2014-05-02 Location information providing system, mobile apparatus and computer-readable recording medium for recording program, which use automatic guidance broadcasting apparatus in vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130129951A KR101519493B1 (en) 2013-10-30 2013-10-30 Broadcasting method and system using inaudible sound and Mixer

Publications (2)

Publication Number Publication Date
KR20150049411A true KR20150049411A (en) 2015-05-08
KR101519493B1 KR101519493B1 (en) 2015-05-12

Family

ID=53387498

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130129951A KR101519493B1 (en) 2013-05-02 2013-10-30 Broadcasting method and system using inaudible sound and Mixer

Country Status (1)

Country Link
KR (1) KR101519493B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200134940A (en) 2019-05-24 2020-12-02 주식회사 첸노 Digital broadcasting system including ultrasound and method for operating an external device
KR102228291B1 (en) 2019-11-27 2021-03-16 주식회사 첸노 Digital broadcasting system including ultrasound based on a synchronization and method for controlling a device using the same
KR20210065467A (en) 2019-11-27 2021-06-04 주식회사 첸노 Method and system for providing an information based on digital broadcasting

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200134940A (en) 2019-05-24 2020-12-02 주식회사 첸노 Digital broadcasting system including ultrasound and method for operating an external device
KR102228291B1 (en) 2019-11-27 2021-03-16 주식회사 첸노 Digital broadcasting system including ultrasound based on a synchronization and method for controlling a device using the same
KR20210065467A (en) 2019-11-27 2021-06-04 주식회사 첸노 Method and system for providing an information based on digital broadcasting

Also Published As

Publication number Publication date
KR101519493B1 (en) 2015-05-12

Similar Documents

Publication Publication Date Title
KR101585793B1 (en) Smart Hearing Aid Device
EP2118620B1 (en) System and method for broadcasting navigation prompts
US20170069336A1 (en) Control Parameter Dependent Audio Signal Processing
US10433083B2 (en) Audio processing device and method of providing information
EP2442589A1 (en) Hearing aid, relay device, hearing assistance system, hearing assistance method, program, and integrated circuit
JP6747535B2 (en) Terminals and programs
JP2009244937A (en) Earthquake alarm device
KR101519493B1 (en) Broadcasting method and system using inaudible sound and Mixer
US8989396B2 (en) Auditory display apparatus and auditory display method
JP2008158254A (en) Acoustic device
CN111512363B (en) Voice assistance apparatus and method
KR101288305B1 (en) Location providing system using an automatic announcement broadcasting apparatus in a vehicle, mobile apparatus, and computer readable recording medium having a program
KR101600429B1 (en) An Auxiliary Aid Device for Adaptation of Environmental Circumstance and A method for Linking An Auxiliary Aid Device to A multimedia Device
KR20140145057A (en) Broadcasting method and system using inaudible sound and Mixer
KR101706667B1 (en) Method and system for sound wave at low power using a push message
US20170255615A1 (en) Information transmission device, information transmission method, guide system, and communication system
KR102006629B1 (en) Automotive audio system capable of listen to internet news
KR20100134392A (en) Voice inducer system
JP5282471B2 (en) In-vehicle communication device
JP6766981B2 (en) Broadcast system, terminal device, broadcasting method, terminal device operation method, and program
CN203104777U (en) Communication device for realizing transmission for position signal to mobile communication terminal by virtue of broadcast system
JP2002015391A (en) Information system and portable terminal therefor
KR101756727B1 (en) Navigation using speaker which Location Signal Sound Generating
TW200726179A (en) Mobile communication system and method of the same
JP2016019027A (en) Reception system, receiver, reception method and program

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180410

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee