KR102121059B1 - Emergency broadcasting system, apparatus and technique for speech recognition based diversified notification of an emergency situation - Google Patents

Emergency broadcasting system, apparatus and technique for speech recognition based diversified notification of an emergency situation Download PDF

Info

Publication number
KR102121059B1
KR102121059B1 KR1020190076542A KR20190076542A KR102121059B1 KR 102121059 B1 KR102121059 B1 KR 102121059B1 KR 1020190076542 A KR1020190076542 A KR 1020190076542A KR 20190076542 A KR20190076542 A KR 20190076542A KR 102121059 B1 KR102121059 B1 KR 102121059B1
Authority
KR
South Korea
Prior art keywords
emergency
text
broadcast
speech recognition
predefined
Prior art date
Application number
KR1020190076542A
Other languages
Korean (ko)
Inventor
이우근
이후중
이원호
Original Assignee
주식회사 아이미디어솔루션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이미디어솔루션 filed Critical 주식회사 아이미디어솔루션
Priority to KR1020190076542A priority Critical patent/KR102121059B1/en
Application granted granted Critical
Publication of KR102121059B1 publication Critical patent/KR102121059B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/53Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers
    • H04H20/59Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers for emergency or urgency
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/53Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers
    • H04H20/61Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers for local area broadcast, e.g. instore broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Alarm Systems (AREA)

Abstract

Disclosed is an emergency broadcasting system for diversified notification based on voice recognition for an emergency situation. The disclosed system comprises: a broadcast receiving device in which a plurality of predefined audio data sets are stored therein, and which starts receiving audio data originating from a sound source after an emergency situation occurs; a broadcast output device including an audio speaker which outputs sound according to an input audio signal for emergency broadcast informing an emergency situation; and a text derivation device including a speech recognition mechanism. The input audio signal is a received portion of audio data, or at least one of a plurality of predefined audio data sets. The text derivation device derives text corresponding to the output sound of the audio speaker by using a speech recognition mechanism.

Description

비상 상황에 대한 음성 인식 기반의 다각화된 통지를 위한 비상 방송 시스템, 장치 및 기법{EMERGENCY BROADCASTING SYSTEM, APPARATUS AND TECHNIQUE FOR SPEECH RECOGNITION BASED DIVERSIFIED NOTIFICATION OF AN EMERGENCY SITUATION}EMERGENCY BROADCASTING SYSTEM, APPARATUS AND TECHNIQUE FOR SPEECH RECOGNITION BASED DIVERSIFIED NOTIFICATION OF AN EMERGENCY SITUATION}

본 개시는 비상 상황을 알리는 비상 방송에 관한 것이고, 더욱 구체적으로, 비상 상황에 대한 음성 인식(speech recognition) 기반의 다각화된 통지를 위한 비상 방송 시스템, 장치 및 기법에 관한 것이다.The present disclosure relates to emergency broadcasts informing emergency situations, and more particularly, to emergency broadcast systems, apparatus and techniques for diversified notification based on speech recognition of emergency situations.

공공 안전의 측면에서, 건물과 같은 시설 내에 설치된 방송 시스템은 그러한 시설 내에 또는 그 주변에 발생한 비상 상황(예컨대, 화재, 폭발, 침수, 정전, 지진 등등)을 알리는 비상 방송을 수행할 것이 요구된다. 이와 관련하여, 출원인이 보유하고 있는 한국 등록특허 제10-1868085호는 비상 상황이 발생한 경우에 비상 방송 신호의 전송을 위한 선로의 단절, 비상 방송 신호의 전송을 위한 장치의 오류 등등과 같은 이유로 비상 방송이 유지되기 곤란하다는 문제를 해결하기 위한 비상 방송 시스템을 제시한 바 있다. 이 시스템은 비상 방송 도중에 비상 방송 신호의 전송이 비정상적이게 되더라도, 단순한 경보 음향을 출력하는 것을 넘어, 가능한 한 충실하게 비상 상황을 알리는 비상 방송을 가능하게 하여, 충분히 오래 비상 방송을 유지하면서도 비상 방송을 듣는 이들을 오도하지(mislead) 않도록 한다. 이 특허는 오디오 스피커를 통해 어떤 소리 내지 청각적 신호가 출력되게 할 것인지에 주로 집중한다. 발명자는 유용한 비상 방송이 유지된다는 이점을 더 적극적으로 활용함으로써 비상 상황에 신속하고 효율적으로 대처하는 데에 도움이 되도록 비상 방송 시스템을 개선할 여지가 남아 있음을 인식하였다.In terms of public safety, a broadcasting system installed in a facility such as a building is required to perform emergency broadcasts informing of emergency situations (eg, fire, explosion, flood, power outage, earthquake, etc.) occurring in or around the facility. In this regard, Korean Patent Registration No. 10-1868085 held by the applicant has an emergency for reasons such as disconnection of a line for transmission of an emergency broadcast signal, an error in a device for transmission of an emergency broadcast signal, etc. in the event of an emergency. An emergency broadcasting system has been proposed to solve the problem that broadcasting is difficult to maintain. Even if the transmission of the emergency broadcast signal becomes abnormal during the emergency broadcast, this system goes beyond simply outputting an alarm sound and enables an emergency broadcast to notify the emergency situation as faithfully as possible, while maintaining the emergency broadcast for a long enough time. Do not mislead the listeners. This patent mainly focuses on what sound or audible signal is to be output through the audio speaker. The inventor has recognized that there is room to improve the emergency broadcast system to help to respond quickly and efficiently to emergency situations by more actively utilizing the advantage that useful emergency broadcasts are maintained.

비상 상황을 알리는 비상 방송을 위한 개선된 시스템, 장치 및 기법이 본 문서에 개시된다.Improved systems, devices, and techniques for emergency broadcasts that signal emergency situations are disclosed herein.

적어도 하나의 실시예에 따르면, 비상 상황에 대한 음성 인식 기반의 다각화된 통지를 위한 비상 방송 시스템이 제공된다. 위 시스템은, 복수의 사전정의된 오디오 데이터세트가 내부에 저장되고, 위 비상 상황의 발생 후에 음원에서 유래하는 오디오 데이터의 수신을 개시하는 방송 수신 장치와, 위 비상 상황을 알리는 비상 방송을 위한 입력 오디오 신호에 따라 소리를 출력하는 오디오 스피커를 포함하는 방송 출력 장치와, 음성 인식 메커니즘을 포함하는 텍스트 도출 장치를 포함하되, 위 텍스트 도출 장치는 위 음성 인식 메커니즘을 사용함으로써 위 소리에 대응하는 텍스트를 도출하고, 위 입력 오디오 신호는 위 오디오 데이터의 수신된 부분이거나, 위 복수의 사전정의된 오디오 데이터세트 중 적어도 하나이며, 위 입력 오디오 신호가 위 수신된 부분인지 또는 위 복수의 사전정의된 오디오 데이터세트 중 적어도 하나인지에 따라, 위 음성 인식 메커니즘은 상이한 모델에 기반하여 음성 인식을 수행하는 것을 수반한다.According to at least one embodiment, an emergency broadcasting system for diversifying notification based on voice recognition for an emergency situation is provided. In the above system, a plurality of predefined audio data sets are stored therein, and a broadcast receiving device that starts receiving audio data originating from a sound source after the occurrence of the emergency situation, and an input for emergency broadcasting informing the emergency situation A broadcast output device including an audio speaker outputting sound according to an audio signal, and a text derivation device including a speech recognition mechanism, wherein the text derivation device uses the speech recognition mechanism to generate text corresponding to the sound. Derived, the input audio signal is a received portion of the audio data, or is at least one of the plurality of predefined audio data sets, and the input audio signal is the received portion or the plurality of predefined audio data Depending on whether it is at least one of the sets, the above speech recognition mechanism involves performing speech recognition based on different models.

적어도 하나의 실시예에 따르면, 비상 상황에 대한 음성 인식 기반의 다각화된 통지를 위한 텍스트 도출 장치가 제공된다. 위 텍스트 도출 장치는, 프로세서와, 컴퓨터 실행가능 명령어가 저장된 컴퓨터 판독가능 저장 매체를 포함하되, 위 컴퓨터 실행가능 명령어는 위 프로세서에 의해 실행되는 경우 위 프로세서로 하여금, 위 텍스트 도출 장치 상에 음성 인식 메커니즘을 구현하는 동작과, 위 비상 상황을 알리는 비상 방송을 위한 입력 오디오 신호에 따라 오디오 스피커로부터 출력된 소리에 대응하는 텍스트를, 위 음성 인식 메커니즘을 사용함으로써 도출하는 동작을 수행하도록 하고, 위 입력 오디오 신호는 위 비상 상황의 발생 후에 음원에서 유래하는 오디오 데이터의 수신된 부분이거나, 복수의 사전정의된 오디오 데이터세트 중 적어도 하나이며, 위 입력 오디오 신호가 위 수신된 부분인지 또는 위 복수의 사전정의된 오디오 데이터세트 중 적어도 하나인지에 따라, 위 음성 인식 메커니즘은 상이한 모델에 기반하여 음성 인식을 수행하는 것을 수반한다.According to at least one embodiment, a text derivation apparatus for diversified notification based on speech recognition for an emergency situation is provided. The text derivation apparatus includes a processor and a computer readable storage medium in which computer executable instructions are stored, wherein the computer executable instructions, when executed by the processor, cause the processor to recognize speech on the text derivation apparatus. In order to perform the operation of implementing the mechanism, and to derive the text corresponding to the sound output from the audio speaker according to the input audio signal for emergency broadcast informing the emergency, by using the above voice recognition mechanism, and performing the above input The audio signal is a received portion of audio data originating from a sound source after the occurrence of the above emergency, or is at least one of a plurality of predefined audio data sets, and the input audio signal is the received portion or the plurality of predefined Depending on whether it is at least one of the audio datasets, the above speech recognition mechanism involves performing speech recognition based on different models.

적어도 하나의 실시예에 따르면, 비상 상황에 대한 음성 인식 기반의 다각화된 통지를 위한 텍스트 도출 장치에 의해 수행되는 방법이 제공된다. 위 방법은, 위 텍스트 도출 장치 상에 음성 인식 메커니즘을 구현하는 단계와, 위 비상 상황을 알리는 비상 방송을 위한 입력 오디오 신호에 따라 오디오 스피커로부터 출력된 소리에 대응하는 텍스트를, 위 음성 인식 메커니즘을 사용함으로써 도출하는 단계를 포함하되, 위 입력 오디오 신호는 위 비상 상황의 발생 후에 음원에서 유래하는 오디오 데이터의 수신된 부분이거나, 복수의 사전정의된 오디오 데이터세트 중 적어도 하나이며, 위 입력 오디오 신호가 위 수신된 부분인지 또는 위 복수의 사전정의된 오디오 데이터세트 중 적어도 하나인지에 따라, 위 음성 인식 메커니즘은 상이한 모델에 기반하여 음성 인식을 수행하는 것을 수반한다.According to at least one embodiment, a method provided by a text derivation device for diversified notification based on speech recognition for an emergency is provided. The above method comprises the steps of implementing a voice recognition mechanism on the above text derivation device and text corresponding to sound output from an audio speaker according to an input audio signal for emergency broadcasting informing the above emergency situation. And deriving by using, wherein the input audio signal is a received portion of audio data originating from a sound source after the occurrence of the above emergency, or is at least one of a plurality of predefined audio data sets, and the input audio signal is Depending on whether it is the received portion or at least one of the plurality of predefined audio datasets, the speech recognition mechanism involves performing speech recognition based on different models.

전술된 개요는 상세한 설명에서 추가로 후술되는 몇몇 양상을 단순화된 형태로 소개하기 위해 제공된다. 이 개요는 청구된 주제(subject matter)의 중요 특징 또는 필수적 특징을 식별하도록 의도되지 않고, 청구된 주제의 범위를 정하는 데 사용되도록 의도되지도 않는다. 나아가, 청구된 주제는 본 명세서에서 논의되는 임의의 또는 모든 이점을 제공하는 구현에 한정되지 않는다.The foregoing summary is provided to introduce some aspects that are further described below in the detailed description in a simplified form. This summary is not intended to identify key features or essential features of the subject matter, nor is it intended to be used to scope the claimed subject matter. Furthermore, the claimed subject matter is not limited to implementations that provide any or all of the advantages discussed herein.

본 발명의 실시예에 따르면, 비상 상황을 알리는 비상 방송이 진행되는 동안에 스피커로부터 출력된 소리에 대응하는 텍스트를 도출하고, 이를 사용하여 다양한 방식으로 비상 상황을 통지하는 것이 가능하다.According to an embodiment of the present invention, it is possible to derive a text corresponding to a sound output from a speaker while an emergency broadcast informing of an emergency situation is performed, and use it to notify the emergency situation in various ways.

본 발명의 실시예에 따르면, 비상 상황을 알리는 오디오 데이터가 음원에서 유래한 것인지 또는 사전정의된 것인지에 따라, 음성 인식 모델이 상이하게 적용가능한바, 비상 상황에 대한 다각화된 통지에 요구되는 텍스트가 더욱 정확히 도출될 수 있다.According to an embodiment of the present invention, depending on whether the audio data indicating the emergency situation is derived from a sound source or is predefined, the voice recognition model is differently applicable, so that the text required for diversified notification of the emergency situation is further It can be accurately derived.

도 1은 본 발명의 실시예에 따라, 비상 상황을 알리는 비상 방송을 위한 방송 시스템을 개략적으로 도시한다.
도 2는 본 발명의 실시예에 따른 텍스트 도출 장치의 동작을 설명하기 위한 도면이다.
도 3은 본 발명의 실시예에 적합한 예시적인 텍스트 도출 장치의 개략적인 블록도이다.
1 schematically illustrates a broadcasting system for emergency broadcasting informing an emergency situation according to an embodiment of the present invention.
2 is a view for explaining the operation of the text derivation apparatus according to an embodiment of the present invention.
3 is a schematic block diagram of an exemplary text derivation apparatus suitable for an embodiment of the present invention.

이하에서는, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다. 본 발명은 여러 가지 실시예를 가질 수 있고, 몇몇 실시예가 본 명세서에 개시된다. 그러나, 이는 본 발명에 대한 한정이 아니라 예시로서 제공되며, 본 발명의 사상 및 범주에 속하는 모든 변환, 균등물 내지 대체물을 망라하는 것으로 이해되어야 한다. 개시된 실시예에 따른 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 다음의 상세한 설명에서 특정한 세부사항이 제공되는데, 몇몇 실시예는 이들 세부사항 중 일부 또는 전부가 없더라도 실시될 수 있다. 또한, 본 발명의 다양한 양상을 불필요하게 모호하게 하지 않도록 공지 기술의 구체적인 설명은 생략될 수 있다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The invention may have several embodiments, several of which are disclosed herein. However, this is provided as an illustration, not a limitation, of the present invention, and it should be understood that it encompasses all transformations, equivalents, and substitutes falling within the spirit and scope of the present invention. Specific details are provided in the following detailed description to aid a comprehensive understanding of the method, apparatus, and/or system according to the disclosed embodiments, and some embodiments may be practiced without some or all of these details. In addition, detailed descriptions of known techniques may be omitted so as not to unnecessarily obscure various aspects of the present invention.

후술되는 용어는 단지 특정 실시예를 설명하기 위해 사용된 것으로, 한정적 의미로 고려되고자 의도된 것이 아니다. 단수 형태의 표현은 명확하게 달리 사용되지 않는 한, 복수 형태의 의미를 포함한다. 또한, 이 문서에서, "포함하다" 또는 "가지다"와 같은 용어는 어떤 특징, 숫자, 단계, 동작, 구성요소, 정보 또는 이들의 조합이 존재함을 나타내려는 것이며, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 정보 또는 이들의 조합의 존재 또는 가능성을 배제하지 않는 것으로 이해되어야 한다.The terms described below are only used to describe specific embodiments and are not intended to be considered in a limiting sense. Singular forms of expression include the meaning of the plural form, unless expressly used otherwise. Also, in this document, terms such as “include” or “have” are intended to indicate the presence of any feature, number, step, action, component, information, or combinations thereof, and one or more other features, It should be understood that it does not exclude the presence or possibility of numbers, steps, actions, elements, information, or combinations thereof.

도 1은 본 발명의 실시예에 따라, 비상 상황을 알리는 비상 방송을 위한 방송 시스템(100)을 개략적으로 도시한다. 아래에서 더욱 상세히 논의되는 바와 같이, 예시적인 방송 시스템(100)은 음성 인식을 기반으로 비상 상황을 다양한 방식으로 통지하는 것을 가능하게 할 수 있다.1 schematically illustrates a broadcasting system 100 for emergency broadcasting informing an emergency situation according to an embodiment of the present invention. As discussed in more detail below, the exemplary broadcast system 100 may enable notification of an emergency situation in various ways based on speech recognition.

도 1에 도시된 바와 같이, 예시적인 방송 시스템(100)은 방송 송신 장치(120), 방송 수신 장치(140), 방송 출력 장치(160) 및 텍스트 도출 장치(180)를 포함한다. 예를 들어, 방송 시스템(100)은 전관방송(Public Address: PA) 시스템일 수 있다.As illustrated in FIG. 1, the exemplary broadcast system 100 includes a broadcast transmission device 120, a broadcast reception device 140, a broadcast output device 160, and a text derivation device 180. For example, the broadcast system 100 may be a public address (PA) system.

도시된 바와 같이, 방송 송신 장치(120)와 방송 수신 장치(140)는 송신 매체(130)를 통하여 통신가능하게 커플링될(communicatively coupled) 수 있다. 도 1에는 편의상 1개의 방송 수신 장치(140)가 도시되었으나, 몇몇 실시예에서 방송 송신 장치(120)와 커플링된 방송 수신 장치는 2개 이상일 수 있다. 또한, 예로서, 그러한 커플링 각각은 별개의 송신 매체에 대응할 수 있다. 도시된 바와 같이, 방송 수신 장치(140)와 방송 출력 장치(160)는 송신 매체(150)를 통하여 통신가능하게 커플링될 수 있다. 도 1에는 편의상 1개의 방송 출력 장치(160)가 도시되었으나, 몇몇 실시예에서 방송 수신 장치(140)와 커플링된 방송 출력 장치는 2개 이상일 수 있다. 또한, 예로서, 그러한 커플링 각각은 별개의 송신 매체에 대응할 수 있다. 도시된 바와 같이, 방송 출력 장치(160)와 텍스트 도출 장치(180)는 송신 매체(170)를 통하여 통신가능하게 커플링될 수 있다. 도 1에는 편의상 1개의 방송 출력 장치(160)가 텍스트 도출 장치(180)에 커플링된 것으로 도시되었으나, 몇몇 실시예에서 텍스트 도출 장치(180)와 커플링된 방송 출력 장치는 2개 이상일 수 있다. 또한 예로서, 그러한 커플링 각각은 별개의 송신 매체에 대응할 수 있다. 실시예에서, 각각의 송신 매체(예를 들어, 송신 매체(130, 150, 170))는 유선 송신 매체(예를 들어, 송신 선로(transmission line), 전화선(telephone line), 꼬임쌍선(twisted pair line), 동축 케이블(coaxial cable), 광섬유(optical fiber) 등등), 무선 송신 매체(예를 들어, 무선 네트워크를 위한 RF, 무선 통신을 위한 전자기파(electromagnetic wave) 등등), 또는 이들의 조합일 수 있다. 다만, 몇몇 다른 실시예에서, 방송 출력 장치(160)와 텍스트 도출 장치(180)는 (가령, 하나의 폼 팩터(form factor) 내에) 함께 통합될 수도 있다는 점에 유의하여야 한다. 나아가, 어떤 실시예에서, 텍스트 도출 장치(180)는 유선 및/또는 무선 통신 기능을 구비한 컴퓨팅 장치, 예컨대, 컴퓨팅 장치(191)(예를 들면, 서버 컴퓨터, 데스크톱 컴퓨터, 랩톱 컴퓨터, 개인용 컴퓨터 등등), 모바일 컴퓨팅 장치(192)(예를 들면, 스마트폰, 태블릿, 휴대폰, 개인용 디지털 보조기기(Personal Digital Assistant: PDA), 기타 모바일 컴퓨팅 장치 등등), 마이크로프로세서 기반 컴퓨팅 장치(193)(예를 들면, 디스플레이와 커플링되어 디스플레이 상에서의 제시를 위한 처리를 수행하는 마이크로프로세서 또는 제어기를 구비한 컴퓨팅 장치) 및/또는 주행체내(in-vehicle) 컴퓨팅 장치(194)(예를 들면, 자동차, 드론 등등과 같은 주행체에 임베딩된(embedded) 컴퓨팅 장치)에 네트워크(190)를 통해 통신가능하게 커플링될 수 있다. 실시예에서, 네트워크(190)는 이더넷(Ethernet)과 같은 유선 네트워크, 무선 로컬 영역 네트워크(Wireless Local Area Network: WLAN)(가령, 와이파이(Wi-Fi)), 무선 개인 영역 네트워크(Wireless Personal Area Network: WPAN)(가령, 블루투스(Bluetooth), 지그비(Zigbee), 근접장 통신(Near Field Communication: NFC), 무선 주파수 식별(Radio Frequency Identification: RFID)), 무선 광역 네트워크(Wireless Wide Area Network: WWAN) 내지 전기통신 네트워크(가령, 3세대(3rd Generation: 3G), 4세대(4th Generation: 4G), 5세대(5th Generation: 5G) 또는 이후의 차세대 무선 통신 네트워크) 등등과 같은 무선 네트워크, 또는 이의 임의의 적절한 조합을 포함할 수 있다.As illustrated, the broadcast transmission device 120 and the broadcast reception device 140 may be communicatively coupled through the transmission medium 130. 1, for convenience, one broadcast receiving device 140 is illustrated, but in some embodiments, two or more broadcast receiving devices coupled with the broadcast transmitting device 120 may be provided. Also, by way of example, each such coupling can correspond to a separate transmission medium. As illustrated, the broadcast receiving device 140 and the broadcast output device 160 may be communicatively coupled through the transmission medium 150. 1, for convenience, one broadcast output device 160 is illustrated, but in some embodiments, two or more broadcast output devices coupled with the broadcast reception device 140 may be provided. Also, by way of example, each such coupling can correspond to a separate transmission medium. As illustrated, the broadcast output device 160 and the text derivation device 180 may be communicatively coupled through the transmission medium 170. In FIG. 1, for convenience, one broadcast output device 160 is illustrated as coupled to the text derivation device 180, but in some embodiments, two or more broadcast output devices coupled with the text derivation device 180 may be provided. . Also by way of example, each such coupling can correspond to a separate transmission medium. In an embodiment, each transmission medium (e.g., transmission medium 130, 150, 170) is a wired transmission medium (e.g., a transmission line, a telephone line, a twisted pair) line, coaxial cable, optical fiber, etc.), wireless transmission media (eg, RF for wireless networks, electromagnetic waves for wireless communications, etc.), or combinations thereof. have. However, it should be noted that, in some other embodiments, the broadcast output device 160 and the text derivation device 180 may be integrated together (eg, in one form factor). Furthermore, in some embodiments, the text derivation device 180 is a computing device with wired and/or wireless communication functions, such as a computing device 191 (eg, a server computer, desktop computer, laptop computer, personal computer) Etc.), mobile computing devices 192 (e.g., smartphones, tablets, cell phones, personal digital assistants (PDAs), other mobile computing devices, etc.), microprocessor-based computing devices 193 (e.g. For example, a computing device coupled with a display and having a microprocessor or controller that performs processing for presentation on the display) and/or an in-vehicle computing device 194 (e.g., an automobile, It may be communicatively coupled via a network 190 to a computing device embedded in a vehicle such as a drone or the like. In an embodiment, the network 190 is a wired network, such as Ethernet, a Wireless Local Area Network (WLAN) (eg, Wi-Fi), a Wireless Personal Area Network : WPAN (for example, Bluetooth, Zigbee, Near Field Communication (NFC), Radio Frequency Identification (RFID)), Wireless Wide Area Network (WWAN) to A wireless network such as a telecommunications network (eg, 3rd Generation (3G), 4th Generation (4G), 5th Generation (5G) or later next generation wireless communication network), etc., or any of its Any suitable combination can be included.

예컨대, 방송 수신 장치(140)는 어떤 건물의 통제실 또는 전산실에 배치될 수 있고, 방송 수신 장치(140)와 커플링된 각 방송 출력 장치(가령, 방송 출력 장치(160))가 그 건물의 각 층에 설치될 수 있으며, 적어도 하나의 방송 출력 장치와 커플링된 텍스트 도출 장치(가령, 텍스트 도출 장치(180))도 해당 층에 자신의 커플링된 방송 출력 장치와 일체화되어 또는 그로부터 멀지 않은 거리에 설치될 수 있다. 방송 송신 장치(120)는 방송 수신 장치(140)를 비롯하여 다수의 방송 수신 장치와 커플링되어서 이들과 통신하고 이들을 제어할 수 있다. 방송 송신 장치(120)는 이들이 위치된 동일한 건물 내에 위치되거나, 이들로부터 원격인 곳에 위치될 수 있다.For example, the broadcast reception device 140 may be disposed in a control room or computer room of a building, and each broadcast output device (eg, broadcast output device 160) coupled with the broadcast reception device 140 may be disposed in each building. A text derivation device (e.g., text derivation device 180) coupled to at least one broadcast output device, which may be installed on a floor, is also integrated with its coupled broadcast output device on the floor or is not far from it. Can be installed on. The broadcast transmission device 120 may be coupled to and control the broadcast reception device 140 and a plurality of broadcast reception devices. The broadcast transmission devices 120 may be located in the same building where they are located, or may be located remote from them.

방송 시스템(100)의 예시적인 동작Exemplary operation of broadcast system 100

본 발명의 몇몇 실시예에 따르면, 방송 시스템(100)은 다음과 같이 동작할 수 있다.According to some embodiments of the present invention, the broadcast system 100 may operate as follows.

예시적인 방송 송신 장치(120)는 방송용 음원에서 유래하는 오디오 데이터를 포함하는 어떤 포맷의 데이터(이하에서 "음원 데이터"로 지칭될 수도 있음)를 방송 수신 장치(140)로 송출하도록 구성된다. 방송용 음원의 예는 방송 수신 장치(140)로부터 원격인 마이크(이하에서 "원격 마이크"(Remote Microphone: RM)로 지칭될 수도 있음), CD 플레이어(Compact Disc Player: CDP), 텍스트 대 발화(Text-To-Speech: TTS) 합성기 등등을 포함한다. 예로서, 방송 송신 장치(120)는 음원의 유형/종류와 무관하게 스트리밍(streaming) 방식으로 음원 데이터를 방송 수신 장치(140)로 전송할 수 있다. 또한, 방송 송신 장치(120)는 음원으로부터의 오디오 데이터 외에도, 음원의 유형을 나타내는 정보를 음원 데이터 내에(가령, 음원 데이터의 헤더(header) 부분에) 포함시켜, 음원 데이터를 송출할 수 있다.The exemplary broadcast transmission device 120 is configured to transmit data of a format (which may be referred to as “sound source data” below) including audio data originating from a broadcast sound source to the broadcast reception device 140. Examples of the sound source for broadcasting are a microphone remote from the broadcast receiving device 140 (hereinafter, may also be referred to as "remote microphone" (RM)), a CD player (Compact Disc Player: CDP), text to speech (Text -To-Speech: TTS) Synthesizer etc. For example, the broadcast transmission device 120 may transmit sound source data to the broadcast reception device 140 in a streaming manner regardless of the type/type of the sound source. In addition, the broadcast transmission device 120 may include, in addition to audio data from a sound source, information indicating the type of the sound source in the sound source data (eg, in a header portion of the sound source data) to transmit sound source data.

실시예에서, 방송 송신 장치(120)는 특정 음원과의 사용자 상호작용을 위한 사용자 인터페이스를 제공할 수 있다. 예를 들면, 사용자 인터페이스는 어떤 상호작용을 행하기 위한 사용자 입력을 수신할 수 있는데, 그 상호작용은 음원으로부터 방송 송신 장치(120)로 오디오 데이터가 제공되게 하거나, 오디오 데이터 및 다른 데이터 부분(가령, 헤더 부분)을 포함하는 음원 데이터가 제공되게 할 수 있다. 예로서, CDP에 삽입된 CD에 기록된 어떤 오디오 트랙을 선택하는 사용자 입력을 사용자 인터페이스가 수신하는 것에 응답하여, 방송 송신 장치(120)는 그 오디오 트랙의 데이터를 포함하는 음원 데이터를 획득할 수 있다. 다른 예에서, RM 상에서의 발화(speech)를 위한 사용자 입력을 사용자 인터페이스가 수신하는 것에 응답하여, 방송 송신 장치(120)는 RM에 입력된 소리로부터 생성된 오디오 데이터를 포함하는 음원 데이터를 획득할 수 있다. 또 다른 예에서, TTS 합성기에 문구를 입력하는 사용자 입력을 사용자 인터페이스가 수신하는 것에 응답하여, 방송 송신 장치(120)는 TTS 합성기에 의해 그 문구로부터 생성된 오디오 데이터를 포함하는 음원 데이터를 획득할 수 있다. 이와 같이 획득된 음원 데이터는 방송 송신 장치(120)로부터 송신 매체(130)를 통해 방송 수신 장치(140)로 전송될 수 있다.In an embodiment, the broadcast transmission device 120 may provide a user interface for user interaction with a specific sound source. For example, the user interface may receive user input for performing some interaction, the interaction causing audio data to be provided from the sound source to the broadcast transmission device 120, or audio data and other data portions (eg , Header portion) can be provided. For example, in response to the user interface receiving a user input for selecting an audio track recorded on a CD inserted in the CDP, the broadcast transmission device 120 may acquire sound source data including data of the audio track. have. In another example, in response to the user interface receiving a user input for speech on the RM, the broadcast transmission device 120 may acquire sound source data including audio data generated from sound input to the RM. Can be. In another example, in response to the user interface receiving a user input for inputting a phrase to the TTS synthesizer, the broadcast transmission device 120 obtains sound source data including audio data generated from the phrase by the TTS synthesizer. Can be. The sound source data thus obtained may be transmitted from the broadcast transmission device 120 to the broadcast reception device 140 through the transmission medium 130.

예시적인 방송 수신 장치(140)는 일반 방송 모드와 비상 방송 모드를 가진다. 일반 방송 모드 하에서, 방송 수신 장치(140)는 비상 상황(예컨대, 방송 수신 장치(140), 방송 출력 장치(160) 및 텍스트 도출 장치(180)가 위치된 건물 내의 화재, 정전, 침수, 또는 다른 유형의 사고 등등)이 발생하였는지 여부를 지속적으로 확인하고, 비상 상황의 발생 여부에 따라 상이한 방식으로 동작하도록 구성된다. 예를 들어, 정상적인 상황에서, 방송 수신 장치(140)는 일반 방송을 위해 방송 송신 장치(120)로부터 수신된 음원 데이터 내의 오디오 데이터를 방송 출력 장치(160)로 전송할 수 있다. 비상 상황에서, 방송 수신 장치(140)는 비상 방송 모드로 진입하여 비상 방송 프로세스(예컨대, 한국 등록특허 제10-1868085호에 제시된 바와 같은 프로세스)에 따라 비상 방송을 위한 오디오 데이터를 방송 출력 장치(160)로 전송할 수 있고, 비상 방송이 수행되는 도중에 비상 상황이 해소된 경우 비상 방송 모드에서 일반 방송 모드로 빠져나올 수 있다.The exemplary broadcast receiving device 140 has a normal broadcast mode and an emergency broadcast mode. Under the normal broadcast mode, the broadcast receiving device 140 may be used in an emergency situation (eg, a broadcast receiving device 140, a broadcasting output device 160, and a fire, power failure, flooding, or other in the building where the text derivation device 180 is located). Tangible accidents, etc.) are continuously checked and configured to operate in different ways depending on whether an emergency situation has occurred. For example, in a normal situation, the broadcast reception device 140 may transmit audio data in the sound source data received from the broadcast transmission device 120 to the broadcast output device 160 for general broadcast. In an emergency situation, the broadcast receiving device 140 enters the emergency broadcasting mode and transmits audio data for emergency broadcasting according to the emergency broadcasting process (for example, a process as disclosed in Korean Patent Registration No. 10-1868085). 160), and when the emergency situation is resolved while the emergency broadcast is being performed, the emergency broadcast mode may exit from the normal broadcast mode.

예시적인 방송 출력 장치(160)는 입력된 오디오 데이터에 따라 소리를 출력하는 오디오 스피커를 포함한다. 예를 들어, 방송 출력 장치(160)의 오디오 스피커는 비상 상황을 알리는 비상 방송을 위해 방송 수신 장치(140)로부터 전송된 입력 오디오 신호에 따라 소리를 출력할 수 있다. 방송 수신 장치(140)는 비상 방송을 위해, 그러한 입력 오디오 신호로서, 방송 수신 장치(140)가 수신한 음원 데이터 부분 또는 방송 수신 장치(140) 내에 저장된 사전정의된 오디오 데이터세트를 방송 출력 장치(160)에 제공할 수 있다. 예를 들어, 방송 수신 장치(140)는 특정 음원에서 유래하는 오디오 데이터를 포함하는 음원 데이터를 방송 송신 장치(120)로부터 수신함에 응답하여, 비상 방송 모드로 진입하고 방송 수신 장치(140)에 의해 수신된 오디오 데이터를 방송 출력 장치(160)로 전송할 수 있다. 다른 예로서, 방송 수신 장치(140)는 비상 상황의 발생을 감지한 장치로부터 그러한 감지의 결과를 나타내는 신호를 수신함에 응답하여, 비상 방송 모드로 진입하고 방송 수신 장치(140)에 저장된 사전정의된 오디오 데이터세트를 방송 출력 장치(160)로 전송할 수 있다. 다만, 음원 데이터는 관리자에 의해 직접 조작될 수 있는 음원에서 유래하므로, 음원 데이터의 수신이 비상 상황의 감지 신호의 수신보다 우선시될 수 있다는 점(예컨대, 사전정의된 오디오 데이터세트를 방송 출력 장치(160)에 전송하는 도중에 음원 데이터를 수신하는 경우, 방송 수신 장치(140)는 전자의 전송을 중단하고 후자를 방송 출력 장치(160)에 전송하기 시작할 수 있음)에 유의하여야 한다.The exemplary broadcast output device 160 includes an audio speaker that outputs sound according to input audio data. For example, the audio speaker of the broadcast output device 160 may output sound according to an input audio signal transmitted from the broadcast reception device 140 for emergency broadcast informing of an emergency situation. The broadcast receiving device 140 is a broadcast output device (such as an input audio signal) or a predefined audio data set stored in the broadcast receiving device 140 as an input audio signal for emergency broadcasting. 160). For example, the broadcast reception device 140 enters the emergency broadcast mode in response to receiving sound source data including audio data originating from a specific sound source from the broadcast transmission device 120, and is broadcast by the broadcast reception device 140. The received audio data may be transmitted to the broadcast output device 160. As another example, the broadcast reception device 140 may enter an emergency broadcast mode in response to receiving a signal indicating the result of such a detection from a device that has detected the occurrence of an emergency situation, and enters an emergency broadcast mode and is predefined in the broadcast reception device 140. The audio data set can be transmitted to the broadcast output device 160. However, since the sound source data originates from a sound source that can be directly manipulated by an administrator, reception of the sound source data may take precedence over reception of a detection signal in an emergency situation (for example, a predefined audio dataset broadcast output device ( When receiving sound source data during transmission to 160), it should be noted that the broadcast reception device 140 may stop transmitting the former and start transmitting the latter to the broadcast output device 160).

구체적으로, 몇몇 실시예에서, 예시적인 방송 시스템(100)은 어떤 여건 하에서도 가능한 한 충실하게 비상 상황을 알리는 비상 방송을 가능하게 하여, 충분히 오래 비상 방송을 유지하면서도 비상 방송을 듣는 이들을 오도하지 않도록 하는데, 특히 방송 송신 장치(120)로부터 방송 수신 장치(140)로의 음원 데이터의 전송에 이상이 발생한 경우(예컨대, 송신 매체(130)가 단절되거나 이상이 발생한 경우, 방송 송신 장치(120)가 고장 나거나 이상이 발생한 경우 등등)에도 그러하다. 구체적으로, 방송 수신 장치(140)는 비상 상황이 발생한 후 방송 송신 장치(120)로부터 비상 방송을 위한 음원 데이터를 수신하는 경우(즉, 방송 송신 장치(120)로부터 방송 수신 장치(140)로의 음원 데이터의 전송이 정상적인 경우), 수신된 음원 데이터 내의 오디오 데이터를 방송 출력 장치(160)로 전송할 수 있다. 나아가, 비상 상황이 발생한 후 방송 송신 장치(120)로부터 방송 수신 장치(140)로의 음원 데이터의 전송에 이상이 발생하기 십상인데, 이와 같이 방송 수신 장치(140)에 의한 음원 데이터의 수신이 가용하지(available) 않게 된 경우에 방송 수신 장치(140)는 비상 방송의 유지를 위해 다음을 포함하는 오디오 데이터를 방송 출력 장치(160)에 제공할 수 있다:Specifically, in some embodiments, the exemplary broadcast system 100 enables emergency broadcasts to report emergency situations as faithfully as possible under any circumstances, so as to maintain emergency broadcasts for a long enough time and not mislead those who listen to emergency broadcasts. However, in particular, when an abnormality occurs in the transmission of sound source data from the broadcast transmission device 120 to the broadcast reception device 140 (for example, when the transmission medium 130 is disconnected or an abnormality occurs, the broadcast transmission device 120 malfunctions) The same is true for me, or if something goes wrong. Specifically, the broadcast receiving device 140 receives sound source data for emergency broadcasting from the broadcast transmission device 120 after an emergency situation occurs (that is, the sound source from the broadcast transmission device 120 to the broadcast reception device 140) When data transmission is normal), audio data in the received sound source data may be transmitted to the broadcast output device 160. Furthermore, after an emergency situation occurs, it is apt to cause an abnormality in the transmission of sound source data from the broadcast transmission device 120 to the broadcast reception device 140. Thus, reception of the sound source data by the broadcast reception device 140 is not available. When it becomes unavailable, the broadcast receiving device 140 may provide audio data including the following to the broadcast output device 160 to maintain the emergency broadcast:

- 방송 수신 장치(140) 내부에 미리 저장되어 있는 하나 이상의 사전정의된 오디오 데이터세트, 그리고/또는-One or more predefined audio datasets stored in advance in the broadcast receiving device 140, and/or

- 비상 방송을 위한 음원 데이터 전송이 정상적이었던 동안에 방송 수신 장치(140)에서 수신되어 방송 수신 장치(140) 내에 저장된 오디오 데이터세트.-Audio data set received in the broadcast receiving device 140 and stored in the broadcast receiving device 140 while the transmission of sound source data for emergency broadcasting was normal.

한편, 예시적인 텍스트 도출 장치(180)는 후술되는 바와 같이 음성 인식 기법을 사용하여 비상 상황에 대한 통지를 다각화할 수 있다. 그러한 통지는, 예컨대, 자막 생성 서비스, 문자 메시지 서비스, 재난 상황 접수 서비스, 재난 상황 분석 및 대책 활용 서비스 등등에서 사용될 수 있다.On the other hand, the exemplary text derivation device 180 may diversify notifications about an emergency situation using a voice recognition technique as described below. Such notifications can be used, for example, in caption generation services, text message services, disaster situation acceptance services, disaster situation analysis and countermeasure utilization services, and the like.

예시적인 사전정의된 오디오 데이터세트들Exemplary predefined audio datasets

실시예에서, 복수의 사전정의된 오디오 데이터세트 각각은 특정한 비상 상황 발화, 가령 "1층에 화재 발생. 옥상으로 대피하세요."라는 비상 상황 안내 문구의 발화를 나타낼 수 있다. 복수의 사전정의된 오디오 데이터세트 중 적어도 몇몇은 일단의 정형화된(formatted) 비상 상황 발화를 나타낼 수 있다. 그러한 정형화된 비상 상황 발화들은 동일한 포맷을 공유하지만, 각각은 고유하게, 곧 서로 상이하게 비상 상황을 특징짓는 적어도 하나의 발화 단편(speech fragment)을 가진다. 예를 들어, 복수의 사전정의된 오디오 데이터세트 중 적어도 몇몇은 "[A]에 [B] 발생. [C]으로 신속히 대피하세요."와 같은 포맷으로 사고 장소, 사고 유형 및 피난 장소를 서술하는 비상 상황 안내 문구의 발화를 나타낼 수 있는데, 여기서 [A]는 사고 장소(예컨대, 1층, 5층 전산실, 강당 등)를, [B]는 사고 유형(예컨대, 화재, 정전, 침수 등)을, 그리고 [C]는 피난 장소(예컨대, 옥상, 현관, 비상 계단 등)를 서술하여 비상 상황을 특징짓기 위한 단편적 요소 또는 서술자(descriptor)이다. 나아가, 복수의 사전정의된 오디오 데이터세트는 다양한 수준의 비상 상황 발화를 나타낼 수 있는데, 각 수준의 비상 상황 발화는 상이한 수준의 상세함으로써 비상 상황을 알리는 데에 사용될 수 있다. 예를 들어, 복수의 사전정의된 오디오 데이터세트 중에는, 앞서 언급된 포맷의 상세화된 수준의 비상 상황 발화를 나타내는 사전정의된 오디오 데이터세트 외에도, 임의의 비상 상황을 위해 작성된 일반화된 수준의 비상 상황 발화(예컨대, "건물에 사고 발생. 안전한 곳으로 대피하세요." 또는 "건물에 사고 발생."과 같은 기본적인 비상 상황 안내 문구의 발화)를 나타내는 사전정의된 오디오 데이터세트 및/또는 위의 상세화된 수준의 비상 상황 발화보다 덜 상세화된 다른 수준의 비상 상황 발화(예컨대, "1층에 화재 발생."과 같은 비상 상황 안내 문구의 발화)가 있을 수 있다.In an embodiment, each of the plurality of predefined audio datasets may represent a specific emergency utterance, such as the utterance of an emergency guidance phrase such as "fire on the first floor. Evacuate to the rooftop." At least some of the plurality of predefined audio datasets may represent a group of formatted emergency situations. Such standardized emergency utterances share the same format, but each has at least one speech fragment that uniquely, or differently, characterizes the emergency situation. For example, at least some of the multiple predefined audio datasets describe the location of the accident, the type of accident, and the location of the evacuation in a format such as "[A] to [B]. Evacuate quickly with [C]." It can indicate the ignition of the emergency information phrase, where [A] is the location of the accident (eg, computer room on the 1st and 5th floor, auditorium, etc.), [B] is the type of accident (eg, fire, power outage, flooding, etc.) , And [C] are fragmentary elements or descriptors that characterize emergency situations by describing evacuation sites (eg, rooftops, porches, emergency stairs, etc.). Furthermore, a plurality of predefined audio datasets can represent various levels of emergency utterances, and each level of emergency utterances can be used to inform an emergency by different levels of detail. For example, among a plurality of predefined audio datasets, in addition to a predefined audio dataset representing a detailed level of emergency utterance in the aforementioned format, a generalized level emergency utterance created for any emergency situation Pre-defined audio datasets and/or detailed levels above (for example, utterances of basic emergency alerts such as "incident in buildings. Evacuate to a safe place" or "accident in buildings.") There may be other levels of emergency firing (e.g., firing of emergency instructions such as "fire on the ground floor.") that is less detailed than the emergency firing of.

실시예에서, 복수의 사전정의된 오디오 데이터세트 각각은 고유한 식별자(identifier)를 가질 수 있다. 또한, 사전정의된 오디오 데이터세트의 식별자는, 그 오디오 데이터세트가 나타내는 비상 상황 발화가 정형화된 것인 경우, 그러한 비상 상황 발화 내의 발화된 서술자(spoken descriptor), 즉 비상 상황을 특징짓는 발화 단편에 따라 정해질 수 있다. 예시를 위해, 모든 사전정의된 오디오 데이터세트가 "[A]에 [B] 발생. [C]으로 신속히 대피하세요." 또는 "[A]에 [B] 발생."과 같은 포맷의 발화된 비상 상황 안내 문구를 나타낸다고 가정하자. 또한, 사전정의된 오디오 데이터 세트들 중 임의의 하나에 대해서, 제1 유형의 서술자 [A]는 "건물", "1층", "5층 전산실" 및 "강당" 중 하나이고, 제2 유형의 서술자 [B]는 "사고", "화재", "정전" 및 "침수" 중 하나이며, 제3 유형의 서술자 [C]가 만약 존재한다면 서술자 [C]는 "안전한 곳", "옥상", "현관" 및 "비상 계단" 중 하나이고, 이들 서술자는 언급된 순서대로 "A0", "A1", "A2", "A3", "B0", "B1", "B2", "B3", "C0", "C1", "C2" 및 "C3"라는 식별자를 가진다고 가정하자. 이제, 사전정의된 오디오 데이터세트의 식별자는 그 오디오 데이터세트가 나타내는 비상 상황 발화 내의 발화된 서술자들의 식별자들의 연접(concatenation), 가령 "A[x]B[y]C[z]" 또는 "A[x]B[y]"의 형태를 가질 수 있는데, 여기서 [x], [y] 및 [z] 각각은 각자의 유형의 식별자에 대한 인덱스(index)이다(위 예에서는 [x], [y] 및 [z] 모두 0, 1, 2, 또는 3임). 예를 들어, 아래의 표는 몇몇 사전정의된 오디오 데이터세트에 대해서, 발화된 비상 상황 안내 문구 및 식별자를 보여준다:In an embodiment, each of the plurality of predefined audio datasets may have a unique identifier. In addition, the identifier of the predefined audio dataset is a spoken descriptor within the emergency utterance, i.e., the utterance fragment characterizing the emergency situation, if the emergency utterance represented by the audio dataset is standardized. It can be decided accordingly. As an example, all predefined audio datasets are "occur [B] to [A]. Evacuate quickly with [C]." Or, suppose that the [A] indicates a fire emergency message in a format such as [B]. Also, for any one of the predefined audio data sets, the first type of descriptor [A] is one of "building", "1st floor", "5th floor computer room" and "auditorium", and the second type The descriptor [B] is one of "accident", "fire", "blackout" and "immersion", and if the third type of descriptor [C] exists, descriptor [C] is "safe place", "roof" , "Front door" and "Emergency stairs", these descriptors are "A0", "A1", "A2", "A3", "B0", "B1", "B2", "B3 in the order mentioned. Suppose we have identifiers ", "C0", "C1", "C2" and "C3". Now, the identifier of the predefined audio dataset is the concatenation of the identifiers of the uttered descriptors in the emergency utterance indicated by the audio dataset, such as "A[x]B[y]C[z]" or "A [x]B[y]", where [x], [y], and [z] are indexes for each type of identifier ([x], [in the example above). y] and [z] are both 0, 1, 2, or 3). For example, the table below shows spoken emergency text and identifiers for some predefined audio datasets:

Figure 112019065611610-pat00001
Figure 112019065611610-pat00001

어떤 사전정의된 오디오 데이터세트의 식별자 내에 0의 인덱스를 갖는 서술자 식별자가 포함되거나 주어진 서술자 유형의 총 개수(위 예에서 3개) 미만의 서술자 식별자가 있는 경우(가령, 식별자가 A1B1, A0B1, A3B3C0, A0B0C0, 또는 A0B0인 경우), 그 오디오 데이터세트는 그렇지 않은 사전정의된 오디오 데이터세트(가령, 식별자가 A1B1C1, A3B3C3, A2B2C2인 경우)에 비해 덜 상세화된 수준의 것임이 위 표로부터 이해될 것이다.If the identifier of any predefined audio dataset contains a descriptor identifier with an index of 0 or less than the total number of descriptor types given (3 in the example above), for example, the identifiers are A1B1, A0B1, A3B3C0 , A0B0C0, or A0B0), it will be understood from the above table that the audio dataset is of a less detailed level than the predefined audio dataset (e.g., if the identifier is A1B1C1, A3B3C3, A2B2C2). .

실시예에서, 사전정의된 오디오 데이터세트는 장래의 비상 방송을 위해 미리 방송 송신 장치(120)로부터 방송 수신 장치(140)로 전송되어 방송 수신 장치(140) 내에 저장될 수 있다. 예를 들면, 비상 방송 모드 전에, 방송 송신 장치(120)의 마이크 상에서의 비상 상황 안내 문구의 라이브(live) 발화를 나타내는 오디오 데이터세트가 방송 송신 장치(120)로부터 방송 수신 장치(140)에 전송되어 방송 수신 장치(140)에 사전정의된 오디오 데이터세트로서 저장될 수 있다. 다른 예에서, 비상 방송 모드 전에, 방송 송신 장치(120)의 TTS 합성기에 의해 비상 상황 안내 문구가 오디오 데이터세트로 변환될 수 있고, TTS 합성기로부터 출력된 그 오디오 데이터세트가 방송 송신 장치(120)로부터 방송 수신 장치(140)에 전송되어 방송 수신 장치(140)에 사전정의된 오디오 데이터세트로서 저장될 수 있다.In an embodiment, the predefined audio data set may be transmitted from the broadcast transmission device 120 to the broadcast reception device 140 in advance for future emergency broadcasts and stored in the broadcast reception device 140. For example, before the emergency broadcast mode, an audio dataset representing live speech of an emergency situation phrase on the microphone of the broadcast transmission device 120 is transmitted from the broadcast transmission device 120 to the broadcast reception device 140 It can be stored in the broadcast receiving device 140 as a predefined audio data set. In another example, before the emergency broadcast mode, the emergency announcement message may be converted into an audio data set by the TTS synthesizer of the broadcast transmission device 120, and the audio data set output from the TTS synthesizer is broadcast transmission device 120. It can be transmitted to the broadcast receiving device 140 from and stored as a predefined audio data set in the broadcast receiving device 140.

또한, 사전정의된 오디오 데이터세트는 그것의 식별자와 더불어 방송 송신 장치(120)로부터 방송 수신 장치(140)로 전송될 수 있다. 이에 따라, 사전정의된 오디오 데이터세트는 자신의 식별자와 연관되어 방송 수신 장치(140) 내에 저장될 수 있다. 예를 들어, 복수의 사전정의된 오디오 데이터세트 각각은 이러한 식별자를 포함하는 파일명(filename)을 갖는 파일의 형태로 저장될 수 있다. 필요에 따라, 사전정의된 오디오 데이터세트는 자신의 식별자와 연관되어 방송 수신 장치(140)에 저장되되, 방송 송신 장치(120)에는 그 식별자만 저장될 수 있거나, 사전정의된 오디오 데이터세트가 (가령, 그 식별자와 연관되어) 방송 송신 장치(120) 및 방송 수신 장치(140) 양자 모두에 동기화되어 저장될 수도 있다.In addition, the predefined audio dataset may be transmitted from the broadcast transmission device 120 to the broadcast reception device 140 along with its identifier. Accordingly, the predefined audio dataset may be stored in the broadcast receiving device 140 in association with its own identifier. For example, each of the plurality of predefined audio datasets may be stored in the form of a file having a file name including this identifier. If necessary, the predefined audio dataset is stored in the broadcast receiving device 140 in association with its own identifier, but only the identifier can be stored in the broadcast transmitting device 120, or the predefined audio dataset ( For example, it may be stored in synchronization with both the broadcast transmission device 120 and the broadcast reception device 140 (associated with the identifier).

나아가, 사전정의된 오디오 데이터세트는 방송(일반 방송이든 또는 비상 방송이든)을 위한 음원 데이터의 전송 채널(가령, 송신 매체(130))을 통해, 또는 별도로 수립된 전송 채널(가령, 도시되지 않은 다른 송신 매체)을 통해, 방송 송신 장치(120)로부터 방송 수신 장치(140)로 전송될 수 있다.Furthermore, the predefined audio dataset may be transmitted through a transmission channel (eg, transmission medium 130) of sound source data for broadcasting (either general broadcast or emergency broadcast), or a separately established transmission channel (eg, not shown) It may be transmitted from the broadcast transmission device 120 to the broadcast reception device 140 through another transmission medium.

실시예에서, 방송 송신 장치(120)는 어떤 음원과의 상호작용을 행하기 위한 사용자 입력에 따라 비상 상황 발화를 나타내는 사전정의된 오디오 데이터세트를 획득하여 방송 수신 장치 내의 저장 및 장래의 비상 방송을 위해 이를 방송 수신 장치(140)로 전송할 수 있다. 또한, 사전정의된 오디오 데이터세트로서 방송 수신 장치(140)에 저장될 오디오 데이터세트를 사용자가 원하는 음원으로부터 획득하기 위해, 방송 송신 장치(120)는 앞서 언급된 사용자 인터페이스와 동일하거나 유사한 사용자 인터페이스를 제공할 수 있다. 예로서, 방송 송신 장치(120)의 사용자 인터페이스는 가능한 비상 상황 안내 문구의 포맷과 함께, 가능한 서술자들을 제시할 수 있다. 그러면, 서술자(들)를 선택하는 사용자 입력을 사용자 인터페이스가 수신하는 것에 응답하여, 방송 송신 장치(120)의 TTS 합성기는 선택된 서술자(들)를 포함하는 비상 상황 안내 문구로부터 그 문구의 발화를 나타내는 오디오 데이터세트를 생성할 수 있다. 이에 따라, 방송 송신 장치(120)는 생성된 오디오 데이터세트를 방송 수신 장치(140)로 송출할 수 있다. 또한, 방송 송신 장치(120)는 선택된 서술자들의 식별자들로부터 그러한 오디오 데이터세트의 식별자를 판정할 수 있다. 따라서, 방송 송신 장치(120)는 생성된 오디오 데이터세트와 함께 그 오디오 데이터세트의 식별자를 방송 수신 장치(140)로 송출할 수 있고, 방송 수신 장치(140)는 수신된 오디오 데이터세트를 그것의 식별자와 연관시켜 방송 수신 장치(140) 내부에 사전정의된 오디오 데이터세트로서 저장할 수 있다. 이와 같이, 사전정의된 오디오 데이터세트는 방송 수신 장치(140)로부터 원격인 방송 송신 장치(120)에서 사용자에 의해 편리하게 작성되고 통합적으로 관리될 수 있다.In an embodiment, the broadcast transmission device 120 acquires a predefined audio data set representing an emergency situation utterance according to a user input for interaction with a sound source, and stores and future emergency broadcasts in the broadcast reception device. For this, it can be transmitted to the broadcast receiving device 140. In addition, in order to obtain an audio data set to be stored in the broadcast receiving device 140 as a predefined audio data set from a sound source desired by the user, the broadcast transmitting device 120 uses the same or similar user interface as the aforementioned user interface. Can provide. As an example, the user interface of the broadcast transmission device 120 may present possible descriptors, along with a format of a possible emergency situation phrase. Then, in response to the user interface receiving the user input for selecting the descriptor(s), the TTS synthesizer of the broadcast transmission device 120 indicates the utterance of the phrase from the emergency guidance phrase including the selected descriptor(s) You can create an audio dataset. Accordingly, the broadcast transmission device 120 may transmit the generated audio data set to the broadcast reception device 140. Also, the broadcast transmission device 120 may determine the identifier of such an audio dataset from identifiers of selected descriptors. Accordingly, the broadcast transmitting device 120 may transmit the identifier of the audio data set together with the generated audio data set to the broadcast receiving device 140, and the broadcast receiving device 140 may transmit the received audio data set In association with the identifier, it may be stored as a predefined audio data set inside the broadcast receiving device 140. In this way, the predefined audio data set can be conveniently created and integrated by the user in the broadcast transmission device 120 remote from the broadcast reception device 140.

비상 방송 모드에서 수신되어 저장되는 오디오 데이터세트Audio data set received and stored in emergency broadcast mode

실시예에서, 방송 송신 장치(120)는 비상 상황의 발생 후에 비상 방송을 위해 음원에서 유래하는 오디오 데이터를 포함하는 음원 데이터를 획득할 수 있다. 이를 위해, 예컨대, 방송 송신 장치(120)는 앞서 언급된 바와 같이, 음원으로부터 방송 송신 장치(120)로 오디오 데이터를 포함하는 음원 데이터가 제공되게 할 수 있는 상호작용을 행하기 위한 사용자 입력을 수신하도록 구성된 사용자 인터페이스를 제공할 수 있다. 비상 방송을 위해, 방송 송신 장치(120)는 획득된 음원 데이터를 방송 수신 장치(140)로 전송할 수 있다.In an embodiment, the broadcast transmission device 120 may acquire sound source data including audio data originating from a sound source for emergency broadcast after the occurrence of an emergency situation. To this end, for example, the broadcast transmission device 120 receives a user input for performing an interaction that can provide sound source data including audio data from the sound source to the broadcast transmission device 120, as mentioned above. It can provide a user interface configured to. For emergency broadcasting, the broadcast transmission device 120 may transmit the acquired sound source data to the broadcast reception device 140.

비상 방송 모드 하에서, 방송 수신 장치(140)는 비상 상황의 발생 후에 음원에서 유래하는 오디오 데이터를 포함하는 음원 데이터의 수신을 개시하여 그러한 오디오 데이터의 적어도 일부분을 수신할 수 있다. 또한, 방송 수신 장치(140)는 음원 데이터의 전송이 정상적인 동안에, 즉 음원 데이터의 수신이 가용한 동안에 수신된 적어도 부분적인 오디오 데이터를 비상 방송을 위해 방송 출력 장치(160)로 전송하고 방송 수신 장치(140) 내에 저장할 수 있다.Under the emergency broadcast mode, the broadcast receiving device 140 may start receiving reception of sound source data including audio data originating from the sound source after the occurrence of an emergency situation and receive at least a portion of the audio data. Also, the broadcast reception device 140 transmits at least partial audio data received during normal transmission of sound source data, that is, while reception of sound source data is available, to the broadcast output device 160 for emergency broadcast and broadcast reception device It can be stored in 140.

비상 방송을 위한 오디오 데이터 전송Audio data transmission for emergency broadcasting

앞서 언급된 바와 같이, 방송 수신 장치(140)에 의한 비상 방송 음원 데이터의 수신이 가용하지 않은 경우에도 비상 방송의 유지를 위해 방송 수신 장치(140)로부터 방송 출력 장치(160)로의 오디오 데이터 전송이 수행될 수 있다.As described above, even when reception of emergency broadcast sound source data by the broadcast receiving device 140 is not available, transmission of audio data from the broadcast receiving device 140 to the broadcast output device 160 is performed to maintain the emergency broadcast. Can be performed.

예를 들어, 방송 수신 장치(140)에 저장된 수신된 오디오 데이터세트가 비상 방송을 위해 전송될 것으로 판정된 경우, 비상 방송을 위한 오디오 데이터 전송은 다음을 포함할 수 있다:For example, when it is determined that the received audio data set stored in the broadcast receiving device 140 is to be transmitted for emergency broadcasting, audio data transmission for emergency broadcasting may include:

- 방송 수신 장치(140)에 이미 저장된 수신된 오디오 데이터세트를 방송 출력 장치(160)로 (예컨대, 일회성이든 또는 반복적으로든, 가령 특정 횟수만큼 또는 특정 시간 동안에 반복적으로) 전송하는 것과,-Transmitting the received audio dataset already stored in the broadcast receiving device 140 to the broadcast output device 160 (eg, one-time or repeatedly, for example, a certain number of times or repeatedly for a specific time),

- 이후에 적어도 하나의 사전정의된 오디오 데이터세트(예컨대, 비상 방송을 위한 음원 데이터에 의해 지시된 사전정의된 오디오 데이터세트(가령, 사전정의된 디폴트 오디오 데이터세트))를 방송 출력 장치(160)로 (예컨대, 일회성이든 또는 반복적으로든, 가령 특정 횟수만큼 또는 특정 시간 동안에 반복적으로) 전송하는 것.The broadcast output device 160 then transmits at least one predefined audio dataset (eg, a predefined audio dataset indicated by sound source data for emergency broadcast (eg, a predefined default audio dataset)) To (e.g., one-time or repeatedly, e.g., a certain number of times or repeatedly for a specific time).

예를 들어, 방송 수신 장치(140)에 이미 저장된 수신된 오디오 데이터세트가 비상 방송을 위해 전송되지 않을 것으로 판정된 경우, 비상 방송을 위한 오디오 데이터 전송은, 그러한 수신된 오디오 데이터세트 대신에, 방송 수신 장치(140)에 저장되어 있는 복수의 사전정의된 오디오 데이터세트 중 적어도 하나를 방송 출력 장치(160)로 (예컨대, 일회성이든 또는 반복적으로든, 가령 특정 횟수만큼 또는 특정 시간 동안에 반복적으로) 전송하는 것을 포함할 수 있다. 이에 따라, 비록 사전정의된 오디오 데이터세트를 사용할 뿐이지만, 여하간 비상 방송이 지속될 수 있다.For example, if it is determined that the received audio dataset already stored in the broadcast receiving device 140 is not to be transmitted for emergency broadcast, the audio data transmission for emergency broadcast is broadcast instead of such received audio dataset. Transmitting at least one of the plurality of predefined audio data sets stored in the receiving device 140 to the broadcast output device 160 (eg, one-time or repetitively, for example, a certain number of times or repeatedly for a specific time) It may include. Accordingly, although only a predefined audio dataset is used, emergency broadcasts can continue anyway.

그러한 경우에, 비상 방송을 위한 오디오 데이터 전송은 제1 사전정의된 오디오 데이터세트를 (예컨대, 일회성이든 또는 반복적으로든, 가령 특정 횟수만큼 또는 특정 시간 동안에 반복적으로) 방송 출력 장치(160)로 전송하는 것과, 이후에 제2 사전정의된 오디오 데이터세트를 방송 출력 장치(160)로 (예컨대, 일회성이든 또는 반복적으로든, 가령 특정 횟수만큼 또는 특정 시간 동안에 반복적으로) 전송하는 것을 포함할 수 있는데, 여기서 제2 사전정의된 오디오 데이터세트는 제1 사전정의된 오디오 데이터세트에 의해 나타내어진 비상 상황 발화보다 비상 상황에 관해 덜 상세화된 다른 비상 상황 발화를 나타낸다. 예로서, 제1 사전정의된 오디오 데이터세트는 비상 상황을 특징짓는 적어도 하나의 발화된 서술자를 포함하는 비상 상황 발화(예컨대, "1층에 화재 발생. 옥상으로 대피하세요.")를 나타내고, 제2 사전정의된 오디오 데이터세트는 비상 상황에 관해 그 비상 상황 발화보다 덜 상세화된 다른 비상 상황 발화(예컨대, "1층에 화재 발생.", "건물에 화재 발생.", 또는 "건물에 사고 발생.")를 나타낼 수 있다. 특히, 상세화된 수준의 비상 상황 발화라도 어느 정도의 시간이 경과한 후에는 비상 상황의 세부사항이 바뀔 수 있어서 적절하지 않게 될 수 있다는 점(예컨대, 기존의 피난 장소에도 사고가 발생하여 그곳으로 대피하는 것이 위험할 수 있음)에 비추어 볼 때, 방송 송신 장치(120)와 방송 수신 장치(140) 간의 음원 데이터 전송이 비정상적인 여건 하에서 상당한 시간이 흐른 뒤에는 차라리 덜 상세화된 비상 상황 발화가 오도를 방지하는 데에 적합할 것이고, 따라서 이러한 오디오 데이터 전송이 유리할 수 있다.In such a case, the audio data transmission for the emergency broadcast transmits the first predefined audio data set to the broadcast output device 160 (eg, one-time or repetitively, for example, a certain number of times or repeatedly for a specific time). And subsequently transmitting the second predefined audio dataset to the broadcast output device 160 (eg, one-time or repetitively, for example, a certain number of times or repeatedly for a specific time). The 2 predefined audio datasets represent other emergency utterances that are less detailed about the emergency situation than the emergency utterances represented by the first predefined audio dataset. As an example, the first predefined audio dataset represents an emergency utterance (eg, "fire on the first floor. Evacuate to the rooftop") that includes at least one uttered descriptor that characterizes the emergency. 2 Predefined audio datasets are other emergency utterances that are less detailed than the emergency ignition about the emergency (eg, "fire on the first floor.", "fire on the building.", or "incident on the building." ."). In particular, even at a detailed level of emergency ignition, after a certain amount of time has passed, the details of the emergency situation may change and become unsuitable (e.g., an accident occurs in an existing evacuation site and evacuates there) In the light of this, it may be dangerous to do so) after a considerable amount of time has passed under abnormal conditions in which the transmission of sound source data between the broadcast transmission device 120 and the broadcast reception device 140 is abnormal, the utterance of a less detailed emergency situation prevents misleading. Would be suitable, and thus such audio data transmission may be advantageous.

음성 인식 기법을 사용하여 비상 상황 통지를 다각화하기 위한 예시적인 프로세스Example process for diversifying emergency notifications using speech recognition techniques

앞서 언급된 바와 같이, 방송 수신 장치(140)는 비상 상황의 발생 후에 음원에서 유래하는 오디오 데이터의 수신을 개시할 수 있고, 비상 상황을 알리는 비상 방송을 위한 입력 오디오 신호를 방송 출력 장치(160)에 제공할 수 있다. 방송 출력 장치(160)는 방송 수신 장치(140)로부터 전송된 입력 오디오 신호에 따라 소리를 출력하는 오디오 스피커를 포함하는데, 방송 수신 장치(140)는 비상 방송을 위해 방송 출력 장치(160)에 오디오 데이터의 수신된 부분(예를 들면, 비상 방송을 위한 음원 데이터 전송이 정상적인 경우에 있어서는, 방송 수신 장치(140)에 의해 수신된 오디오 데이터 부분, 아니면, 비상 방송을 위한 음원 데이터 전송에 이상이 발생한 경우에 있어서는, 정상적인 음원 데이터 전송 동안에 수신되어 저장된 오디오 데이터 부분)을 입력 오디오 신호로서 전송하거나, 그러한 수신된 부분이 아니라, 방송 수신 장치(140) 내에 저장된 복수의 사전정의된 오디오 데이터세트(가령, 정형화된 비상 상황 발화를 상이한 수준의 상세함으로써 나타냄) 중 적어도 하나를 입력 오디오 신호로서 전송할 수 있다.As described above, the broadcast receiving device 140 may start receiving the audio data originating from the sound source after the occurrence of an emergency situation, and output the input audio signal for emergency broadcasting informing the emergency situation of the broadcast output device 160 Can be provided on. The broadcast output device 160 includes an audio speaker that outputs sound according to an input audio signal transmitted from the broadcast reception device 140, and the broadcast reception device 140 is configured to provide audio to the broadcast output device 160 for emergency broadcast. The received part of the data (for example, when the sound source data transmission for emergency broadcast is normal, an audio data part received by the broadcast reception device 140, or an abnormality occurs in the transmission of sound source data for emergency broadcast) In some cases, a portion of the audio data received and stored during normal sound source data transmission) is transmitted as an input audio signal, or a plurality of predefined audio data sets (for example, not stored in the broadcast receiving device 140) At least one of the standardized emergency utterances (represented by different levels of detail).

실시예에서, 텍스트 도출 장치(180) 상에는 음성 인식 메커니즘이 구현되는바, 텍스트 도출 장치(180)는 방송 출력 장치(160)의 오디오 스피커로부터 출력되는 소리에 대응하는 텍스트를 도출하기 위해 음성 인식 메커니즘을 사용할 수 있다. 그러한 음성 인식 메커니즘은 딥 러닝(deep learning)과 같은 신경망 기반의 음성 인식을 수반할 수 있다. 예를 들어, 음성 인식 메커니즘은 오픈 소스 라이브러리(가령, 텐서플로우(TensorFlow), 칼디(Kaldi) 등등)나 다른 소프트웨어 패키지를 통하여 텍스트 도출 장치(180) 상에 구현된 신경망을 포함할 수 있다. 대안적으로 또는 추가적으로, 음성 인식 메커니즘은 네트워크를 통해 액세스가능한 제3자(third party) 발화 대 텍스트(Speech-To-Text: STT) 서비스(가령, 클라우드 기반의 음성 인식 서비스)를 사용할 수 있다. 실시예에서, 음성 인식 메커니즘은 하나 이상의 음성 인식/STT 모델(가령, 하나 이상의 음향 모델(acoustic model) 및/또는 하나 이상의 언어 모델(language model))에 기반한 음성 인식을 통해 발화 신호를 문자 기호로 해석할 수 있다.In an embodiment, since a voice recognition mechanism is implemented on the text derivation device 180, the text derivation device 180 is a speech recognition mechanism to derive text corresponding to sound output from an audio speaker of the broadcast output device 160 Can be used. Such a speech recognition mechanism may involve speech recognition based on neural networks, such as deep learning. For example, the speech recognition mechanism may include a neural network implemented on the text derivation device 180 through an open source library (eg, TensorFlow, Kaldi, etc.) or other software package. Alternatively or additionally, the speech recognition mechanism may use a third-party speech-to-text (STT) service (eg, cloud-based speech recognition service) accessible through the network. In an embodiment, the speech recognition mechanism converts the speech signal into a character symbol through speech recognition based on one or more speech recognition/STT models (eg, one or more acoustic models and/or one or more language models). Can be interpreted.

실시예에서, 텍스트 도출 장치(180)의 음성 인식 메커니즘은 텍스트가 더 정확히 도출될 수 있도록 구현된다. 우선, 이 메커니즘은 입력 오디오 신호가 방송 수신 장치(140)에 의해 수신된 오디오 데이터 부분인지, 아니면 방송 수신 장치(140)에 저장되어 있는 복수의 사전정의된 오디오 데이터세트 중 적어도 하나인지(가령, 입력 오디오 신호가 사전정의된 오디오 데이터세트(들)인지 여부가 텍스트 도출 장치(180)에 시그널링될 수 있음)에 따라, 상이한 모델에 기반하여 음성 인식을 수행하는 것을 수반할 수 있다. 이는, 무엇보다도, 사전정의된 오디오 데이터세트들은 비교적 소수의 사람(가령, 단 한 명)에 의한 발화를 나타내거나, 인간의 통상적인 발화와는 다른 특성을 갖는 발화(가령, TTS 합성기로부터의 출력)를 나타낼 수 있다는 점에서 방송 수신 장치(140)에 의해 수신된 오디오 데이터와는 상이할 것임을 감안한 것이다. 이러한 고려사항으로 인해 음성 인식의 결과는 더 높은 신뢰성을 지닐 것이다. 나아가, 음성 인식 메커니즘은 방송 수신 장치(140)에 저장된 복수의 사전정의된 오디오 데이터세트와 동일한 훈련 데이터세트로써 사전훈련된 모델을 갖고 있을 수 있고, 따라서, 사전정의된 오디오 데이터세트가 입력 오디오 신호로서 전송되는 경우, 음성 인식 메커니즘은 이 모델을 사용하는 음성 인식을 수행하는 것을 수반할 수 있다. 이 역시 음성 인식의 효율을 높일 것이다. 한편, 방송 수신 장치(140)는, 방송 송신 장치(120)로부터 송출되어 방송 수신 장치(140)에 의해 수신된 오디오 데이터 부분이 유래하는 음원의 유형에 대응하는 전처리(preprocessing)(예컨대, RM 상에서의 라이브 발화의 특성을 고려한 및/또는 그러한 발화에서 기인하는 오디오 데이터 부분으로부터 잡음을 제거하기 위한 필터링)를 수신된 오디오 데이터 부분에 대해 수행하고, 전처리된 수신된 오디오 데이터 부분을 입력 오디오 신호로서 방송 출력 장치(160)로 전송할 수 있다. 예컨대, 전술된 바와 같이, 음원으로부터의 오디오 데이터 및 음원의 유형을 나타내는 정보 양자 모두를 포함하는 음원 데이터가 방송 송신 장치(120)로부터 방송 수신 장치(140)에 전송될 수 있어서, 방송 수신 장치(140)는 음원의 유형에 따라 오디오 데이터에 대해 상이한 필터링을 수행할 수 있다. 그러한 전처리는 출력되는 소리의 질을 향상시키고, 궁극적으로는 음성 인식의 인식률을 제고할 것이다.In an embodiment, the speech recognition mechanism of the text derivation device 180 is implemented so that the text can be derived more accurately. First, the mechanism is whether the input audio signal is a portion of the audio data received by the broadcast receiving device 140 or at least one of a plurality of predefined audio data sets stored in the broadcast receiving device 140 (eg, Depending on whether the input audio signal is a predefined audio dataset(s) or not (which can be signaled to the text derivation device 180), it may involve performing speech recognition based on a different model. This means, among other things, that predefined audio datasets represent speech by a relatively small number of people (eg, only one person), or speech that has characteristics different from the normal human speech (eg, output from a TTS synthesizer). ), which is different from the audio data received by the broadcast reception device 140. Because of these considerations, the results of speech recognition will have higher reliability. Furthermore, the voice recognition mechanism may have a pre-trained model with the same training dataset as a plurality of predefined audio datasets stored in the broadcast receiving device 140, so that the predefined audio dataset is an input audio signal. When transmitted as, the speech recognition mechanism may involve performing speech recognition using this model. This will also increase the efficiency of speech recognition. On the other hand, the broadcast receiving device 140 is preprocessing (eg, on RM) corresponding to the type of sound source from which the audio data portion transmitted from the broadcast transmitting device 120 and received by the broadcast receiving device 140 originates. Taking into account the characteristics of live speech and/or filtering to remove noise from the audio data portion resulting from such speech) on the received audio data portion, and broadcasting the pre-processed received audio data portion as an input audio signal It can be transmitted to the output device 160. For example, as described above, sound source data including both audio data from a sound source and information indicating the type of the sound source can be transmitted from the broadcast transmission device 120 to the broadcast reception device 140, so that the broadcast reception device ( 140) may perform different filtering on the audio data according to the type of sound source. Such pre-processing will improve the quality of the sound output and ultimately improve the recognition rate of speech recognition.

이제 도 1과 함께 도 2를 참조하여, 예시적인 방송 시스템(100)에서 비상 상황에 대한 음성 인식 기반의 다각화된 통지를 위해 텍스트 도출 장치(180)에 의해 수행되는 프로세스(200)를 상세히 설명한다. 도 2에 도시된 프로세스(200)는 단지 예로서 제공될 뿐이며, 몇몇 다른 실시예에서는 프로세스(200)의 동작 중 일부가 생략되고/되거나 다른 동작이 추가될 수 있음에 유의하여야 한다.Referring now to FIG. 2 together with FIG. 1, the process 200 performed by the text derivation device 180 for voice recognition-based diversified notification of an emergency in the exemplary broadcast system 100 will be described in detail. . It should be noted that the process 200 shown in FIG. 2 is merely provided as an example, and in some other embodiments, some of the operations of the process 200 may be omitted and/or other actions may be added.

동작(210)에서, 텍스트 도출 장치(180)의 음성 인식 메커니즘이 활성화된다. 몇몇 실시예에서, 음성 인식 메커니즘은 트리거(trigger) 신호에 응답하여 활성화될 수 있다, 예를 들어, 트리거 신호는 방송 송신 장치(120), 방송 수신 장치(140) 및/또는 방송 출력 장치(160)로부터 텍스트 도출 장치(180)에 전송될 수 있다. 다른 실시예에서, 음성 인식 메커니즘은 특정 단어, 문구 및/또는 문장의 발화, 특정 레벨보다 큰 소리 및/또는 다른 발화 또는 소리의 검출에 응답하여 활성화될 수 있다.In operation 210, the speech recognition mechanism of the text derivation device 180 is activated. In some embodiments, the voice recognition mechanism may be activated in response to a trigger signal, for example, the trigger signal may be a broadcast transmission device 120, a broadcast reception device 140, and/or a broadcast output device 160 ) To the text derivation device 180. In other embodiments, the speech recognition mechanism may be activated in response to the detection of a particular word, phrase, and/or sentence, a sound greater than a certain level, and/or detection of another speech or sound.

동작(220)에서, 음성 인식 메커니즘에 수반될 음성 인식이 어떤 모델로써 모델링된 것인지가 결정된다. 예를 들어, 수반되는 음성 인식에 적용가능한 모델은 음향 모델, 언어 모델 및/또는 음성 인식을 위한 다른 모델, 예를 들면, 음성 인식에서의 사용을 위한 발음 모델, 음성 인식에 의해 타겟팅된(targeted) 발화 환경, 발화자, 문맥 등의 요소 중 적어도 하나에 적합한 모델, 그러한 요소에 독립적인 모델 및/또는 기타 등등을 포함할 수 있다. 몇몇 실시예에서, 음성 인식 메커니즘의 활성화 직후에, 음성 인식을 위해 적용될 모델은 디폴트 모델(가령, 방송 시스템(100)이 설치된 지역에 적합한 언어에 따라 사전결정된 모델)로 설정될 수 있다.In operation 220, it is determined by which model the speech recognition to be accompanied by the speech recognition mechanism is modeled. For example, a model applicable to the accompanying speech recognition may be targeted by a speech model, a speech model for use in speech recognition, a speech model, a language model, and/or other models for speech recognition. ) A model suitable for at least one of elements such as the utterance environment, the speaker, and the context, and models independent of those elements and/or the like. In some embodiments, immediately after activation of the speech recognition mechanism, a model to be applied for speech recognition may be set as a default model (eg, a model predetermined according to a language suitable for a region where the broadcast system 100 is installed).

동작(230)에서, 비상 방송을 위해 방송 수신 장치(140)로부터 방송 출력 장치(160)로 전송된 입력 오디오 신호가 방송 수신 장치(140)에 의해 수신된 오디오 데이터 부분인지 또는 방송 수신 장치(140) 내에 저장된 사전정의된 오디오 데이터(들)인지가 (가령, 방송 수신 장치(140)로부터 및/또는 방송 출력 장치(160)를 통해) 텍스트 도출 장치(180)에 시그널링되었는지가 체크된다.In operation 230, the input audio signal transmitted from the broadcast receiving device 140 to the broadcast output device 160 for emergency broadcast is a portion of the audio data received by the broadcast receiving device 140 or the broadcast receiving device 140 It is checked whether the predefined audio data(s) stored in) is signaled to the text derivation device 180 (eg, from the broadcast reception device 140 and/or through the broadcast output device 160).

입력 오디오 신호에 관한 시그널링이 되지 않은 경우, 프로세스(200)는 동작(250)으로 이어진다. 입력 오디오 신호에 관해 시그널링된 경우, 동작(240)에서, 음성 인식 메커니즘에 수반될 음성 인식이 다른 모델로써 모델링된 것으로 변경할 필요가 있는지가 체크된다. 음성 인식 메커니즘을 위한 모델의 변경이 필요한 경우, 프로세스(200)는 동작(220)으로 되돌아가는데, 여기에서 음성 인식 모델이 새로 설정된다. 모델 변경이 필요하지 않은 경우, 프로세스(200)는 동작(250)으로 이어진다.If there is no signaling regarding the input audio signal, process 200 continues to operation 250. If signaled with respect to the input audio signal, in operation 240 it is checked if the speech recognition to be accompanied by the speech recognition mechanism needs to be changed to a modeled as another model. If a model change for the speech recognition mechanism is required, the process 200 returns to operation 220, where the speech recognition model is newly established. If no model change is required, process 200 continues with operation 250.

동작(250)에서, 방송 출력 장치(160)의 오디오 스피커로부터 출력되는 소리에 대응하는 텍스트를 도출하도록 음성 인식 메커니즘이 동작된다.In operation 250, a voice recognition mechanism is operated to derive text corresponding to sound output from the audio speaker of the broadcast output device 160.

몇몇 실시예에서, 음성 인식 메커니즘은 입력 오디오 신호 자체가 아니라, 방송 출력 장치(160)의 오디오 스피커로부터 출력된 소리로부터 그러한 텍스트를 도출하도록 동작될 수 있다. 예로서, 텍스트 도출 장치(180)는 적어도 하나의 마이크를 포함할 수 있고, 오디오 스피커로부터 출력된 소리에 의해 마이크가 구동됨(actuated)에 응답하여 마이크 포착(microphone captured) 오디오 신호를 생성할 수 있는바, 텍스트 도출 장치(180)는 음성 인식 메커니즘을 사용함으로써 마이크 포착 오디오 신호로부터 텍스트를 도출할 수 있다. 텍스트 도출 장치(180)는 방송 출력 장치(160)와 이격되고/되거나 별개인 경우에 위와 같은 방식으로 텍스트를 도출할 수 있는데, 다만 본 개시가 이 점에 한정되는 것은 아니다.In some embodiments, the speech recognition mechanism may be operated to derive such text from the sound output from the audio speaker of the broadcast output device 160, not the input audio signal itself. For example, the text derivation device 180 may include at least one microphone, and may generate a microphone captured audio signal in response to the microphone being activated by the sound output from the audio speaker. As such, the text derivation device 180 may derive text from the microphone capture audio signal by using a speech recognition mechanism. The text derivation device 180 may derive the text in the above manner when separated from the broadcast output device 160 and/or separate, but the present disclosure is not limited to this.

다른 실시예에서, 방송 수신 장치(140)로부터 방송 출력 장치(160)에 전송된 입력 오디오 신호가 텍스트 도출 장치(180)에도 전송될 수 있고, 이러한 경우에, 텍스트 도출 장치(180)는 음성 인식 메커니즘을 사용함으로써 오디오 스피커로부터의 소리에 대응하는 텍스트를 입력 오디오 신호 자체로부터 직접적으로 도출할 수 있다. 텍스트 도출 장치(180)는 방송 출력 장치(160)와 통합된 경우에 위와 같은 방식으로 텍스트를 도출할 수 있는데, 다만 본 개시가 이 점에 한정되는 것은 아니다.In another embodiment, the input audio signal transmitted from the broadcast receiving device 140 to the broadcast output device 160 may also be transmitted to the text derivation device 180, in which case, the text derivation device 180 is speech recognition By using a mechanism, text corresponding to sound from an audio speaker can be directly derived from the input audio signal itself. The text derivation device 180 may derive text in the above manner when integrated with the broadcast output device 160, but the present disclosure is not limited to this.

도출된 텍스트를 사용하여 비상 상황에 대한 통지가 수행된다(동작(290)). 예를 들어, 도출된 텍스트의 전부 또는 일부를 포함하는 비상 상황 통지가 전송될 수 있다. 몇몇 실시예에서, 그러한 통지는 네트워크(190)를 통해 적어도 하나의 컴퓨팅 장치(191, 192, 193, 194)에 발신될 수 있다. 예를 들어, 방송 수신 장치(140), 방송 출력 장치(160) 및/또는 텍스트 도출 장치(180)가 설치된 건물 내의 컴퓨팅 장치(193), 예컨대 액정 디스플레이(Liquid Crystal Display: LCD) 안내 기기에 비상 상황에 대한 통지가 전송될 수 있고, 이에 따라 비상 상황의 유형, 비상 상황이 발생한 위치, 비상 상황에 대한 대책과 같은 정보가 (가령, 자막의 형태로) 디스플레이될 수 있다. 이와 같은 자막 생성 서비스는 음성뿐만 아니라 시각적인 방식으로 비상 상황을 통지할 수 있게 한다. 다른 예로서, 비상 상황에 대한 통지는 방송 수신 장치(140), 방송 출력 장치(160) 및/또는 텍스트 도출 장치(180)가 설치된 건물과 관련된 특정 인원(가령, 해당 건물을 사용하는 사용자 및/또는 해당 건물을 관리하는 관리자)의 모바일 컴퓨팅 장치(192)에 단문 메시지 서비스(Short Message Service: SMS), 멀티미디어 메시지 서비스(Multimedia Message Service: MMS), 인스턴트 메신저(instant messenger)를 통해 전달될 수 있다. 이와 같은 문자 메시지 서비스는 스피커를 통한 방송 선로와는 별개인 무선 통신망을 활용한다는 점에서 개개인의 안전을 확보하고 비상 상황에 대처하는 데에 도움이 될 수 있다. 또 다른 예로서, 비상 상황에 대한 통지는 비상 상황에 관한 신고를 접수하기 위해 관계 당국에 의해 운영되는 서버와 같은 컴퓨팅 장치(191)에 전송되어 국가 및/또는 지방자치단체 차원에서 비상 상황에 대처하는 데에 활용될 수 있다. 이러한 재난 상황 접수 서비스는 음성으로 비상 방송이 이루어지는 동안에, 별도로 신고 행위가 없더라도, 비상 상황에 대처하여야 하는 당국에 비상 상황의 발생이 신속히 접수될 수 있게 한다. 또 다른 예로서, 비상 상황에 대한 통지는 비상 상황에 관한 정보를 수집하고/하거나 분석하기 위해 관계 당국 또는 다른 주체(가령, 방송 시스템(100)의 운영 주체)에 의해 운영되는 컴퓨팅 장치(가령, 컴퓨팅 장치(191), 주행체내 컴퓨팅 장치(194), 기타 등등)에 전송되어 비상 상황에 대한 누적된 정보의 분석 및 이에 기반한 비상 상황 대처 방안의 마련 등에 활용될 수 있다. 이러한 재난 상황 분석 및 대책 활용 서비스는 비상 상황이 발생한 장소를 파악하고 추적하여 대피로를 확보하도록 도울 수 있고, 이에 따라, 비상 상황이 발생한 장소에 특화된 비상 방송 메시지를 통해 비상 상황에 신속하고 정확하게 대처하는 것이 가능하다. 예컨대, 그러한 통지에 기반하여 비상 상황에 대처하기 위해 소방차를 어떻게 배치할지, 헬기를 출동시킬지 여부, 어떤 구역을 드론으로 촬영하는 것이 필요한지 여부 등등이 결정될 수 있다. 대안적으로 또는 추가적으로, 그러한 통지 및/또는 결정이 소방차, 헬기, 드론 등의 주행체 내부의 컴퓨팅 장치에 전송될 수 있다.Notification of the emergency situation is performed using the derived text (operation 290). For example, an emergency notification may be sent that includes all or part of the derived text. In some embodiments, such notifications may be sent to at least one computing device 191, 192, 193, 194 via network 190. For example, the computing device 193 in a building in which the broadcast receiving device 140, the broadcast output device 160, and/or the text derivation device 180 is installed, such as a liquid crystal display (LCD) guidance device, is in an emergency. Notifications of the situation may be transmitted, whereby information such as the type of emergency situation, the location where the emergency situation occurred, and measures for the emergency situation may be displayed (eg, in the form of subtitles). Such a caption generation service enables notification of an emergency situation in a visual manner as well as voice. As another example, notification of an emergency situation may include a specific person (eg, a user who uses the building and/or a user) associated with a building in which the broadcast receiving device 140, the broadcasting output device 160, and/or the text derivation device 180 are installed. Alternatively, the short message service (SMS), a multimedia message service (MMS), or an instant messenger may be delivered to the mobile computing device 192 of the administrator managing the building. . Such a text message service may be helpful in securing individual safety and coping with an emergency in that it utilizes a wireless communication network separate from a broadcast line through a speaker. As another example, a notification about an emergency situation is sent to a computing device 191, such as a server operated by the relevant authorities, to receive a report on the emergency situation to respond to the emergency at the national and/or local level. It can be used to do. Such a disaster situation reception service enables an emergency situation to be promptly received by the authorities to deal with the emergency situation, even if there is no separate reporting action during an emergency broadcast by voice. As another example, notification of an emergency situation may include computing devices (such as, for example, an operating entity of the broadcast system 100) operated by related authorities or other entities to collect and/or analyze information about the emergency situation. It is transmitted to the computing device 191, the in-vehicle computing device 194, and so on) and can be used for analyzing accumulated information about an emergency situation and preparing an emergency response plan based thereon. Such disaster situation analysis and countermeasure utilization service can help to secure an evacuation route by identifying and tracking the place where the emergency occurred, and, accordingly, respond quickly and accurately to the emergency through an emergency broadcast message specialized in the place where the emergency occurred. It is possible to do. For example, based on such a notification, it may be determined how to deploy a fire engine to respond to an emergency, whether to launch a helicopter, whether or not it is necessary to photograph a zone with a drone, and the like. Alternatively or additionally, such notifications and/or decisions may be sent to a computing device inside the vehicle such as a fire engine, helicopter, drone, or the like.

이어서, 동작(290)이 수행된 후, 프로세스(200)는 동작(230)으로 되돌아가는데, 여기에서 입력 오디오 신호에 관해 텍스트 도출 장치(180)에 시그널링되었는지가 다시 체크된다. 이후, 프로세스(200)는 앞서 언급된 바와 마찬가지로 진행된다.Subsequently, after operation 290 is performed, process 200 returns to operation 230 where it is again checked if it has been signaled to text derivation device 180 for the input audio signal. Thereafter, the process 200 proceeds as previously mentioned.

선택적으로, 프로세스(200) 동안에, 동작(260, 270, 280)이 동작(290) 전에 수행될 수 있다.Optionally, during process 200, operations 260, 270, and 280 may be performed prior to operation 290.

동작(260)에서, 입력 오디오 신호가 나타내는 비상 상황 발화의 상세함의 수준이 (가령, 방송 수신 장치(140)로부터 및/또는 방송 출력 장치(160)를 통해) 텍스트 도출 장치(180)에 시그널링되었는지가 체크된다. 몇몇 실시예에서, 방송 수신 장치(140)에 저장된 사전정의된 오디오 데이터세트의 식별자가 방송 수신 장치(140)로부터 (가령, 방송 출력 장치(160)를 거쳐 또는 직접적으로) 텍스트 도출 장치(180)에 전송될 수 있다. 앞서 논의된 바와 같이, 사전정의된 오디오 데이터세트의 식별자는 그 데이터세트가 나타내는 비상 상황 발화의 상세함의 수준을 나타낼 수 있다. 다른 실시예에서, 도출된 텍스트로부터 직접적으로 비상 상황 발화의 상세함의 수준이 판정될 수 있다. 이러한 판정은, 가령, 금번에 도출된 텍스트의 내용과 이전에 도출된 텍스트의 내용을 비교하는 것을 포함할 수 있다.In operation 260, the level of detail of the emergency utterance indicated by the input audio signal is signaled to the text derivation device 180 (eg, from the broadcast receiving device 140 and/or through the broadcast output device 160). Is checked. In some embodiments, the identifier of the predefined audio dataset stored in the broadcast receiving device 140 is the text derivation device 180 from the broadcast receiving device 140 (eg, directly or via the broadcast output device 160) Can be sent to. As discussed above, the identifier of a predefined audio dataset may indicate the level of detail of emergency speech that the dataset represents. In other embodiments, the level of detail of the emergency utterance may be determined directly from the derived text. Such a determination may include, for example, comparing the content of the text derived this time with the content of the previously derived text.

상세함의 수준에 관한 시그널링이 되지 않은 경우, 프로세스(200)는 동작(290)으로 이어진다. 상세함의 수준에 관해 시그널링된 경우, 동작(270)에서, 비상 상황 발화의 상세함의 수준이 감소되었는지가 체크된다. 수준이 감소된 경우, 동작(280)에서, 추가 조치가 수행된다. 몇몇 실시예에서, 상세함의 수준이 감소된다는 것은 음원 데이터 전송이 비정상적일만큼 비상 상황이 심각하게 되었음을 의미할 수 있다. 예컨대, 이러한 상황에서 실제로는 비상 상황의 세부사항이 바뀌었음에도 불구하고 자칫 잘못된 비상 상황 발화로 인해 오도가 발생하는 것을 방지하기 위해, 앞서 언급된 바와 같이, 어떤 사전정의된 오디오 데이터세트로써 비상 방송이 진행되기 시작한 후에, 그 데이터세트가 나타내는 비상 상황 발화보다 비상 상황에 관해 덜 상세화된 다른 비상 상황 발화를 나타내는 다른 사전정의된 오디오 데이터세트가 비상 방송을 위해 사용될 수 있다. 이에 따라, 동작(280)에서 수행될 추가 조치는 동작(290)에서 수행되는 통지에, 비상 상황이 위험을 끼칠 가능성, 즉, 비상 상황의 위험도가 증가한다는 표시를 추가하는 것을 포함할 수 있다. 이러한 추가 조치는 비상 상황의 심각한 전개에 대한 신속한 대처를 촉구하는 데에 이바지할 것이다. 비상 상황 발화의 상세함의 수준이 감소되지 않은 경우, 프로세스(200)는 동작(280)을 건너뛴다.If signaling regarding the level of detail has not been made, process 200 continues to operation 290. If signaled as to the level of detail, in operation 270 it is checked whether the level of detail of the emergency utterance is reduced. If the level is reduced, in operation 280, further action is performed. In some embodiments, reducing the level of detail may mean that the emergency situation has become severe enough that the sound source data transmission is abnormal. For example, in order to prevent misleading occurrences due to false emergency ignitions despite the fact that the details of the emergency have actually changed in such a situation, as mentioned above, an emergency broadcast is performed with some predefined audio dataset. After this begins to proceed, other predefined audio datasets representing other emergency utterances that are less detailed about the emergency situation than those indicated by the dataset can be used for emergency broadcasts. Accordingly, additional actions to be performed at operation 280 may include adding to the notification performed at operation 290 the likelihood that the emergency situation poses a risk, that is, the risk of the emergency situation increases. These additional measures will help to promptly respond to the serious development of emergency situations. If the level of detail of the emergency utterance is not reduced, process 200 skips operation 280.

예시적인 텍스트 도출 장치Example text derivation device

도 3은 본 발명의 실시예에 적합한 예시적인 텍스트 도출 장치(180)의 개략적인 블록도이다. 도 3을 참조하면, 텍스트 도출 장치(180)는 하나 이상의 프로세서(310), 프로세서(310)에 의해 판독가능한 컴퓨터 판독가능 저장 매체(320) 및 주변기기(330)를 포함하는 것으로 예시된다.3 is a schematic block diagram of an exemplary text derivation device 180 suitable for embodiments of the present invention. Referring to FIG. 3, the text derivation device 180 is illustrated as including one or more processors 310, a computer-readable storage medium 320 readable by the processor 310, and peripherals 330.

예를 들어, 프로세서(310)는 중앙 처리 유닛(Central Processing Unit: CPU), 그래픽 처리 유닛(Graphics Processing Unit: GPU), 디지털 신호 프로세서(Digital Signal Processor: DSP), 프로세서 코어, 마이크로프로세서, 마이크로제어기, 필드 프로그램가능 게이트 어레이(Field-Programmable Gate Array: FPGA), 애플리케이션 특정 집적 회로(Application Specific Integrated Circuit: ASIC), 무선 주파수 집적 회로(Radio-Frequency Integrated Circuit: RFIC), 다른 하드웨어 및 로직 회로, 또는 이의 임의의 적합한 조합을 포함할 수 있다.For example, the processor 310 may include a central processing unit (CPU), a graphics processing unit (GPU), a digital signal processor (DSP), a processor core, a microprocessor, and a microcontroller. , Field-Programmable Gate Array (FPGA), Application Specific Integrated Circuit (ASIC), Radio-Frequency Integrated Circuit (RFIC), other hardware and logic circuits, or Any suitable combination thereof.

예를 들어, 컴퓨터 판독가능 저장 매체(320)는 판독 전용 메모리(Read-Only Memory: ROM), 랜덤 액세스 메모리(Random-Access Memory: RAM), 휘발성(volatile) 메모리, 비휘발성(non-volatile) 메모리, 착탈가능(removable) 메모리, 비착탈가능(non-removable) 메모리, 하드 디스크, 플래시(flash) 메모리, 자기 디스크 저장 매체, 광 디스크 저장 매체, 다른 저장 디바이스 및 저장 매체, 또는 이의 임의의 적합한 조합을 포함할 수 있다. 컴퓨터 판독가능 저장 매체(320)에는, 프로세서(310)에 의해 실행되는 경우 텍스트 도출 장치(180) 하여금 본 발명의 실시예에 따른 동작(가령, 전술된 예시적인 프로세스의 적어도 몇몇 동작)을 수행하게 하는 컴퓨터 실행가능 명령어가 저장되어 있을 수 있다.For example, the computer-readable storage medium 320 may be read-only memory (ROM), random-access memory (RAM), volatile memory, or non-volatile Memory, removable memory, non-removable memory, hard disk, flash memory, magnetic disk storage medium, optical disk storage medium, other storage devices and storage media, or any suitable thereof Combinations. The computer-readable storage medium 320, when executed by the processor 310, causes the text derivation device 180 to perform operations according to embodiments of the present invention (eg, at least some of the exemplary processes described above). The computer executable instructions may be stored.

예를 들어, 주변기기(330)는 통신 인터페이스(가령, 네트워크 인터페이스 카드(Network Interface Card: NIC)), 마이크 및/또는 다른 주변 기기(가령, 스피커)를 포함할 수 있다.For example, the peripheral device 330 may include a communication interface (eg, a network interface card (NIC)), a microphone, and/or other peripheral devices (eg, speakers).

예시적인 실시예는 본 문서에 기술된 동작, 기법, 프로세스, 또는 이의 어떤 양상이나 부분이 체현된 컴퓨터 프로그램을 포함하는 비일시적(non-transitory) 컴퓨터 판독가능 저장 매체, 예컨대 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광 기록 매체, 플롭티컬 디스크와 같은 자기-광 매체, 그리고 ROM, RAM, 플래시 메모리, 솔리드 스테이트(solid-state) 메모리와 같은 메모리 디바이스를 포함할 수 있다. 이러한 컴퓨터 판독 가능 저장 매체에는 프로그램 명령어, 로컬 데이터 파일, 로컬 데이터 구조 등등이 단독으로 또는 조합되어 포함될 수 있다. 개시된 동작, 기법, 프로세스, 또는 이의 어떤 양상이나 부분을 구현하거나 이용할 수 있는 프로그램은 컴퓨터에 의해 실행될 수 있는 어떤 유형의 (가령, 컴파일형(compiled) 또는 해석형(interpreted)) 프로그래밍 언어, 예컨대, 어셈블리(assembly), 기계어(machine language), 프로시저형(procedural) 언어, 객체지향(object-oriented) 언어 등등으로 구현될 수 있고, 하드웨어 구현과 조합될 수 있다. 용어 "컴퓨터 판독가능 저장 매체"는, 컴퓨팅 장치에 의한 실행을 위한 명령어(실행 시에 컴퓨팅 장치로 하여금 개시된 기법을 수행하게 함)를 저장할 수 있고, 그러한 명령어에 의해 사용되거나 이와 연관된 데이터 구조를 저장할 수 있는 임의의 매체를 포함할 수 있다. 컴퓨터 판독가능 저장 매체의 예는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광 기록 매체, 플롭티컬 디스크와 같은 자기-광 매체, 그리고 ROM, RAM, 플래시 메모리, 솔리드 스테이트(solid-state) 메모리와 같은 메모리 디바이스를 포함하되, 이에 한정되지 않는다.Exemplary embodiments are non-transitory computer readable storage media including computer programs embodying the operations, techniques, processes, or any aspect or portion thereof described herein, such as hard disks, floppy disks, and the like. Includes magnetic media such as magnetic tape, optical recording media such as CD-ROM, DVD, magnetic-optical media such as floptical disc, and memory devices such as ROM, RAM, flash memory, and solid-state memory can do. Such computer-readable storage media may include program instructions, local data files, local data structures, etc. alone or in combination. A program capable of implementing or using the disclosed operations, techniques, processes, or any aspect or portion thereof, is any type of computer-executable (eg, compiled or interpreted) programming language, such as, for example, It can be implemented in assembly, machine language, procedural language, object-oriented language, etc., and can be combined with a hardware implementation. The term “computer-readable storage medium” can store instructions for execution by a computing device (which, upon execution, causes the computing device to perform the disclosed techniques), and stores data structures used by or associated with such instructions. Can include any medium that can. Examples of computer-readable storage media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs, DVDs, magnetic-optical media such as floptical discs, and ROM, RAM, flash memory, Memory devices such as solid-state memory.

예로서, 비상 상황에 대한 음성 인식 기반의 다각화된 통지를 위한 텍스트 도출 장치(180)는 적어도 하나의 프로세서와, 컴퓨터 판독가능 저장 매체를 포함할 수 있는데, 컴퓨터 판독가능 저장 매체 내부에는 프로세서에 의해 실행되는 경우 프로세서로 하여금 텍스트 도출 장치(180) 상에 음성 인식 메커니즘을 구현하는 동작을 수행하게 하는 컴퓨터 실행가능 명령어가 저장될 수 있다. 추가적으로, 컴퓨터 실행가능 명령어를 실행하는 경우, 텍스트 도출 장치(180)의 프로세서는 본 발명의 어떤 실시예에 따른 하나 이상의 동작, 예컨대, 비상 상황을 알리는 비상 방송을 위한 입력 오디오 신호에 따라 오디오 스피커로부터 출력된 소리에 대응하는 텍스트를 도출하기 위하여 상기 음성 인식 메커니즘을 사용하는 동작을 또한 수행하도록 될 수 있는데, 입력 오디오 신호는 비상 상황의 발생 후에 음원에서 유래하는 오디오 데이터의 수신된 부분이거나, 복수의 사전정의된 오디오 데이터세트 중 적어도 하나이다.For example, the text derivation device 180 for diversifying notification based on speech recognition for an emergency situation may include at least one processor and a computer-readable storage medium, the processor being inside the computer-readable storage medium When executed, computer-executable instructions may be stored on the text derivation device 180 to perform operations for implementing a speech recognition mechanism. Additionally, when executing computer-executable instructions, the processor of the text derivation device 180 may receive from the audio speaker in accordance with one or more operations according to certain embodiments of the present invention, for example, an input audio signal for emergency broadcast informing an emergency situation. The operation of using the speech recognition mechanism to derive text corresponding to the output sound may also be performed, wherein the input audio signal is a received portion of audio data originating from the sound source after the occurrence of an emergency, or a plurality of It is at least one of the predefined audio datasets.

다음은 본 발명의 추가적인 실시예와 관련된다.The following relates to further embodiments of the invention.

예 1은 비상 상황에 대한 음성 인식 기반의 다각화된 통지를 위한 비상 방송 시스템인데, 위 시스템은, 복수의 사전정의된 오디오 데이터세트가 내부에 저장되고, 위 비상 상황의 발생 후에 음원에서 유래하는 오디오 데이터의 수신을 개시하는 방송 수신 장치와, 위 비상 상황을 알리는 비상 방송을 위한 입력 오디오 신호에 따라 소리를 출력하는 오디오 스피커를 포함하는 방송 출력 장치와, 음성 인식 메커니즘을 포함하는 텍스트 도출 장치를 포함하되, 위 입력 오디오 신호는 위 오디오 데이터의 수신된 부분이거나, 위 복수의 사전정의된 오디오 데이터세트 중 적어도 하나이고, 위 텍스트 도출 장치는 위 음성 인식 메커니즘을 사용함으로써 위 소리에 대응하는 텍스트를 도출한다.Example 1 is an emergency broadcasting system for diversified notification based on voice recognition for an emergency situation, wherein the system includes a plurality of predefined audio datasets stored therein, and audio derived from a sound source after the occurrence of the emergency situation. It includes a broadcast receiving device for starting data reception, a broadcast output device including an audio speaker for outputting sound according to an input audio signal for emergency broadcast informing of the emergency, and a text derivation device including a voice recognition mechanism However, the input audio signal is a received portion of the audio data, or at least one of the plurality of predefined audio data sets, and the text derivation device derives text corresponding to the sound by using the speech recognition mechanism do.

예 2는 예 1의 주제를 포함하는데, 위 입력 오디오 데이터 신호는 위 방송 수신 장치로부터 위 방송 출력 장치로 전송된다.Example 2 includes the subject matter of Example 1, wherein the input audio data signal is transmitted from the broadcast receiving device to the broadcast output device.

예 3은 예 1 또는 예 2의 주제를 포함하는데, 위 적어도 하나의 사전정의된 오디오 데이터세트는 위 비상 상황을 특징짓는 적어도 하나의 발화 단편을 포함하는 정형화된 비상 상황을 나타내는 사전정의된 오디오 데이터세트를 포함한다.Example 3 includes the subject matter of Example 1 or Example 2, wherein the at least one predefined audio dataset includes predefined audio data representing a standardized emergency situation comprising at least one speech fragment characterizing the emergency situation. Includes a set.

예 4는 예 1 내지 예 3 중 임의의 것의 주제를 포함하는데, 위 텍스트 도출 장치는 위 음성 인식 메커니즘을 사용함으로써, 위 입력 오디오 신호 자체가 아닌, 위 출력된 소리로부터 위 텍스트를 도출한다.Example 4 includes the subject matter of any of Examples 1 to 3, wherein the above text derivation device uses the above speech recognition mechanism to derive the above text from the above output sound, not the above input audio signal itself.

예 5는 예 1 내지 예 3 중 임의의 것의 주제를 포함하는데, 위 텍스트 도출 장치는 마이크를 더 포함하고, 위 텍스트 도출 장치는 위 마이크가 위 출력된 소리에 의해 구동됨에 응답하여 마이크 포착 오디오 신호를 생성하며, 위 텍스트 도출 장치는 위 음성 인식 메커니즘을 사용함으로써 위 생성된 마이크 포착 오디오 신호로부터 위 텍스트를 도출한다.Example 5 includes the subject matter of any one of Examples 1 to 3, wherein the above text derivation device further includes a microphone, and the above text derivation device comprises a microphone capture audio signal in response to the above microphone being driven by the output sound. The above text derivation device derives the above text from the above generated microphone capture audio signal by using the above speech recognition mechanism.

예 6은 예 1 내지 예 3 중 임의의 것의 주제를 포함하는데, 위 텍스트 도출 장치는 위 음성 인식 메커니즘을 사용함으로써 위 입력 오디오 신호 자체로부터 직접적으로 위 텍스트를 도출한다.Example 6 includes the subject matter of any of Examples 1 to 3, wherein the above text derivation device derives the above text directly from the above input audio signal itself by using the above speech recognition mechanism.

예 7은 예 1 내지 예 3 중 임의의 것의 주제를 포함하는데, 위 입력 오디오 신호는 위 텍스트 도출 장치에 또한 제공되며, 위 텍스트 도출 장치는 위 입력 오디오 신호를 제공받음에 응답하여 위 음성 인식 메커니즘을 사용함으로써 위 입력 오디오 신호 자체로부터 직접적으로 위 텍스트를 도출한다.Example 7 includes the subject matter of any of Examples 1 to 3, wherein the above input audio signal is also provided to the above text derivation device, and wherein the above text derivation device is provided in response to receiving the above input audio signal, the above speech recognition mechanism By deriving the above text directly from the above input audio signal itself.

예 8은 예 1 내지 예 7 중 임의의 것의 주제를 포함하는데, 위 입력 오디오 신호로서 위 수신된 부분이 전송되는지 또는 위 복수의 사전정의된 오디오 데이터세트 중 적어도 하나가 전송되는지에 따라, 위 음성 인식 메커니즘은 상이한 모델에 기반하여 음성 인식을 수행하는 것을 수반한다.Example 8 includes the subject matter of any one of Examples 1 to 7, depending on whether the received portion as the input audio signal is transmitted or at least one of the plurality of predefined audio datasets is transmitted. The recognition mechanism involves performing speech recognition based on different models.

예 9는 예 1 내지 예 7 중 임의의 것의 주제를 포함하는데, 위 입력 오디오 신호로서 위 수신된 부분이 전송되는지 또는 위 복수의 사전정의된 오디오 데이터세트 중 적어도 하나가 전송되는지가 위 텍스트 도출 장치에 시그널링되되, 위 텍스트 도출 장치는 위 음성 인식 메커니즘이 위 시그널링된 입력 오디오 신호에 대응하는 모델에 기반하여 음성 인식을 수행하게 한다.Example 9 includes the subject matter of any one of Examples 1 to 7, wherein the above text derivation device is whether the received portion is transmitted as the input audio signal or at least one of the plurality of predefined audio data sets is transmitted. Signaled to, but the above text derivation device causes the above speech recognition mechanism to perform speech recognition based on a model corresponding to the above signaled input audio signal.

예 10은 예 1 내지 예 9 중 임의의 것의 주제를 포함하는데, 위 입력 오디오 신호로서 위 적어도 하나의 사전정의된 오디오 데이터세트가 전송되는 경우, 위 음성 인식 메커니즘은 위 복수의 사전정의된 오디오 데이터세트로써 사전훈련된 모델을 사용하는 음성 인식을 수행하는 것을 수반한다.Example 10 includes the subject matter of any one of Examples 1 to 9, wherein when the above at least one predefined audio dataset is transmitted as the input audio signal, the voice recognition mechanism may include the plurality of predefined audio data. It involves performing speech recognition using a pretrained model as a set.

예 11은 예 1 내지 예 9 중 임의의 것의 주제를 포함하는데, 위 입력 오디오 신호로서 위 수신된 부분이 전송되는지 또는 위 복수의 사전정의된 오디오 데이터세트 중 적어도 하나가 전송되는지가 위 텍스트 도출 장치에 시그널링되되, 위 텍스트 도출 장치는 위 적어도 하나의 사전정의된 오디오 데이터세트가 위 입력 오디오 신호로서 시그널링됨에 응답하여 위 음성 인식 메커니즘이 위 복수의 사전정의된 오디오 데이터세트로써 사전훈련된 모델을 사용하는 음성 인식을 수행하게 한다.Example 11 includes the subject matter of any of Examples 1 to 9, wherein the above-described text derivation device is whether the received portion is transmitted as the input audio signal or at least one of the plurality of predefined audio data sets is transmitted. Signaled to, wherein the text derivation apparatus uses the model pretrained with the plurality of predefined audio datasets in response to the at least one predefined audio dataset being signaled as the input audio signal. Voice recognition.

예 12는 예 1 내지 예 11 중 임의의 것의 주제를 포함하는데, 위 수신된 부분을 위 방송 출력 장치에 전송하기 전에, 위 방송 수신 장치는 위 음원의 유형에 대응하는 전처리를 위 수신된 부분에 대해 수행한다.Example 12 includes the subject matter of any one of Examples 1 to 11, before transmitting the received portion to the above broadcast output device, the above broadcast receiving device performs preprocessing corresponding to the type of the above sound source to the above received part. About.

예 13은 예 1 내지 예 12 중 임의의 것의 주제를 포함하는데, 위 텍스트 도출 장치는 위 텍스트 도출 장치와 통신가능하게 커플링된 적어도 하나의 컴퓨팅 장치에 위 도출된 텍스트의 적어도 일부를 포함하는, 위 비상 상황에 대한 통지를 전송한다.Example 13 includes the subject matter of any one of Examples 1 to 12, wherein the text derivation device includes at least a portion of the text derivated to at least one computing device communicatively coupled with the text derivation device, Notification of the above emergency is sent.

예 14는 예 13의 주제를 포함하는데, 위 입력 오디오 신호가 나타내는 비상 상황 발화의 상세함의 수준이 감소된다고 판정된 경우, 위 텍스트 도출 장치는 위 비상 상황의 위험도가 증가한다는 표시를 위 통지에 추가한다.Example 14 includes the subject matter of Example 13, wherein when it is determined that the level of detail of the emergency utterance indicated by the above input audio signal is reduced, the above text derivation device adds an indication to the above notification that the risk of the above emergency situation increases. do.

예 15는 예 14의 주제를 포함하는데, 위 적어도 하나의 사전정의된 오디오 데이터세트는 제1 사전정의된 오디오 데이터세트 및 제2 사전정의된 오디오 데이터세트를 포함하고, 위 텍스트 도출 장치는 위 제1 사전정의된 오디오 데이터세트의 제1 식별자 및 위 제2 사전정의된 오디오 데이터세트의 제2 식별자를 수신하며, 위 텍스트 도출 장치는 위 수준이 감소되는지 여부를 위 제1 식별자 및 위 제2 식별자에 기반하여 판정한다.Example 15 includes the subject matter of Example 14, wherein the at least one predefined audio dataset includes a first predefined audio dataset and a second predefined audio dataset, and the above text derivation device comprises the above The first identifier of the first predefined audio data set and the second identifier of the second predefined audio data set are received, and the above text derivation device determines whether the level is reduced by the first identifier and the second identifier above. It is judged based on.

예 16은 예 13 내지 예 15 중 임의의 것의 주제를 포함하는데, 위 적어도 하나의 컴퓨팅 장치는 다음을 포함한다: 위 방송 수신 장치, 위 방송 출력 장치 또는 위 텍스트 도출 장치 중 적어도 하나가 설치된 건물 내에 위치된 컴퓨팅 장치; 위 건물에 관련된 사람의 모바일 컴퓨팅 장치; 위 비상 상황에 관한 신고를 접수하기 위해 운영되는 컴퓨팅 장치; 및/또는 위 비상 상황에 관한 정보를 수집하기 위해, 위 정보를 분석하기 위해, 또는 위 정보를 수집하고 분석하기 위해 운영되는 컴퓨팅 장치.Example 16 includes the subject matter of any of Examples 13-15, wherein the at least one computing device includes: In a building in which at least one of the above broadcast receiving device, above broadcast output device, or above text derivation device is installed. Located computing device; A person's mobile computing device related to the above building; A computing device operated to receive a report on the above emergency; And/or a computing device operative to collect information about the above emergency, to analyze the above information, or to collect and analyze the above information.

예 17은 비상 상황에 대한 음성 인식 기반의 다각화된 통지를 위한 텍스트 도출 장치인데, 위 텍스트 도출 장치는, 프로세서와, 컴퓨터 실행가능 명령어가 저장된 컴퓨터 판독가능 저장 매체를 포함하되, 위 컴퓨터 실행가능 명령어는 위 프로세서에 의해 실행되는 경우 위 프로세서로 하여금, 위 텍스트 도출 장치 상에 음성 인식 메커니즘을 구현하는 동작과, 위 비상 상황을 알리는 비상 방송을 위한 입력 오디오 신호에 따라 오디오 스피커로부터 출력된 소리에 대응하는 텍스트를, 위 음성 인식 메커니즘을 사용함으로써 도출하는 동작을 수행하도록 하고, 위 입력 오디오 신호는 위 비상 상황의 발생 후에 음원에서 유래하는 오디오 데이터의 수신된 부분이거나, 복수의 사전정의된 오디오 데이터세트 중 적어도 하나이다.Example 17 is a text derivation device for diversified notification based on speech recognition for an emergency situation, wherein the text derivation device includes a processor and a computer-readable storage medium in which computer-executable instructions are stored, wherein the computer-executable instructions are When executed by the above processor, the processor responds to the sound output from the audio speaker according to an input audio signal for an emergency broadcast informing the above emergency situation and an operation of implementing a voice recognition mechanism on the above text derivation device. Text to be performed by using the above speech recognition mechanism, and the input audio signal is a received portion of audio data originating from a sound source after the occurrence of the above emergency, or a plurality of predefined audio data sets Is at least one.

예 18은 예 17의 주제를 포함하는데, 위 입력 오디오 데이터 신호는 위 복수의 사전정의된 오디오 데이터세트가 내부에 저장되고, 위 오디오 데이터의 위 수신을 개시하는 방송 수신 장치로부터 위 오디오 스피커가 포함된 방송 출력 장치로 전송된다.Example 18 includes the subject matter of Example 17, wherein the above input audio data signal includes a plurality of predefined audio data sets stored therein, and includes the above audio speaker from a broadcast receiving device that initiates above reception of the above audio data. Broadcast output device.

예 19는 예 17 또는 예 18의 주제를 포함하는데, 위 적어도 하나의 사전정의된 오디오 데이터세트는 위 비상 상황을 특징짓는 적어도 하나의 발화 단편을 포함하는 정형화된 비상 상황을 나타내는 사전정의된 오디오 데이터세트를 포함한다.Example 19 includes the subject matter of Examples 17 or 18, wherein the at least one predefined audio dataset includes predefined audio data representing a formalized emergency situation comprising at least one speech fragment characterizing the emergency situation. Includes a set.

예 20은 예 17 내지 예 19 중 임의의 것의 주제를 포함하는데, 위 컴퓨터 실행가능 명령어는 위 프로세서에 의해 실행되는 경우 위 프로세서로 하여금 또한, 위 음성 인식 메커니즘을 사용함으로써, 위 입력 오디오 신호 자체가 아닌, 위 출력된 소리로부터 위 텍스트를 도출하는 동작을 수행하도록 한다.Example 20 includes the subject matter of any of Examples 17-19, wherein the computer-executable instructions, when executed by the processor, also cause the processor to use the speech recognition mechanism, so that the input audio signal itself is Instead, an operation of deriving the above text from the sound output above is performed.

예 21은 예 17 내지 예 19 중 임의의 것의 주제를 포함하는데, 위 텍스트 도출 장치는 마이크를 더 포함하고, 위 컴퓨터 실행가능 명령어는 위 프로세서에 의해 실행되는 경우 위 프로세서로 하여금 또한, 위 마이크가 위 출력된 소리에 의해 구동됨에 응답하여 마이크 포착 오디오 신호를 생성하는 동작과, 위 음성 인식 메커니즘을 사용함으로써 위 생성된 마이크 포착 오디오 신호로부터 위 텍스트를 도출하는 동작을 수행하도록 한다.Example 21 includes the subject matter of any of Examples 17-19, wherein the text derivation device further includes a microphone, and the computer-executable instructions, when executed by the processor, also cause the processor to: In response to being driven by the output sound, the microphone capture audio signal is generated, and the above text recognition mechanism is used to derive the above text from the microphone capture audio signal.

예 22는 예 17 내지 예 19 중 임의의 것의 주제를 포함하는데, 위 컴퓨터 실행가능 명령어는 위 프로세서에 의해 실행되는 경우 위 프로세서로 하여금 또한, 위 음성 인식 메커니즘을 사용함으로써 위 입력 오디오 신호 자체로부터 직접적으로 위 텍스트를 도출하는 동작을 수행하도록 한다.Example 22 includes the subject matter of any of Examples 17-19, wherein the computer-executable instructions, when executed by the processor, also cause the processor to directly from the input audio signal itself by using the speech recognition mechanism. To perform the operation of deriving the above text.

예 23은 예 17 내지 예 19 중 임의의 것의 주제를 포함하는데, 위 입력 오디오 신호는 위 텍스트 도출 장치에 또한 제공되며, 위 컴퓨터 실행가능 명령어는 위 프로세서에 의해 실행되는 경우 위 프로세서로 하여금 또한, 위 입력 오디오 신호를 제공받음에 응답하여 위 음성 인식 메커니즘을 사용함으로써 위 입력 오디오 신호 자체로부터 직접적으로 위 텍스트를 도출하는 동작을 수행하도록 한다.Example 23 includes the subject matter of any of Examples 17-19, wherein the above input audio signal is also provided to the above text derivation device, and the above computer executable instructions may also cause the above processor when executed by the above processor, In response to receiving the above input audio signal, an operation of deriving the above text directly from the above input audio signal itself is performed by using the above voice recognition mechanism.

예 24는 예 17 내지 예 23 중 임의의 것의 주제를 포함하는데, 위 입력 오디오 신호로서 위 수신된 부분이 전송되는지 또는 위 복수의 사전정의된 오디오 데이터세트 중 적어도 하나가 전송되는지에 따라, 위 음성 인식 메커니즘은 상이한 모델에 기반하여 음성 인식을 수행하는 것을 수반한다.Example 24 includes the subject matter of any of Examples 17-23, depending on whether the received portion as the input audio signal is transmitted or at least one of the plurality of predefined audio datasets is transmitted. The recognition mechanism involves performing speech recognition based on different models.

예 25는 예 17 내지 예 23 중 임의의 것의 주제를 포함하는데, 위 입력 오디오 신호로서 위 수신된 부분이 전송되는지 또는 위 복수의 사전정의된 오디오 데이터세트 중 적어도 하나가 전송되는지가 위 텍스트 도출 장치에 시그널링되되, 위 컴퓨터 실행가능 명령어는 위 프로세서에 의해 실행되는 경우 위 프로세서로 하여금 또한, 위 음성 인식 메커니즘이 위 시그널링된 입력 오디오 신호에 대응하는 모델에 기반하여 음성 인식을 수행하게 하는 동작을 수행하도록 한다.Example 25 includes the subject matter of any of Examples 17 to 23, wherein the received portion is transmitted as the input audio signal or whether at least one of the plurality of predefined audio data sets is transmitted. Signaled to, the computer-executable instructions, when executed by the processor, cause the processor to further perform speech recognition based on a model corresponding to the signaled input audio signal. Do it.

예 26은 예 17 내지 예 25 중 임의의 것의 주제를 포함하는데, 위 입력 오디오 신호로서 위 적어도 하나의 사전정의된 오디오 데이터세트가 전송되는 경우, 위 음성 인식 메커니즘은 위 복수의 사전정의된 오디오 데이터세트로써 사전훈련된 모델을 사용하는 음성 인식을 수행하는 것을 수반한다.Example 26 includes the subject matter of any of Examples 17 to 25, wherein when the above at least one predefined audio dataset is transmitted as the input audio signal, the voice recognition mechanism may include the plurality of predefined audio data. It involves performing speech recognition using a pretrained model as a set.

예 27은 예 17 내지 예 25 중 임의의 것의 주제를 포함하는데, 위 입력 오디오 신호로서 위 수신된 부분이 전송되는지 또는 위 복수의 사전정의된 오디오 데이터세트 중 적어도 하나가 전송되는지가 위 텍스트 도출 장치에 시그널링되되, 위 컴퓨터 실행가능 명령어는 위 프로세서에 의해 실행되는 경우 위 프로세서로 하여금 또한, 위 적어도 하나의 사전정의된 오디오 데이터세트가 위 입력 오디오 신호로서 시그널링됨에 응답하여 위 음성 인식 메커니즘이 위 복수의 사전정의된 오디오 데이터세트로써 사전훈련된 모델을 사용하는 음성 인식을 수행하게 하는 동작을 수행하도록 한다.Example 27 includes the subject matter of any of Examples 17 to 25, wherein the received portion is transmitted as the input audio signal or whether at least one of the plurality of predefined audio data sets is transmitted. Signaled to, wherein the computer-executable instructions, when executed by the processor, cause the processor to further respond to the voice recognition mechanism in response to the at least one predefined audio dataset being signaled as the input audio signal. To perform voice recognition using a pre-trained model as a predefined audio data set.

예 28은 예 17 내지 예 27 중 임의의 것의 주제를 포함하는데, 위 수신된 부분은 위 음원의 유형에 대응하는 전처리가 수행된 것이다.Example 28 includes the subject matter of any of Examples 17 to 27, wherein the received portion is preprocessed corresponding to the type of the sound source.

예 29는 예 17 내지 예 28 중 임의의 것의 주제를 포함하는데, 위 컴퓨터 실행가능 명령어는 위 프로세서에 의해 실행되는 경우 위 프로세서로 하여금 또한, 위 텍스트 도출 장치와 통신가능하게 커플링된 적어도 하나의 컴퓨팅 장치에 위 비상 상황에 대한 통지를 전송하기 위하여 위 도출된 텍스트의 적어도 일부를 위 통지에 포함시키는 동작을 수행하도록 한다.Example 29 includes the subject matter of any of Examples 17-28, wherein the computer-executable instructions, when executed by the processor, also cause the processor to further communicatively couple with the text-deriving device. In order to send a notification about the emergency to the computing device, an operation of including at least a part of the text derived above is included in the notification.

예 30은 예 29의 주제를 포함하는데, 위 입력 오디오 신호가 나타내는 비상 상황 발화의 상세함의 수준이 감소된다고 판정된 경우, 위 컴퓨터 실행가능 명령어는 위 프로세서에 의해 실행되는 경우 위 프로세서로 하여금 또한, 위 비상 상황의 위험도가 증가한다는 표시를 위 통지에 추가하는 동작을 수행하도록 한다.Example 30 includes the subject matter of Example 29, wherein when it is determined that the level of detail of the emergency utterance indicated by the input audio signal is reduced, the computer-executable instructions may also cause the processor to execute when executed by the processor, An action to add an indication that the risk of the above emergency situation increases to the above notification is performed.

예 31은 예 30의 주제를 포함하는데, 위 적어도 하나의 사전정의된 오디오 데이터세트는 제1 사전정의된 오디오 데이터세트 및 제2 사전정의된 오디오 데이터세트를 포함하고, 위 컴퓨터 실행가능 명령어는 위 프로세서에 의해 실행되는 경우 위 프로세서로 하여금 또한, 위 제1 사전정의된 오디오 데이터세트의 제1 식별자 및 위 제2 사전정의된 오디오 데이터세트의 제2 식별자를 수신하는 동작과, 위 수준이 감소되는지 여부를 위 제1 식별자 및 위 제2 식별자에 기반하여 판정하는 동작을 수행하도록 한다.Example 31 includes the subject matter of Example 30, wherein the at least one predefined audio dataset includes a first predefined audio dataset and a second predefined audio dataset, wherein the computer-executable instructions are When executed by the processor, the processor also receives the first identifier of the first predefined audio dataset and the second identifier of the second predefined audio dataset, and whether the level is reduced. It is determined whether the first identifier and the second identifier are determined based on the above.

예 32는 예 29 내지 예 31 중 임의의 것의 주제를 포함하는데, 위 적어도 하나의 컴퓨팅 장치는 다음을 포함한다: 위 방송 수신 장치, 위 방송 출력 장치 또는 위 텍스트 도출 장치 중 적어도 하나가 설치된 건물 내에 위치된 컴퓨팅 장치; 위 건물에 관련된 사람의 모바일 컴퓨팅 장치; 위 비상 상황에 관한 신고를 접수하기 위해 운영되는 컴퓨팅 장치; 및/또는 위 비상 상황에 관한 정보를 수집하기 위해, 위 정보를 분석하기 위해, 또는 위 정보를 수집하고 분석하기 위해 운영되는 컴퓨팅 장치.Example 32 includes the subject matter of any of Examples 29-31, wherein the at least one computing device includes: in a building in which at least one of the above broadcast receiving device, above broadcast output device, or above text derivation device is installed. Located computing device; A person's mobile computing device related to the above building; A computing device operated to receive a report on the above emergency; And/or a computing device operative to collect information about the above emergency, to analyze the above information, or to collect and analyze the above information.

이상에서 본 발명의 몇몇 실시예가 상세하게 기술되었으나, 이는 제한적이 아니고 예시적인 것으로 간주되어야 한다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 개시된 실시예의 세부사항에 대해 본 발명의 범주로부터 벗어나지 않고서 다양한 변경이 행해질 수 있음을 이해할 것이다. 그러므로 본 발명의 범주는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위 및 그 균등물에 의해 정해져야 한다.Although some embodiments of the present invention have been described above in detail, they should be regarded as illustrative and not restrictive. Those skilled in the art to which the present invention pertains will understand that various changes may be made to the details of the disclosed embodiments without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined by the following claims and equivalents thereto.

100: 방송 시스템
120: 방송 송신 장치
140: 방송 수신 장치
160: 방송 출력 장치
180: 텍스트 도출 장치
100: broadcasting system
120: broadcast transmission device
140: broadcast receiving device
160: broadcast output device
180: text derivation device

Claims (16)

비상 상황에 대한 음성 인식 기반의 다각화된 통지를 위한 비상 방송 시스템으로서,
복수의 사전정의된 오디오 데이터세트가 내부에 저장되고, 상기 비상 상황의 발생 후에 음원에서 유래하는 오디오 데이터의 수신을 개시하는 방송 수신 장치와,
상기 비상 상황을 알리는 비상 방송을 위한 입력 오디오 신호에 따라 소리를 출력하는 오디오 스피커를 포함하는 방송 출력 장치와,
음성 인식 메커니즘을 포함하는 텍스트 도출 장치를 포함하되,
상기 텍스트 도출 장치는 상기 음성 인식 메커니즘을 사용함으로써 상기 소리에 대응하는 텍스트를 도출하고, 상기 입력 오디오 신호는 상기 오디오 데이터의 수신된 부분이거나, 상기 복수의 사전정의된 오디오 데이터세트 중 적어도 하나이며, 상기 입력 오디오 신호가 상기 수신된 부분인지 또는 상기 복수의 사전정의된 오디오 데이터세트 중 적어도 하나인지에 따라, 상기 음성 인식 메커니즘은 상이한 모델에 기반하여 음성 인식을 수행하는 것을 수반하되,
상기 적어도 하나의 사전정의된 오디오 데이터세트가 상기 입력 오디오 신호로서 전송되는 경우, 상기 복수의 사전정의된 오디오 데이터세트와 동일한 훈련 데이터세트로써 사전훈련된 모델이 상기 음성 인식에서 사용되되, 상기 입력 오디오 신호가 나타내는 비상 상황 발화의 발화자가 상기 음성 인식에 의해 타겟팅된 요소이고,
상기 수신된 부분이 상기 입력 오디오 신호로서 전송되는 경우, 상기 요소에 독립적인 모델이 상기 음성 인식에서 사용되는,
비상 방송 시스템.
As an emergency broadcasting system for diversified notification based on voice recognition for emergency situations,
A plurality of predefined audio data sets stored therein, and a broadcast receiving device for starting to receive audio data originating from a sound source after the occurrence of the emergency;
And a broadcast output device including an audio speaker for outputting a sound according to the input audio signal for emergency broadcast informing the emergency situation,
A text derivation device including a speech recognition mechanism,
The text derivation device derives text corresponding to the sound by using the speech recognition mechanism, and the input audio signal is a received portion of the audio data, or at least one of the plurality of predefined audio data sets, Depending on whether the input audio signal is the received portion or at least one of the plurality of predefined audio datasets, the speech recognition mechanism involves performing speech recognition based on different models,
When the at least one predefined audio dataset is transmitted as the input audio signal, a model pretrained with the same training dataset as the plurality of predefined audio datasets is used in the speech recognition, and the input audio The speaker of the emergency utterance indicated by the signal is an element targeted by the speech recognition,
When the received portion is transmitted as the input audio signal, a model independent of the element is used in the speech recognition,
Emergency broadcasting system.
제1항에 있어서,
상기 텍스트 도출 장치는 상기 음성 인식 메커니즘을 사용함으로써, 상기 입력 오디오 신호 자체가 아닌, 상기 출력된 소리로부터 상기 텍스트를 도출하는,
비상 방송 시스템.
According to claim 1,
The text derivation device derives the text from the output sound, not the input audio signal itself, by using the speech recognition mechanism,
Emergency broadcasting system.
제1항에 있어서,
상기 텍스트 도출 장치는 상기 음성 인식 메커니즘을 사용함으로써 상기 입력 오디오 신호 자체로부터 직접적으로 상기 텍스트를 도출하는,
비상 방송 시스템.
According to claim 1,
The text derivation device derives the text directly from the input audio signal itself by using the speech recognition mechanism,
Emergency broadcasting system.
삭제delete 제1항에 있어서,
상기 수신된 부분을 상기 방송 출력 장치에 전송하기 전에, 상기 방송 수신 장치는 상기 음원의 유형에 대응하는 전처리를 상기 수신된 부분에 대해 수행하는,
비상 방송 시스템.
According to claim 1,
Before transmitting the received part to the broadcast output device, the broadcast receiving device performs pre-processing corresponding to the type of the sound source for the received part,
Emergency broadcasting system.
제1항에 있어서,
상기 텍스트 도출 장치는 상기 텍스트 도출 장치와 통신가능하게 커플링된 적어도 하나의 컴퓨팅 장치에 상기 비상 상황에 대한 통지를 전송하기 위하여 상기 도출된 텍스트의 적어도 일부를 상기 통지에 포함시키는,
비상 방송 시스템.
According to claim 1,
The text derivation device including at least a portion of the derived text in the notification to send a notification of the emergency to at least one computing device communicatively coupled with the text derivation device,
Emergency broadcasting system.
제6항에 있어서,
상기 입력 오디오 신호가 나타내는 상기 비상 상황 발화의 상세함의 수준이 감소된다고 판정된 경우, 상기 텍스트 도출 장치는 상기 비상 상황의 위험도가 증가한다는 표시를 상기 통지에 추가하는,
비상 방송 시스템.
The method of claim 6,
When it is determined that the level of detail of the emergency utterance indicated by the input audio signal is reduced, the text derivation device adds an indication to the notification that the risk of the emergency situation increases;
Emergency broadcasting system.
제7항에 있어서,
상기 적어도 하나의 사전정의된 오디오 데이터세트는 제1 사전정의된 오디오 데이터세트 및 제2 사전정의된 오디오 데이터세트를 포함하고, 상기 텍스트 도출 장치는 상기 제1 사전정의된 오디오 데이터세트의 제1 식별자 및 상기 제2 사전정의된 오디오 데이터세트의 제2 식별자를 수신하며, 상기 텍스트 도출 장치는 상기 수준이 감소되는지 여부를 상기 제1 식별자 및 상기 제2 식별자에 기반하여 판정하는,
비상 방송 시스템.
The method of claim 7,
The at least one predefined audio dataset includes a first predefined audio dataset and a second predefined audio dataset, and the text derivation device is a first identifier of the first predefined audio dataset And a second identifier of the second predefined audio dataset, wherein the text derivation device determines whether the level is reduced based on the first identifier and the second identifier,
Emergency broadcasting system.
비상 상황에 대한 음성 인식 기반의 다각화된 통지를 위한 텍스트 도출 장치로서,
프로세서와,
컴퓨터 실행가능 명령어가 저장된 컴퓨터 판독가능 저장 매체를 포함하되,
상기 컴퓨터 실행가능 명령어는 상기 프로세서에 의해 실행되는 경우 상기 프로세서로 하여금,
상기 텍스트 도출 장치 상에 음성 인식 메커니즘을 구현하는 동작과,
상기 비상 상황을 알리는 비상 방송을 위한 입력 오디오 신호에 따라 오디오 스피커로부터 출력된 소리에 대응하는 텍스트를, 상기 음성 인식 메커니즘을 사용함으로써 도출하는 동작을 수행하도록 하고,
상기 입력 오디오 신호는 상기 비상 상황의 발생 후에 음원에서 유래하는 오디오 데이터의 수신된 부분이거나, 복수의 사전정의된 오디오 데이터세트 중 적어도 하나이며, 상기 입력 오디오 신호가 상기 수신된 부분인지 또는 상기 복수의 사전정의된 오디오 데이터세트 중 적어도 하나인지에 따라, 상기 음성 인식 메커니즘은 상이한 모델에 기반하여 음성 인식을 수행하는 것을 수반하되,
상기 적어도 하나의 사전정의된 오디오 데이터세트가 상기 입력 오디오 신호로서 전송되는 경우, 상기 복수의 사전정의된 오디오 데이터세트와 동일한 훈련 데이터세트로써 사전훈련된 모델이 상기 음성 인식에서 사용되되, 상기 입력 오디오 신호가 나타내는 비상 상황 발화의 발화자가 상기 음성 인식에 의해 타겟팅된 요소이고,
상기 수신된 부분이 상기 입력 오디오 신호로서 전송되는 경우, 상기 요소에 독립적인 모델이 상기 음성 인식에서 사용되는,
텍스트 도출 장치.
As a text derivation device for diversified notification based on speech recognition for emergency situations,
A processor,
A computer readable storage medium having computer executable instructions thereon,
The computer-executable instructions, when executed by the processor, cause the processor to:
Implementing a speech recognition mechanism on the text derivation device,
The text corresponding to the sound output from the audio speaker according to the input audio signal for emergency broadcast informing the emergency situation is performed by using the voice recognition mechanism to derive the text.
The input audio signal is a received portion of audio data originating from a sound source after the occurrence of the emergency, or is at least one of a plurality of predefined audio data sets, and the input audio signal is the received portion or the plurality of Depending on whether it is at least one of the predefined audio datasets, the speech recognition mechanism involves performing speech recognition based on different models,
When the at least one predefined audio dataset is transmitted as the input audio signal, a model pretrained with the same training dataset as the plurality of predefined audio datasets is used in the speech recognition, and the input audio The speaker of the emergency utterance indicated by the signal is an element targeted by the speech recognition,
When the received portion is transmitted as the input audio signal, a model independent of the element is used in the speech recognition,
Text derivation device.
제9항에 있어서,
상기 컴퓨터 실행가능 명령어는 상기 프로세서에 의해 실행되는 경우 상기 프로세서로 하여금 또한,
상기 음성 인식 메커니즘을 사용함으로써, 상기 입력 오디오 신호 자체가 아닌, 상기 출력된 소리로부터 상기 텍스트를 도출하는 동작을 수행하도록 하는,
텍스트 도출 장치.
The method of claim 9,
The computer-executable instructions, when executed by the processor, also cause the processor to:
By using the speech recognition mechanism, to perform the operation of deriving the text from the output sound, not the input audio signal itself,
Text derivation device.
제9항에 있어서,
상기 컴퓨터 실행가능 명령어는 상기 프로세서에 의해 실행되는 경우 상기 프로세서로 하여금 또한,
상기 음성 인식 메커니즘을 사용함으로써 상기 입력 오디오 신호 자체로부터 직접적으로 상기 텍스트를 도출하는 동작을 수행하도록 하는,
텍스트 도출 장치.
The method of claim 9,
The computer-executable instructions, when executed by the processor, also cause the processor to:
By using the speech recognition mechanism to perform the operation of deriving the text directly from the input audio signal itself,
Text derivation device.
삭제delete 제9항에 있어서,
상기 수신된 부분은 상기 음원의 유형에 대응하는 전처리가 수행된 것인,
텍스트 도출 장치.
The method of claim 9,
The received portion is pre-processing corresponding to the type of the sound source is performed,
Text derivation device.
제9항에 있어서,
상기 컴퓨터 실행가능 명령어는 상기 프로세서에 의해 실행되는 경우 상기 프로세서로 하여금 또한,
상기 텍스트 도출 장치는 상기 텍스트 도출 장치와 통신가능하게 커플링된 적어도 하나의 컴퓨팅 장치에 상기 비상 상황에 대한 통지를 전송하기 위하여 상기 도출된 텍스트의 적어도 일부를 상기 통지에 포함시키는 동작을 수행하도록 하는,
텍스트 도출 장치.
The method of claim 9,
The computer-executable instructions, when executed by the processor, also cause the processor to:
The text derivation device is configured to perform an operation of including at least a portion of the derived text in the notification to send a notification about the emergency to at least one computing device communicatively coupled to the text derivation device. ,
Text derivation device.
제14항에 있어서,
상기 입력 오디오 신호가 나타내는 상기 비상 상황 발화의 상세함의 수준이 감소된다고 판정된 경우, 상기 컴퓨터 실행가능 명령어는 상기 프로세서에 의해 실행되는 경우 상기 프로세서로 하여금 또한,
상기 비상 상황의 위험도가 증가한다는 표시를 상기 통지에 추가하는 동작을 수행하도록 하는,
텍스트 도출 장치.
The method of claim 14,
When it is determined that the level of detail of the emergency utterance indicated by the input audio signal is reduced, the computer-executable instructions, when executed by the processor, also cause the processor to:
To perform an operation of adding an indication that the risk of the emergency situation increases to the notification,
Text derivation device.
제15항에 있어서,
상기 적어도 하나의 사전정의된 오디오 데이터세트는 제1 사전정의된 오디오 데이터세트 및 제2 사전정의된 오디오 데이터세트를 포함하고, 상기 컴퓨터 실행가능 명령어는 상기 프로세서에 의해 실행되는 경우 상기 프로세서로 하여금 또한,
상기 제1 사전정의된 오디오 데이터세트의 제1 식별자 및 상기 제2 사전정의된 오디오 데이터세트의 제2 식별자를 수신하는 동작과,
상기 텍스트 도출 장치는 상기 수준이 감소되는지 여부를 상기 제1 식별자 및 상기 제2 식별자에 기반하여 판정하는 동작을 수행하도록 하는,
텍스트 도출 장치.
The method of claim 15,
The at least one predefined audio dataset includes a first predefined audio dataset and a second predefined audio dataset, wherein the computer-executable instructions, when executed by the processor, cause the processor to also ,
Receiving a first identifier of the first predefined audio dataset and a second identifier of the second predefined audio dataset,
The text derivation apparatus is configured to perform an operation of determining whether the level is reduced based on the first identifier and the second identifier,
Text derivation device.
KR1020190076542A 2019-06-26 2019-06-26 Emergency broadcasting system, apparatus and technique for speech recognition based diversified notification of an emergency situation KR102121059B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190076542A KR102121059B1 (en) 2019-06-26 2019-06-26 Emergency broadcasting system, apparatus and technique for speech recognition based diversified notification of an emergency situation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190076542A KR102121059B1 (en) 2019-06-26 2019-06-26 Emergency broadcasting system, apparatus and technique for speech recognition based diversified notification of an emergency situation

Publications (1)

Publication Number Publication Date
KR102121059B1 true KR102121059B1 (en) 2020-06-09

Family

ID=71082768

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190076542A KR102121059B1 (en) 2019-06-26 2019-06-26 Emergency broadcasting system, apparatus and technique for speech recognition based diversified notification of an emergency situation

Country Status (1)

Country Link
KR (1) KR102121059B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112367134A (en) * 2020-11-09 2021-02-12 湖南芒果听见科技有限公司 Emergency broadcasting system based on cloud platform and operation method thereof
KR102535141B1 (en) * 2022-10-05 2023-05-30 동광전자 주식회사 Method for broadcasting civil defense alerts or disaster alerts and alarm broadcasting control device using the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060089922A (en) * 2005-02-03 2006-08-10 에스케이 텔레콤주식회사 Data abstraction apparatus by using speech recognition and method thereof
KR101778620B1 (en) * 2017-04-05 2017-09-15 (주)파스컴 Public address system
KR101785640B1 (en) * 2017-04-05 2017-10-17 (주)파스컴 Public address system
KR101819457B1 (en) * 2016-08-17 2018-01-17 주식회사 소리자바 Voice recognition apparatus and system
KR101868085B1 (en) * 2017-12-19 2018-06-18 (주)아이엠피 System, apparatus and technique for emergency broadcasting

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060089922A (en) * 2005-02-03 2006-08-10 에스케이 텔레콤주식회사 Data abstraction apparatus by using speech recognition and method thereof
KR101819457B1 (en) * 2016-08-17 2018-01-17 주식회사 소리자바 Voice recognition apparatus and system
KR101778620B1 (en) * 2017-04-05 2017-09-15 (주)파스컴 Public address system
KR101785640B1 (en) * 2017-04-05 2017-10-17 (주)파스컴 Public address system
KR101868085B1 (en) * 2017-12-19 2018-06-18 (주)아이엠피 System, apparatus and technique for emergency broadcasting

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112367134A (en) * 2020-11-09 2021-02-12 湖南芒果听见科技有限公司 Emergency broadcasting system based on cloud platform and operation method thereof
KR102535141B1 (en) * 2022-10-05 2023-05-30 동광전자 주식회사 Method for broadcasting civil defense alerts or disaster alerts and alarm broadcasting control device using the same

Similar Documents

Publication Publication Date Title
US9280981B2 (en) Method and apparatus for voice control of a mobile device
EP2991329B1 (en) Automated testing of interactive voice response systems
US11204685B1 (en) Voice communication targeting user interface
EP3738120B1 (en) Portable radio and method for managing speech recognition
KR101868085B1 (en) System, apparatus and technique for emergency broadcasting
KR102121059B1 (en) Emergency broadcasting system, apparatus and technique for speech recognition based diversified notification of an emergency situation
US20130041646A1 (en) System and method for emergency message preview and transmission
KR20140088836A (en) Methods and systems for searching utilizing acoustical context
CN104240438A (en) Method and device for achieving automatic alarming through mobile terminal and mobile terminal
CN110995938B (en) Data processing method and device
US20150111525A1 (en) Emergency assistance
KR102292333B1 (en) Techniques of delivery of public address in accordance with decision factor related to monitoring environment
US8793139B1 (en) Voice activated cockpit management system for flight procedures and control of aircraft systems and flight management systems of single and multi-engine aircraft
CN110248133A (en) A kind of net about vehicle method for safety monitoring, device and database node
KR102025588B1 (en) Intelligent disaster response method for controlling open and close of entrance and exit based iot
EP2913822B1 (en) Speaker recognition
CN107977187B (en) Reverberation adjusting method and electronic equipment
KR20170077381A (en) System and method for prevent voice phishing using speech recognition
KR101339677B1 (en) Method of alert for disasters and accidents
KR20150115392A (en) System and method for mornitoring danger
KR101279832B1 (en) Module of alert for disasters and accidents
KR101289255B1 (en) Smartphone for school emergency notification
KR102039023B1 (en) Fire information providing system using inaudible sound wave and device thereof
EP3089160B1 (en) Method and apparatus for voice control of a mobile device
KR102169797B1 (en) Event detection-based public address system

Legal Events

Date Code Title Description
GRNT Written decision to grant