KR101968607B1 - System and method for broadcating real-time disaster using mobile device - Google Patents

System and method for broadcating real-time disaster using mobile device Download PDF

Info

Publication number
KR101968607B1
KR101968607B1 KR1020170145796A KR20170145796A KR101968607B1 KR 101968607 B1 KR101968607 B1 KR 101968607B1 KR 1020170145796 A KR1020170145796 A KR 1020170145796A KR 20170145796 A KR20170145796 A KR 20170145796A KR 101968607 B1 KR101968607 B1 KR 101968607B1
Authority
KR
South Korea
Prior art keywords
image
terminal
broadcast
slave terminal
slave
Prior art date
Application number
KR1020170145796A
Other languages
Korean (ko)
Inventor
심익한
Original Assignee
주식회사 유진코어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유진코어 filed Critical 주식회사 유진코어
Priority to KR1020170145796A priority Critical patent/KR101968607B1/en
Application granted granted Critical
Publication of KR101968607B1 publication Critical patent/KR101968607B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/53Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers
    • H04H20/59Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers for emergency or urgency
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/65Arrangements characterised by transmission systems for broadcast
    • H04H20/71Wireless systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Alarm Systems (AREA)

Abstract

Disclosed are a real-time disaster broadcasting system using a mobile device, and a method thereof. According to the present invention, the real-time disaster broadcasting system using a mobile device comprises: a slave terminal for generating a photographed image; a master terminal for generating a broadcasting channel for providing a broadcasting image for the slave terminal, displaying a library for the photographed image received from the slave terminal connected to the same broadcasting channel, and transmitting any one of a plurality of photographed images configuring the library, selected by control of a user as the broadcasting image; and a management server for controlling the broadcasting image to be streamed to the slave terminal, controlling to change the photographed image photographed by the slave terminal positioned at the closet to a place where event information is generated, into the broadcasting image when the event information on a disaster situation or an emergency situation is confirmed as generated, and controlling to display an augmented reality object indicating an evacuation path and an evacuation place on the changed broadcasting image.

Description

모바일 기기를 이용한 실시간 재난 방송 시스템 및 방법{SYSTEM AND METHOD FOR BROADCATING REAL-TIME DISASTER USING MOBILE DEVICE}TECHNICAL FIELD [0001] The present invention relates to a system and method for real-time disaster broadcasting using a mobile device,

본 발명은 모바일 기기를 이용한 실시간 재난 방송 시스템 및 방법에 관한 것으로서, 더욱 상세하게는 재난 또는 긴급 현장에 위치한 단말에 의해 촬영된 영상을 이용하여 시청자에게 스트리밍 하는 모바일 기기를 이용한 실시간 재난 방송 시스템 및 방법에 관한 것이다.The present invention relates to a real-time disaster broadcasting system and method using a mobile device, and more particularly, to a real-time disaster broadcasting system and a real-time disaster broadcasting system using a mobile device for streaming to a viewer using an image captured by a terminal located in a disaster or an emergency scene .

최근 인터넷을 통하여 멀티미디어 데이터를 스트리밍 하는 정보 제공 기술이 활발히 이용되고 있으며, 이러한 정보 제공기술을 이용한 스트리밍 서비스는 이동 통신단말기를 대상으로 하는 무선네트워크와 연계하여 서비스의 범위를 넓혀가고 있는 추세이다. 스트리밍 기술이 활발히 이용되고 있는 이유는 대부분의 사용자들이 대용량 멀티미디어 파일들을 즉시 다운로드 할 만큼 빠른 접속회선을 가지고 있지 못하기 때문인데, 스트리밍 기술을 이용하면, 파일이 모두 전송되기 전부터 사용자의 브라우저 또는 플러그인이 데이터를 출력할 수 있게 되어 빠른 접속회선이 없더라도 즉시 멀티미디어 파일들을 이용할 수 있게 된다. 최근에는 스트리밍 기술을 이용하여 학교의 단체 수학여행이나 지방자치 단체의 행사 또는 재난지역의 현장상황을 제공하는 기술이 연구되고 있다.Recently, information providing technology for streaming multimedia data through the Internet has been actively used, and streaming service using such information providing technology has been widening the range of services in connection with wireless networks targeting mobile communication terminals. Streaming technology is being actively used because most users do not have a fast connection line to download large multimedia files instantly. Streaming technology allows a user's browser or plug- Data can be output, so that even if there is no quick access line, multimedia files can be used immediately. In recent years, techniques for providing group school excursions, events of local governments, or site conditions in disaster areas have been studied using streaming technology.

특히 스트리밍 기술을 이용하여 재난지역의 상황을 제공하는 재난 관리 기술은, 우리나라와 같이 IT 기반이 잘 구축되어 있는 환경에서는 재난 감지 센서를 활용한 다양한 방법으로 재난을 감지하는 기술의 효용성이 뛰어나고 효율적이라는 면에서 각광받고 있다. 그러나 기존의 재난 관리 기술은, 발생된 재난의 위치와 그 형태를 해당자에게 가공되지 않은 상태로 정보를 제공하는 것에 지나지 않아 이용함에 있어서 불편함을 가지고 있다. 이에 따라, 재난 관리 기술을 좀더 편리하고 효율적으로 사용하기 위한 연구와, 재난 정보를 더 정확하게 제공하기 위한 연구가 진행되고 있다.Especially, the disaster management technology that provides the situation of the disaster area using the streaming technology is very effective and efficient in the technology where the IT infrastructure such as Korea is well established, It is attracting attention in terms of. However, the existing disaster management technology is inconvenient in using the location and form of the disaster generated only by giving information to the person in an unprocessed state. As a result, studies are being conducted to use disaster management technology more conveniently and efficiently, and to provide disaster information more accurately.

한국등록특허 제10-1377184호Korean Patent No. 10-1377184 한국공개특허 제10-2016-0008336호Korean Patent Publication No. 10-2016-0008336

본 발명의 일측면은 모바일 기기를 이용하여 재난 상황을 실시간으로 방송하고, 재난 현장에 위치하는 사용자의 대피 경로 안내 서비스를 제공하는 모바일 기기를 이용한 실시간 재난 방송 시스템 및 방법을 제공한다.One aspect of the present invention provides a real-time disaster broadcasting system and method using a mobile device that broadcasts a disaster situation in real time using a mobile device and provides a user's evacuation route guidance service at a disaster site.

본 발명의 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problem of the present invention is not limited to the technical problems mentioned above, and other technical problems which are not mentioned can be understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 모바일 기기를 이용한 실시간 재난 방송 시스템은, 촬영영상을 생성하는 슬레이브 단말, 상기 슬레이브 단말에 방송영상을 제공하기 위한 방송채널을 생성하고, 동일한 방송채널에 접속한 슬레이브 단말로부터 수신되는 촬영영상에 대한 라이브러리를 표시하고, 상기 라이브러리를 구성하는 복수의 촬영영상 중 사용자의 제어에 의해 선택된 어느 하나의 촬영영상을 상기 방송영상으로 송출하는 마스터 단말 및 상기 방송영상이 상기 슬레이브 단말에 스트리밍 되도록 제어하되, 재난 상황 또는 긴급 상황에 대한 이벤트정보가 발생되는 것으로 확인되면, 상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말에 의해 촬영된 촬영영상이 상기 방송영상으로 변경되도록 제어하고, 대피 경로 및 대피 장소를 나타내는 증강현실 오브젝트를 변경된 방송영상에 표시하도록 제어하는 관리서버를 포함한다.A real-time disaster broadcasting system using a mobile device according to an embodiment of the present invention includes a slave terminal for generating a shot image, a slave terminal for generating a broadcast channel for providing a broadcast image to the slave terminal, A master terminal for displaying a library of photographed images received from the slave terminal and sending out one of the plurality of photographed images constituting the library to the broadcast image selected by the user's control, If the event information is found to be generated in the event of a disaster or an emergency, control is performed so that the shot image photographed by the slave terminal located closest to the place where the event information is generated is changed to the broadcast image , Evacuation route and evacuation site The indicating includes a management server for controlling to display an augmented reality objects to the changed broadcasting image.

상기 관리서버는, 상기 이벤트정보가 발생한 장소와 가장 가까운 위치에 위치한 슬레이브 단말과 연동되는 지인 단말로 상기 방송영상이 스트리밍 되도록 제어할 수 있다.The management server may control the broadcasting image to be streamed to an associated terminal that is interlocked with a slave terminal located closest to the place where the event information is generated.

상기 관리서버는, 상기 방송영상에 포함된 대피 장소의 아웃라인을 증강현실 오브젝트로 표시하거나, 상기 대피 장소로 이동하기 위한 대피 경로를 증강현실 오브젝트로 표시할 수 있다.The management server may display an outline of the evacuation place included in the broadcast image as an augmented reality object or display an evacuation path for moving to the evacuation place as an augmented reality object.

상기 증강현실 오브젝트로 표시된 상기 대피 장소의 아웃라인 및 상기 대피 경로는 상기 방송화면상의 현재위치와의 거리에 따라 색상, 굵기 중 적어도 하나가 가변되는 것을 특징으로 할 수 있다.The at least one of the outline of the evacuation site indicated by the augmented reality object and the evacuation path may vary in color and thickness according to the distance from the current position on the broadcasting screen.

상기 관리서버는, 동일한 방송채널에 접속한 상기 마스터 단말 및 상기 슬레이브 단말의 위치정보를 분석하여, 상기 이벤트정보가 발생한 장소를 중심으로 기준 반경 내에 상기 마스터 단말 및 상기 슬레이브 단말이 위치하지 않는 것으로 확인되면, 상기 기준 반경 내에 위치하는 다른 마스터 단말 또는 다른 슬레이브 단말이 소속된 채널의 방송영상이 상기 방송채널에 접속한 단말로 스트리밍 되도록 제어할 수 있다.Wherein the management server analyzes location information of the master terminal and the slave terminal connected to the same broadcast channel and confirms that the master terminal and the slave terminal are not located within a reference radius centering on a place where the event information is generated , It is possible to control that a broadcast image of a channel belonging to another master terminal or another slave terminal located within the reference radius is streamed to a terminal connected to the broadcast channel.

상기 관리서버는, 상기 동일한 방송채널에 접속한 마스터 단말 및 상기 슬레이브 단말의 위치정보를 주기적으로 수집하여, 이벤트정보 발생 시 상기 방송영상이 실시간으로 변경되도록 제어할 수 있다.The management server periodically collects the location information of the master terminal and the slave terminal connected to the same broadcast channel and controls the broadcast image to change in real time when event information is generated.

또한, 본 발명의 일 실시예에 따른 모바일 기기를 이용한 실시간 재난 방송 방법은, 마스터 단말의 요청에 따라 방송영상을 제공하기 위한 방송채널을 생성하고, 동일한 방송채널에 접속한 슬레이브 단말에 의해 촬영된 촬영영상의 라이브러리를 상기 마스터 단말에 제공하고, 상기 마스터 단말에 의해 선택된 어느 하나의 촬영영상을 방송영상으로 스트리밍되도록 제어하되, 재난 상황 또는 긴급 상황에 대한 이벤트정보가 발생되는 것으로 확인되면, 상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말에 의해 촬영된 촬영영상이 상기 방송영상으로 변경되도록 제어하고, 대피 경로 및 대피 장소를 나타내는 증강현실 오브젝트를 변경된 방송영상에 표시한다.In addition, a real-time disaster broadcasting method using a mobile device according to an embodiment of the present invention includes generating a broadcast channel for providing a broadcast image according to a request of a master terminal, A library of photographed images is provided to the master terminal, and one of the photographed images selected by the master terminal is controlled to be streamed to a broadcast image. When it is confirmed that event information on a disaster situation or an emergency is generated, The control unit controls the photographed image photographed by the slave terminal located closest to the place where the information is generated to be changed to the broadcast image and displays the augmented reality object representing the evacuation route and the evacuation place on the changed broadcast image.

상기 이벤트정보가 발생한 장소와 가장 가까운 위치에 위치한 슬레이브 단말과 연동되는 지인 단말로 상기 방송영상이 스트리밍 되도록 제어하는 것을 더 포함할 수 있다.And controlling the streaming of the broadcast image to a local terminal connected to a slave terminal located closest to the place where the event information is generated.

상기 대피 경로 및 대피 장소를 나타내는 증강현실 오브젝트를 변경된 방송영상에 표시하는 것은, 상기 방송영상에 포함된 대피 장소의 아웃라인을 증강현실 오브젝트로 표시하거나, 상기 대피 장소로 이동하기 위한 대피 경로를 증강현실 오브젝트로 표시하는 것일 수 있다.Displaying the augmented reality object representing the evacuation route and the evacuation place on the changed broadcast image may be performed by displaying an outline of the evacuation place included in the broadcast image as an augmented reality object or enhancing a evacuation route for moving to the evacuation place It may be displayed as a real object.

증강현실 오브젝트로 표시된 상기 대피 장소의 아웃라인 및 상기 대피 경로는 상기 방송화면상의 현재위치와의 거리에 따라 색상, 굵기 중 적어도 하나가 가변되는 것을 특징으로 할 수 있다.The outline of the evacuation site indicated by the augmented reality object and the evacuation path may vary in color and / or thickness depending on the distance from the current position on the broadcasting screen.

상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말에 의해 촬영된 촬영영상이 상기 방송영상으로 변경되도록 제어하는 것은, 동일한 방송채널에 접속한 상기 마스터 단말 및 상기 슬레이브 단말의 위치정보를 분석하여, 상기 이벤트정보가 발생한 장소를 중심으로 기준 반경 내에 상기 마스터 단말 및 상기 슬레이브 단말이 위치하지 않는 것으로 확인되면, 상기 기준 반경 내에 위치하는 다른 마스터 단말 또는 다른 슬레이브 단말이 소속된 채널의 방송영상이 상기 방송채널에 접속한 단말로 스트리밍 되도록 제어하는 것을 포함할 수 있다.The control of changing the photographed image photographed by the slave terminal located closest to the place where the event information is generated is changed to the broadcast image by analyzing the location information of the master terminal and the slave terminal connected to the same broadcast channel If it is determined that the master terminal and the slave terminal are not positioned within a reference radius around the place where the event information is generated, the broadcast image of the channel to which another master terminal or another slave terminal located within the reference radius belongs, And controlling to stream to a terminal connected to the broadcast channel.

상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말에 의해 촬영된 촬영영상이 상기 방송영상으로 변경되도록 제어하는 것은, 상기 동일한 방송채널에 접속한 마스터 단말 및 상기 슬레이브 단말의 위치정보를 주기적으로 수집하여, 이벤트정보 발생 시 상기 방송영상이 실시간으로 변경되도록 제어하는 것일 수 있다.Controlling the change of the photographed image photographed by the slave terminal located at a position closest to the place where the event information is generated to the broadcast image is performed by periodically checking the location information of the master terminal and the slave terminal connected to the same broadcast channel And controls the broadcast image to be changed in real time when event information is generated.

상술한 본 발명의 일측면에 따르면, 재난 상황이 발생한 위치에 대한 방송영상을 신속하게 스트리밍 할 수 있으며, 재난 현장에 위치한 사용자는 증강현실을 이용한 대피경로를 제공받을 수 있어 효율적인 대피관련 안내 서비스를 제공받을 수 있다.According to an aspect of the present invention, a broadcast image of a location where a disaster occurs can be quickly streamed, and a user located at a disaster site can receive an evacuation route using an augmented reality, Can be provided.

도 1은 본 발명의 일 실시예에 따른 모바일 기기를 이용한 실시간 재난 방송 시스템의 개략적인 구성이 도시된 도면이다.
도 2는 도 1의 사용자 단말의 구체적인 구성 및 기능이 도시된 블록도이다.
도 3은 도 1의 관리서버의 구체적인 구성 및 기능이 도시된 블록도이다.
도 4는 도 1의 사용자 단말의 화면으로 출력되는 화상정보의 일 예가 도시된 도면이다.
도 5 내지 도 8은 도 1의 시스템을 이용하여 방송화면을 변경하는 구체적인 실시예가 도시된 도면이다.
도 9는 방송영상에 반영되는 증강현실 오브젝트의 일 예가 도시된 도면이다.
도 10은 본 발명의 일 실시예에 따른 모바일 기기를 이용한 실시간 재난 방송 방법의 개략적인 흐름이 도시된 순서도이다.
FIG. 1 is a diagram showing a schematic configuration of a real-time disaster broadcasting system using a mobile device according to an embodiment of the present invention.
2 is a block diagram showing a specific configuration and function of the user terminal of FIG.
3 is a block diagram showing a specific configuration and functions of the management server of FIG.
4 is a diagram illustrating an example of image information output to a screen of the user terminal of FIG.
5 to 8 are views showing a specific embodiment of changing a broadcast screen using the system of FIG.
9 is a diagram illustrating an example of an augmented reality object reflected in a broadcast image.
FIG. 10 is a flowchart showing a schematic flow of a real-time disaster broadcasting method using a mobile device according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the position or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 모바일 기기를 이용한 실시간 재난 방송 시스템(1)의 개략적인 구성이 도시된 도면이다.FIG. 1 is a diagram showing a schematic configuration of a real-time disaster broadcasting system 1 using a mobile device according to an embodiment of the present invention.

구체적으로, 본 발명의 일 실시예에 따른 모바일 기기를 이용한 실시간 재난 방송 시스템(1)은, 슬레이브 단말(101)과 마스터 단말(102)을 포함하는 사용자 단말(100) 및 관리서버(200)를 포함하는 구성에 의해 구현될 수 있다.The real-time disaster broadcasting system 1 using the mobile device according to the embodiment of the present invention includes the user terminal 100 including the slave terminal 101 and the master terminal 102 and the management server 200 And the like.

사용자 단말(100)은 사용자가 소지하는 전자장치일 수 있다. 사용자 단말(100)은 다른 전자장치와 유선 또는 무선 통신이 가능하고, 정보의 입력, 출력, 처리가 가능한 전자장치로, 예컨대 스마트폰, PC, 태블릿 PC, 웨어러블 장치 등의 형태일 수 있다. The user terminal 100 may be an electronic device carried by the user. The user terminal 100 may be in the form of a smart phone, a PC, a tablet PC, a wearable device, or the like, which is capable of wired or wireless communication with other electronic devices and is capable of inputting, outputting, and processing information.

사용자 단말(100)은 본 발명의 모바일 기기를 이용한 실시간 재난 방송 시스템(1)에 따른 다양한 서비스를 제공받기 위한 애플리케이션이 설치되어 있을 수 있다. 사용자 단말(100)은 사용자의 제어에 의해 애플리케이션이 구동되는 것으로 확인되면, 해당 애플리케이션을 통해 관리서버(200)에 접속하여 데이터를 송수신 함으로써 본 발명의 모바일 기기를 이용한 실시간 재난 방송 시스템(1)에 따른 다양한 서비스를 제공 받을 수 있다. The user terminal 100 may be provided with an application for receiving various services according to the real-time disaster broadcasting system 1 using the mobile device of the present invention. When it is confirmed that the application is driven under the control of the user, the user terminal 100 accesses the management server 200 through the application and transmits / receives data to the real-time disaster broadcasting system 1 using the mobile device of the present invention Various services can be provided.

이러한 사용자 단말(100)은 슬레이브 단말(110)과 마스터 단말(120)을 포함할 수 있다. The user terminal 100 may include a slave terminal 110 and a master terminal 120.

슬레이브 단말(101)은 마스터 단말(102)에 의해 송출되는 방송영상을 시청하기 위한 시청자가 소지한 단말로 정의될 수 있다. 슬레이브 단말(101)은 상술한 애플리케이션을 통해 관리서버(200)에 로그인할 수 있다. 슬레이브 단말(101)은 관리서버(200)를 통해 어느 하나의 마스터 단말(102)에 의해 생성된 방송채널에 접속할 수 있다.The slave terminal 101 can be defined as a terminal carried by a viewer for viewing a broadcast image transmitted by the master terminal 102. [ The slave terminal 101 can log in to the management server 200 through the above-described application. The slave terminal 101 can access the broadcast channel generated by one of the master terminals 102 through the management server 200. [

슬레이브 단말(101)은 마스터 단말(102)에 제공할 촬영영상을 생성할 수 있다. 이를 위해, 사용자 단말(100)은 영상을 촬영하기 위한 카메라모듈과, 소리를 녹음하기 위한 마이크모듈이 구비될 수 있다. 슬레이브 단말(101)을 소지한 시청자는 애플리케이션을 통해 카메라모듈과 마이크모듈을 활성화시킨 상태에서, 주변을 촬영한 영상인 촬영영상을 생성할 수 있다. 슬레이브 단말(101)은 생성된 촬영영상을 실시간으로 관리서버(200)로 전송하고, 관리서버(200)는 슬레이브 단말(101)이 접속한 방송채널의 마스터 단말(102)로 해당 촬영영상을 전달할 수 있다.The slave terminal 101 can generate a photographed image to be provided to the master terminal 102. [ To this end, the user terminal 100 may be provided with a camera module for capturing an image and a microphone module for recording sound. A viewer who possesses the slave terminal 101 can generate a photographed image which is a video image of the surroundings while the camera module and the microphone module are activated through the application. The slave terminal 101 transmits the generated photographed image to the management server 200 in real time and the management server 200 transmits the photographed image to the master terminal 102 of the broadcast channel connected to the slave terminal 101 .

마스터 단말(102)은 방송영상을 시청자에게 제공하고자 하는 송출자가 소지한 단말로 정의될 수 있다. 마스터 단말(102) 또한 상술한 본 발명의 모바일 기기를 이용한 실시간 재난 방송 시스템(1)에 따른 다양한 서비스를 제공받기 위한 애플리케이션을 통해 관리서버(200)에 로그인할 수 있다.The master terminal 102 may be defined as a terminal carried by a sender who wants to provide a broadcast image to a viewer. The master terminal 102 can also log into the management server 200 through an application for receiving various services according to the real-time disaster broadcasting system 1 using the mobile device of the present invention.

마스터 단말(102)은 관리서버(200)와 통신하여 방송영상을 송출하기 위한 방송채널을 생성할 수 있다. 마스터 단말(102)은 생성된 방송채널에 접속한 슬레이브 단말(101)로부터 촬영영상을 제공받을 수 있다. 마스터 단말(102)은 수신된 복수의 촬영영상 중 사용자(송출자)에 의해 선택된 어느 하나의 촬영영상을 방송영상으로 송출할 수 있다. 즉, 본 발명에 따르면 동일한 방송채널에 접속한 시청자로부터 제공되는 복수의 촬영영상 중 송출자의 선택에 따라 방송영상으로 송출되는 촬영영상이 실시간으로 변경되는 것이 가능하다.The master terminal 102 may communicate with the management server 200 to generate a broadcast channel for broadcasting broadcast video. The master terminal 102 can receive a photographed image from the slave terminal 101 connected to the generated broadcast channel. The master terminal 102 can transmit any one of the photographed images selected by the user (sender) among the plurality of received photographed images as a broadcast image. That is, according to the present invention, it is possible to change the photographed image sent out as a broadcast image in real time according to the selection of a sender among a plurality of shot images provided from viewers connected to the same broadcast channel.

요약하면, 사용자 단말(100)은 슬레이브 단말(101) 또는 마스터 단말(102) 중 어느 하나로 구분될 수 있으며, 상황에 따라 슬레이브 단말(101)의 역할 또는 마스터 단말(102)의 역할 중 어느 하나의 역할을 수행할 수 있다. 예를 들어, 사용자 단말(100)은 다른 사용자 단말에 의해 생성된 방송채널에 접속하는 경우 슬레이브 단말(101)의 역할을 수행할 수 있다. 이때, 해당 사용자 단말(100)이 방송채널의 접속을 종료한 후 새로운 방송채널을 생성하는 경우, 슬레이브 단말(101)의 역할 대신 마스터 단말(102)의 역할을 수행할 수 있다. In summary, the user terminal 100 can be divided into either the slave terminal 101 or the master terminal 102, and can be either a role of the slave terminal 101 or a role of the master terminal 102 Can play a role. For example, the user terminal 100 may serve as a slave terminal 101 when accessing a broadcast channel generated by another user terminal. At this time, when the user terminal 100 creates a new broadcast channel after terminating the connection of the broadcast channel, the master terminal 102 may perform the role of the slave terminal 101 instead of the role of the slave terminal 101.

관리서버(200)는 사용자 단말(100)의 로그인 과정을 제어하고, 로그인된 사용자 단말(100)과 통신하여 본 발명에 따른 모바일 기기를 이용한 실시간 재난 방송 시스템(1)에 따른 서비스를 제공할 수 있다. The management server 200 controls the login process of the user terminal 100 and communicates with the logged-in user terminal 100 to provide a service according to the real-time disaster broadcasting system 1 using the mobile device according to the present invention have.

구체적으로, 관리서버(200)는 로그인된 사용자 단말(100)을 슬레이브 단말(101) 또는 마스터 단말(102)중 어느 하나로 구분하고, 이에 따른 역할을 부여할 수 있다. 관리서버(200)는 마스터 단말(102)에 의해 결정된 방송영상이 슬레이브 단말(101)에 실시간으로 스트리밍 되도록 제어할 수 있다. 또한, 관리서버(200)는 재난 상황 또는 긴급 상황을 감지하여, 재난 상황 또는 긴급 상황이 발생된 것으로 확인되는 경우 사용자 단말(100)에 출력되는 방송영상이 강제로 변경되도록 제어할 수 있다. 그리고, 관리서버(200)는 변경된 방송영상에 포함된 어느 하나의 대피 장소를 선택하고, 대피 장소 및 대피 장소로 이동하기 위한 경로를 증강현실로 표현하기 위한 오브젝트를 생성할 수 있다. 이러한 관리서버(200)의 구체적인 구성 및 기능은 도 3을 참조하여 후술하기로 한다.Specifically, the management server 200 divides the logged-in user terminal 100 into either the slave terminal 101 or the master terminal 102, and assigns a role corresponding thereto. The management server 200 can control the broadcast image determined by the master terminal 102 to be streamed to the slave terminal 101 in real time. In addition, the management server 200 can detect a disaster situation or an emergency situation and control the broadcast image outputted to the user terminal 100 to be forcibly changed when a disaster situation or an emergency situation is confirmed to have occurred. The management server 200 can select any one of the evacuation sites included in the changed broadcast image and generate an object for expressing the path for moving to the evacuation site and the evacuation site as an augmented reality. The specific configuration and functions of the management server 200 will be described later with reference to FIG.

도 2는 도 1의 사용자 단말(100)의 구체적인 구성 및 기능이 도시된 블록도이다.FIG. 2 is a block diagram showing the specific configuration and functions of the user terminal 100 of FIG.

구체적으로, 본 발명의 일 실시예에 따른 슬레이브 단말(101)과 마스터 단말(102)을 포함하는 사용자 단말(100)은 사용자 단말 통신부(110), 사용자 단말 메모리부(120), 사용자 단말 입출력부(130) 및 사용자 단말 제어부(140)를 포함할 수 있다. The user terminal 100 including the slave terminal 101 and the master terminal 102 according to an embodiment of the present invention includes a user terminal communication unit 110, a user terminal memory unit 120, a user terminal input / (130) and a user terminal control unit (140).

사용자 단말 통신부(110)는 관리서버(200)와 통신하여 데이터를 송수신하거나 교환할 수 있다. 사용자 단말 통신부(110)는 기 공지된 다양한 유무선 통신 기법 중 어느 하나의 통신 기법을 이용하여 관리서버(200)와 통신망을 형성할 수 있다. The user terminal communication unit 110 can communicate with the management server 200 to exchange data or exchange data. The user terminal communication unit 110 may form a communication network with the management server 200 using any one of various known wired / wireless communication techniques.

사용자 단말 메모리부(120)는 본 발명에 따른 모바일 기기를 이용한 실시간 재난 방송 시스템(1)에 따른 다양한 서비스를 제공하기 위한 애플리케이션(이하, 애플리케이션)을 저장할 수 있다. 또한, 사용자 단말 메모리부(120)는 애플리케이션의 이용 과정 및 관리서버(200)와의 통신 과정에서 발생되는 데이터를 저장할 수 있다.The user terminal memory unit 120 may store applications (hereinafter referred to as applications) for providing various services according to the real-time disaster broadcasting system 1 using the mobile device according to the present invention. The user terminal memory unit 120 may store data generated during a process of using the application and a process of communicating with the management server 200.

사용자 단말 입출력부(130)는 사용자 단말 입력부(131)와, 사용자 단말 출력부(132)와, 사용자 단말 촬영부(133)를 포함할 수 있다.The user terminal input / output unit 130 may include a user terminal input unit 131, a user terminal output unit 132, and a user terminal photographing unit 133.

사용자 단말 입력부(131)는 애플리케이션의 이용 과정에서 요구되는 사용자의 입력신호를 입력받을 수 있다. 일 예로, 사용자 단말 입력부(131)는 사용자의 로그인 과정에 필요한 ID 및 패스워드에 대한 정보를 사용자로부터 입력받을 수 있다. 또한, 사용자 단말 입력부(131)는 애플리케이션을 제어하기 위한 사용자의 제어신호를 입력받을 수 있다. 이를 위해, 사용자 단말 입력부(131)는 터치패드, 키보드, 마우스, 마이크 중 적어도 하나의 모듈을 포함할 수 있다. The user terminal input unit 131 can receive an input signal of a user required in the process of using the application. For example, the user terminal input unit 131 may receive information on an ID and a password necessary for a user's login process from a user. Also, the user terminal input unit 131 may receive a user's control signal for controlling the application. To this end, the user terminal input unit 131 may include at least one of a touch pad, a keyboard, a mouse, and a microphone.

사용자 단말 출력부(132)는 애플리케이션 이용에 따른 서비스를 사용자에게 소리정보, 화상정보, 진동정보 중 적어도 하나로 출력할 수 있다. 구체적인 예로, 사용자 단말 출력부(132)는 도 4에 도시된 바와 같이, 애플리케이션의 실행 결과를 화상정보로 출력할 수 있다. 도 4의 (a)는 마스터 단말(102)에 표시되는 화상정보의 일 예이며, 사용자 단말 출력부(132)는 현재 송출되는 방송영상, 슬레이브 단말(101)로부터 수신되는 촬영영상의 라이브러리, 마스터 단말(102)에 의해 생성된 방송채널에 접속한 사용자 목록 및 사용자들간의 채팅 내역 등을 UI(User Interface), UX(User Experience) 또는 GUI(Graphical User Interface)로 표현된 화상정보로 출력할 수 있다. 그리고, 도 4의 (b)는 슬레이브 단말(101)에 표시되는 화상정보의 일 예이다. 사용자 단말 출력부(132)는 사용자 단말(100)이 슬레이브 단말(101)인 것으로 확인되면, 마스터 단말(102)로부터 송출되는 방송영상을 스트리밍하는 방송화면, 서로 다른 마스터 단말(102)에 의해 생성된 방송채널의 라이브러리, 입장한 방송채널에 접속한 다른 사용자 목록 및 사용자들간의 채팅 내역 등을 화상정보로 출력할 수 있다.The user terminal output unit 132 can output the service according to the application usage to at least one of sound information, image information, and vibration information to the user. As a specific example, the user terminal output unit 132 can output the execution result of the application as image information, as shown in Fig. 4A is an example of image information displayed on the master terminal 102. The user terminal output unit 132 includes a broadcast image currently being transmitted, a library of photographed images received from the slave terminal 101, A user list connected to the broadcast channel generated by the terminal 102 and a chat history between users can be output as image information represented by UI (User Interface), UX (User Experience) or GUI (Graphical User Interface) have. 4 (b) is an example of image information displayed on the slave terminal 101. As shown in Fig. The user terminal output unit 132 may generate a broadcast screen for streaming the broadcast image transmitted from the master terminal 102 if the user terminal 100 is confirmed to be the slave terminal 101, The library of the broadcast channel, the list of other users connected to the entered broadcast channel, and the chat history between the users.

또한, 사용자 단말 출력부(132)는 사용자 단말 제어부(140)에 의해 제어되는 데이터 처리 과정 및 결과를 출력하여 사용자에게 알려줄 수 있다.In addition, the user terminal output unit 132 may output a data processing process and a result controlled by the user terminal control unit 140 to notify the user.

사용자 단말 촬영부(133)는 사용자의 조작에 따라 영상을 촬영할 수 있다. 사용자 단말 촬영부(133)는 영상을 촬영하기 위한 카메라 모듈과, 소리를 녹음하기 위한 마이크 모듈을 포함할 수 있으며, 사용자 단말 촬영부(133)는 촬영된 영상과 녹음된 소리를 이용하여 촬영영상을 생성할 수 있다. The user terminal photographing section 133 can photograph an image according to a user's operation. The user terminal photographing unit 133 may include a camera module for photographing an image and a microphone module for recording sound. The user terminal photographing unit 133 photographs the photographed image Can be generated.

사용자 단말 제어부(140)는 사용자 단말(100)의 전반적인 동작을 제어할 수 있다. 사용자 단말 제어부(140)는 사용자 단말 통신부(110)를 제어하여 사용자 단말(100)의 위치정보를 주기적으로 수집할 수 있다. 사용자 단말 제어부(140)는 사용자 단말 입력부(131)를 통해 입력되는 사용자의 제어에 따라 애플리케이션을 실행시키거나 종료시키도록 제어할 수 있다. 사용자 단말 제어부(140)는 관리서버(200)로부터 수신되는 재난 상황 도는 긴급 상황에 대한 이벤트정보 및 이벤트정보에 따른 증강현실 오브젝트를 방송영상에 반영하여 사용자 단말 출력부(132)를 통해 출력되도록 제어할 수 있다.The user terminal control unit 140 may control the overall operation of the user terminal 100. [ The user terminal control unit 140 may periodically collect location information of the user terminal 100 by controlling the user terminal communication unit 110. The user terminal control unit 140 may control the application to be executed or terminated according to the control of the user inputted through the user terminal input unit 131. [ The user terminal control unit 140 reflects the augmented reality object according to the event information and the event information about the emergency situation or the emergency situation received from the management server 200 on the broadcast image and outputs the augmented reality object through the user terminal output unit 132 can do.

또한, 사용자 단말 제어부(140)는 관리서버(200)와의 통신 결과를 기초로, 관리서버(200)에 접속한 사용자를 시청자 또는 송출자 중 어느 하나로 확인하고, 사용자 단말(100)이 슬레이브 단말(101) 또는 마스터 단말(102)중 어느 하나의 역할을 수행하도록 제어할 수 있다. The user terminal control unit 140 determines whether the user connected to the management server 200 is a viewer or a sender based on the result of communication with the management server 200. When the user terminal 100 is connected to the slave terminal 101 or the master terminal 102 in order to perform the functions of the master terminal 102 and the master terminal 102.

예를 들어, 사용자 단말 제어부(140)는 사용자 단말(100)이 마스터 단말(102)인 것으로 판단되는 경우 관리서버(200)로부터 수신되는 복수의 촬영영상에 대한 라이브러리가 표시되도록 제어할 수 있다. 또한, 사용자 단말 제어부(140)는 사용자(송출자)로부터 라이브러리를 구성하는 어느 하나의 촬영영상이 선택되는 것으로 확인되면, 선택된 촬영영상이 방송영상으로 송출되도록 제어할 수 있다.For example, when the user terminal 100 determines that the user terminal 100 is the master terminal 102, the user terminal control unit 140 may control to display a library of a plurality of photographed images received from the management server 200. [ In addition, when it is confirmed that the user selects one of the photographed images constituting the library from the user (sender), the user terminal control unit 140 can control the selected photographed image to be transmitted as a broadcast image.

다른 예로, 사용자 단말 제어부(140)는 사용자 단말(100)이 슬레이브 단말(101)인 것으로 판단되는 경우, 사용자 단말 촬영부(133)를 통해 촬영영상을 생성하도록 제어할 수 있다. 그리고, 사용자 단말 제어부(140)는 관리서버(200)로부터 전달되는 방송영상이 사용자 단말 출력부(132)를 통해 실시간 스트리밍되도록 제어할 수 있다.The user terminal control unit 140 may control the user terminal capturing unit 133 to generate a captured image when the user terminal 100 is determined to be the slave terminal 101. [ The user terminal control unit 140 may control the broadcast image transmitted from the management server 200 to be streamed in real time through the user terminal output unit 132.

한편, 사용자 단말 제어부(140)는 관리서버(200)로부터 재난 상황 또는 긴급 상황이 발생했음을 알리는 이벤트정보를 수신하면, 사용자 단말 출력부(132)를 통해 이벤트정보가 출력되도록 제어할 수 있다. 그리고, 사용자 단말 제어부(140)는 이벤트정보를 수신하면, 관리서버에 의해 변경된 재난 현장 또는 긴급 현장이 촬영된 방송영상이 강제적으로 출력되도록 제어할 수 있다. 이때, 사용자 단말 제어부(140)는 관리서버(200)로부터 수신되는 증강현실 오브젝트를 변경된 방송영상에 반영함으로써, 증강현실 오브젝트가 반영된 방송영상이 출력되도록 제어할 수 있다.On the other hand, when the user terminal control unit 140 receives event information from the management server 200 indicating that a disaster situation or an emergency has occurred, the user terminal control unit 140 may control the event information output through the user terminal output unit 132 to be output. When the user terminal control unit 140 receives the event information, the user terminal control unit 140 may control the broadcast server 100 to forcibly output the broadcast image photographed at the disaster scene or the emergency scene changed by the management server. At this time, the user terminal control unit 140 may control the output of the broadcast image reflecting the augmented reality object by reflecting the augmented reality object received from the management server 200 on the changed broadcast image.

이 외에도, 사용자 단말(100)은 전원을 공급하는 사용자 단말 배터리부(미도시)와 같은 부가적인 구성들이 더 포함될 수도 있다.In addition, the user terminal 100 may further include additional components such as a user terminal battery unit (not shown) for supplying power.

도 3은 도 1의 관리서버(200)의 구체적인 구성 및 기능이 도시된 블록도이다.3 is a block diagram showing the specific configuration and functions of the management server 200 of FIG.

구체적으로, 관리서버(200)는 관리서버 통신부(210), 관리서버 메모리부(220) 및 관리서버 제어부(230)를 포함할 수 있다.Specifically, the management server 200 may include a management server communication unit 210, a management server memory unit 220, and a management server control unit 230.

관리서버 통신부(210)는 사용자 단말 통신부(110)와 통신하여 데이터를 송수신할 수 있다. 관리서버 통신부(210)는 기 공지된 다양한 유무선 통신 기법 중 어느 하나의 통신 기법을 이용하여 사용자 단말 통신부(110)와 통신망을 형성할 수 있다. The management server communication unit 210 may communicate with the user terminal communication unit 110 to transmit and receive data. The management server communication unit 210 may form a communication network with the user terminal communication unit 110 using any one of various well-known wire / wireless communication techniques.

관리서버 통신부(210)는 슬레이브 단말(101)로부터 촬영영상을 수신하여 마스터 단말(102)로 전달할 수 있다. 관리서버 통신부(210)는 마스터 단말(102)에 의해 선택된 방송영상을 슬레이브 단말(101)로 전달할 수 있다. 또한, 관리서버 통신부(210)는 관리서버(200)에 의해 생성된 재난 상황 또는 긴급 상황에 대한 이벤트정보를 슬레이브 단말(101) 및 마스터 단말(102)로 전송할 수 있다.The management server communication unit 210 may receive the photographed image from the slave terminal 101 and transmit the photographed image to the master terminal 102. The management server communication unit 210 may transmit the broadcast image selected by the master terminal 102 to the slave terminal 101. [ The management server communication unit 210 may transmit event information on the emergency situation or the emergency situation generated by the management server 200 to the slave terminal 101 and the master terminal 102.

관리서버 메모리부(220)는 본 발명에 따른 모바일 기기를 이용한 실시간 재난 방송 시스템에 따른 서비스를 제공하기 위한 소프트웨어 또는 응용 프로그램이 설치될 수 있다. 또한, 관리서버 메모리부(220)는 관리서버(200)에 의해 생성되거나 수집되는 다양한 데이터를 관리할 수 있다.The management server memory unit 220 may be provided with software or application programs for providing services according to the real-time disaster broadcasting system using the mobile device according to the present invention. In addition, the management server memory unit 220 can manage various data generated or collected by the management server 200.

관리서버 제어부(230)는 관리서버(200)의 전반적인 동작을 제어할 수 있다. 구체적인 예로, 관리서버 제어부(230)는 관리서버(200)로 접속한 사용자 단말(100)을 슬레이브 단말(101) 또는 마스터 단말(102) 중 어느 하나로 구분할 수 있다. 상술한 바와 같이, 관리서버 제어부(230)는 사용자 단말(100)이 방송채널을 생성하는 것으로 확인되면 해당 사용자 단말(100)을 마스터 단말(102)로 구분하고, 사용자 단말(100)이 기 생성된 방송채널에 접속하는 것으로 확인되면 해당 사용자 단말(100)를 슬레이브 단말(101)로 구분할 수 있다. 관리서버 제어부(230)는 생성된 방송채널의 목록을 관리하고, 특정 방송채널로 접속한 슬레이브 단말(101)의 목록을 해당 방송채널에 접속한 모든 사용자 단말(100)로 전송할 수 있다. 이후, 관리서버 제어부(230)는 슬레이브 단말(101)로부터 수신된 촬영영상을 소속된 방송채널의 마스터 단말(102)로 전달하며, 마스터 단말(102)에 의해 선택된 어느 하나의 촬영영상이 방송영상으로 스트리밍 되도록 제어할 수 있다. 관리서버 제어부(230)는 동일한 방송채널에 접속한 사용자 단말(100)로부터 발생되는 음성, 이미지, 메시지 등을 중계할 수 있다.The management server control unit 230 can control the overall operation of the management server 200. [ The management server control unit 230 can divide the user terminal 100 connected to the management server 200 into either the slave terminal 101 or the master terminal 102. [ As described above, when it is confirmed that the user terminal 100 generates a broadcast channel, the management server control unit 230 divides the corresponding user terminal 100 into a master terminal 102, It is possible to distinguish the user terminal 100 as the slave terminal 101. The management server control unit 230 manages the list of the generated broadcast channels and transmits the list of the slave terminals 101 connected to the specific broadcast channel to all the user terminals 100 connected to the corresponding broadcast channel. Thereafter, the management server control unit 230 transfers the photographed image received from the slave terminal 101 to the master terminal 102 of the broadcast channel to which the master terminal 102 belongs, As shown in FIG. The management server control unit 230 can relay voice, images, messages, and the like generated from the user terminal 100 connected to the same broadcast channel.

특히, 관리서버 제어부(230)는 재난 상황 또는 긴급 상황 등과 같은 비상상황이 발생한 것으로 확인되면, 비상상황에 대한 촬영영상이 실시간으로 스트리밍 되도록 제어하고, 비상상황 현장에 위치한 사용자 단말(100)의 신속한 대피를 유도하기 위한 정보를 제공할 수 있다. 이를 위해, 관리서버 제어부(230)는 이벤트정보 수집부(231), 위치정보 관리부(232), 방송영상 관리부(233), 증강현실 오브젝트 생성부(234) 및 알림부(235)를 포함한다.In particular, when it is determined that an emergency situation such as a disaster situation or an emergency situation has occurred, the management server control unit 230 controls the streaming of the captured image in an emergency situation in real time, And can provide information for inducing evacuation. The management server control unit 230 includes an event information collection unit 231, a location information management unit 232, a broadcast image management unit 233, an augmented reality object generation unit 234, and a notification unit 235.

이벤트정보 수집부(231)는 재난 상황 또는 긴급 상황 등과 같은 비상상황의 발생에 대한 이벤트정보를 수신할 수 있다. 이벤트정보 수집부(231)는 사용자 단말(100)로부터 긴급신호를 수신하는 경우 비상상황이 발생된 것으로 판단할 수 있다. 또는, 이벤트정보 수집부(231)는 기상청, 국토교통부, 국가재난관리센터 등과 같은 외부 서버로부터 이벤트정보를 수신할 수 있다. The event information collecting unit 231 may receive event information about occurrence of an emergency situation such as a disaster situation or an emergency situation. The event information collecting unit 231 may determine that an emergency situation has occurred when the emergency signal is received from the user terminal 100. [ Alternatively, the event information collecting unit 231 may receive event information from an external server such as the Korea Meteorological Administration, the Ministry of Land Transport and Transportation, or the National Disaster Management Center.

위치정보 관리부(232)는 관리서버(200)에 접속한 사용자 단말(100)의 위치정보를 주기적으로 수집할 수 있다. 위치정보 확인부(232)는 방송채널에 접속한 사용자 단말의 현재 위치 및 이벤트정보가 발생된 장소를 지도데이터에 반영할 수 있다. The location information management unit 232 may periodically collect location information of the user terminal 100 connected to the management server 200. [ The location information confirmation unit 232 may reflect the current location of the user terminal connected to the broadcast channel and the place where the event information is generated in the map data.

방송영상 관리부(233)는 위치정보 관리부(232)에 의해 관리되는 지도데이터를 참조하여, 이벤트정보가 발생된 장소와 가장 근접한 위치에 위치한 사용자 단말(100)을 선택할 수 있다. 구체적으로, 방송영상 관리부(233)는 동일한 방송채널에 접속한 슬레이브 단말(101)들의 위치정보를 분석하여, 이벤트정보가 발생된 장소와 가장 근접한 위치에 위치한 어느 하나의 슬레이브 단말(101)을 선택할 수 있다. The broadcast video management unit 233 can refer to the map data managed by the location information management unit 232 and select the user terminal 100 located at a position closest to the place where the event information is generated. Specifically, the broadcast image management unit 233 analyzes the location information of the slave terminals 101 connected to the same broadcast channel and selects one of the slave terminals 101 located at a position closest to the place where the event information is generated .

도 5 내지 도 6을 함께 참조하면, 방송영상 관리부(233)는 선택된 어느 하나의 슬레이브 단말(101)에 의해 생성되는 촬영영상이 방송영상으로 송출되도록 제어할 수 있다. 먼저, 도 5 에 도시된 바와 같이, 비상상황이 발생하지 않은 일반적인 상황에서, 방송영상 관리부(233)는 마스터 단말(102)의 사용자(송출자)에 의해 선택된 촬영영상이 방송영상으로 스트리밍 되도록 제어할 수 있다. 도시된 실시예를 보면, 마스터 단말(102)은 관리서버(200)를 통해 동일한 방송채널에 접속한 세 개의 슬레이브 단말(101_1, 101_2, 101_3)로부터 서로 다른 촬영영상(촬영영상1, 2, 3)을 제공받을 수 있다. 이때, 마스터 단말(102)은 수신된 세 개의 촬영영상 중 사용자(송출자)에 의해 선택된 임의의 어느 하나의 촬영영상(본 실시예에서는 촬영영상3)을 방송영상으로 송출할 수 있다. 이러한 경우, 세 개의 슬레이브 단말(101_1, 101_2, 101_3)은 제3 슬레이브 단말(101_3)에 의해 촬영된 촬영영상(촬영영상3)이 방송영상으로 스트리밍 될 수 있다. 즉, 비상상황이 발생하지 않은 일반적인 상황에서는, 마스터 단말(102)의 선택에 의해 방송영상이 결정될 수 있다. Referring to FIGS. 5 and 6 together, the broadcast image management unit 233 can control the broadcast image to be transmitted as an image taken by one of the slave terminals 101 selected. 5, in a general situation where an emergency situation does not occur, the broadcast video management unit 233 controls the streaming of the selected video image by the user (sender) of the master terminal 102 to the broadcast video can do. In the illustrated embodiment, the master terminal 102 acquires different photographed images (photographed images 1, 2, and 3) from three slave terminals 101_1, 101_2, and 101_3 connected to the same broadcast channel through the management server 200 ) Can be provided. At this time, the master terminal 102 can transmit any one of the taken images (shot image 3 in this embodiment) selected by the user (sender) out of the three received images as a broadcast image. In this case, the three slave terminals 101_1, 101_2, and 101_3 can be streamed to the broadcast video image of the shot image (shot image 3) shot by the third slave terminal 101_3. That is, in a general situation in which no emergency occurs, the broadcast image can be determined by the selection of the master terminal 102. [

하지만, 재난 상황 또는 긴급 상황과 같은 비상상황이 발생되는 경우 방송영상은 방송영상 관리부(233)에 의해 강제적으로 제어될 수 있다. 이러한 일 예는 도 6에 도시되어 있으며, 도시된 바와 같이 관리서버(200)의 방송영상 관리부(233)는 사용자 단말(100) 또는 외부서버(미도시)로부터 사고가 발생했음을 나타내는 이벤트정보를 수신할 수 있다. 이러한 경우, 방송영상 관리부(233)는 이벤트정보에 따른 사고 현장의 위치와, 동일한 방송채널에 접속한 각각의 슬레이브 단말(101_1, 101_2, 101_3)의 위치정보를 비교할 수 있다. 방송영상 관리부(233)는 이벤트정보에 따른 사고 현장에 가장 근접한 단말인 제1 슬레이브 단말(101_1)로부터 수신된 촬영영상인 촬영영상1을 선택할 수 있다. 이후, 방송영상 관리부(233)는 마스터 단말(102)에 의해 선택된 촬영영상(촬영영상3)에 대한 방송화면을 촬영영상1에 대한 방송화면으로 변경되도록 제어할 수 있다. 즉, 재난 상황 또는 긴급 상황 등과 같은 이벤트정보가 발생하면, 마스터 단말(102)에 의해 결정되는 방송영상은 관리서버(200)의 방송영상 관리부(233)에 의해 강제적으로 변경될 수 있다. 방송영상 관리부(233)는 비상상황 현장에 가장 근접한 위치에 위치한 슬레이브 단말(101)로부터 수신되는 촬영영상이 다른 슬레이브 단말(101)에 스트리밍 되도록 제어함으로써, 비상상환 현장에 대한 신속한 방송이 가능하도록 제어할 수 있다.However, when an emergency situation such as a disaster situation or an emergency occurs, the broadcast image can be forcibly controlled by the broadcast image management unit 233. [ 6, the broadcast video management unit 233 of the management server 200 receives event information indicating that an event has occurred from the user terminal 100 or an external server (not shown) can do. In this case, the broadcast image management unit 233 can compare the location of the accident site according to the event information and the location information of each of the slave terminals 101_1, 101_2, and 101_3 connected to the same broadcast channel. The broadcast image management unit 233 can select the photographed image 1 as the photographed image received from the first slave terminal 101_1 which is the terminal closest to the accident scene according to the event information. Then, the broadcast image management unit 233 can control the broadcast screen for the shot image (shot image 3) selected by the master terminal 102 to change to the broadcast screen for the shot image 1. That is, when event information such as a disaster situation or an emergency occurs, the broadcast image determined by the master terminal 102 can be forcibly changed by the broadcast image management unit 233 of the management server 200. [ The broadcast image management unit 233 controls the streaming of the photographed image received from the slave terminal 101 located at the closest position to the emergency situation site to the slave terminal 101 so as to enable rapid broadcasting to the emergency re- can do.

도 7을 참조한 몇몇 다른 실시예에서, 방송영상 관리부(233)는 이벤트정보가 발생된 장소와 가장 근접한 위치에 위치한 사용자 단말(100)을 선택하는 과정에서, 선택된 사용자 단말(100)이 이벤트정보가 발생된 장소를 중심으로 기준반경 내에 위치하는지 여부를 확인할 수 있다. 7, in the process of selecting the user terminal 100 located at a position closest to the place where the event information is generated, the broadcast image management unit 233 determines that the selected user terminal 100 has the event information It can be confirmed whether it is located within the reference radius around the generated place.

도시된 바와 같은 일 예로, 제1 슬레이브 단말(101_1)과 제2 슬레이브 단말(101_2)는 제1 마스터 단말(102_1)에 의해 생성된 제1 방송채널에 접속해 있고, 제3 슬레이브 단말(101_3)과 제4 슬레이브 단말(101_4)은 제2 마스터 단말(102_2)에 의해 생성된 제2 방송채널에 접속해 있을 수 있다. 일반적인 상황에서, 관리서버(200)는 제1 슬레이브 단말(101_1) 및 제2 슬레이브 단말(101_2)로부터 제공되는 촬영영상 중 제1 마스터 단말(102_1)에 의해 선택된 방송영상이 제1 방송채널에 접속한 슬레이브 단말(101_1, 101_2)에 스트리밍 되도록 제어할 수 있다. The first slave terminal 101_1 and the second slave terminal 101_2 are connected to the first broadcast channel generated by the first master terminal 102_1 and the third slave terminal 101_2 is connected to the first broadcast channel generated by the first master terminal 102_1, And the fourth slave terminal 101_4 may be connected to the second broadcast channel generated by the second master terminal 102_2. The management server 200 determines that the broadcast image selected by the first master terminal 102_1 of the photographed images provided from the first slave terminal 101_1 and the second slave terminal 101_2 is connected to the first broadcast channel It can be controlled to be streamed to one of the slave terminals 101_1 and 101_2.

이때, 관리서버(200)의 방송영상 관리부(233)는 이벤트정보가 발생되는 것으로 확인되면, 동일한 방송채널에 접속한 슬레이브 단말들 중 이벤트정보에 따른 사고 현장과 가장 근접한 슬레이브 단말을 선택할 수 있다. 도시된 실시예에서, 방송영상 관리부(233)는 제1 방송채널의 제1 슬레이브 단말(101_1) 및 제2 방송채널의 제3 슬레이브 단말(101_3)을 각각 선택할 수 있다. At this time, if it is determined that the event information is generated, the broadcast image management unit 233 of the management server 200 can select the slave terminal closest to the accident scene according to the event information among the slave terminals connected to the same broadcast channel. In the illustrated embodiment, the broadcast image management unit 233 can select the first slave terminal 101_1 of the first broadcast channel and the third slave terminal 101_3 of the second broadcast channel, respectively.

여기서, 방송영상 관리부(233)는 선택된 슬레이브 단말(101_1 또는 101_3)이 기준반경 내에 위치하는지를 확인할 수 있다. 구체적으로, 방송영상 관리부(233)는 제2 방송채널에 대하여 선택된 제3 슬레이브 단말(101_3)이 기준반경 내에 위치하는 것으로 확인되면, 제3 슬레이브 단말(101_3)에 의해 촬영된 촬영영상이 제2 방송채널의 방송영상으로 스트리밍 되도록 제어할 수 있다. Here, the broadcast image management unit 233 can confirm whether the selected slave terminal 101_1 or 101_3 is located within the reference radius. Specifically, when it is confirmed that the third slave terminal 101_3 selected for the second broadcast channel is located within the reference radius, the broadcast image management unit 233 determines that the photographed image photographed by the third slave terminal 101_3 is the second It can be controlled to be streamed to the broadcast image of the broadcast channel.

반면, 방송영상 관리부(233)는 제1 방송채널에 대하여 선택된 제1 슬레이브 단말(101_1)이 기준반경을 벗어난 것으로 확인되면, 다른 방송채널의 방송화면이 제1 방송채널의 방송영상으로 스트리밍 되도록 제어할 수 있다. 즉, 방송영상 관리부(233)는 기준반경 내에 위치하는 다른 방송채널의 슬레이브 단말(101_3)로부터 수신되는 촬영영상을 기초로 제1 방송채널의 방송영상을 변경할 수 있다.On the other hand, if it is determined that the first slave terminal 101_1 selected for the first broadcast channel is out of the reference radius, the broadcast image managing unit 233 controls the broadcast image of the other broadcast channel to be streamed to the broadcast image of the first broadcast channel can do. That is, the broadcast image management unit 233 can change the broadcast image of the first broadcast channel based on the photographed image received from the slave terminal 101_3 of another broadcast channel located within the reference radius.

도 8을 참조한 몇몇 또 다른 실시예에서, 방송영상 관리부(233)는 동일한 방송채널에 접속한 사용자 단말(100)의 위치에 따라 서로 다른 방송영상이 스트리밍 되도록 제어할 수 있다. 8, the broadcast image management unit 233 may control different broadcast images to be streamed according to the location of the user terminal 100 connected to the same broadcast channel.

여기서, 서로 다른 방송영상이라 함은 마스터 단말(102)에 의해 선택된 촬영영상과, 이벤트정보 발생 시 방송영상 관리부(233)에 의해 선택되는 촬영영상을 포함한다. 이하에서는, 설명의 편의를 위해 마스터 단말(102)에 의해 결정된 방송영상을 일반영상으로 정의하고, 관리서버(200), 즉 방송영상 관리부(233)에 의해 결정된 방송영상을 재난영상으로 정의하여 설명하기로 한다.Here, the different broadcast images include a picked-up image selected by the master terminal 102 and a picked-up image selected by the broadcast-image managing unit 233 when event information is generated. Hereinafter, for convenience of description, a broadcast image determined by the master terminal 102 is defined as a general image, and a broadcast image determined by the management server 200, that is, the broadcast image management unit 233, is defined as a disaster image, .

방송영상 관리부(233)는 동일한 방송채널에 접속된 사용자 단말(100)에 스트리밍 되는 방송영상의 종류를 결정할 수 있다. 구체적으로, 방송영상 관리부(233)는 이벤트정보가 발생한 장소를 기준으로 미리 설정된 위험반경 내에 위치하는 사용자 단말(101_1, 101_2, 102)은 재난영상이 스트리밍 되도록 제어할 수 있다. 그리고, 방송영상 관리부(233)는 위험반경을 벗어난 곳에 위치하는 사용자 단말(101_3)은 일반영상이 스트리밍 되도록 제어할 수 있다. 여기서, 위험반경은 상술한 기준반경보다 큰 것을 특징으로 할 수 있다.The broadcast image management unit 233 can determine the type of the broadcast image to be streamed to the user terminal 100 connected to the same broadcast channel. Specifically, the broadcast image management unit 233 can control the streaming of the disaster image to the user terminals 101_1, 101_2, and 102 located within a preset danger radius based on the place where the event information is generated. The broadcast video management unit 233 can control the general video to be streamed to the user terminal 101_3 located outside the critical radius. Here, the danger radius may be characterized by being larger than the reference radius described above.

또한, 방송영상 관리부(233)는 위험반경 내에 위치한 사용자 단말(101_1, 101_2, 102)의 실시간 위치 및 서로간의 이격거리가 실시간 갱신되는 안내정보를 생성하여 재난영상에 반영할 수 있다. 따라서, 위험반경 내에 위치하는 사용자는 위험반경 내에 위치하는 다른 사용자의 위치를 실시간으로 제공받을 수 있어 탈출이나 구조를 위한 정보로 활용할 수 있다.In addition, the broadcast image management unit 233 may generate guide information for real-time position updates of the user terminals 101_1, 101_2, and 102 located within the critical radius and the distance between the real time locations, and may reflect the disruption image. Therefore, a user located within a critical radius can be provided with real-time location of another user located within a critical radius, and can be used as information for escape or structure.

한편, 방송영상 관리부(233)는 마스터 단말(102)이 미리 설정된 위험반경 내에 위치하는 것으로 확인되는 경우, 동일한 방송채널에 접속한 어느 하나의 슬레이브 단말(101)에 임시 마스터 단말의 권한을 부여할 수 있다. 이때, 방송영상 관리부(233)는 이벤트정보가 발생한 장소와 가장 멀리 떨어진 슬레이브 단말(101_3)을 임시 마스터 단말로 설정할 수 있다. 임시 마스터 단말로 설정된 슬레이브 단말(101_3)은 마스터 단말의 권한을 부여받을 수 있으며, 이에 따라 일반영상으로 송출될 촬영영상을 선택할 수 있다. 이후, 방송영상 관리부(233)는 마스터 단말(102)이 위험반경을 벗어난 것으로 확인되면 임시 마스터 단말을 슬레이브 단말(101_3)로 설정할 수 있다.On the other hand, when it is determined that the master terminal 102 is located within a predetermined risk radius, the broadcast video management unit 233 assigns authority of the temporary master terminal to any one slave terminal 101 connected to the same broadcast channel . At this time, the broadcast video manager 233 can set the slave terminal 101_3, which is farthest from the place where the event information is generated, to be a temporary master terminal. The slave terminal 101_3 set as the provisional master terminal can be granted the authority of the master terminal and accordingly can select the photographed image to be transmitted as a general image. Thereafter, the broadcast video management unit 233 can set the temporary master terminal to the slave terminal 101_3 if it is confirmed that the master terminal 102 is out of the danger radius.

증강현실 오브젝트 생성부(234)는 이벤트정보의 발생 시, 방송영상 관리부(233)에 의해 변경된 방송영상에 반영될 증강현실 오브젝트를 생성할 수 있다.The augmented reality object generation unit 234 can generate an augmented reality object to be reflected in the broadcast image changed by the broadcast image management unit 233 when the event information is generated.

도 9는 사용자 단말(100)에 출력되는 방송영상에 증강현실 오브젝트 반영된 일 예이다. 도시된 바와 같이, 증강현실 오브젝트 생성부(234)는 방송화면에 포함된 대피 시설에 대한 객체를 구분하는 것이 가능하며, 구분된 객체를 강조하거나 구분된 객체로 이동하기 위한 대피 경로에 대한 정보를 증강현실 오브젝트로 생성할 수 있다.9 is an example in which an augmented reality object is reflected on a broadcast image output to the user terminal 100. [ As shown in the figure, the augmented reality object generation unit 234 can classify the objects of the evacuation facility included in the broadcasting screen and emphasize the divided objects or provide information on the evacuation path for moving to the classified objects And can be generated as an augmented reality object.

이를 위해, 증강현실 오브젝트 생성부(234)는 건물 구조에 대한 데이터베이스를 요청할 수 있다. 구체적으로, 증강현실 오브젝트 생성부(234)는 위치정보 관리부(232)로부터 방송화면으로 선택된 촬영영상을 제공하는 슬레이브 단말(101)의 위치정보를 제공받을 수 있다. 또한, 증강현실 오브젝트 생성부(234)는 관리서버 메모리부(220)로부터 슬레이브 단말(101)의 위치정보에 대응되는 건물 구조 영상을 제공받을 수 있다. 관리서버 메모리부(220)에는 특정 건물의 실내 구조가 촬영된 건물 구조 영상 및 영상에 포함된 시설물의 위치, 종류 등에 대한 정보가 데이터베이스로 미리 구축되어 있을 수 있다. 따라서, 증강현실 오브젝트 생성부(234)는 건물 구조에 대한 데이터베이스와 촬영영상을 비교하여 촬영영상에 포함된 객체를 구분하는 것이 가능하다.To this end, the augmented reality object generation unit 234 can request a database on the building structure. Specifically, the augmented reality object generation unit 234 may be provided with the location information of the slave terminal 101 that provides the photographed image selected from the location information management unit 232 as a broadcast screen. Also, the augmented reality object generation unit 234 can receive the building structure image corresponding to the position information of the slave terminal 101 from the management server memory unit 220. [ In the management server memory unit 220, information on the location and kind of the facilities included in the building structure image and the image of the indoor structure of the specific building may be constructed in advance in the database. Accordingly, the augmented reality object generation unit 234 can compare the database of the building structure with the image of the building, thereby distinguishing the objects included in the image.

증강현실 오브젝트 생성부(234)는 촬영영상에 포함된 객체들 중 대피 장소에 대한 객체를 추출할 수 있다. 증강현실 오브젝트 생성부(234)는 검출된 대피 장소에 대한 객체의 아웃라인(outline)을 검출할 수 있다. 증강현실 오브젝트 생성부(234)는 검출된 객체의 아웃라인을 강조하는 증강현실 오브젝트를 생성할 수 있다. 또한, 증강현실 오브젝트 생성부(234)는 대피 장소로 이동하기 위한 이동 경로에 대한 증강현실 오브젝트를 생성할 수 있다. The augmented reality object generation unit 234 can extract an object of a retreat place among the objects included in the photographed image. The augmented reality object generation unit 234 can detect an outline of the object with respect to the detected evacuation place. The augmented reality object generation unit 234 can generate an augmented reality object that emphasizes the outline of the detected object. In addition, the augmented reality object generation unit 234 can generate an augmented reality object for the movement path for moving to the evacuation place.

이때, 증강현실 오브젝트 생성부(234)는 방송영상 내의 현재위치와 객체간의 거리에 따라 증강현실 오브젝트의 표현 방법을 다르게 설정할 수 있다. 예를 들어, 증강현실 오브젝트 생성부(234)는 방송영상 내의 현재위치와 대피 장소간의 거리가 가까워질수록, 아웃라인의 굵기가 증가되도록 제어할 수 있다. 또는, 증강현실 오브젝트 생성부(234)는 방송영상 내에 서로 다른 두 개의 대피 장소가 존재하는 경우, 방송영상 내의 현재위치와 비교적 가까운 대피 장소의 아웃라인이 비교적 먼 대피 장소의 아웃라인보다 강조되어 표시되도록 제어할 수 있다. 또는, 증강현실 오브젝트 생성부(234)는 방송영상 내의 현재위치와 가장 가까운 대피장소의 아웃라인만 증강현실로 표시되도록 제어할 수 있다. 이때, 강조되어 표시되는 것이라 함은 아웃라인의 굵기 또는 색상을 상이하게 설정하는 것을 특징으로 할 수 있다. 그리고, 방송영상 내의 현재 위치는 방송영상의 최하단의 정중앙의 위치로 설정될 수 있다.At this time, the augmented reality object generation unit 234 may set the augmented reality object expression method differently according to the current position in the broadcast image and the distance between the objects. For example, the augmented reality object generation unit 234 can control the increase of the thickness of the outline as the distance between the current position in the broadcast image and the evacuation site approaches. Alternatively, when two different evacuation sites exist in the broadcast image, the augmented reality object generation unit 234 emphasizes the outline of the evacuation place relatively close to the current position in the broadcast image, . Alternatively, the augmented reality object generation unit 234 can control only the outline of the evacuation place closest to the current position in the broadcast image to be displayed as the augmented reality. In this case, emphasized display means that the thickness or color of the outline is set differently. The current position in the broadcast image can be set to the position of the center of the bottom of the broadcast image.

몇몇 다른 실시예에서, 증강현실 오브젝트 생성부(234)는 사용자 단말로부터 설정된 위치에 대한 증강현실 오브젝트를 생성할 수 있다. 구체적인 예로, 증강현실 오브젝트 생성부(234)는 동일한 방송채널에 접속된 어느 하나의 마스터 단말(102) 또는 슬레이브 단말(101)로부터 변경된 방송화면상의 위치 또는 영역에 대한 입력신호를 수신할 수 있다. 다시 말해, 송출자 또는 시청자는 사용자 단말(100)을 통해 방송화면 상의 어느 한 지점 또는 특정 영역을 선택할 수 있으며, 이러한 입력신호는 예를 들어 방송화면을 출력하는 터치스크린을 터치함으로써 생성될 수 있다. In some other embodiments, the augmented reality object generator 234 may generate an augmented reality object for the set position from the user terminal. As a specific example, the augmented reality object generation unit 234 can receive an input signal for a position or an area on a changed broadcast screen from any one master terminal 102 or slave terminal 101 connected to the same broadcast channel. In other words, the sender or the viewer can select one point or a specific area on the broadcast screen through the user terminal 100, and such an input signal can be generated, for example, by touching a touch screen outputting a broadcast screen .

증강현실 오브젝트 생성부(234)는 수신된 입력신호에 대한 객체를 생성할 수 있다. 증강현실 오브젝트 생성부(234)는 입력신호의 화면상 위치 및 영역에 따른 가상객체를 생성할 수 있다. 증강현실 오브젝트 생성부(234)는 생성된 객체의 외곽선을 추출하고, 추출된 외곽선을 강조하는 아웃라인에 대한 증강현실 오브젝트를 생성할 수 있다. 또한, 증강현실 오브젝트 생성부(234)는 생성된 객체로 이동하기 위한 이동 경로에 대한 증강현실 오브젝트를 생성할 수 있다. 이와 같은 본 발명에 다른 실시예에 따른 증강현실 오브젝트 생성부(234)에 따르면, 방송영상과 비교되는 건물 데이터가 존재하지 않더라도, 방송채널 내의 사용자로부터 식별되는 대피 장소를 증강현실 오브젝트를 부여할 객체로 추출하는 것이 가능하다.The augmented reality object generation unit 234 may generate an object for the received input signal. The augmented reality object generation unit 234 can generate a virtual object according to the position and the area of the input signal on the screen. The augmented reality object generation unit 234 can extract an outline of the generated object and generate an augmented reality object for an outline that emphasizes the extracted outline. In addition, the augmented reality object generation unit 234 may generate an augmented reality object for the movement path for moving to the generated object. According to the augmented reality object generation unit 234 according to another embodiment of the present invention, even if there is no building data to be compared with a broadcast image, an evacuation place identified from a user in a broadcast channel is referred to as an object . ≪ / RTI >

증강현실 오브젝트 생성부(234)는 생성된 증강현실 오브젝트를 방송영상 관리부(233)에 의해 변경된 방송화면에 적용하여 사용자 단말(100)로 전송할 수 있다. 또는, 증강현실 오브젝트 생성부(234)는 생성된 증강현실 오브젝트를 사용자 단말(100)로 전송하고, 사용자 단말(100)은 본 발명에 따른 애플리케이션을 통해 방송화면에 증강현실 오브젝트가 반영되도록 처리할 수 있다.The augmented reality object generation unit 234 may apply the generated augmented reality object to the broadcast image changed by the broadcast image management unit 233 and transmit the applied augmented reality object to the user terminal 100. [ Alternatively, the augmented reality object generation unit 234 transmits the generated augmented reality object to the user terminal 100, and the user terminal 100 processes the augmented reality object so that the augmented reality object is reflected on the broadcast screen through the application of the present invention .

알림부(235)는 이벤트정보와 관련된 정보를 사용자 단말(100)에 제공할 수 있다. 구체적으로, 알림부(235)는 이벤트정보를 알려줄 수 있는 메시지, 음성, 경고음, 진동, 영상 등을 생성하여 사용자 단말(100)에 전송할 수 있다. 특히, 알림부(235)는 사용자 단말(100)이 이벤트정보에 따른 사고 현장으로부터 기준반경 내에 위치하는 경우, 해당 사용자 단말(100)에 의해 미리 설정된 단말(예컨대 보호자, 친구, 가족이 소지한 단말)로 알림 메시지를 전송할 수 있다. The notification unit 235 may provide the user terminal 100 with information related to the event information. Specifically, the notification unit 235 can generate a message, voice, alarm, vibration, image, and the like that can notify the event information to the user terminal 100. Particularly, when the user terminal 100 is positioned within the reference radius from the accident site in accordance with the event information, the notification unit 235 informs the user terminal 100 of a preset terminal (for example, a protector, a friend, ). ≪ / RTI >

도 10은 본 발명의 일 실시예에 따른 모바일 기기를 이용한 실시간 재난 방송 방법의 개략적인 흐름이 도시된 순서도이다.FIG. 10 is a flowchart showing a schematic flow of a real-time disaster broadcasting method using a mobile device according to an embodiment of the present invention.

관리서버(200)는 마스터 단말(102)의 요청에 따라 방송영상을 제공하기 위한 방송채널을 생성할 수 있다(910). 마스터 단말(102)과 관련된 방송채널에 접속한 슬레이브 단말(101)은 미리 설치된 애플리케이션을 통해 촬영영상을 생성할 수 있다.The management server 200 may generate a broadcast channel for providing a broadcast image according to a request of the master terminal 102 (910). The slave terminal 101 connected to the broadcast channel associated with the master terminal 102 can generate the photographed image through the application installed in advance.

관리서버(200)는 해당 방송채널에 접속한 슬레이브 단말(101)로부터 수신된 촬영영상을 마스터 단말(102)에 전달할 수 있다(920). 마스터 단말(102)은 복수의 촬영영상에 대한 라이브러리를 화상정보로 출력할 수 있다. The management server 200 may transmit the photographed image received from the slave terminal 101 connected to the broadcast channel to the master terminal 102 (920). The master terminal 102 can output a library of a plurality of photographed images as image information.

마스터 단말(102)은 촬영영상 라이브러리를 구성하는 복수의 촬영영상 중 사용자에 의해 선택된 어느 하나의 촬영영상을 방송영상으로 송출하고(930), 관리서버(200)는 마스터 단말(102)에 의해 송출되는 방송영상이 동일한 방송채널에 접속한 다른 슬레이브 단말(101)에 스트리밍 되도록 제어할 수 있다.The master terminal 102 transmits (930) any of the plurality of photographed images constituting the photographed image library to the broadcast image selected by the user, and the management server 200 transmits the photographed image to the master terminal 102 Can be controlled to be streamed to another slave terminal 101 connected to the same broadcast channel.

이 과정에서, 관리서버(200)는 비상상황에 대한 이벤트정보를 수신하면, 비상상황이 발생한 위치와 가장 근접한 어느 하나의 슬레이브 단말(101)을 선택할 수 있다(940). 관리서버(200)는 기존에 마스터 단말(102)에 의해 선택된 방송화면을 관리서버(200)에 의해 선택된 슬레이브 단말(101)에 의해 생성된 촬영영상으로 변경할 수 있다(950).In this process, when the management server 200 receives the event information for the emergency situation, it can select any one of the slave terminals 101 closest to the place where the emergency occurred. The management server 200 can change the broadcast image selected by the master terminal 102 to the captured image generated by the slave terminal 101 selected by the management server 200 in operation 950.

이후, 관리서버(200)는 변경된 방송화면에 포함된 대피 장소 및 대피 장소로 이동하기 위한 대피경로에 대한 증강현실 오브젝트를 생성할 수 있다(960). 관리서버(200)는 변경된 방송화면 상에 생성된 증강현실 오브젝트가 반영되어 스트리밍 될 수 있도록 제어할 수 있다.Thereafter, the management server 200 may generate an augmented reality object for the evacuation path included in the changed broadcasting screen and a evacuation path for moving to the evacuation place (960). The management server 200 can control so that the augmented reality object generated on the changed broadcasting screen is reflected and streamed.

이와 같은, 모바일 기기를 이용한 실시간 재난 방송 방법을 제공하는 기술은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.Such a technique for providing a real-time disaster broadcasting method using a mobile device can be implemented in an application or can be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination.

상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the computer-readable recording medium may be ones that are specially designed and configured for the present invention and are known and available to those skilled in the art of computer software.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include machine language code such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for performing the processing according to the present invention, and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit and scope of the invention as defined in the appended claims. It will be possible.

100: 사용자 단말
101: 슬레이브 단말
102: 마스터 단말
200: 관리서버
100: user terminal
101: Slave terminal
102: Master terminal
200: management server

Claims (15)

촬영영상을 생성하는 슬레이브 단말;
상기 슬레이브 단말에 방송영상을 제공하기 위한 방송채널을 생성하고, 동일한 방송채널에 접속한 슬레이브 단말로부터 수신되는 촬영영상에 대한 라이브러리를 표시하고, 상기 라이브러리를 구성하는 복수의 촬영영상 중 사용자의 제어에 의해 선택된 어느 하나의 촬영영상을 상기 방송영상으로 송출하는 마스터 단말; 및
상기 방송영상이 상기 슬레이브 단말에 스트리밍 되도록 제어하되, 재난 상황 또는 긴급 상황에 대한 이벤트정보가 발생되는 것으로 확인되면, 상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말에 의해 촬영된 촬영영상이 상기 방송영상으로 변경되도록 제어하고, 대피 경로 및 대피 장소를 나타내는 증강현실 오브젝트를 변경된 방송영상에 표시하도록 제어하는 관리서버를 포함하며,
상기 관리서버는,
상기 동일한 방송채널에 접속한 마스터 단말 및 상기 슬레이브 단말의 위치정보를 주기적으로 수집하여, 이벤트정보 발생 시 상기 방송영상이 실시간으로 변경되도록 제어하는, 모바일 기기를 이용한 실시간 재난 방송 시스템.
A slave terminal for generating a photographed image;
A library for a shot image received from a slave terminal connected to the same broadcast channel is displayed, and a user of the plurality of shot images constituting the library is controlled A master terminal for transmitting any one of the photographed images selected by the master terminal to the broadcast image; And
If it is determined that the broadcast image is to be streamed to the slave terminal, if it is confirmed that event information about a disaster situation or an emergency situation is generated, the captured image photographed by the slave terminal located closest to the place where the event information is generated And a management server for controlling to change to the broadcast image, and to display the augmented reality object representing the evacuation route and the evacuation place on the changed broadcast image,
The management server includes:
Wherein the location information of the master terminal and the slave terminal connected to the same broadcast channel is periodically collected to control the broadcast image to be changed in real time when event information is generated.
제1항에 있어서,
상기 관리서버는,
상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말의 위치정보를 분석하여, 상기 이벤트정보가 발생한 장소를 중심으로 기준 반경 내에 상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말이 위치하지 않는 것으로 확인되면, 상기 기준 반경 내에 위치하는 다른 슬레이브 단말이 소속된 방송채널의 방송영상이 상기 방송채널에 접속한 단말로 스트리밍 되도록 제어하는, 모바일 기기를 이용한 실시간 재난 방송 시스템.
The method according to claim 1,
The management server includes:
The slave terminal located nearest to the place where the event information is generated is located within a reference radius around the place where the event information is generated, The control unit controls the broadcast image of the broadcast channel to which the other slave terminal belonging to the slave terminal located within the reference radius is streamed to the terminal connected to the broadcast channel.
제1항에 있어서,
상기 관리서버는,
상기 마스터 단말에 의해 결정된 방송영상인 일반영상과 상기 관리서버에 의해 결정된 방송영상인 재난영상 중 어느 하나의 방송영상이 스트리밍 되도록 제어하되,
상기 이벤트정보가 발생한 장소를 중심으로 위험반경 내에 위치하는 슬레이브 단말 또는 마스터 단말에서 상기 재난영상이 스트리밍 되도록 제어하고, 상기 위험반경을 벗어난 위치에 위치하는 슬레이브 단말 또는 마스터 단말에서 상기 일반영상이 스트리밍 되도록 제어하는, 모바일 기기를 이용한 실시간 재난 방송 시스템.
The method according to claim 1,
The management server includes:
Wherein the control unit controls the streaming unit to stream any one of a general image, which is a broadcast image determined by the master terminal, and a disaster image, which is a broadcast image determined by the management server,
The slave terminal or the master terminal located within a critical radius centering on the place where the event information is generated is controlled to stream the disaster image so that the general image is streamed from a slave terminal or a master terminal located outside the critical radius Real - time disaster broadcasting system using mobile device.
제3항에 있어서,
상기 관리서버는,
상기 위험반경 내에 위치하는 슬레이브 단말 또는 마스터 단말의 실시간 위치 및 단말간 이격거리가 실시간으로 표시되는 안내정보를 생성하고,
상기 안내정보가 반영된 재난영상이 상기 위험반경 내에 위치하는 슬레이브 단말 또는 마스터 단말에 스트리밍 되도록 제어하는, 모바일 기기를 이용한 실시간 재난 방송 시스템.
The method of claim 3,
The management server includes:
Real-time position and distance information of the slave terminal or the master terminal located within the critical radius are displayed in real time,
And controls the streaming of the disaster image reflecting the guide information to the slave terminal or the master terminal located within the critical radius.
제3항에 있어서,
상기 관리서버는, 상기 위험반경 내에 상기 마스터 단말이 존재하는 것으로 확인되면, 상기 동일한 방송채널에 접속한 어느 하나의 슬레이브 단말을 임시 마스터 단말로 설정하되,
상기 임시 마스터 단말로 설정된 슬레이브 단말은, 상기 동일한 방송채널에 접속한 복수의 슬레이브 단말 중 상기 상기 이벤트정보가 발생한 장소로부터 가장 원거리에 이격된 슬레이브 단말인 것을 특징으로 하는, 모바일 기기를 이용한 실시간 재난 방송 시스템.
The method of claim 3,
Wherein the management server sets any of the slave terminals connected to the same broadcast channel as a provisional master terminal if it is determined that the master terminal exists within the critical radius,
Wherein the slave terminal set as the temporary master terminal is a slave terminal that is distantly spaced apart from a place where the event information is generated among a plurality of slave terminals connected to the same broadcast channel. system.
제5항에 있어서,
상기 관리서버는,
상기 마스터 단말이 상기 위험반경을 벗어난 것으로 확인되면, 상기 임시 마스터 단말로 설정된 슬레이브 단말의 임시 마스터 권한을 해제하는, 모바일 기기를 이용한 실시간 재난 방송 시스템.
6. The method of claim 5,
The management server includes:
And releases the temporary master authority of the slave terminal set as the temporary master terminal if it is determined that the master terminal is out of the danger radius.
제1항에 있어서,
상기 관리서버는,
상기 변경된 방송영상에 포함된 대피 장소의 아웃라인을 증강현실 오브젝트로 표시하거나, 상기 대피 장소로 이동하기 위한 대피 경로를 증강현실 오브젝트로 표시하는, 모바일 기기를 이용한 실시간 재난 방송 시스템.
The method according to claim 1,
The management server includes:
Displays an outline of an evacuation place included in the changed broadcast image as an augmented reality object or displays a evacuation path for moving to the evacuation place as an augmented reality object.
제7항에 있어서,
상기 증강현실 오브젝트로 표시된 상기 대피 장소의 아웃라인 및 상기 대피 경로는 상기 변경된 방송영상상의 현재위치와의 거리에 따라 색상, 굵기 중 적어도 하나가 가변되는 것을 특징으로 하는, 모바일 기기를 이용한 실시간 재난 방송 시스템.
8. The method of claim 7,
Wherein at least one of a color and a thickness of the outline of the evacuation location indicated by the augmented reality object and the evacuation path varies in accordance with a distance from the current location on the changed broadcast image, system.
삭제delete 마스터 단말의 요청에 따라 방송영상을 제공하기 위한 방송채널을 생성하고,
동일한 방송채널에 접속한 슬레이브 단말에 의해 촬영된 촬영영상의 라이브러리를 상기 마스터 단말에 제공하고,
상기 마스터 단말에 의해 선택된 어느 하나의 촬영영상을 방송영상으로 스트리밍되도록 제어하되, 재난 상황 또는 긴급 상황에 대한 이벤트정보가 발생되는 것으로 확인되면, 상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말에 의해 촬영된 촬영영상이 상기 방송영상으로 변경되도록 제어하고, 대피 경로 및 대피 장소를 나타내는 증강현실 오브젝트를 변경된 방송영상에 표시하며,
상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말에 의해 촬영된 촬영영상이 상기 방송영상으로 변경되도록 제어하는 것은,
상기 동일한 방송채널에 접속한 마스터 단말 및 상기 슬레이브 단말의 위치정보를 주기적으로 수집하여, 이벤트정보 발생 시 상기 방송영상이 실시간으로 변경되도록 제어하는 것인, 모바일 기기를 이용한 실시간 재난 방송 방법.
Generates a broadcast channel for providing a broadcast image according to a request from the master terminal,
Providing a library of photographed images photographed by a slave terminal connected to the same broadcast channel to the master terminal,
The control unit controls the streaming of any one selected image selected by the master terminal to a broadcast image. If it is determined that event information for a disaster situation or an emergency situation is generated, the slave terminal, which is located closest to the place where the event information is generated, And displays the augmented reality object representing the evacuation route and the evacuation site on the changed broadcast image,
And controlling the change of the photographed image photographed by the slave terminal located at a position closest to the place where the event information is generated to the broadcast image,
And periodically collecting location information of the master terminal and the slave terminal connected to the same broadcast channel, and controlling the broadcast image to change in real time when event information is generated.
제10항에 있어서,
상기 이벤트정보가 발생한 장소와 가장 가까운 위치에 위치한 슬레이브 단말과 연동되는 지인 단말로 상기 방송영상이 스트리밍되도록 제어하는 것을 더 포함하는, 모바일 기기를 이용한 실시간 재난 방송 방법.
11. The method of claim 10,
Further comprising: controlling the streaming of the broadcast image to a local terminal connected to a slave terminal located closest to a place where the event information is generated.
제10항에 있어서,
상기 대피 경로 및 대피 장소를 나타내는 증강현실 오브젝트를 변경된 방송영상에 표시하는 것은,
상기 방송영상에 포함된 대피 장소의 아웃라인을 증강현실 오브젝트로 표시하거나, 상기 대피 장소로 이동하기 위한 대피 경로를 증강현실 오브젝트로 표시하는 것인, 모바일 기기를 이용한 실시간 재난 방송 방법.
11. The method of claim 10,
Displaying the augmented reality object representing the evacuation route and the evacuation place on the changed broadcast image,
Displaying an outline of an evacuation place included in the broadcast image as an augmented reality object or displaying a evacuation path for moving to the evacuation place as an augmented reality object.
제12항에 있어서,
증강현실 오브젝트로 표시된 상기 대피 장소의 아웃라인 및 상기 대피 경로는 상기 방송영상상의 현재위치와의 거리에 따라 색상, 굵기 중 적어도 하나가 가변되는 것을 특징으로 하는, 모바일 기기를 이용한 실시간 재난 방송 방법.
13. The method of claim 12,
Wherein at least one of a color and a thickness of the outline of the evacuation site indicated by the augmented reality object and the evacuation path is variable according to the distance from the current position on the broadcast image.
제10항에 있어서,
상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말에 의해 촬영된 촬영영상이 상기 방송영상으로 변경되도록 제어하는 것은,
동일한 방송채널에 접속한 상기 마스터 단말 및 상기 슬레이브 단말의 위치정보를 분석하여, 상기 이벤트정보가 발생한 장소를 중심으로 기준 반경 내에 상기 마스터 단말 및 상기 슬레이브 단말이 위치하지 않는 것으로 확인되면, 상기 기준 반경 내에 위치하는 다른 마스터 단말 또는 다른 슬레이브 단말이 소속된 채널의 방송영상이 상기 방송채널에 접속한 단말로 스트리밍되도록 제어하는 것을 포함하는, 모바일 기기를 이용한 실시간 재난 방송 방법.
11. The method of claim 10,
And controlling the change of the photographed image photographed by the slave terminal located at a position closest to the place where the event information is generated to the broadcast image,
The master terminal and the slave terminal connected to the same broadcast channel are analyzed and if it is determined that the master terminal and the slave terminal are not located within a reference radius around the place where the event information is generated, And controlling the streaming of a broadcast image of a channel belonging to another master terminal or another slave terminal located in the broadcast channel to a terminal connected to the broadcast channel.
삭제delete
KR1020170145796A 2017-11-03 2017-11-03 System and method for broadcating real-time disaster using mobile device KR101968607B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170145796A KR101968607B1 (en) 2017-11-03 2017-11-03 System and method for broadcating real-time disaster using mobile device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170145796A KR101968607B1 (en) 2017-11-03 2017-11-03 System and method for broadcating real-time disaster using mobile device

Publications (1)

Publication Number Publication Date
KR101968607B1 true KR101968607B1 (en) 2019-04-12

Family

ID=66167677

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170145796A KR101968607B1 (en) 2017-11-03 2017-11-03 System and method for broadcating real-time disaster using mobile device

Country Status (1)

Country Link
KR (1) KR101968607B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090046059A (en) * 2007-11-05 2009-05-11 한국전자통신연구원 Method and system for watching broadcast channel selectively in specified place
KR20130011344A (en) * 2011-07-21 2013-01-30 주식회사 와이에이취익스펜션 Remote monitoring system using mobile terminal
KR20130085653A (en) * 2012-01-20 2013-07-30 엘지전자 주식회사 Method for providing route guide using augmented reality and mobile terminal using this method
KR101377184B1 (en) 2013-10-11 2014-03-24 주식회사 마이크로넷 Safety and disaster prevention system by using mobile communication network
KR20160008336A (en) 2014-07-14 2016-01-22 심익한 Broadcasting system using the mobile device
KR101702029B1 (en) * 2016-02-01 2017-02-02 주식회사 유진코어 Broadcasting system and method using the mobile device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090046059A (en) * 2007-11-05 2009-05-11 한국전자통신연구원 Method and system for watching broadcast channel selectively in specified place
KR20130011344A (en) * 2011-07-21 2013-01-30 주식회사 와이에이취익스펜션 Remote monitoring system using mobile terminal
KR20130085653A (en) * 2012-01-20 2013-07-30 엘지전자 주식회사 Method for providing route guide using augmented reality and mobile terminal using this method
KR101377184B1 (en) 2013-10-11 2014-03-24 주식회사 마이크로넷 Safety and disaster prevention system by using mobile communication network
KR20160008336A (en) 2014-07-14 2016-01-22 심익한 Broadcasting system using the mobile device
KR101702029B1 (en) * 2016-02-01 2017-02-02 주식회사 유진코어 Broadcasting system and method using the mobile device

Similar Documents

Publication Publication Date Title
US8483654B2 (en) System and method for reporting and tracking incidents with a mobile device
EP3123437B1 (en) Methods, apparatus, and systems for instantly sharing video content on social media
US9866916B1 (en) Audio content delivery from multi-display device ecosystem
US20120262576A1 (en) Method And System For A Network Of Multiple Live Video Sources
US9344684B2 (en) Systems and methods configured to enable content sharing between client terminals of a digital video management system
JP2021177625A (en) Method, system, and computer program for displaying reaction during telephone call based on internet telephone
US20190362053A1 (en) Media distribution network, associated program products, and methods of using the same
KR101391370B1 (en) System for multi-transmitting images by using an image collection and distribution server and the method thereof
US11164418B2 (en) Impromptu community streamer
US20150319402A1 (en) Providing video recording support in a co-operative group
KR101702029B1 (en) Broadcasting system and method using the mobile device
JP2023162267A (en) Interaction method, device, and electronic apparatus
WO2019092590A1 (en) User interaction in a communication system with the aid of multiple live streaming of augmented reality data
US20240022633A1 (en) Method and system for providing web content in virtual reality environment
US11582269B2 (en) Systems and methods for establishing a virtual shared experience for media playback
KR101968607B1 (en) System and method for broadcating real-time disaster using mobile device
JP7080336B2 (en) Methods and systems for sharing items in media content
US20170140164A1 (en) Privacy protecting sensing devices
US10652717B2 (en) Systems and methods for providing an interactive community through device communication
CN111954004B (en) Data processing method, control equipment, remote user terminal and data processing system
KR102567767B1 (en) Methods, apparatus and systems for exchange of video content
KR101784131B1 (en) Method for providing video using messaging service, api server, and streaming server for providing video
KR101605781B1 (en) System for providing online movie theater service
KR102573946B1 (en) On-line group viewing service system, server and method
US10769829B2 (en) Adapting layers of an image for each recipient perspective

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant