KR101968607B1 - System and method for broadcating real-time disaster using mobile device - Google Patents
System and method for broadcating real-time disaster using mobile device Download PDFInfo
- Publication number
- KR101968607B1 KR101968607B1 KR1020170145796A KR20170145796A KR101968607B1 KR 101968607 B1 KR101968607 B1 KR 101968607B1 KR 1020170145796 A KR1020170145796 A KR 1020170145796A KR 20170145796 A KR20170145796 A KR 20170145796A KR 101968607 B1 KR101968607 B1 KR 101968607B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- terminal
- broadcast
- slave terminal
- slave
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H20/00—Arrangements for broadcast or for distribution combined with broadcast
- H04H20/53—Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers
- H04H20/59—Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers for emergency or urgency
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H20/00—Arrangements for broadcast or for distribution combined with broadcast
- H04H20/65—Arrangements characterised by transmission systems for broadcast
- H04H20/71—Wireless systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/27—Server based end-user applications
- H04N21/274—Storing end-user multimedia data in response to end-user request, e.g. network recorder
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Alarm Systems (AREA)
Abstract
Description
본 발명은 모바일 기기를 이용한 실시간 재난 방송 시스템 및 방법에 관한 것으로서, 더욱 상세하게는 재난 또는 긴급 현장에 위치한 단말에 의해 촬영된 영상을 이용하여 시청자에게 스트리밍 하는 모바일 기기를 이용한 실시간 재난 방송 시스템 및 방법에 관한 것이다.The present invention relates to a real-time disaster broadcasting system and method using a mobile device, and more particularly, to a real-time disaster broadcasting system and a real-time disaster broadcasting system using a mobile device for streaming to a viewer using an image captured by a terminal located in a disaster or an emergency scene .
최근 인터넷을 통하여 멀티미디어 데이터를 스트리밍 하는 정보 제공 기술이 활발히 이용되고 있으며, 이러한 정보 제공기술을 이용한 스트리밍 서비스는 이동 통신단말기를 대상으로 하는 무선네트워크와 연계하여 서비스의 범위를 넓혀가고 있는 추세이다. 스트리밍 기술이 활발히 이용되고 있는 이유는 대부분의 사용자들이 대용량 멀티미디어 파일들을 즉시 다운로드 할 만큼 빠른 접속회선을 가지고 있지 못하기 때문인데, 스트리밍 기술을 이용하면, 파일이 모두 전송되기 전부터 사용자의 브라우저 또는 플러그인이 데이터를 출력할 수 있게 되어 빠른 접속회선이 없더라도 즉시 멀티미디어 파일들을 이용할 수 있게 된다. 최근에는 스트리밍 기술을 이용하여 학교의 단체 수학여행이나 지방자치 단체의 행사 또는 재난지역의 현장상황을 제공하는 기술이 연구되고 있다.Recently, information providing technology for streaming multimedia data through the Internet has been actively used, and streaming service using such information providing technology has been widening the range of services in connection with wireless networks targeting mobile communication terminals. Streaming technology is being actively used because most users do not have a fast connection line to download large multimedia files instantly. Streaming technology allows a user's browser or plug- Data can be output, so that even if there is no quick access line, multimedia files can be used immediately. In recent years, techniques for providing group school excursions, events of local governments, or site conditions in disaster areas have been studied using streaming technology.
특히 스트리밍 기술을 이용하여 재난지역의 상황을 제공하는 재난 관리 기술은, 우리나라와 같이 IT 기반이 잘 구축되어 있는 환경에서는 재난 감지 센서를 활용한 다양한 방법으로 재난을 감지하는 기술의 효용성이 뛰어나고 효율적이라는 면에서 각광받고 있다. 그러나 기존의 재난 관리 기술은, 발생된 재난의 위치와 그 형태를 해당자에게 가공되지 않은 상태로 정보를 제공하는 것에 지나지 않아 이용함에 있어서 불편함을 가지고 있다. 이에 따라, 재난 관리 기술을 좀더 편리하고 효율적으로 사용하기 위한 연구와, 재난 정보를 더 정확하게 제공하기 위한 연구가 진행되고 있다.Especially, the disaster management technology that provides the situation of the disaster area using the streaming technology is very effective and efficient in the technology where the IT infrastructure such as Korea is well established, It is attracting attention in terms of. However, the existing disaster management technology is inconvenient in using the location and form of the disaster generated only by giving information to the person in an unprocessed state. As a result, studies are being conducted to use disaster management technology more conveniently and efficiently, and to provide disaster information more accurately.
본 발명의 일측면은 모바일 기기를 이용하여 재난 상황을 실시간으로 방송하고, 재난 현장에 위치하는 사용자의 대피 경로 안내 서비스를 제공하는 모바일 기기를 이용한 실시간 재난 방송 시스템 및 방법을 제공한다.One aspect of the present invention provides a real-time disaster broadcasting system and method using a mobile device that broadcasts a disaster situation in real time using a mobile device and provides a user's evacuation route guidance service at a disaster site.
본 발명의 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problem of the present invention is not limited to the technical problems mentioned above, and other technical problems which are not mentioned can be understood by those skilled in the art from the following description.
본 발명의 일 실시예에 따른 모바일 기기를 이용한 실시간 재난 방송 시스템은, 촬영영상을 생성하는 슬레이브 단말, 상기 슬레이브 단말에 방송영상을 제공하기 위한 방송채널을 생성하고, 동일한 방송채널에 접속한 슬레이브 단말로부터 수신되는 촬영영상에 대한 라이브러리를 표시하고, 상기 라이브러리를 구성하는 복수의 촬영영상 중 사용자의 제어에 의해 선택된 어느 하나의 촬영영상을 상기 방송영상으로 송출하는 마스터 단말 및 상기 방송영상이 상기 슬레이브 단말에 스트리밍 되도록 제어하되, 재난 상황 또는 긴급 상황에 대한 이벤트정보가 발생되는 것으로 확인되면, 상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말에 의해 촬영된 촬영영상이 상기 방송영상으로 변경되도록 제어하고, 대피 경로 및 대피 장소를 나타내는 증강현실 오브젝트를 변경된 방송영상에 표시하도록 제어하는 관리서버를 포함한다.A real-time disaster broadcasting system using a mobile device according to an embodiment of the present invention includes a slave terminal for generating a shot image, a slave terminal for generating a broadcast channel for providing a broadcast image to the slave terminal, A master terminal for displaying a library of photographed images received from the slave terminal and sending out one of the plurality of photographed images constituting the library to the broadcast image selected by the user's control, If the event information is found to be generated in the event of a disaster or an emergency, control is performed so that the shot image photographed by the slave terminal located closest to the place where the event information is generated is changed to the broadcast image , Evacuation route and evacuation site The indicating includes a management server for controlling to display an augmented reality objects to the changed broadcasting image.
상기 관리서버는, 상기 이벤트정보가 발생한 장소와 가장 가까운 위치에 위치한 슬레이브 단말과 연동되는 지인 단말로 상기 방송영상이 스트리밍 되도록 제어할 수 있다.The management server may control the broadcasting image to be streamed to an associated terminal that is interlocked with a slave terminal located closest to the place where the event information is generated.
상기 관리서버는, 상기 방송영상에 포함된 대피 장소의 아웃라인을 증강현실 오브젝트로 표시하거나, 상기 대피 장소로 이동하기 위한 대피 경로를 증강현실 오브젝트로 표시할 수 있다.The management server may display an outline of the evacuation place included in the broadcast image as an augmented reality object or display an evacuation path for moving to the evacuation place as an augmented reality object.
상기 증강현실 오브젝트로 표시된 상기 대피 장소의 아웃라인 및 상기 대피 경로는 상기 방송화면상의 현재위치와의 거리에 따라 색상, 굵기 중 적어도 하나가 가변되는 것을 특징으로 할 수 있다.The at least one of the outline of the evacuation site indicated by the augmented reality object and the evacuation path may vary in color and thickness according to the distance from the current position on the broadcasting screen.
상기 관리서버는, 동일한 방송채널에 접속한 상기 마스터 단말 및 상기 슬레이브 단말의 위치정보를 분석하여, 상기 이벤트정보가 발생한 장소를 중심으로 기준 반경 내에 상기 마스터 단말 및 상기 슬레이브 단말이 위치하지 않는 것으로 확인되면, 상기 기준 반경 내에 위치하는 다른 마스터 단말 또는 다른 슬레이브 단말이 소속된 채널의 방송영상이 상기 방송채널에 접속한 단말로 스트리밍 되도록 제어할 수 있다.Wherein the management server analyzes location information of the master terminal and the slave terminal connected to the same broadcast channel and confirms that the master terminal and the slave terminal are not located within a reference radius centering on a place where the event information is generated , It is possible to control that a broadcast image of a channel belonging to another master terminal or another slave terminal located within the reference radius is streamed to a terminal connected to the broadcast channel.
상기 관리서버는, 상기 동일한 방송채널에 접속한 마스터 단말 및 상기 슬레이브 단말의 위치정보를 주기적으로 수집하여, 이벤트정보 발생 시 상기 방송영상이 실시간으로 변경되도록 제어할 수 있다.The management server periodically collects the location information of the master terminal and the slave terminal connected to the same broadcast channel and controls the broadcast image to change in real time when event information is generated.
또한, 본 발명의 일 실시예에 따른 모바일 기기를 이용한 실시간 재난 방송 방법은, 마스터 단말의 요청에 따라 방송영상을 제공하기 위한 방송채널을 생성하고, 동일한 방송채널에 접속한 슬레이브 단말에 의해 촬영된 촬영영상의 라이브러리를 상기 마스터 단말에 제공하고, 상기 마스터 단말에 의해 선택된 어느 하나의 촬영영상을 방송영상으로 스트리밍되도록 제어하되, 재난 상황 또는 긴급 상황에 대한 이벤트정보가 발생되는 것으로 확인되면, 상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말에 의해 촬영된 촬영영상이 상기 방송영상으로 변경되도록 제어하고, 대피 경로 및 대피 장소를 나타내는 증강현실 오브젝트를 변경된 방송영상에 표시한다.In addition, a real-time disaster broadcasting method using a mobile device according to an embodiment of the present invention includes generating a broadcast channel for providing a broadcast image according to a request of a master terminal, A library of photographed images is provided to the master terminal, and one of the photographed images selected by the master terminal is controlled to be streamed to a broadcast image. When it is confirmed that event information on a disaster situation or an emergency is generated, The control unit controls the photographed image photographed by the slave terminal located closest to the place where the information is generated to be changed to the broadcast image and displays the augmented reality object representing the evacuation route and the evacuation place on the changed broadcast image.
상기 이벤트정보가 발생한 장소와 가장 가까운 위치에 위치한 슬레이브 단말과 연동되는 지인 단말로 상기 방송영상이 스트리밍 되도록 제어하는 것을 더 포함할 수 있다.And controlling the streaming of the broadcast image to a local terminal connected to a slave terminal located closest to the place where the event information is generated.
상기 대피 경로 및 대피 장소를 나타내는 증강현실 오브젝트를 변경된 방송영상에 표시하는 것은, 상기 방송영상에 포함된 대피 장소의 아웃라인을 증강현실 오브젝트로 표시하거나, 상기 대피 장소로 이동하기 위한 대피 경로를 증강현실 오브젝트로 표시하는 것일 수 있다.Displaying the augmented reality object representing the evacuation route and the evacuation place on the changed broadcast image may be performed by displaying an outline of the evacuation place included in the broadcast image as an augmented reality object or enhancing a evacuation route for moving to the evacuation place It may be displayed as a real object.
증강현실 오브젝트로 표시된 상기 대피 장소의 아웃라인 및 상기 대피 경로는 상기 방송화면상의 현재위치와의 거리에 따라 색상, 굵기 중 적어도 하나가 가변되는 것을 특징으로 할 수 있다.The outline of the evacuation site indicated by the augmented reality object and the evacuation path may vary in color and / or thickness depending on the distance from the current position on the broadcasting screen.
상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말에 의해 촬영된 촬영영상이 상기 방송영상으로 변경되도록 제어하는 것은, 동일한 방송채널에 접속한 상기 마스터 단말 및 상기 슬레이브 단말의 위치정보를 분석하여, 상기 이벤트정보가 발생한 장소를 중심으로 기준 반경 내에 상기 마스터 단말 및 상기 슬레이브 단말이 위치하지 않는 것으로 확인되면, 상기 기준 반경 내에 위치하는 다른 마스터 단말 또는 다른 슬레이브 단말이 소속된 채널의 방송영상이 상기 방송채널에 접속한 단말로 스트리밍 되도록 제어하는 것을 포함할 수 있다.The control of changing the photographed image photographed by the slave terminal located closest to the place where the event information is generated is changed to the broadcast image by analyzing the location information of the master terminal and the slave terminal connected to the same broadcast channel If it is determined that the master terminal and the slave terminal are not positioned within a reference radius around the place where the event information is generated, the broadcast image of the channel to which another master terminal or another slave terminal located within the reference radius belongs, And controlling to stream to a terminal connected to the broadcast channel.
상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말에 의해 촬영된 촬영영상이 상기 방송영상으로 변경되도록 제어하는 것은, 상기 동일한 방송채널에 접속한 마스터 단말 및 상기 슬레이브 단말의 위치정보를 주기적으로 수집하여, 이벤트정보 발생 시 상기 방송영상이 실시간으로 변경되도록 제어하는 것일 수 있다.Controlling the change of the photographed image photographed by the slave terminal located at a position closest to the place where the event information is generated to the broadcast image is performed by periodically checking the location information of the master terminal and the slave terminal connected to the same broadcast channel And controls the broadcast image to be changed in real time when event information is generated.
상술한 본 발명의 일측면에 따르면, 재난 상황이 발생한 위치에 대한 방송영상을 신속하게 스트리밍 할 수 있으며, 재난 현장에 위치한 사용자는 증강현실을 이용한 대피경로를 제공받을 수 있어 효율적인 대피관련 안내 서비스를 제공받을 수 있다.According to an aspect of the present invention, a broadcast image of a location where a disaster occurs can be quickly streamed, and a user located at a disaster site can receive an evacuation route using an augmented reality, Can be provided.
도 1은 본 발명의 일 실시예에 따른 모바일 기기를 이용한 실시간 재난 방송 시스템의 개략적인 구성이 도시된 도면이다.
도 2는 도 1의 사용자 단말의 구체적인 구성 및 기능이 도시된 블록도이다.
도 3은 도 1의 관리서버의 구체적인 구성 및 기능이 도시된 블록도이다.
도 4는 도 1의 사용자 단말의 화면으로 출력되는 화상정보의 일 예가 도시된 도면이다.
도 5 내지 도 8은 도 1의 시스템을 이용하여 방송화면을 변경하는 구체적인 실시예가 도시된 도면이다.
도 9는 방송영상에 반영되는 증강현실 오브젝트의 일 예가 도시된 도면이다.
도 10은 본 발명의 일 실시예에 따른 모바일 기기를 이용한 실시간 재난 방송 방법의 개략적인 흐름이 도시된 순서도이다.FIG. 1 is a diagram showing a schematic configuration of a real-time disaster broadcasting system using a mobile device according to an embodiment of the present invention.
2 is a block diagram showing a specific configuration and function of the user terminal of FIG.
3 is a block diagram showing a specific configuration and functions of the management server of FIG.
4 is a diagram illustrating an example of image information output to a screen of the user terminal of FIG.
5 to 8 are views showing a specific embodiment of changing a broadcast screen using the system of FIG.
9 is a diagram illustrating an example of an augmented reality object reflected in a broadcast image.
FIG. 10 is a flowchart showing a schematic flow of a real-time disaster broadcasting method using a mobile device according to an embodiment of the present invention.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the position or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.
이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.
도 1은 본 발명의 일 실시예에 따른 모바일 기기를 이용한 실시간 재난 방송 시스템(1)의 개략적인 구성이 도시된 도면이다.FIG. 1 is a diagram showing a schematic configuration of a real-time
구체적으로, 본 발명의 일 실시예에 따른 모바일 기기를 이용한 실시간 재난 방송 시스템(1)은, 슬레이브 단말(101)과 마스터 단말(102)을 포함하는 사용자 단말(100) 및 관리서버(200)를 포함하는 구성에 의해 구현될 수 있다.The real-time
사용자 단말(100)은 사용자가 소지하는 전자장치일 수 있다. 사용자 단말(100)은 다른 전자장치와 유선 또는 무선 통신이 가능하고, 정보의 입력, 출력, 처리가 가능한 전자장치로, 예컨대 스마트폰, PC, 태블릿 PC, 웨어러블 장치 등의 형태일 수 있다. The
사용자 단말(100)은 본 발명의 모바일 기기를 이용한 실시간 재난 방송 시스템(1)에 따른 다양한 서비스를 제공받기 위한 애플리케이션이 설치되어 있을 수 있다. 사용자 단말(100)은 사용자의 제어에 의해 애플리케이션이 구동되는 것으로 확인되면, 해당 애플리케이션을 통해 관리서버(200)에 접속하여 데이터를 송수신 함으로써 본 발명의 모바일 기기를 이용한 실시간 재난 방송 시스템(1)에 따른 다양한 서비스를 제공 받을 수 있다. The
이러한 사용자 단말(100)은 슬레이브 단말(110)과 마스터 단말(120)을 포함할 수 있다. The
슬레이브 단말(101)은 마스터 단말(102)에 의해 송출되는 방송영상을 시청하기 위한 시청자가 소지한 단말로 정의될 수 있다. 슬레이브 단말(101)은 상술한 애플리케이션을 통해 관리서버(200)에 로그인할 수 있다. 슬레이브 단말(101)은 관리서버(200)를 통해 어느 하나의 마스터 단말(102)에 의해 생성된 방송채널에 접속할 수 있다.The
슬레이브 단말(101)은 마스터 단말(102)에 제공할 촬영영상을 생성할 수 있다. 이를 위해, 사용자 단말(100)은 영상을 촬영하기 위한 카메라모듈과, 소리를 녹음하기 위한 마이크모듈이 구비될 수 있다. 슬레이브 단말(101)을 소지한 시청자는 애플리케이션을 통해 카메라모듈과 마이크모듈을 활성화시킨 상태에서, 주변을 촬영한 영상인 촬영영상을 생성할 수 있다. 슬레이브 단말(101)은 생성된 촬영영상을 실시간으로 관리서버(200)로 전송하고, 관리서버(200)는 슬레이브 단말(101)이 접속한 방송채널의 마스터 단말(102)로 해당 촬영영상을 전달할 수 있다.The
마스터 단말(102)은 방송영상을 시청자에게 제공하고자 하는 송출자가 소지한 단말로 정의될 수 있다. 마스터 단말(102) 또한 상술한 본 발명의 모바일 기기를 이용한 실시간 재난 방송 시스템(1)에 따른 다양한 서비스를 제공받기 위한 애플리케이션을 통해 관리서버(200)에 로그인할 수 있다.The
마스터 단말(102)은 관리서버(200)와 통신하여 방송영상을 송출하기 위한 방송채널을 생성할 수 있다. 마스터 단말(102)은 생성된 방송채널에 접속한 슬레이브 단말(101)로부터 촬영영상을 제공받을 수 있다. 마스터 단말(102)은 수신된 복수의 촬영영상 중 사용자(송출자)에 의해 선택된 어느 하나의 촬영영상을 방송영상으로 송출할 수 있다. 즉, 본 발명에 따르면 동일한 방송채널에 접속한 시청자로부터 제공되는 복수의 촬영영상 중 송출자의 선택에 따라 방송영상으로 송출되는 촬영영상이 실시간으로 변경되는 것이 가능하다.The
요약하면, 사용자 단말(100)은 슬레이브 단말(101) 또는 마스터 단말(102) 중 어느 하나로 구분될 수 있으며, 상황에 따라 슬레이브 단말(101)의 역할 또는 마스터 단말(102)의 역할 중 어느 하나의 역할을 수행할 수 있다. 예를 들어, 사용자 단말(100)은 다른 사용자 단말에 의해 생성된 방송채널에 접속하는 경우 슬레이브 단말(101)의 역할을 수행할 수 있다. 이때, 해당 사용자 단말(100)이 방송채널의 접속을 종료한 후 새로운 방송채널을 생성하는 경우, 슬레이브 단말(101)의 역할 대신 마스터 단말(102)의 역할을 수행할 수 있다. In summary, the
관리서버(200)는 사용자 단말(100)의 로그인 과정을 제어하고, 로그인된 사용자 단말(100)과 통신하여 본 발명에 따른 모바일 기기를 이용한 실시간 재난 방송 시스템(1)에 따른 서비스를 제공할 수 있다. The
구체적으로, 관리서버(200)는 로그인된 사용자 단말(100)을 슬레이브 단말(101) 또는 마스터 단말(102)중 어느 하나로 구분하고, 이에 따른 역할을 부여할 수 있다. 관리서버(200)는 마스터 단말(102)에 의해 결정된 방송영상이 슬레이브 단말(101)에 실시간으로 스트리밍 되도록 제어할 수 있다. 또한, 관리서버(200)는 재난 상황 또는 긴급 상황을 감지하여, 재난 상황 또는 긴급 상황이 발생된 것으로 확인되는 경우 사용자 단말(100)에 출력되는 방송영상이 강제로 변경되도록 제어할 수 있다. 그리고, 관리서버(200)는 변경된 방송영상에 포함된 어느 하나의 대피 장소를 선택하고, 대피 장소 및 대피 장소로 이동하기 위한 경로를 증강현실로 표현하기 위한 오브젝트를 생성할 수 있다. 이러한 관리서버(200)의 구체적인 구성 및 기능은 도 3을 참조하여 후술하기로 한다.Specifically, the
도 2는 도 1의 사용자 단말(100)의 구체적인 구성 및 기능이 도시된 블록도이다.FIG. 2 is a block diagram showing the specific configuration and functions of the
구체적으로, 본 발명의 일 실시예에 따른 슬레이브 단말(101)과 마스터 단말(102)을 포함하는 사용자 단말(100)은 사용자 단말 통신부(110), 사용자 단말 메모리부(120), 사용자 단말 입출력부(130) 및 사용자 단말 제어부(140)를 포함할 수 있다. The
사용자 단말 통신부(110)는 관리서버(200)와 통신하여 데이터를 송수신하거나 교환할 수 있다. 사용자 단말 통신부(110)는 기 공지된 다양한 유무선 통신 기법 중 어느 하나의 통신 기법을 이용하여 관리서버(200)와 통신망을 형성할 수 있다. The user
사용자 단말 메모리부(120)는 본 발명에 따른 모바일 기기를 이용한 실시간 재난 방송 시스템(1)에 따른 다양한 서비스를 제공하기 위한 애플리케이션(이하, 애플리케이션)을 저장할 수 있다. 또한, 사용자 단말 메모리부(120)는 애플리케이션의 이용 과정 및 관리서버(200)와의 통신 과정에서 발생되는 데이터를 저장할 수 있다.The user
사용자 단말 입출력부(130)는 사용자 단말 입력부(131)와, 사용자 단말 출력부(132)와, 사용자 단말 촬영부(133)를 포함할 수 있다.The user terminal input /
사용자 단말 입력부(131)는 애플리케이션의 이용 과정에서 요구되는 사용자의 입력신호를 입력받을 수 있다. 일 예로, 사용자 단말 입력부(131)는 사용자의 로그인 과정에 필요한 ID 및 패스워드에 대한 정보를 사용자로부터 입력받을 수 있다. 또한, 사용자 단말 입력부(131)는 애플리케이션을 제어하기 위한 사용자의 제어신호를 입력받을 수 있다. 이를 위해, 사용자 단말 입력부(131)는 터치패드, 키보드, 마우스, 마이크 중 적어도 하나의 모듈을 포함할 수 있다. The user
사용자 단말 출력부(132)는 애플리케이션 이용에 따른 서비스를 사용자에게 소리정보, 화상정보, 진동정보 중 적어도 하나로 출력할 수 있다. 구체적인 예로, 사용자 단말 출력부(132)는 도 4에 도시된 바와 같이, 애플리케이션의 실행 결과를 화상정보로 출력할 수 있다. 도 4의 (a)는 마스터 단말(102)에 표시되는 화상정보의 일 예이며, 사용자 단말 출력부(132)는 현재 송출되는 방송영상, 슬레이브 단말(101)로부터 수신되는 촬영영상의 라이브러리, 마스터 단말(102)에 의해 생성된 방송채널에 접속한 사용자 목록 및 사용자들간의 채팅 내역 등을 UI(User Interface), UX(User Experience) 또는 GUI(Graphical User Interface)로 표현된 화상정보로 출력할 수 있다. 그리고, 도 4의 (b)는 슬레이브 단말(101)에 표시되는 화상정보의 일 예이다. 사용자 단말 출력부(132)는 사용자 단말(100)이 슬레이브 단말(101)인 것으로 확인되면, 마스터 단말(102)로부터 송출되는 방송영상을 스트리밍하는 방송화면, 서로 다른 마스터 단말(102)에 의해 생성된 방송채널의 라이브러리, 입장한 방송채널에 접속한 다른 사용자 목록 및 사용자들간의 채팅 내역 등을 화상정보로 출력할 수 있다.The user
또한, 사용자 단말 출력부(132)는 사용자 단말 제어부(140)에 의해 제어되는 데이터 처리 과정 및 결과를 출력하여 사용자에게 알려줄 수 있다.In addition, the user
사용자 단말 촬영부(133)는 사용자의 조작에 따라 영상을 촬영할 수 있다. 사용자 단말 촬영부(133)는 영상을 촬영하기 위한 카메라 모듈과, 소리를 녹음하기 위한 마이크 모듈을 포함할 수 있으며, 사용자 단말 촬영부(133)는 촬영된 영상과 녹음된 소리를 이용하여 촬영영상을 생성할 수 있다. The user
사용자 단말 제어부(140)는 사용자 단말(100)의 전반적인 동작을 제어할 수 있다. 사용자 단말 제어부(140)는 사용자 단말 통신부(110)를 제어하여 사용자 단말(100)의 위치정보를 주기적으로 수집할 수 있다. 사용자 단말 제어부(140)는 사용자 단말 입력부(131)를 통해 입력되는 사용자의 제어에 따라 애플리케이션을 실행시키거나 종료시키도록 제어할 수 있다. 사용자 단말 제어부(140)는 관리서버(200)로부터 수신되는 재난 상황 도는 긴급 상황에 대한 이벤트정보 및 이벤트정보에 따른 증강현실 오브젝트를 방송영상에 반영하여 사용자 단말 출력부(132)를 통해 출력되도록 제어할 수 있다.The user
또한, 사용자 단말 제어부(140)는 관리서버(200)와의 통신 결과를 기초로, 관리서버(200)에 접속한 사용자를 시청자 또는 송출자 중 어느 하나로 확인하고, 사용자 단말(100)이 슬레이브 단말(101) 또는 마스터 단말(102)중 어느 하나의 역할을 수행하도록 제어할 수 있다. The user
예를 들어, 사용자 단말 제어부(140)는 사용자 단말(100)이 마스터 단말(102)인 것으로 판단되는 경우 관리서버(200)로부터 수신되는 복수의 촬영영상에 대한 라이브러리가 표시되도록 제어할 수 있다. 또한, 사용자 단말 제어부(140)는 사용자(송출자)로부터 라이브러리를 구성하는 어느 하나의 촬영영상이 선택되는 것으로 확인되면, 선택된 촬영영상이 방송영상으로 송출되도록 제어할 수 있다.For example, when the
다른 예로, 사용자 단말 제어부(140)는 사용자 단말(100)이 슬레이브 단말(101)인 것으로 판단되는 경우, 사용자 단말 촬영부(133)를 통해 촬영영상을 생성하도록 제어할 수 있다. 그리고, 사용자 단말 제어부(140)는 관리서버(200)로부터 전달되는 방송영상이 사용자 단말 출력부(132)를 통해 실시간 스트리밍되도록 제어할 수 있다.The user
한편, 사용자 단말 제어부(140)는 관리서버(200)로부터 재난 상황 또는 긴급 상황이 발생했음을 알리는 이벤트정보를 수신하면, 사용자 단말 출력부(132)를 통해 이벤트정보가 출력되도록 제어할 수 있다. 그리고, 사용자 단말 제어부(140)는 이벤트정보를 수신하면, 관리서버에 의해 변경된 재난 현장 또는 긴급 현장이 촬영된 방송영상이 강제적으로 출력되도록 제어할 수 있다. 이때, 사용자 단말 제어부(140)는 관리서버(200)로부터 수신되는 증강현실 오브젝트를 변경된 방송영상에 반영함으로써, 증강현실 오브젝트가 반영된 방송영상이 출력되도록 제어할 수 있다.On the other hand, when the user
이 외에도, 사용자 단말(100)은 전원을 공급하는 사용자 단말 배터리부(미도시)와 같은 부가적인 구성들이 더 포함될 수도 있다.In addition, the
도 3은 도 1의 관리서버(200)의 구체적인 구성 및 기능이 도시된 블록도이다.3 is a block diagram showing the specific configuration and functions of the
구체적으로, 관리서버(200)는 관리서버 통신부(210), 관리서버 메모리부(220) 및 관리서버 제어부(230)를 포함할 수 있다.Specifically, the
관리서버 통신부(210)는 사용자 단말 통신부(110)와 통신하여 데이터를 송수신할 수 있다. 관리서버 통신부(210)는 기 공지된 다양한 유무선 통신 기법 중 어느 하나의 통신 기법을 이용하여 사용자 단말 통신부(110)와 통신망을 형성할 수 있다. The management
관리서버 통신부(210)는 슬레이브 단말(101)로부터 촬영영상을 수신하여 마스터 단말(102)로 전달할 수 있다. 관리서버 통신부(210)는 마스터 단말(102)에 의해 선택된 방송영상을 슬레이브 단말(101)로 전달할 수 있다. 또한, 관리서버 통신부(210)는 관리서버(200)에 의해 생성된 재난 상황 또는 긴급 상황에 대한 이벤트정보를 슬레이브 단말(101) 및 마스터 단말(102)로 전송할 수 있다.The management
관리서버 메모리부(220)는 본 발명에 따른 모바일 기기를 이용한 실시간 재난 방송 시스템에 따른 서비스를 제공하기 위한 소프트웨어 또는 응용 프로그램이 설치될 수 있다. 또한, 관리서버 메모리부(220)는 관리서버(200)에 의해 생성되거나 수집되는 다양한 데이터를 관리할 수 있다.The management
관리서버 제어부(230)는 관리서버(200)의 전반적인 동작을 제어할 수 있다. 구체적인 예로, 관리서버 제어부(230)는 관리서버(200)로 접속한 사용자 단말(100)을 슬레이브 단말(101) 또는 마스터 단말(102) 중 어느 하나로 구분할 수 있다. 상술한 바와 같이, 관리서버 제어부(230)는 사용자 단말(100)이 방송채널을 생성하는 것으로 확인되면 해당 사용자 단말(100)을 마스터 단말(102)로 구분하고, 사용자 단말(100)이 기 생성된 방송채널에 접속하는 것으로 확인되면 해당 사용자 단말(100)를 슬레이브 단말(101)로 구분할 수 있다. 관리서버 제어부(230)는 생성된 방송채널의 목록을 관리하고, 특정 방송채널로 접속한 슬레이브 단말(101)의 목록을 해당 방송채널에 접속한 모든 사용자 단말(100)로 전송할 수 있다. 이후, 관리서버 제어부(230)는 슬레이브 단말(101)로부터 수신된 촬영영상을 소속된 방송채널의 마스터 단말(102)로 전달하며, 마스터 단말(102)에 의해 선택된 어느 하나의 촬영영상이 방송영상으로 스트리밍 되도록 제어할 수 있다. 관리서버 제어부(230)는 동일한 방송채널에 접속한 사용자 단말(100)로부터 발생되는 음성, 이미지, 메시지 등을 중계할 수 있다.The management
특히, 관리서버 제어부(230)는 재난 상황 또는 긴급 상황 등과 같은 비상상황이 발생한 것으로 확인되면, 비상상황에 대한 촬영영상이 실시간으로 스트리밍 되도록 제어하고, 비상상황 현장에 위치한 사용자 단말(100)의 신속한 대피를 유도하기 위한 정보를 제공할 수 있다. 이를 위해, 관리서버 제어부(230)는 이벤트정보 수집부(231), 위치정보 관리부(232), 방송영상 관리부(233), 증강현실 오브젝트 생성부(234) 및 알림부(235)를 포함한다.In particular, when it is determined that an emergency situation such as a disaster situation or an emergency situation has occurred, the management
이벤트정보 수집부(231)는 재난 상황 또는 긴급 상황 등과 같은 비상상황의 발생에 대한 이벤트정보를 수신할 수 있다. 이벤트정보 수집부(231)는 사용자 단말(100)로부터 긴급신호를 수신하는 경우 비상상황이 발생된 것으로 판단할 수 있다. 또는, 이벤트정보 수집부(231)는 기상청, 국토교통부, 국가재난관리센터 등과 같은 외부 서버로부터 이벤트정보를 수신할 수 있다. The event
위치정보 관리부(232)는 관리서버(200)에 접속한 사용자 단말(100)의 위치정보를 주기적으로 수집할 수 있다. 위치정보 확인부(232)는 방송채널에 접속한 사용자 단말의 현재 위치 및 이벤트정보가 발생된 장소를 지도데이터에 반영할 수 있다. The location
방송영상 관리부(233)는 위치정보 관리부(232)에 의해 관리되는 지도데이터를 참조하여, 이벤트정보가 발생된 장소와 가장 근접한 위치에 위치한 사용자 단말(100)을 선택할 수 있다. 구체적으로, 방송영상 관리부(233)는 동일한 방송채널에 접속한 슬레이브 단말(101)들의 위치정보를 분석하여, 이벤트정보가 발생된 장소와 가장 근접한 위치에 위치한 어느 하나의 슬레이브 단말(101)을 선택할 수 있다. The broadcast
도 5 내지 도 6을 함께 참조하면, 방송영상 관리부(233)는 선택된 어느 하나의 슬레이브 단말(101)에 의해 생성되는 촬영영상이 방송영상으로 송출되도록 제어할 수 있다. 먼저, 도 5 에 도시된 바와 같이, 비상상황이 발생하지 않은 일반적인 상황에서, 방송영상 관리부(233)는 마스터 단말(102)의 사용자(송출자)에 의해 선택된 촬영영상이 방송영상으로 스트리밍 되도록 제어할 수 있다. 도시된 실시예를 보면, 마스터 단말(102)은 관리서버(200)를 통해 동일한 방송채널에 접속한 세 개의 슬레이브 단말(101_1, 101_2, 101_3)로부터 서로 다른 촬영영상(촬영영상1, 2, 3)을 제공받을 수 있다. 이때, 마스터 단말(102)은 수신된 세 개의 촬영영상 중 사용자(송출자)에 의해 선택된 임의의 어느 하나의 촬영영상(본 실시예에서는 촬영영상3)을 방송영상으로 송출할 수 있다. 이러한 경우, 세 개의 슬레이브 단말(101_1, 101_2, 101_3)은 제3 슬레이브 단말(101_3)에 의해 촬영된 촬영영상(촬영영상3)이 방송영상으로 스트리밍 될 수 있다. 즉, 비상상황이 발생하지 않은 일반적인 상황에서는, 마스터 단말(102)의 선택에 의해 방송영상이 결정될 수 있다. Referring to FIGS. 5 and 6 together, the broadcast
하지만, 재난 상황 또는 긴급 상황과 같은 비상상황이 발생되는 경우 방송영상은 방송영상 관리부(233)에 의해 강제적으로 제어될 수 있다. 이러한 일 예는 도 6에 도시되어 있으며, 도시된 바와 같이 관리서버(200)의 방송영상 관리부(233)는 사용자 단말(100) 또는 외부서버(미도시)로부터 사고가 발생했음을 나타내는 이벤트정보를 수신할 수 있다. 이러한 경우, 방송영상 관리부(233)는 이벤트정보에 따른 사고 현장의 위치와, 동일한 방송채널에 접속한 각각의 슬레이브 단말(101_1, 101_2, 101_3)의 위치정보를 비교할 수 있다. 방송영상 관리부(233)는 이벤트정보에 따른 사고 현장에 가장 근접한 단말인 제1 슬레이브 단말(101_1)로부터 수신된 촬영영상인 촬영영상1을 선택할 수 있다. 이후, 방송영상 관리부(233)는 마스터 단말(102)에 의해 선택된 촬영영상(촬영영상3)에 대한 방송화면을 촬영영상1에 대한 방송화면으로 변경되도록 제어할 수 있다. 즉, 재난 상황 또는 긴급 상황 등과 같은 이벤트정보가 발생하면, 마스터 단말(102)에 의해 결정되는 방송영상은 관리서버(200)의 방송영상 관리부(233)에 의해 강제적으로 변경될 수 있다. 방송영상 관리부(233)는 비상상황 현장에 가장 근접한 위치에 위치한 슬레이브 단말(101)로부터 수신되는 촬영영상이 다른 슬레이브 단말(101)에 스트리밍 되도록 제어함으로써, 비상상환 현장에 대한 신속한 방송이 가능하도록 제어할 수 있다.However, when an emergency situation such as a disaster situation or an emergency occurs, the broadcast image can be forcibly controlled by the broadcast
도 7을 참조한 몇몇 다른 실시예에서, 방송영상 관리부(233)는 이벤트정보가 발생된 장소와 가장 근접한 위치에 위치한 사용자 단말(100)을 선택하는 과정에서, 선택된 사용자 단말(100)이 이벤트정보가 발생된 장소를 중심으로 기준반경 내에 위치하는지 여부를 확인할 수 있다. 7, in the process of selecting the
도시된 바와 같은 일 예로, 제1 슬레이브 단말(101_1)과 제2 슬레이브 단말(101_2)는 제1 마스터 단말(102_1)에 의해 생성된 제1 방송채널에 접속해 있고, 제3 슬레이브 단말(101_3)과 제4 슬레이브 단말(101_4)은 제2 마스터 단말(102_2)에 의해 생성된 제2 방송채널에 접속해 있을 수 있다. 일반적인 상황에서, 관리서버(200)는 제1 슬레이브 단말(101_1) 및 제2 슬레이브 단말(101_2)로부터 제공되는 촬영영상 중 제1 마스터 단말(102_1)에 의해 선택된 방송영상이 제1 방송채널에 접속한 슬레이브 단말(101_1, 101_2)에 스트리밍 되도록 제어할 수 있다. The first slave terminal 101_1 and the second slave terminal 101_2 are connected to the first broadcast channel generated by the first master terminal 102_1 and the third slave terminal 101_2 is connected to the first broadcast channel generated by the first master terminal 102_1, And the fourth slave terminal 101_4 may be connected to the second broadcast channel generated by the second master terminal 102_2. The
이때, 관리서버(200)의 방송영상 관리부(233)는 이벤트정보가 발생되는 것으로 확인되면, 동일한 방송채널에 접속한 슬레이브 단말들 중 이벤트정보에 따른 사고 현장과 가장 근접한 슬레이브 단말을 선택할 수 있다. 도시된 실시예에서, 방송영상 관리부(233)는 제1 방송채널의 제1 슬레이브 단말(101_1) 및 제2 방송채널의 제3 슬레이브 단말(101_3)을 각각 선택할 수 있다. At this time, if it is determined that the event information is generated, the broadcast
여기서, 방송영상 관리부(233)는 선택된 슬레이브 단말(101_1 또는 101_3)이 기준반경 내에 위치하는지를 확인할 수 있다. 구체적으로, 방송영상 관리부(233)는 제2 방송채널에 대하여 선택된 제3 슬레이브 단말(101_3)이 기준반경 내에 위치하는 것으로 확인되면, 제3 슬레이브 단말(101_3)에 의해 촬영된 촬영영상이 제2 방송채널의 방송영상으로 스트리밍 되도록 제어할 수 있다. Here, the broadcast
반면, 방송영상 관리부(233)는 제1 방송채널에 대하여 선택된 제1 슬레이브 단말(101_1)이 기준반경을 벗어난 것으로 확인되면, 다른 방송채널의 방송화면이 제1 방송채널의 방송영상으로 스트리밍 되도록 제어할 수 있다. 즉, 방송영상 관리부(233)는 기준반경 내에 위치하는 다른 방송채널의 슬레이브 단말(101_3)로부터 수신되는 촬영영상을 기초로 제1 방송채널의 방송영상을 변경할 수 있다.On the other hand, if it is determined that the first slave terminal 101_1 selected for the first broadcast channel is out of the reference radius, the broadcast
도 8을 참조한 몇몇 또 다른 실시예에서, 방송영상 관리부(233)는 동일한 방송채널에 접속한 사용자 단말(100)의 위치에 따라 서로 다른 방송영상이 스트리밍 되도록 제어할 수 있다. 8, the broadcast
여기서, 서로 다른 방송영상이라 함은 마스터 단말(102)에 의해 선택된 촬영영상과, 이벤트정보 발생 시 방송영상 관리부(233)에 의해 선택되는 촬영영상을 포함한다. 이하에서는, 설명의 편의를 위해 마스터 단말(102)에 의해 결정된 방송영상을 일반영상으로 정의하고, 관리서버(200), 즉 방송영상 관리부(233)에 의해 결정된 방송영상을 재난영상으로 정의하여 설명하기로 한다.Here, the different broadcast images include a picked-up image selected by the
방송영상 관리부(233)는 동일한 방송채널에 접속된 사용자 단말(100)에 스트리밍 되는 방송영상의 종류를 결정할 수 있다. 구체적으로, 방송영상 관리부(233)는 이벤트정보가 발생한 장소를 기준으로 미리 설정된 위험반경 내에 위치하는 사용자 단말(101_1, 101_2, 102)은 재난영상이 스트리밍 되도록 제어할 수 있다. 그리고, 방송영상 관리부(233)는 위험반경을 벗어난 곳에 위치하는 사용자 단말(101_3)은 일반영상이 스트리밍 되도록 제어할 수 있다. 여기서, 위험반경은 상술한 기준반경보다 큰 것을 특징으로 할 수 있다.The broadcast
또한, 방송영상 관리부(233)는 위험반경 내에 위치한 사용자 단말(101_1, 101_2, 102)의 실시간 위치 및 서로간의 이격거리가 실시간 갱신되는 안내정보를 생성하여 재난영상에 반영할 수 있다. 따라서, 위험반경 내에 위치하는 사용자는 위험반경 내에 위치하는 다른 사용자의 위치를 실시간으로 제공받을 수 있어 탈출이나 구조를 위한 정보로 활용할 수 있다.In addition, the broadcast
한편, 방송영상 관리부(233)는 마스터 단말(102)이 미리 설정된 위험반경 내에 위치하는 것으로 확인되는 경우, 동일한 방송채널에 접속한 어느 하나의 슬레이브 단말(101)에 임시 마스터 단말의 권한을 부여할 수 있다. 이때, 방송영상 관리부(233)는 이벤트정보가 발생한 장소와 가장 멀리 떨어진 슬레이브 단말(101_3)을 임시 마스터 단말로 설정할 수 있다. 임시 마스터 단말로 설정된 슬레이브 단말(101_3)은 마스터 단말의 권한을 부여받을 수 있으며, 이에 따라 일반영상으로 송출될 촬영영상을 선택할 수 있다. 이후, 방송영상 관리부(233)는 마스터 단말(102)이 위험반경을 벗어난 것으로 확인되면 임시 마스터 단말을 슬레이브 단말(101_3)로 설정할 수 있다.On the other hand, when it is determined that the
증강현실 오브젝트 생성부(234)는 이벤트정보의 발생 시, 방송영상 관리부(233)에 의해 변경된 방송영상에 반영될 증강현실 오브젝트를 생성할 수 있다.The augmented reality
도 9는 사용자 단말(100)에 출력되는 방송영상에 증강현실 오브젝트 반영된 일 예이다. 도시된 바와 같이, 증강현실 오브젝트 생성부(234)는 방송화면에 포함된 대피 시설에 대한 객체를 구분하는 것이 가능하며, 구분된 객체를 강조하거나 구분된 객체로 이동하기 위한 대피 경로에 대한 정보를 증강현실 오브젝트로 생성할 수 있다.9 is an example in which an augmented reality object is reflected on a broadcast image output to the
이를 위해, 증강현실 오브젝트 생성부(234)는 건물 구조에 대한 데이터베이스를 요청할 수 있다. 구체적으로, 증강현실 오브젝트 생성부(234)는 위치정보 관리부(232)로부터 방송화면으로 선택된 촬영영상을 제공하는 슬레이브 단말(101)의 위치정보를 제공받을 수 있다. 또한, 증강현실 오브젝트 생성부(234)는 관리서버 메모리부(220)로부터 슬레이브 단말(101)의 위치정보에 대응되는 건물 구조 영상을 제공받을 수 있다. 관리서버 메모리부(220)에는 특정 건물의 실내 구조가 촬영된 건물 구조 영상 및 영상에 포함된 시설물의 위치, 종류 등에 대한 정보가 데이터베이스로 미리 구축되어 있을 수 있다. 따라서, 증강현실 오브젝트 생성부(234)는 건물 구조에 대한 데이터베이스와 촬영영상을 비교하여 촬영영상에 포함된 객체를 구분하는 것이 가능하다.To this end, the augmented reality
증강현실 오브젝트 생성부(234)는 촬영영상에 포함된 객체들 중 대피 장소에 대한 객체를 추출할 수 있다. 증강현실 오브젝트 생성부(234)는 검출된 대피 장소에 대한 객체의 아웃라인(outline)을 검출할 수 있다. 증강현실 오브젝트 생성부(234)는 검출된 객체의 아웃라인을 강조하는 증강현실 오브젝트를 생성할 수 있다. 또한, 증강현실 오브젝트 생성부(234)는 대피 장소로 이동하기 위한 이동 경로에 대한 증강현실 오브젝트를 생성할 수 있다. The augmented reality
이때, 증강현실 오브젝트 생성부(234)는 방송영상 내의 현재위치와 객체간의 거리에 따라 증강현실 오브젝트의 표현 방법을 다르게 설정할 수 있다. 예를 들어, 증강현실 오브젝트 생성부(234)는 방송영상 내의 현재위치와 대피 장소간의 거리가 가까워질수록, 아웃라인의 굵기가 증가되도록 제어할 수 있다. 또는, 증강현실 오브젝트 생성부(234)는 방송영상 내에 서로 다른 두 개의 대피 장소가 존재하는 경우, 방송영상 내의 현재위치와 비교적 가까운 대피 장소의 아웃라인이 비교적 먼 대피 장소의 아웃라인보다 강조되어 표시되도록 제어할 수 있다. 또는, 증강현실 오브젝트 생성부(234)는 방송영상 내의 현재위치와 가장 가까운 대피장소의 아웃라인만 증강현실로 표시되도록 제어할 수 있다. 이때, 강조되어 표시되는 것이라 함은 아웃라인의 굵기 또는 색상을 상이하게 설정하는 것을 특징으로 할 수 있다. 그리고, 방송영상 내의 현재 위치는 방송영상의 최하단의 정중앙의 위치로 설정될 수 있다.At this time, the augmented reality
몇몇 다른 실시예에서, 증강현실 오브젝트 생성부(234)는 사용자 단말로부터 설정된 위치에 대한 증강현실 오브젝트를 생성할 수 있다. 구체적인 예로, 증강현실 오브젝트 생성부(234)는 동일한 방송채널에 접속된 어느 하나의 마스터 단말(102) 또는 슬레이브 단말(101)로부터 변경된 방송화면상의 위치 또는 영역에 대한 입력신호를 수신할 수 있다. 다시 말해, 송출자 또는 시청자는 사용자 단말(100)을 통해 방송화면 상의 어느 한 지점 또는 특정 영역을 선택할 수 있으며, 이러한 입력신호는 예를 들어 방송화면을 출력하는 터치스크린을 터치함으로써 생성될 수 있다. In some other embodiments, the augmented
증강현실 오브젝트 생성부(234)는 수신된 입력신호에 대한 객체를 생성할 수 있다. 증강현실 오브젝트 생성부(234)는 입력신호의 화면상 위치 및 영역에 따른 가상객체를 생성할 수 있다. 증강현실 오브젝트 생성부(234)는 생성된 객체의 외곽선을 추출하고, 추출된 외곽선을 강조하는 아웃라인에 대한 증강현실 오브젝트를 생성할 수 있다. 또한, 증강현실 오브젝트 생성부(234)는 생성된 객체로 이동하기 위한 이동 경로에 대한 증강현실 오브젝트를 생성할 수 있다. 이와 같은 본 발명에 다른 실시예에 따른 증강현실 오브젝트 생성부(234)에 따르면, 방송영상과 비교되는 건물 데이터가 존재하지 않더라도, 방송채널 내의 사용자로부터 식별되는 대피 장소를 증강현실 오브젝트를 부여할 객체로 추출하는 것이 가능하다.The augmented reality
증강현실 오브젝트 생성부(234)는 생성된 증강현실 오브젝트를 방송영상 관리부(233)에 의해 변경된 방송화면에 적용하여 사용자 단말(100)로 전송할 수 있다. 또는, 증강현실 오브젝트 생성부(234)는 생성된 증강현실 오브젝트를 사용자 단말(100)로 전송하고, 사용자 단말(100)은 본 발명에 따른 애플리케이션을 통해 방송화면에 증강현실 오브젝트가 반영되도록 처리할 수 있다.The augmented reality
알림부(235)는 이벤트정보와 관련된 정보를 사용자 단말(100)에 제공할 수 있다. 구체적으로, 알림부(235)는 이벤트정보를 알려줄 수 있는 메시지, 음성, 경고음, 진동, 영상 등을 생성하여 사용자 단말(100)에 전송할 수 있다. 특히, 알림부(235)는 사용자 단말(100)이 이벤트정보에 따른 사고 현장으로부터 기준반경 내에 위치하는 경우, 해당 사용자 단말(100)에 의해 미리 설정된 단말(예컨대 보호자, 친구, 가족이 소지한 단말)로 알림 메시지를 전송할 수 있다. The
도 10은 본 발명의 일 실시예에 따른 모바일 기기를 이용한 실시간 재난 방송 방법의 개략적인 흐름이 도시된 순서도이다.FIG. 10 is a flowchart showing a schematic flow of a real-time disaster broadcasting method using a mobile device according to an embodiment of the present invention.
관리서버(200)는 마스터 단말(102)의 요청에 따라 방송영상을 제공하기 위한 방송채널을 생성할 수 있다(910). 마스터 단말(102)과 관련된 방송채널에 접속한 슬레이브 단말(101)은 미리 설치된 애플리케이션을 통해 촬영영상을 생성할 수 있다.The
관리서버(200)는 해당 방송채널에 접속한 슬레이브 단말(101)로부터 수신된 촬영영상을 마스터 단말(102)에 전달할 수 있다(920). 마스터 단말(102)은 복수의 촬영영상에 대한 라이브러리를 화상정보로 출력할 수 있다. The
마스터 단말(102)은 촬영영상 라이브러리를 구성하는 복수의 촬영영상 중 사용자에 의해 선택된 어느 하나의 촬영영상을 방송영상으로 송출하고(930), 관리서버(200)는 마스터 단말(102)에 의해 송출되는 방송영상이 동일한 방송채널에 접속한 다른 슬레이브 단말(101)에 스트리밍 되도록 제어할 수 있다.The
이 과정에서, 관리서버(200)는 비상상황에 대한 이벤트정보를 수신하면, 비상상황이 발생한 위치와 가장 근접한 어느 하나의 슬레이브 단말(101)을 선택할 수 있다(940). 관리서버(200)는 기존에 마스터 단말(102)에 의해 선택된 방송화면을 관리서버(200)에 의해 선택된 슬레이브 단말(101)에 의해 생성된 촬영영상으로 변경할 수 있다(950).In this process, when the
이후, 관리서버(200)는 변경된 방송화면에 포함된 대피 장소 및 대피 장소로 이동하기 위한 대피경로에 대한 증강현실 오브젝트를 생성할 수 있다(960). 관리서버(200)는 변경된 방송화면 상에 생성된 증강현실 오브젝트가 반영되어 스트리밍 될 수 있도록 제어할 수 있다.Thereafter, the
이와 같은, 모바일 기기를 이용한 실시간 재난 방송 방법을 제공하는 기술은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.Such a technique for providing a real-time disaster broadcasting method using a mobile device can be implemented in an application or can be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination.
상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the computer-readable recording medium may be ones that are specially designed and configured for the present invention and are known and available to those skilled in the art of computer software.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include machine language code such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for performing the processing according to the present invention, and vice versa.
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit and scope of the invention as defined in the appended claims. It will be possible.
100: 사용자 단말
101: 슬레이브 단말
102: 마스터 단말
200: 관리서버100: user terminal
101: Slave terminal
102: Master terminal
200: management server
Claims (15)
상기 슬레이브 단말에 방송영상을 제공하기 위한 방송채널을 생성하고, 동일한 방송채널에 접속한 슬레이브 단말로부터 수신되는 촬영영상에 대한 라이브러리를 표시하고, 상기 라이브러리를 구성하는 복수의 촬영영상 중 사용자의 제어에 의해 선택된 어느 하나의 촬영영상을 상기 방송영상으로 송출하는 마스터 단말; 및
상기 방송영상이 상기 슬레이브 단말에 스트리밍 되도록 제어하되, 재난 상황 또는 긴급 상황에 대한 이벤트정보가 발생되는 것으로 확인되면, 상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말에 의해 촬영된 촬영영상이 상기 방송영상으로 변경되도록 제어하고, 대피 경로 및 대피 장소를 나타내는 증강현실 오브젝트를 변경된 방송영상에 표시하도록 제어하는 관리서버를 포함하며,
상기 관리서버는,
상기 동일한 방송채널에 접속한 마스터 단말 및 상기 슬레이브 단말의 위치정보를 주기적으로 수집하여, 이벤트정보 발생 시 상기 방송영상이 실시간으로 변경되도록 제어하는, 모바일 기기를 이용한 실시간 재난 방송 시스템.
A slave terminal for generating a photographed image;
A library for a shot image received from a slave terminal connected to the same broadcast channel is displayed, and a user of the plurality of shot images constituting the library is controlled A master terminal for transmitting any one of the photographed images selected by the master terminal to the broadcast image; And
If it is determined that the broadcast image is to be streamed to the slave terminal, if it is confirmed that event information about a disaster situation or an emergency situation is generated, the captured image photographed by the slave terminal located closest to the place where the event information is generated And a management server for controlling to change to the broadcast image, and to display the augmented reality object representing the evacuation route and the evacuation place on the changed broadcast image,
The management server includes:
Wherein the location information of the master terminal and the slave terminal connected to the same broadcast channel is periodically collected to control the broadcast image to be changed in real time when event information is generated.
상기 관리서버는,
상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말의 위치정보를 분석하여, 상기 이벤트정보가 발생한 장소를 중심으로 기준 반경 내에 상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말이 위치하지 않는 것으로 확인되면, 상기 기준 반경 내에 위치하는 다른 슬레이브 단말이 소속된 방송채널의 방송영상이 상기 방송채널에 접속한 단말로 스트리밍 되도록 제어하는, 모바일 기기를 이용한 실시간 재난 방송 시스템.
The method according to claim 1,
The management server includes:
The slave terminal located nearest to the place where the event information is generated is located within a reference radius around the place where the event information is generated, The control unit controls the broadcast image of the broadcast channel to which the other slave terminal belonging to the slave terminal located within the reference radius is streamed to the terminal connected to the broadcast channel.
상기 관리서버는,
상기 마스터 단말에 의해 결정된 방송영상인 일반영상과 상기 관리서버에 의해 결정된 방송영상인 재난영상 중 어느 하나의 방송영상이 스트리밍 되도록 제어하되,
상기 이벤트정보가 발생한 장소를 중심으로 위험반경 내에 위치하는 슬레이브 단말 또는 마스터 단말에서 상기 재난영상이 스트리밍 되도록 제어하고, 상기 위험반경을 벗어난 위치에 위치하는 슬레이브 단말 또는 마스터 단말에서 상기 일반영상이 스트리밍 되도록 제어하는, 모바일 기기를 이용한 실시간 재난 방송 시스템.
The method according to claim 1,
The management server includes:
Wherein the control unit controls the streaming unit to stream any one of a general image, which is a broadcast image determined by the master terminal, and a disaster image, which is a broadcast image determined by the management server,
The slave terminal or the master terminal located within a critical radius centering on the place where the event information is generated is controlled to stream the disaster image so that the general image is streamed from a slave terminal or a master terminal located outside the critical radius Real - time disaster broadcasting system using mobile device.
상기 관리서버는,
상기 위험반경 내에 위치하는 슬레이브 단말 또는 마스터 단말의 실시간 위치 및 단말간 이격거리가 실시간으로 표시되는 안내정보를 생성하고,
상기 안내정보가 반영된 재난영상이 상기 위험반경 내에 위치하는 슬레이브 단말 또는 마스터 단말에 스트리밍 되도록 제어하는, 모바일 기기를 이용한 실시간 재난 방송 시스템.
The method of claim 3,
The management server includes:
Real-time position and distance information of the slave terminal or the master terminal located within the critical radius are displayed in real time,
And controls the streaming of the disaster image reflecting the guide information to the slave terminal or the master terminal located within the critical radius.
상기 관리서버는, 상기 위험반경 내에 상기 마스터 단말이 존재하는 것으로 확인되면, 상기 동일한 방송채널에 접속한 어느 하나의 슬레이브 단말을 임시 마스터 단말로 설정하되,
상기 임시 마스터 단말로 설정된 슬레이브 단말은, 상기 동일한 방송채널에 접속한 복수의 슬레이브 단말 중 상기 상기 이벤트정보가 발생한 장소로부터 가장 원거리에 이격된 슬레이브 단말인 것을 특징으로 하는, 모바일 기기를 이용한 실시간 재난 방송 시스템.
The method of claim 3,
Wherein the management server sets any of the slave terminals connected to the same broadcast channel as a provisional master terminal if it is determined that the master terminal exists within the critical radius,
Wherein the slave terminal set as the temporary master terminal is a slave terminal that is distantly spaced apart from a place where the event information is generated among a plurality of slave terminals connected to the same broadcast channel. system.
상기 관리서버는,
상기 마스터 단말이 상기 위험반경을 벗어난 것으로 확인되면, 상기 임시 마스터 단말로 설정된 슬레이브 단말의 임시 마스터 권한을 해제하는, 모바일 기기를 이용한 실시간 재난 방송 시스템.
6. The method of claim 5,
The management server includes:
And releases the temporary master authority of the slave terminal set as the temporary master terminal if it is determined that the master terminal is out of the danger radius.
상기 관리서버는,
상기 변경된 방송영상에 포함된 대피 장소의 아웃라인을 증강현실 오브젝트로 표시하거나, 상기 대피 장소로 이동하기 위한 대피 경로를 증강현실 오브젝트로 표시하는, 모바일 기기를 이용한 실시간 재난 방송 시스템.
The method according to claim 1,
The management server includes:
Displays an outline of an evacuation place included in the changed broadcast image as an augmented reality object or displays a evacuation path for moving to the evacuation place as an augmented reality object.
상기 증강현실 오브젝트로 표시된 상기 대피 장소의 아웃라인 및 상기 대피 경로는 상기 변경된 방송영상상의 현재위치와의 거리에 따라 색상, 굵기 중 적어도 하나가 가변되는 것을 특징으로 하는, 모바일 기기를 이용한 실시간 재난 방송 시스템.
8. The method of claim 7,
Wherein at least one of a color and a thickness of the outline of the evacuation location indicated by the augmented reality object and the evacuation path varies in accordance with a distance from the current location on the changed broadcast image, system.
동일한 방송채널에 접속한 슬레이브 단말에 의해 촬영된 촬영영상의 라이브러리를 상기 마스터 단말에 제공하고,
상기 마스터 단말에 의해 선택된 어느 하나의 촬영영상을 방송영상으로 스트리밍되도록 제어하되, 재난 상황 또는 긴급 상황에 대한 이벤트정보가 발생되는 것으로 확인되면, 상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말에 의해 촬영된 촬영영상이 상기 방송영상으로 변경되도록 제어하고, 대피 경로 및 대피 장소를 나타내는 증강현실 오브젝트를 변경된 방송영상에 표시하며,
상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말에 의해 촬영된 촬영영상이 상기 방송영상으로 변경되도록 제어하는 것은,
상기 동일한 방송채널에 접속한 마스터 단말 및 상기 슬레이브 단말의 위치정보를 주기적으로 수집하여, 이벤트정보 발생 시 상기 방송영상이 실시간으로 변경되도록 제어하는 것인, 모바일 기기를 이용한 실시간 재난 방송 방법.
Generates a broadcast channel for providing a broadcast image according to a request from the master terminal,
Providing a library of photographed images photographed by a slave terminal connected to the same broadcast channel to the master terminal,
The control unit controls the streaming of any one selected image selected by the master terminal to a broadcast image. If it is determined that event information for a disaster situation or an emergency situation is generated, the slave terminal, which is located closest to the place where the event information is generated, And displays the augmented reality object representing the evacuation route and the evacuation site on the changed broadcast image,
And controlling the change of the photographed image photographed by the slave terminal located at a position closest to the place where the event information is generated to the broadcast image,
And periodically collecting location information of the master terminal and the slave terminal connected to the same broadcast channel, and controlling the broadcast image to change in real time when event information is generated.
상기 이벤트정보가 발생한 장소와 가장 가까운 위치에 위치한 슬레이브 단말과 연동되는 지인 단말로 상기 방송영상이 스트리밍되도록 제어하는 것을 더 포함하는, 모바일 기기를 이용한 실시간 재난 방송 방법.
11. The method of claim 10,
Further comprising: controlling the streaming of the broadcast image to a local terminal connected to a slave terminal located closest to a place where the event information is generated.
상기 대피 경로 및 대피 장소를 나타내는 증강현실 오브젝트를 변경된 방송영상에 표시하는 것은,
상기 방송영상에 포함된 대피 장소의 아웃라인을 증강현실 오브젝트로 표시하거나, 상기 대피 장소로 이동하기 위한 대피 경로를 증강현실 오브젝트로 표시하는 것인, 모바일 기기를 이용한 실시간 재난 방송 방법.
11. The method of claim 10,
Displaying the augmented reality object representing the evacuation route and the evacuation place on the changed broadcast image,
Displaying an outline of an evacuation place included in the broadcast image as an augmented reality object or displaying a evacuation path for moving to the evacuation place as an augmented reality object.
증강현실 오브젝트로 표시된 상기 대피 장소의 아웃라인 및 상기 대피 경로는 상기 방송영상상의 현재위치와의 거리에 따라 색상, 굵기 중 적어도 하나가 가변되는 것을 특징으로 하는, 모바일 기기를 이용한 실시간 재난 방송 방법.
13. The method of claim 12,
Wherein at least one of a color and a thickness of the outline of the evacuation site indicated by the augmented reality object and the evacuation path is variable according to the distance from the current position on the broadcast image.
상기 이벤트정보가 발생한 장소와 가장 근접한 위치에 위치한 슬레이브 단말에 의해 촬영된 촬영영상이 상기 방송영상으로 변경되도록 제어하는 것은,
동일한 방송채널에 접속한 상기 마스터 단말 및 상기 슬레이브 단말의 위치정보를 분석하여, 상기 이벤트정보가 발생한 장소를 중심으로 기준 반경 내에 상기 마스터 단말 및 상기 슬레이브 단말이 위치하지 않는 것으로 확인되면, 상기 기준 반경 내에 위치하는 다른 마스터 단말 또는 다른 슬레이브 단말이 소속된 채널의 방송영상이 상기 방송채널에 접속한 단말로 스트리밍되도록 제어하는 것을 포함하는, 모바일 기기를 이용한 실시간 재난 방송 방법.
11. The method of claim 10,
And controlling the change of the photographed image photographed by the slave terminal located at a position closest to the place where the event information is generated to the broadcast image,
The master terminal and the slave terminal connected to the same broadcast channel are analyzed and if it is determined that the master terminal and the slave terminal are not located within a reference radius around the place where the event information is generated, And controlling the streaming of a broadcast image of a channel belonging to another master terminal or another slave terminal located in the broadcast channel to a terminal connected to the broadcast channel.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170145796A KR101968607B1 (en) | 2017-11-03 | 2017-11-03 | System and method for broadcating real-time disaster using mobile device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170145796A KR101968607B1 (en) | 2017-11-03 | 2017-11-03 | System and method for broadcating real-time disaster using mobile device |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101968607B1 true KR101968607B1 (en) | 2019-04-12 |
Family
ID=66167677
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170145796A KR101968607B1 (en) | 2017-11-03 | 2017-11-03 | System and method for broadcating real-time disaster using mobile device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101968607B1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090046059A (en) * | 2007-11-05 | 2009-05-11 | 한국전자통신연구원 | Method and system for watching broadcast channel selectively in specified place |
KR20130011344A (en) * | 2011-07-21 | 2013-01-30 | 주식회사 와이에이취익스펜션 | Remote monitoring system using mobile terminal |
KR20130085653A (en) * | 2012-01-20 | 2013-07-30 | 엘지전자 주식회사 | Method for providing route guide using augmented reality and mobile terminal using this method |
KR101377184B1 (en) | 2013-10-11 | 2014-03-24 | 주식회사 마이크로넷 | Safety and disaster prevention system by using mobile communication network |
KR20160008336A (en) | 2014-07-14 | 2016-01-22 | 심익한 | Broadcasting system using the mobile device |
KR101702029B1 (en) * | 2016-02-01 | 2017-02-02 | 주식회사 유진코어 | Broadcasting system and method using the mobile device |
-
2017
- 2017-11-03 KR KR1020170145796A patent/KR101968607B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090046059A (en) * | 2007-11-05 | 2009-05-11 | 한국전자통신연구원 | Method and system for watching broadcast channel selectively in specified place |
KR20130011344A (en) * | 2011-07-21 | 2013-01-30 | 주식회사 와이에이취익스펜션 | Remote monitoring system using mobile terminal |
KR20130085653A (en) * | 2012-01-20 | 2013-07-30 | 엘지전자 주식회사 | Method for providing route guide using augmented reality and mobile terminal using this method |
KR101377184B1 (en) | 2013-10-11 | 2014-03-24 | 주식회사 마이크로넷 | Safety and disaster prevention system by using mobile communication network |
KR20160008336A (en) | 2014-07-14 | 2016-01-22 | 심익한 | Broadcasting system using the mobile device |
KR101702029B1 (en) * | 2016-02-01 | 2017-02-02 | 주식회사 유진코어 | Broadcasting system and method using the mobile device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8483654B2 (en) | System and method for reporting and tracking incidents with a mobile device | |
EP3123437B1 (en) | Methods, apparatus, and systems for instantly sharing video content on social media | |
US9866916B1 (en) | Audio content delivery from multi-display device ecosystem | |
US20120262576A1 (en) | Method And System For A Network Of Multiple Live Video Sources | |
US9344684B2 (en) | Systems and methods configured to enable content sharing between client terminals of a digital video management system | |
JP2021177625A (en) | Method, system, and computer program for displaying reaction during telephone call based on internet telephone | |
US20190362053A1 (en) | Media distribution network, associated program products, and methods of using the same | |
KR101391370B1 (en) | System for multi-transmitting images by using an image collection and distribution server and the method thereof | |
US11164418B2 (en) | Impromptu community streamer | |
US20150319402A1 (en) | Providing video recording support in a co-operative group | |
KR101702029B1 (en) | Broadcasting system and method using the mobile device | |
JP2023162267A (en) | Interaction method, device, and electronic apparatus | |
WO2019092590A1 (en) | User interaction in a communication system with the aid of multiple live streaming of augmented reality data | |
US20240022633A1 (en) | Method and system for providing web content in virtual reality environment | |
US11582269B2 (en) | Systems and methods for establishing a virtual shared experience for media playback | |
KR101968607B1 (en) | System and method for broadcating real-time disaster using mobile device | |
JP7080336B2 (en) | Methods and systems for sharing items in media content | |
US20170140164A1 (en) | Privacy protecting sensing devices | |
US10652717B2 (en) | Systems and methods for providing an interactive community through device communication | |
CN111954004B (en) | Data processing method, control equipment, remote user terminal and data processing system | |
KR102567767B1 (en) | Methods, apparatus and systems for exchange of video content | |
KR101784131B1 (en) | Method for providing video using messaging service, api server, and streaming server for providing video | |
KR101605781B1 (en) | System for providing online movie theater service | |
KR102573946B1 (en) | On-line group viewing service system, server and method | |
US10769829B2 (en) | Adapting layers of an image for each recipient perspective |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |