KR101757884B1 - Apparatus for providing circumstance information based on battlefield situation awareness and method thereof - Google Patents

Apparatus for providing circumstance information based on battlefield situation awareness and method thereof Download PDF

Info

Publication number
KR101757884B1
KR101757884B1 KR1020160167770A KR20160167770A KR101757884B1 KR 101757884 B1 KR101757884 B1 KR 101757884B1 KR 1020160167770 A KR1020160167770 A KR 1020160167770A KR 20160167770 A KR20160167770 A KR 20160167770A KR 101757884 B1 KR101757884 B1 KR 101757884B1
Authority
KR
South Korea
Prior art keywords
information
target
roi
situation
user
Prior art date
Application number
KR1020160167770A
Other languages
Korean (ko)
Inventor
백승호
전기남
유연상
Original Assignee
엘아이지넥스원 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘아이지넥스원 주식회사 filed Critical 엘아이지넥스원 주식회사
Priority to KR1020160167770A priority Critical patent/KR101757884B1/en
Application granted granted Critical
Publication of KR101757884B1 publication Critical patent/KR101757884B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06K9/00671
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video

Abstract

본 발명의 일 실시예에 따르면, 사용자의 관심 영역에 대한 주변 상황 정보를 제공하는, 상황 정보 제공 장치에 있어서, 상기 관심 영역의 실제 영상을 촬영하는, 카메라부; 상기 카메라부로부터 영상 데이터를 수신하여, 상기 관심 영역의 실제 영상을 기반으로 주변 환경 정보 분석을 수행하는, 촬영 정보 분석부; 상기 관심 영역 내부 또는 주변부에 배치된 일 이상의 센서노드로부터 수신된 센싱 정보들을 기반으로 표적의 침입 정보, 표적의 움직임 정보, 표적의 이동 경로, 표적의 이동 속도, 표적의 특징 정보, 표적의 예상 출현 위치 정보 또는 각 위치별 표적의 출현 가능성 정보 중 일 이상의 정보를 포함한 표적 정보를 분석하는, 센싱 정보 분석부; 및 상기 카메라부로부터 수신된 실제 영상 및 상기 센싱 정보 분석부로부터 수신된 표적 정보에 따라 예측되는 가상의 표적 영상이 중첩된 증강현실 영상을 디스플레이 하는, 증강현실 디스플레이부를 포함하는, 상황 정보 제공 장치가 제공된다.According to an embodiment of the present invention, there is provided a situation information providing apparatus for providing surrounding information on a region of interest of a user, the apparatus comprising: a camera unit for photographing an actual image of the region of interest; An image capturing information analyzing unit receiving image data from the camera unit and analyzing surrounding information based on an actual image of the area of interest; Based on sensing information received from one or more sensor nodes disposed in or around the ROI, target intrusion information, target motion information, target movement path, target movement speed, target feature information, A sensing information analyzer for analyzing target information including at least one of position information or appearance possibility information of a target for each position; And an augmented reality display unit that displays an augmented reality image in which a virtual target image that is predicted according to an actual image received from the camera unit and target information received from the sensing information analysis unit is superimposed, / RTI >

Description

전장 상황 인식 기반 상황 정보 제공 장치 및 그 방법{APPARATUS FOR PROVIDING CIRCUMSTANCE INFORMATION BASED ON BATTLEFIELD SITUATION AWARENESS AND METHOD THEREOF}[0001] APPARATUS FOR PROVIDING CIRCUMSTANCE INFORMATION BASED ON BATTLEFIELD SITUATION AWARENESS AND METHOD THEREOF [0002]

본 발명은 전장 상황 인식 기반 상황 정보 제공 장치 및 그 방법에 관한 것으로, 보다 상세하게는, 상황 정보 제공 장치 주변을 촬영한 실제 영상, 및 센서로부터 센싱된 정보를 기반으로 예측되는 정보를 통해 생성된 가상의 영상을 함께 제공하고, 수집된 촬영 정보 및 센싱 정보를 바탕으로 주변 상황에 대한 다양한 정보를 분석함으로써, 사용자에게 정확하고 활용도 높은 상황 정보를 신속하게 제공할 수 있도록 하는 방법 및 서버에 관한 것이다.The present invention relates to an apparatus and method for providing situation information based on a long-range situation, and more particularly, to an apparatus and method for providing situation information based on a long- To a method and server for providing accurate and highly utilized situation information to a user by analyzing various information about the surrounding situation based on the collected shooting information and sensing information .

종래에는 전장 상황 등과 같은 국방상 목적을 위한 감시 정찰을 위한 정보로서, 센서로부터 수집되는 1차원적인 정보를 이용하였다. Conventionally, one - dimensional information collected from sensors was used as information for surveillance and scouting for the purpose of national defense such as battlefield situation.

그러나, 이러한 1차원적 정보만으로는 정보 수집의 효율성, 신속성 및 정확성을 요하는 국방상 장비의 활용에 부족함이 존재하였다.However, this one - dimensional information alone is insufficient to utilize the military equipment which requires efficiency, speed and accuracy of information collection.

이에 따라, 최근, 모바일 단말 운용을 통한 2차원적 지도의 활용과 적군의 위치 표시 등을 활용하는 기술이 개발되었으나, 이러한 기술은 PDA 및 PRE 등과 같은 운용 단말에만 이용될 수 있어 활용 범위가 극히 제한적이라는 문제점이 있다.Recently, the technology that utilizes the two-dimensional map through mobile terminal operation and the location indication of the enemy army has been developed. However, since the technology can be used only on the operating terminal such as PDA and PRE, the application range is extremely limited .

뿐만 아니라, 기존의 감시 정찰 상황도의 도식은 지휘 통제실에 있는 주둔지에 대한 상황도 도식과 적군의 위치 표시 기술로 제한될 수 밖에 없다는 한계 또한 존재한다.In addition, there is also a limitation that the scheme of the existing surveillance scouting situation can only be limited by the schematics and the enemy's location marking technology for the garrison in the command and control room.

한국공개특허 제10-2009-0040626호(선행문헌 1)의 경우, 감시 정찰 기술의 정확도를 향상시키기 위한 표적 개수 파악 방법을 제시하고 있으나, 이 경우에도 센서를 통한 1차원적 정보를 활용할 뿐, 시간 또는 장소의 변화에 부합하는 상황 정보를 실시간으로 분석하여 제공할 수 없어, 그 활용도에 제한이 크다는 문제점이 여전히 존재한다.Korean Patent Laid-Open No. 10-2009-0040626 (Prior Art 1) discloses a target counting method for improving the accuracy of the surveillance and reconnaissance technique. In this case, however, only one- It is impossible to analyze and provide the situation information corresponding to the change of time or place in real time, and there is still a problem that the utilization is limited to a large extent.

또한, 기존에는 중앙 관제 센터의 통제 하에서 단말기를 통한 감시 정찰 기술을 구현하였는 바, 중앙 관제 센터로부터 독립적으로 단말기 상에서 그 기술을 활용하기 어려워 신속한 정보 제공이 불가능할 뿐만 아니라, 장소적 또는 시간적 요건에 구애 받지 않고, 해당 기술을 활용할 수도 없었다.In addition, since the monitoring and reconnaissance technology has been implemented through the terminal under the control of the central control center, it is difficult to utilize the technology independently on the terminal from the central control center and it is not possible to provide information promptly, I was not able to use the technology without receiving it.

선행문헌 1: 한국공개특허 제10-2009-0040626호 (2009.04.27.)Prior Art 1: Korean Patent Laid-Open No. 10-2009-0040626 (Apr. 27, 2009)

본 발명은 전술한 종래기술의 문제점을 해결하기 위한 것으로, 사용자가 실제 위치한 관심 영역에 대하여 다양한 상황 정보를 분석 및 제공함으로써, 정확하고 효율적인 감시 정찰 정보를 제공할 수 있도록 하기 위한 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems of the prior art, and it is an object of the present invention to provide accurate and efficient surveillance and reconnaissance information by analyzing and providing various situation information about an actually located interest area.

본 발명의 다른 목적으로는, 실제 촬영 영상에서 획득될 수 없는 표적의 위치를 예측하여 실제 영상에 표시되도록 함으로써, 표적에 대한 사용자의 신속한 대응이 수행될 수 있도록 하는 것이다.Another object of the present invention is to predict the position of a target that can not be obtained in an actual photographed image and display it on an actual image so that a user can quickly respond to the target.

본 발명의 또 다른 목적으로는, 센서노드의 센싱 정보, 카메라의 촬영 정보 및 중앙 관제 서버의 광범위한 영역에 대한 상황 정보를 활용하여 상황 정보를 분석함으로써, 감시 정찰 정보의 정확도를 향상시키고, 대응책 운용의 효율성을 향상시킬 수 있도록 하는 것이다.Another object of the present invention is to improve the accuracy of the surveillance and reconnaissance information by analyzing the situation information using sensing information of the sensor node, photographing information of the camera, and situation information on a wide area of the central control server, Thereby improving the efficiency of the system.

본 발명은 전술한 종래기술의 문제점을 해결하기 위한 것으로, 본 발명의 일 실시예에 따르면, 사용자의 관심 영역에 대한 주변 상황 정보를 제공하는, 상황 정보 제공 장치에 있어서, 상기 관심 영역의 실제 영상을 촬영하는, 카메라부; 상기 카메라부로부터 영상 데이터를 수신하여, 상기 관심 영역의 실제 영상을 기반으로 주변 환경 정보 분석을 수행하는, 촬영 정보 분석부; 상기 관심 영역 내부 또는 주변부에 배치된 일 이상의 센서노드로부터 수신된 센싱 정보들을 기반으로 표적의 침입 정보, 표적의 움직임 정보, 표적의 이동 경로, 표적의 이동 속도, 표적의 특징 정보, 표적의 예상 출현 위치 정보 또는 각 위치별 표적의 출현 가능성 정보 중 일 이상의 정보를 포함한 표적 정보를 분석하는, 센싱 정보 분석부; 및 상기 카메라부로부터 수신된 실제 영상 및 상기 센싱 정보 분석부로부터 수신된 표적 정보에 따라 예측되는 가상의 표적 영상이 중첩된 증강현실 영상을 디스플레이 하는, 증강현실 디스플레이부를 포함하는, 상황 정보 제공 장치가 제공된다.According to an aspect of the present invention, there is provided a context information providing apparatus for providing context information on a user's interest area, the apparatus comprising: A camera unit; An image capturing information analyzing unit receiving image data from the camera unit and analyzing surrounding information based on an actual image of the area of interest; Based on sensing information received from one or more sensor nodes disposed in or around the ROI, target intrusion information, target motion information, target movement path, target movement speed, target feature information, A sensing information analyzer for analyzing target information including at least one of position information or appearance possibility information of a target for each position; And an augmented reality display unit that displays an augmented reality image in which a virtual target image that is predicted according to an actual image received from the camera unit and target information received from the sensing information analysis unit is superimposed, / RTI >

상기 촬영 정보 분석부는, 상기 실제 영상을 기반으로, 상기 관심 영역의 공간적 정보, 상기 관심 영역에 존재하는 사물들에 관한 정보, 상기 상황 정보 제공 장치의 위치 정보, 상기 관심 영역의 장소적 활용 정보, 또는 상기 실제 영상에서 촬영된 표적이 존재하는 경우에는 상기 촬영된 표적의 움직임 정보 중 일 이상의 정보를 포함한 주변 환경 정보를 분석하는 것을 특징으로 하는, 상황 정보 제공 장치가 제공된다.The photographing information analyzing unit may extract, based on the actual image, spatial information of the ROI, information about objects existing in the ROI, location information of the ROI, location information of the ROI, Or if there is a target photographed in the actual image, analyzes surrounding information including one or more pieces of the motion information of the photographed target.

상기 촬영 정보 분석부에서 분석된 주변 환경 정보, 상기 센싱 정보 분석부에서 분석된 표적 정보, 중앙 관제 서버로부터 수신된 타 관심 영역의 상황 정보 또는 제어 명령 정보 중 일 이상의 정보를 포함하는 상황 정보를 디스플레이 하는, 상황 정보 디스플레이부를 포함하는, 상황 정보 제공 장치가 제공된다.The status information including at least one of the surrounding information analyzed by the shooting information analyzing unit, the target information analyzed by the sensing information analyzing unit, the status information of the other area of interest received from the central control server or the control command information, A situation information providing apparatus is provided which includes a situation information display unit.

상기 상황 정보 디스플레이부는, 상기 증강현실 영상 위에 도형 또는 그림을 표시하는 방법, 수치적으로 표시하는 방법 또는 상기 상황 정보에 대한 설명을 문자로 나타내는 방법 중 일 이상의 방법을 통해 상기 관심 영역에 대한 상황 정보를 디스플레이 하는 것을 특징으로 하는, 상황 정보 제공 장치가 제공된다.The context information display unit displays status information on the ROI through one or more of a method of displaying a figure or picture on the augmented reality image, a method of numerically displaying the context information, Is displayed on the display unit.

상기 사용자의 ID 및 패스워드 인증, 지문 인증, 또는 홍채 인증 방법 중 일 이상의 방법을 통해, 상기 사용자의 상기 상황 정보 제공 장치에 대한 사용 권한 여부를 확인하는, 사용자 인증부를 포함하는, 상황 정보 제공 장치가 제공된다.And a user authentication unit for verifying whether or not the user is authorized to use the situation information providing apparatus through at least one of ID, password authentication, fingerprint authentication, or iris authentication method of the user / RTI >

상기 촬영 정보 분석부 또는 상기 센싱 정보 분석부에서 분석된 상기 상황 정보를 토대로, 상기 관심 영역의 주변 상황의 중요도 또는 심각도를 판단하여, 상기 상황 정보 데이터의 자체적인 저장 또는 중앙 관제 서버로의 전송 여부를 결정하는, 감지 결과 처리부를 포함하는, 상황 정보 제공 장치가 제공된다.The importance information or the severity of the circumstance of the ROI is determined based on the situation information analyzed by the shooting information analyzing unit or the sensing information analyzing unit and whether or not the status information data is stored in its own storage or transmitted to the central control server And a detection result processing unit for determining a detection result processing unit.

상기 사용자의 음성 인식을 통한 사용자 명령 수신, 또는 음성으로 상기 상황 정보의 제공을 수행하는, 음향 정보 송수신부를 포함하는, 상황 정보 제공 장치가 제공된다.And a sound information transmitting and receiving unit for receiving the user command through voice recognition of the user or providing the status information by voice.

본 발명의 다른 실시예에 따르면, 사용자의 관심 영역에 대한 주변 상황 정보를 제공하기 위한, 상황 정보 제공 시스템에 있어서, 동작 감지 센싱을 통해 침입 감지 또는 표적의 움직임 감지를 수행하여 센싱 정보를 생성하는, 일 이상의 센서노드; 상기 일 이상의 센서노드와 무선 센서 네트워크를 통해 일 이상의 센싱 정보를 수집하여, 무선 센서 네트워크 외부의 상황 정보 제공 장치 또는 중앙 관제 서버로 전송하는, 게이트웨이; 상기 관심 영역 주변의 실제 영상을 촬영하고, 상기 실제 영상 및 상기 센서노드의 센싱 정보를 분석함으로써, 상기 관심 영역에 대한 상황 정보를 제공하는, 상황 정보 제공 장치; 및 일 이상의 상황 정보 제공 장치로부터 일 이상의 관심 영역에 대한 상황 정보 데이터를 수집함으로써, 광범위한 영역에 대한 주변 상황 분석을 수행하고, 상기 상황 정보 제공 장치에 타 관심 영역에 대한 상황 정보를 제공하거나, 상기 센서노드 또는 상기 상황 정보 제공 장치에 제어 명령을 전송하는, 중앙 관제 서버를 포함하는, 상황 정보 제공 시스템이 제공된다.According to another embodiment of the present invention, there is provided a situation information providing system for providing surrounding situation information on a user's area of interest, the system comprising: an intrusion detection unit for detecting an intrusion through motion detection sensing, One or more sensor nodes; A gateway for collecting one or more pieces of sensing information through the one or more sensor nodes and the wireless sensor network and transmitting the collected sensing information to a situation information providing device or a central control server outside the wireless sensor network; A situation information providing device for capturing an actual image around the ROI and analyzing the actual image and sensing information of the sensor node to provide context information about the ROI; And analyzing the surrounding situation for a wide area by collecting the situation information data for one or more interested areas from one or more situation information providing devices and providing the situation information providing device with the situation information about another interested area, And a central control server for transmitting a control command to the sensor node or the situation information providing apparatus.

상기 일 이상의 센서노드는, 상기 관심 영역 내부 또는 상기 관심 영역 주변부에 배치되는 것을 특징으로 하는, 상황 정보 제공 시스템이 제공된다.Wherein the one or more sensor nodes are arranged within the ROI or around the ROI.

상기 게이트웨이는, 상기 센서노드 각각에 대한 구분자 정보 또는 상기 각 센서노드의 배치 정보를 수집하여 상기 상황 정보 제공 장치 또는 상기 중앙 관제 서버로 전송하는 것을 특징으로 하고, 상기 상황 정보 제공 장치는, 상기 게이트웨이로부터 수신된 상기 각 센서노드의 구분자 정보 또는 상기 배치 정보를 토대로 상기 센싱 정보를 분석함으로써, 상기 표적의 정확한 위치 정보 또는 이동 경로 정보를 파악할 수 있도록 하는 것을 특징으로 하는, 상황 정보 제공 시스템이 제공된다.Wherein the gateway collects delimiter information for each of the sensor nodes or arrangement information of the sensor nodes and transmits the collected information to the status information providing apparatus or the central control server, Wherein the sensing information analyzing unit analyzes the sensing information based on the delimiter information or the arrangement information of each sensor node received from the sensor node so as to grasp accurate positional information or movement route information of the target .

본 발명의 또 다른 실시예에 따르면, 상황 정보 제공 장치가 사용자의 관심 영역에 대한 주변 상황 정보를 제공하는 방법으로서, (a) 상기 관심 영역 내부 또는 상기 관심 영역 주변부에 배치된 일 이상의 센서노드로부터 센싱된 일 이상의 센싱 정보를 수집하는 단계; (b) 상기 관심 영역을 촬영함으로써, 상기 관심 영역의 촬영 정보를 포함하는 실제 영상 데이터를 수집하는 단계; (c) 상기 촬영 정보 또는 상기 센싱 정보를 분석하여 상기 관심 영역에 대한 상황 정보를 분석하는 단계; (d) 상기 촬영 정보, 및 상기 센싱 정보 분석으로부터 예측되는 가상의 표적 영상 데이터를 중첩하여 증강현실 영상 데이터를 생성 및 제공하는 단계; 및 (e) 상기 촬영 정보 분석을 통해 획득되는 상기 관심 영역의 공간적 정보, 상기 관심 영역에 존재하는 사물들에 관한 정보, 상기 상황 정보 제공 장치의 위치 정보, 상기 관심 영역의 장소적 활용 정보, 또는 상기 센싱 정보 분석을 통해 획득되는 표적의 침입 정보, 표적의 움직임 정보, 표적의 이동 경로, 표적의 이동 속도, 표적의 특징 정보, 표적의 예상 출현 위치 정보 또는 각 위치별 표적의 출현 가능성 정보 중 일 이상을 포함하는 상기 관심 영역에 대한 상황 정보를 제공하는 단계를 포함하는, 상황 정보 제공 방법이 제공된다.According to another embodiment of the present invention, there is provided a method for providing context information on a region of interest of a user, the method comprising the steps of: (a) receiving, from one or more sensor nodes Collecting sensed information of at least one sensed time; (b) capturing actual image data including photographing information of the ROI by photographing the ROI; (c) analyzing the shooting information or the sensing information and analyzing the situation information on the ROI; (d) generating and providing augmented reality image data by superimposing the imaging information and virtual target image data predicted from the sensing information analysis; And (e) spatial information of the ROI obtained through the analysis of the photographing information, information about objects existing in the ROI, location information of the ROI, location information of the ROI, The motion information of the target obtained through the sensing information analysis, the motion information of the target, the moving path of the target, the moving speed of the target, the characteristic information of the target, the expected appearance position information of the target, And providing context information for the region of interest that includes the above.

상기 (a) 단계 이전에, 상기 사용자의 ID 및 패스워드 인증, 지문 인증, 또는 홍채 인증 방법 중 일 이상의 방법을 통해, 상기 사용자의 상기 상황 정보 제공 장치에 대한 사용 권한 유무를 확인하는 단계를 포함하는, 상황 정보 제공 방법이 제공된다.Confirming whether or not the user has the right to use the situation information providing apparatus through at least one of the ID, password authentication, fingerprint authentication, or iris authentication method of the user before the step (a) , And a situation information providing method are provided.

또한, 상기 (e) 단계 이전에, 중앙 관제 서버로부터 타 관심 영역의 상황 정보 또는 제어 명령 정보 중 일 이상의 정보를 수신하는 단계를 포함하고, 상기 (e) 단계에서 제공되는 상기 상황 정보는, 상기 중앙 관제 서버로부터 수신된 상기 타 관심 영역의 상황 정보 또는 상기 제어 명령 정보를 포함하는 것을 특징으로 하는, 상황 정보 제공 방법이 제공된다.The method may further include receiving at least one piece of status information or control command information of another area of interest from the central control server before step (e), wherein the status information provided in step (e) And the status information of the other area of interest received from the central control server or the control command information.

본 발명의 일 실시예에 따르면, 사용자가 실제 위치한 관심 영역에 대하여 다양한 상황 정보를 분석 및 제공하므로, 정확하고 효율적인 감시 정찰 정보를 제공할 수 있다.According to an embodiment of the present invention, accurate and efficient surveillance and reconnaissance information can be provided since the user analyzes and provides various situation information with respect to an actually located interest area.

본 발명의 일 실시예에 따르면, 사용자의 관심 영역 주변부에 배치된 일 이상의 센서노드들을 통해 센싱 정보를 수집하여, 실제 촬영 영상에서 획득될 수 없는 표적의 위치를 예측 가능하므로, 표적에 대한 사용자의 신속한 대응이 수행될 수 있다.According to an embodiment of the present invention, sensing information can be collected through one or more sensor nodes disposed on the periphery of a user's interest area, and a position of a target that can not be acquired in an actual photographic image can be predicted. A rapid response can be performed.

또한, 본 발명의 일 실시예에 따르면, 센서노드의 센싱 정보 및 카메라의 촬영 정보뿐만 아니라 중앙 관제 서버의 광범위한 영역에 대한 상황 정보를 활용하여 다양한 측면에서의 상황 정보를 분석하므로, 감시 정찰 정보의 정확도를 향상시키고, 대응책 운용의 효율성을 향상시킬 수 있다.In addition, according to an embodiment of the present invention, context information in various aspects is analyzed using sensing information of a sensor node and photographing information of a camera, as well as context information of a wide area of a central control server, It is possible to improve the accuracy and improve the efficiency of the countermeasure operation.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.It should be understood that the effects of the present invention are not limited to the above effects and include all effects that can be deduced from the detailed description of the present invention or the configuration of the invention described in the claims.

도 1은 본 발명의 일 실시예에 따른 상황 정보 제공 시스템의 개략적인 구성도이다.
도 2는 본 발명의 일 실시예에 따른 상황 정보 제공 장치의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 전장 상황 인식 기반 상황 정보 제공 방법을 시간의 흐름에 따라 도시한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 상황 정보 제공 장치의 증강현실 영상 및 가상의 표적 영상 디스플레이 화면을 도시한 도면이다.
1 is a schematic configuration diagram of a situation information providing system according to an embodiment of the present invention.
2 is a configuration diagram of a situation information providing apparatus according to an embodiment of the present invention.
FIG. 3 is a flowchart illustrating a method for providing context information based on a battlefield situation recognition according to an exemplary embodiment of the present invention. Referring to FIG.
FIG. 4 is a diagram illustrating an augmented reality image and a virtual target image display screen of a situation information providing apparatus according to an embodiment of the present invention. Referring to FIG.

이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "indirectly connected" . Also, when an element is referred to as "comprising ", it means that it can include other elements, not excluding other elements unless specifically stated otherwise.

이하 첨부된 도면을 참고하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 상황 정보 제공 시스템의 개략적인 구성도이다.1 is a schematic configuration diagram of a situation information providing system according to an embodiment of the present invention.

도 1을 참조하면, 상황 정보 제공 시스템은 통신망을 통해 서로 통신 가능한 일 이상의 센서노드(100), 게이트웨이(200), 상황 정보 제공 장치(300) 및 중앙 관제 서버(400)를 포함할 수 있다.Referring to FIG. 1, the situation information providing system may include at least one sensor node 100, a gateway 200, a situation information providing apparatus 300, and a central control server 400 that can communicate with each other through a communication network.

먼저, 통신망은 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 근거리 통신망(LAN: Local Area Network), 도시권 통신망(MAN: Metropolitan Area Network), 광역 통신망(WAN: Wide Area Network) 등의 다양한 통신망으로 구성될 수 있으며, 바람직하게는, 무선 통신 방식으로 구현된다. 본 발명의 일 실시예에 따른 일 이상의 센서노드(100)들과 게이트웨이(200) 간의 통신은 무선 센서 네트워크에 적용될 수 있다. First, the communication network is composed of various communication networks such as a local area network (LAN), a metropolitan area network (MAN), and a wide area network (WAN), regardless of the communication modes such as wired and wireless. And is preferably implemented in a wireless communication manner. The communication between the one or more sensor nodes 100 and the gateway 200 according to an embodiment of the present invention can be applied to a wireless sensor network.

센서노드(100)는 온도, 소리, 압력 등 다양한 주변 상태를 센싱하고, 센싱된 정보를 게이트웨이(200), 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400)로 전송한다. The sensor node 100 senses various ambient conditions such as temperature, sound, and pressure, and transmits the sensed information to the gateway 200, the situation information providing device 300, or the central control server 400.

본 발명의 일 실시예에 따르면, 상황 정보를 제공하고자 하는 영역에 배치된 일 이상의 센서노드(100)들은 각 센서노드(100)를 식별할 수 있도록 하는 각 센서노드(100)별 ID 등의 센서노드 구분자를 가질 수 있다.According to an embodiment of the present invention, the one or more sensor nodes 100 disposed in the area where the situation information is to be provided may include a sensor such as an ID for each sensor node 100 for identifying each sensor node 100, It can have a node delimiter.

또한, 각 센서노드(100)의 배치 위치, 배치 방향 등과 같은 배치 정보들을 저장하거나, 게이트웨이(200), 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400)에 전송할 수도 있다.It is also possible to store the placement information such as the placement position and the placement direction of each sensor node 100 or to transmit the information to the gateway 200, the situation information providing device 300 or the central control server 400.

본 발명의 일 실시예에 따른 센서노드(100)는 센싱 영역에서의 동작 감지를 수행함으로써, 표적의 이동 방향, 또는 침입자의 발생 감지를 확인하는 침입 신호 등을 획득할 수 있다.The sensor node 100 according to an exemplary embodiment of the present invention can detect movement direction of a target or an intrusion signal for confirming occurrence of an intruder by performing motion detection in a sensing area.

뿐만 아니라, 일 실시예에 따르면, 센서노드(100)는 게이트웨이(200), 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400)의 명령에 따라, 센싱 모드, 센싱 조건, 또는 센싱 동작 활성화/비활성화 여부가 제어될 수 있다.In addition, according to one embodiment, the sensor node 100 may transmit a sensing mode, a sensing condition, or a sensing operation activation / sensing operation according to a command of the gateway 200, the status information providing device 300, or the central control server 400. [ It can be controlled whether it is inactivated or not.

상술한 바와 같이 일 이상의 센서노드(100) 각각에서 센싱된 동작 감지 정보, 표적 이동 방향, 또는 침입 신호 정보 등의 센싱 정보들은 각 센서노드(100)의 센서노드 구분자 정보 또는 센서노드 배치 정보와 함께 게이트웨이(200)로 전송되어 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400)에 제공되도록 할 수 있다.As described above, the sensing information such as the motion sensing information, the target movement direction, or the intrusion signal information sensed by each of the one or more sensor nodes 100 is transmitted together with the sensor node identifier information or the sensor node placement information of each sensor node 100 And may be transmitted to the gateway 200 and provided to the situation information providing apparatus 300 or the central control server 400.

도 1에서는 일 이상의 센서노드(100)가 게이트웨이(200)를 통해 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400)와 통신하는 것을 도시하고 있으나, 본 발명의 다른 실시예에 따르면, 각 센서노드(100)는 센싱 정보 및 각 센서노드의 구분자 정보와 센서노드 배치 정보 등을 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400)에 직접 전송하고, 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400)로부터 센서노드 제어 명령을 직접 수신할 수도 있다.1, one or more sensor nodes 100 communicate with the status information providing apparatus 300 or the central control server 400 via the gateway 200. However, according to another embodiment of the present invention, The node 100 directly transmits sensing information, delimiter information of each sensor node and sensor node arrangement information to the situation information providing apparatus 300 or the central control server 400, The server 400 may directly receive the sensor node control command.

게이트웨이(200)는 일 이상의의 센서노드(100)들로부터 전송된 센싱 정보, 센서노드 구분자 정보 및 센서노드 배치 정보 등의 센서노드 데이터를 수집한다. 게이트웨이(200)는 수집된 센서노드 데이터를 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400) 등 무선 센서 네트워크 외부의 장치 또는 서버로 전송할 수 있다. The gateway 200 collects sensor node data such as sensing information, sensor node identifier information, and sensor node placement information transmitted from one or more sensor nodes 100. The gateway 200 may transmit the collected sensor node data to a device or server outside the wireless sensor network such as the status information providing device 300 or the central control server 400. [

본 발명의 일 실시예에 따른 게이트웨이(200)는 게이트웨이 센서노드일 수 있다. 즉, 게이트웨이 센서노드는 센서노드의 기능을 수행함과 동시에, 게이트웨이(200)의 기능도 함께 수행할 수 있다. The gateway 200 according to an exemplary embodiment of the present invention may be a gateway sensor node. That is, the gateway sensor node can perform the function of the sensor node and the gateway 200 at the same time.

상황 정보 제공 장치(300)는 사용자의 관심 영역에 대한 상황 정보를 제공할 수 있다. The situation information providing apparatus 300 may provide context information on a user's area of interest.

본 발명의 실시예에 따르면, 상황 정보 제공 장치(300)는 휴대폰, 스마트폰, PDA(Personal Digital Assistant), PMP(Portable Multimedia Player), 태블릿 PC 등과 같이 네트워크를 통하여 센서노드(100), 게이트웨이(200) 및 중앙 관제 서버(400) 등의 외부 장치 또는 외부 서버와 연결될 수 있는 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있을 뿐 아니라, 웨어러블(wearable) 장치 등과 같이, 네트워크를 통해 센서노드(100), 게이트웨이(200) 및 중앙 관제 서버(400) 등의 외부 장치 또는 외부 서버와 통신 가능한 다양한 형태의 장치로 구현될 수 있다.According to an exemplary embodiment of the present invention, the situation information providing apparatus 300 may be connected to a sensor node 100, a gateway (not shown), and the like through a network, such as a mobile phone, a smart phone, a PDA (Personal Digital Assistant), a PMP Based wireless communication device that can be connected to an external device or an external server such as a central control server 200 and a central control server 400 as well as to a network such as a wearable device, Such as the sensor node 100, the gateway 200, and the central control server 400, or various types of devices capable of communicating with an external server.

일 실시예에 따른 상황 정보 제공 장치(300)는 카메라 기반의 주변 환경 인식을 통해 현 위치의 실제 환경 정보를 수집할 수 있으며, 센서노드(100) 또는 게이트웨이(200)로부터 수신된 센서노드 데이터를 분석하여 상황 정보 데이터를 생성함으로써, 상기 실제 환경 정보에 대한 상황 정보를 실시간으로 제공할 수 있다.The situation information providing apparatus 300 according to an exemplary embodiment can collect actual environment information of the current location through the camera-based surrounding environment recognition, and can collect sensor node data received from the sensor node 100 or the gateway 200 And generates context information data by analyzing the context information to provide real-time context information on the actual environment information.

즉, 일 실시예에 따른 상황 정보 제공 장치(300)는 카메라 또는 음향 송수신 모듈을 통해 수집된 해당 위치의 실제 영상 뿐만 아니라, 일 이상의 센서노드(100)들로부터 센싱된 센싱 정보들의 분석을 통해 생성된 가상의 상황 정보들을 제공함으로써, 증강현실을 이용한 정확하고 효율적인 상황 정보 제공이 가능하도록 한다.That is, the situation information providing apparatus 300 according to an exemplary embodiment generates an actual image of a corresponding location, which is collected through a camera or an acoustic transmission / reception module, as well as an analysis result of the sensed information from one or more sensor nodes 100 By providing the virtual situation information, it is possible to provide accurate and efficient situation information using the augmented reality.

상황 정보 제공 장치(300)는 센서노드(100) 또는 게이트웨이(200)로부터 수집된 센서노드 데이터를 분석하여, 표적의 이동 특성, 현 위치에 대한 표적의 출현 가능성 등과 같은 상황 정보 데이터를 생성할 수 있으며, 상기 생성된 상황 정보 데이터를 자체적으로 저장하거나, 중앙 관제 서버(400)에 전송할 수도 있다.The situation information providing apparatus 300 analyzes the sensor node data collected from the sensor node 100 or the gateway 200 to generate the situation information data such as the movement characteristics of the target and the possibility of appearance of the target with respect to the current position And may store the generated status information data or transmit the status information data to the central control server 400.

일 실시예에 따른 중앙 관제 서버(400)는 일 이상의 센서노드(100), 게이트웨이(200), 및 일 이상의 상황 정보 제공 장치(300)와 통신을 통해 센서노드 데이터 또는 상황 정보 데이터를 수신 및 저장할 수 있다.The central control server 400 according to an embodiment receives and stores sensor node data or situation information data through communication with one or more sensor nodes 100, a gateway 200, and one or more status information providing apparatuses 300 .

중앙 관제 서버(400)는 일 이상의 관심 영역에 대한 센서노드 데이터 또는 상황 정보 데이터를 수집하게 되면, 센서노드(100)의 센싱 영역 또는 상황 정보 제공 장치(300)의 감지 영역 외부의 광범위한 영역에 대하여 표적의 움직임 또는 관심 영역별 주변 상황 심각도 분석을 통해 상황 정보 제공 장치(300)에 타 관심 영역에 대한 상황 정보 제공을 할 수 있으며, 센서노드(100) 또는 상황 정보 제공 장치(300)의 동작을 제어하기 위한 명령을 전송할 수도 있다.When the central control server 400 collects the sensor node data or the situation information data for one or more regions of interest, the central control server 400 searches the sensor node 100 for a wide area outside the sensing region of the sensor node 100 or the sensing region of the situation information providing apparatus 300 The situation information providing apparatus 300 can provide context information on the other area of interest through the analysis of the movement of the target or the surrounding situation severity according to the area of interest and the operation of the sensor node 100 or the situation information providing apparatus 300 And may transmit a command for controlling.

이와 같은 상황 정보 제공 시스템은 특정 지역에 대하여 정확한 상황 분석 및 신속한 판단을 요하는 기술 분야에 이용될 수 있으며, 일 실시예로서, 적군의 침입 감지, 적군의 이동, 및 적군의 전술 파악이 중요한 방위 산업 분야에 적용될 수 있다. 예를 들어, 적군 침입 예상 지역에 배치된 센서노드(100)들의 센싱 정보로부터 적군의 침입을 감지하고, 적군의 이동 경로를 파악하여, 목전에 적군이 도달하기 전, 상황 정보 제공 장치(300)를 통해 적군의 출현을 예상할 수 있으며, 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400)에서 수집된 데이터 분석을 함으로써, 적군의 전술 파악을 통해 효율적인 아군의 전술 운용이 가능하게 된다.Such a situation information providing system can be used in a technical field requiring accurate situation analysis and quick judgment for a specific area. In one embodiment, the intrusion detection of enemy forces, the movement of enemy forces, It can be applied to industrial fields. For example, the intrusion of the enemy group is detected from the sensing information of the sensor nodes 100 disposed in the anticipated enemy intrusion area, the movement path of the enemy group is grasped, and before the enemy group arrives before, It is possible to anticipate the appearance of an enemy group through the analysis of data gathered by the situation information providing apparatus 300 or the central control server 400, thereby enabling an effective allied tactical operation through the identification of the enemy tactics.

도 2는 본 발명의 일 실시예에 따른 상황 정보 제공 장치(300)의 구성도이다.2 is a configuration diagram of an apparatus 300 for providing situation information according to an embodiment of the present invention.

도 2를 참조하면, 일 실시예에 따른 상황 정보 제공 장치(300)는 사용자 인증부(310), 카메라부(320), 분석부(330), 디스플레이부(340), 감지 결과 처리부(350), 음향 정보 송수신부(360), 제어부(370) 및 통신부(380)를 포함할 수 있다.2, an apparatus 300 for providing status information according to an exemplary embodiment includes a user authentication unit 310, a camera unit 320, an analysis unit 330, a display unit 340, a detection result processing unit 350, An acoustic information transmitting and receiving unit 360, a control unit 370, and a communication unit 380.

일 실시예에 따른 사용자 인증부(310)는 상황 정보 제공 장치(300)의 사용자를 식별하고, 사용자의 권한 유무를 판단할 수 있다.The user authentication unit 310 according to an exemplary embodiment may identify the user of the context information providing apparatus 300 and determine whether the user is authorized.

사용자 인증부(310)는 ID 및 패스워드 인증, 또는 사용자의 지문 인식, 홍채 인식 등과 같은 생체 인증을 통해 상황 정보 제공 장치(300)의 사용 권한 여부를 확인할 수 있다. The user authentication unit 310 can confirm whether or not the usage right of the situation information providing device 300 is authorized through ID and password authentication or biometric authentication such as fingerprint recognition and iris recognition by the user.

사용자가 권한 인증 절차를 수행하면, 사용자 인증부(310)는 기 저장된 사용자 정보와의 대조를 통해, 권한 유무를 확인하고, 상황 정보 제공 장치(300)의 사용 권한이 있는 사용자에 해당하는 경우, 해당 사용자 정보를 불러오도록 할 수 있다.When the user performs the authority authentication procedure, the user authentication unit 310 verifies whether or not the user authority is verified through comparison with the stored user information, and when the user corresponds to the user who has the authority to use the situation information providing apparatus 300, The user information can be retrieved.

일 실시예에 따른 사용자 인증부(310)는 사용자 인증 절차를 통해, 상황 정보 제공 장치(300) 사용의 보안을 강화할 수 있을 뿐 아니라, 사용자 정보 확인을 통해, 해당 사용자의 특성 또는 역량 등을 파악함으로써, 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400)로 하여금 그에 부합하는 상황 정보 제공 또는 제어 명령 전송이 가능하도록 한다. 또한, 사용자는 사용자 인증을 통해, 기 저장된 사용자 정보, 해당 사용자에 대해 기 설정된 사용 모드, 또는 상황 정보 제공 장치(300) 사용 이력 등에 관한 데이터를 불러올 수도 있다.The user authentication unit 310 according to an embodiment not only enhances the security of using the situation information providing apparatus 300 through a user authentication procedure but also grasps the characteristics or capabilities of the user through user information confirmation Thereby enabling the situation information providing device 300 or the central control server 400 to transmit situation information or transmit control commands corresponding thereto. In addition, the user may retrieve data related to the stored user information, the predetermined usage mode for the user, or the usage history of the situation information providing apparatus 300 through the user authentication.

일 실시예에 따른 카메라부(320)는 카메라를 통해 외부의 피사체에 대한 정지 영상 또는 동영상 등과 같은 실제 영상 정보를 제공한다. The camera unit 320 according to an embodiment provides actual image information such as a still image or a moving image with respect to an external subject through a camera.

즉, 카메라부(320)는 상황 정보 제공 장치(300) 외부, 즉, 관심 영역의 실제 영상을 촬영하여, 상기 촬영된 관심 영역에 대한 실제 영상 데이터를 분석부(330) 또는 디스플레이부(340)에 제공할 수 있다.That is, the camera unit 320 captures an actual image of the area of interest outside the context information providing apparatus 300, and transmits the actual image data of the captured area of interest to the analysis unit 330 or the display unit 340, As shown in FIG.

본 발명의 일 실시예에 따른 분석부(330)는 촬영 정보 분석부(331) 및 센싱 정보 분석부(332)를 포함할 수 있다.The analysis unit 330 may include an imaging information analysis unit 331 and a sensing information analysis unit 332 according to an embodiment of the present invention.

촬영 정보 분석부(331)는 카메라부(320)로부터 수신된 상황 정보 제공 장치(300) 주변의 촬영 영상 데이터를 분석하여 관심 영역에 대한 주변 환경 분석을 수행할 수 있다.The photographing information analyzing unit 331 analyzes the photographed image data around the circumstance information providing apparatus 300 received from the camera unit 320 to analyze the surrounding environment for a region of interest.

구체적으로, 촬영 정보 분석부(331)는 촬영된 영상 데이터를 통해, 사용자가 위치한 지역에 대한 공간적 정보, 해당 위치에 존재하는 사물들에 관한 정보 또는 촬영 영상에서 포착된 표적 등의 움직임 정보 등을 분석할 수 있으며, 나아가, 이를 통해, 사용자가 현재 위치에서 주변 환경을 활용할 수 있는 요소들, 즉, 장소적 활용 정보를 분석하여 제공할 수도 있다.Specifically, the photographing information analyzing unit 331 obtains, based on the photographed image data, spatial information on the area where the user is located, information on objects existing at the location, or motion information such as a target captured in the photographed image In addition, through this, it is possible to analyze and provide the user with the elements that can utilize the surrounding environment at the current location, that is, the location utilization information.

예를 들어, 본 발명의 일 실시예에 따른 촬영 정보 분석부(331)는 카메라부(320)에서 촬영된 영상 데이터를 통해 관심 영역, 즉, 사용자의 위치에 대한 특성들을 분석함으로써, 사용자가 몸을 숨기기에 적합한 장소, 사용자의 최적 동선, 또는 해당 위치의 주변 사물 활용 방안 등을 제공할 수 있으며, 표적의 움직임이 촬영된 경우, 상기 표적의 사용자로부터 거리, 속도, 또는 예상 경로 등을 분석하여 제공할 수도 있다.For example, the photographing information analyzing unit 331 according to an embodiment of the present invention analyzes characteristics of a region of interest, i.e., a user, through image data photographed by the camera unit 320, The optimum route of the user, or the utilization method of surrounding objects at the location, etc. When the motion of the target is photographed, it is possible to analyze the distance, speed, or anticipated route from the user of the target .

또한, 촬영 정보 분석부(331)는 촬영 영상 데이터를 통해, 상황 정보 제공 장치(300)의 위치, 즉, 사용자의 위치 정보를 분석할 수도 있을 뿐 아니라, 별도의 GPS(Global Positioning System) 모듈을 탑재함으로써, 해당 위치를 측정할 수도 있다.The photographing information analyzing unit 331 can analyze the position of the situation information providing apparatus 300, that is, the location information of the user through the photographed image data, as well as a separate Global Positioning System (GPS) module By mounting it, the position can be measured.

일 실시예에 따른 센싱 정보 분석부(332)는 상황 정보 제공 장치(300) 주변 지역에 배치된 일 이상의 센서노드들로부터 센싱된 센싱 정보를 센서노드 또는 게이트웨이로부터 수신하여 분석한다.The sensing information analyzing unit 332 according to an embodiment receives and analyzes sensing information sensed from one or more sensor nodes disposed in the vicinity of the situation information providing apparatus 300 from a sensor node or a gateway.

상기 일 이상의 센서노드들은 상황 정보 제공 장치(300)의 카메라부(320)의 촬영 가능 영역, 즉, 가시 영역 내부 뿐 아니라, 외부에도 배치될 수 있다. 따라서, 상황 정보 제공 장치(300)에서 직접 인지하지 못한 정보를 상기 센서노드의 센싱 정보들을 통해 수집할 수 있다.The one or more sensor nodes may be disposed not only inside the photographable area of the camera unit 320 of the situation information providing device 300, that is, inside and outside the visible area. Therefore, information that is not directly recognized by the situation information providing device 300 can be collected through the sensing information of the sensor node.

센싱 정보 분석부(332)는 다수의 센서노드들로부터 동작 감지 정보, 표적 이동 방향, 또는 침입 신호 정보 등과 같은 센싱 정보와 함께, 각 센서노드의 센서노드 구분자 정보 또는 센서노드 배치 정보를 수신함으로써, 각각의 센서노드가 배치된 위치 및 방향을 토대로 실시간 표적의 위치, 사용자로부터의 거리, 표적의 이동 경로, 또는 표적의 움직임 속도 등을 분석 및 파악할 수 있다.The sensing information analyzer 332 receives sensor node identifier information or sensor node allocation information of each sensor node along with sensing information such as motion sensing information, target movement direction, or intrusion signal information from a plurality of sensor nodes, Based on the position and orientation of each sensor node, the position of the real-time target, the distance from the user, the movement path of the target, or the movement speed of the target can be analyzed and grasped.

센싱 정보 분석부(332)는 다수개의 센서노드들로부터 센싱 정보를 수집하기 때문에, 상술한 바와 같이, 표적의 움직임을 정확히 분석할 수 있을 뿐 아니라, 특정 센서노드의 오작동시에도 타 센서노드들의 센싱 결과를 바탕으로 상기 오작동 여부를 확인할 수 있다.Since the sensing information analyzing unit 332 collects sensing information from a plurality of sensor nodes, it is possible to accurately analyze the movement of the target as described above, Based on the result, it is possible to confirm whether the malfunction is occurred or not.

본 발명의 일 실시예에 따른 디스플레이부(340)는 증강현실 디스플레이부(341) 및 상황 정보 디스플레이부(342)를 포함할 수 있다.The display unit 340 may include an augmented reality display unit 341 and a situation information display unit 342. [

일 실시예에 따른 증강현실 디스플레이부(341)는 카메라부(320)에서 촬영된 실제 주변 영상과, 센서노드에서 감지된 표적의 움직임에 따라 예측되는 표적의 위치 정보를 도시하는 영상을 제공할 수 있다.The augmented reality display unit 341 according to an exemplary embodiment may provide an image showing an actual peripheral image photographed by the camera unit 320 and position information of a target predicted according to the movement of the target sensed by the sensor node have.

즉, 증강현실 디스플레이부(341)는 상황 정보 제공 장치(300) 주변의 실제 영상에, 가시 영역 내 미도래한 표적에 대한 가상의 표적 위치 영상을 중첩적으로 나타내어 사용자에게 제공할 수 있다. 따라서, 사용자는 가시 거리 외부에 존재하는 표적에 대해서도 정보를 획득할 수 있어, 신속하고 정확한 대응을 수행할 수 있다.That is, the augmented reality display unit 341 may superimpose the virtual target position image of the target that is not within the visible region in the actual image around the circumstance information providing apparatus 300, and provide the virtual target position image to the user. Therefore, the user can acquire information about a target existing outside the visible range, and can perform quick and accurate correspondence.

또한, 증강현실 디스플레이부(341)는 상기 실제 영상 및 가상 영상의 디스플레이 방식을 상이하게 함으로써, 표적이 상황 정보 제공 장치(300)의 카메라부(320)에서 인식 가능한 지점에 도달하였음을 알릴 수도 있다.In addition, the augmented reality display unit 341 may notify that the target has reached a point recognizable by the camera unit 320 of the situation information providing apparatus 300 by differentiating the display method of the actual image and the virtual image .

예를 들면, 센서노드들로부터 표적의 움직임이 포착되어 증강현실 디스플레이부(341)가 상기 표적의 움직임을 센싱한 센서노드 들의 위치에 따라, 표적의 움직임을 디스플레이 할 경우, 하얀색 포인트로 표적을 표시하고, 상기 표적이 상황 정보 제공 장치(300)의 촬영 가능 영역에 도달한 경우, 상기 하얀색 포인트를 빨간색 포인트가 되도록 변형하여 나타냄으로써, 사용자가 표적의 움직임이 가까워졌음을 인지하도록 할 수 있다.For example, when the target motion is captured from the sensor nodes and the augmented reality display unit 341 displays the target motion according to the position of the sensor nodes that sensed the motion of the target, a target is displayed with a white point And when the target reaches the photographable area of the situation information providing device 300, the white point is modified to be a red point so that the user can recognize that the movement of the target is near.

다른 실시예에 따른 증강현실 디스플레이부(341)는 표적의 움직임 이외에도, 센서노드에서 감지된 기타 센싱 정보들에 대한 가상의 영상을 생성하여, 실제 영상과 중첩한 증강현실 영상을 제공할 수도 있다.The augmented reality display unit 341 according to another embodiment may generate a virtual image of the guitar sensing information sensed by the sensor node in addition to the movement of the target to provide an augmented reality image superposed with the actual image.

본 발명의 실시예에 따른 증강현실 디스플레이부(341)는 실제 영상과 가상 영상이 중첩된 증강현실 영상뿐만 아니라, 사용자의 선택에 따라, 카메라부(320)에서 촬영된 실제 주변 영상, 또는 센서노드의 센싱 정보들을 바탕으로 분석된 가상의 표적 영상 각각을 별개로 제공할 수도 있다.The augmented reality display unit 341 according to the embodiment of the present invention may display not only an augmented reality image in which an actual image and a virtual image are superimposed but also an actual peripheral image photographed by the camera unit 320, It is possible to separately provide each of the virtual target images analyzed based on the sensing information of the target.

상황 정보 디스플레이부(342)는 카메라부(320)로부터 촬영된 실제 주변 영상을 통해 분석된 정보, 센싱 정보를 바탕으로 분석된 정보, 또는 중앙 관제 서버로부터의 명령 정보를 기반으로 하는 상황 정보 제공 장치(300) 주변 환경에 대한 일체의 정보를 제공할 수 있다.The situation information display unit 342 displays information analyzed based on actual surrounding images photographed from the camera unit 320, information analyzed based on sensing information, or a situation information providing apparatus based on command information from a central control server It is possible to provide all information about the environment of the mobile terminal 300.

구체적으로, 상술한 바와 같이, 촬영 정보 분석부(331)에서 상황 정보 제공 장치(300) 주변 장소에 대해 사용자가 몸을 숨기기에 적합한 장소, 사용자의 최적 동선, 또는 해당 위치의 주변 사물 활용 방안 등을 분석하게 되면, 상기 분석된 정보들을 상황 정보 디스플레이부(342)를 통해 사용자에게 제공할 수 있다.Specifically, as described above, the shooting information analyzing unit 331 determines whether or not the user is in a suitable place for hiding his or her body, the optimal moving line of the user, The analyzed information may be provided to the user through the status information display unit 342. [

또한, 상황 정보 디스플레이부(342)는 센싱 정보 분석부(332)를 통해 파악된 표적의 위치, 사용자로부터의 거리, 표적의 이동 경로, 표적의 움직임 속도, 또는 표적의 특징들을 나타낼 수 있으며, 각 위치별 표적 출현 가능성 등을 제공할 수도 있다. 뿐만 아니라, 상기 표적 정보에 따른 최적의 사용자 대처 방안 정보를 제공할 수도 있다.In addition, the situation information display unit 342 can display the position of the target captured by the sensing information analysis unit 332, the distance from the user, the movement path of the target, the movement speed of the target, And the likelihood of appearance of targets by location. In addition, it is also possible to provide optimal user countermeasure information according to the target information.

상황 정보 디스플레이부(342)는 중앙 관제 서버(400)로부터 제어 명령을 수신하거나, 타 지역에 대한 상황 정보를 수신한 경우, 이러한 정보를 제공할 수도 있다.The status information display unit 342 may receive the control command from the central control server 400 or may provide such information when the status information for the other area is received.

본 발명의 일 실시예에 따르면, 상황 정보 디스플레이부(342)가 다양한 상황 정보를 사용자에게 제공하는 방법으로는, 상기 증강현실 디스플레이부(341)에서 제공되는, 실제 주변 영상, 가시 거리 외부의 표적의 움직임을 나타내는 가상의 표적 영상, 또는 상기 실제 주변 영상과 가상의 표적 영상을 중첩적으로 나타내는 증강현실 영상 위에 점 또는 선을 통해 사용자의 최적 이동 경로 등이 표시될 수 있으며, 표적의 움직임 정보, 표적의 출현 확률 등에 대해서는 수치적으로 표현될 수도 있다.According to an embodiment of the present invention, the context information display unit 342 may provide a variety of context information to a user. The context information may include at least one of an actual peripheral image, Or an optimal movement path of the user through a point or a line on an augmented reality image superimposing the actual peripheral image and the virtual target image may be displayed and the motion information of the target, Probability of appearance of the target can be expressed numerically.

요약하면, 증강현실 디스플레이부(341)는 현재 사용자 위치를 촬영한 실제 주변 영상과, 일 이상의 센서노드의 센싱 정보로부터 예측되는 표적의 움직임을 나타내는 가상의 표적 영상을 중첩적으로 제공할 수 있으며, 상황 정보 디스플레이부(342)는 분석부(330)로부터 분석된 주변 상황에 관한 제반 정보 및 중앙 관제 서버로부터 수신된 정보 등을 제공할 수 있다.In summary, the augmented reality display unit 341 can superimpose an actual peripheral image of the current user position and a virtual target image representing the movement of the target predicted from the sensing information of one or more sensor nodes, The situation information display unit 342 can provide information about the surrounding situation analyzed from the analysis unit 330 and information received from the central control server.

일 실시예에 따른 감지 결과 처리부(350)는 상황 정보 제공 장치(300)에서 촬영 또는 분석된 정보들을 바탕으로 현재 주변 상황의 중요도 또는 심각도를 판단하고, 상기 판단된 중요도 또는 심각도에 따라 상황 정보 데이터를 자체적으로 저장하거나, 타 상황 정보 제공 장치 또는 중앙 관제 서버로 전송할 수 있다.The detection result processing unit 350 according to an embodiment determines the importance or severity of the current surrounding environment based on the information photographed or analyzed by the situation information providing apparatus 300, and, based on the determined importance or severity, To the other situation information providing device or the central control server.

또한, 감지 결과 처리부(350)는 각 상황에 대한 사용자의 대처 정보 등을 기록함으로써, 추후 유사한 상황 정보 감지시, 상기 사용자의 대응 정보 및 그에 따른 결과 정보를 활용하도록 할 수도 있다.In addition, the detection result processing unit 350 may record the countermeasure information of the user for each situation, so that the user can utilize the corresponding information of the user and the result information corresponding thereto when the similar situation information is later detected.

일 실시예에 따른 음향 정보 송수신부(360)는 사용자의 음성 인식을 통해 사용자의 명령을 수신할 수 있을 뿐만 아니라, 사용자에게 음성을 통해 상황 정보를 제공할 수도 있다.The acoustic information transceiver 360 according to an embodiment not only can receive a user's command through voice recognition of a user but also can provide context information to a user through voice.

또한, 사용자는 음향 정보 송수신부(360)를 통해 타 상황 정보 제공 장치(300)의 사용자 또는 중앙 관제 서버(400)와 음성 정보를 송수신할 수도 있다.In addition, the user may transmit and receive voice information to the user of the other situation information providing device 300 or the central control server 400 through the sound information transmitting and receiving unit 360.

일 실시예에 따른 음향 정보 송수신부(360)는 마이크 및 이어폰과 같은 음성 입력 또는 출력 모듈을 구비할 수 있다.The acoustic information transceiver 360 according to one embodiment may include a voice input or output module such as a microphone and an earphone.

일 실시예에 따른 제어부(370)는 사용자 인증부(310), 카메라부(320), 분석부(330), 디스플레이부(340), 감지 결과 처리부(350), 음향 정보 송수신부(360) 및 통신부(380) 간의 데이터의 흐름을 제어하는 기능을 수행할 수 있다. 즉, 본 발명에 따른 제어부(370)는 사용자 인증부(310), 카메라부(320), 분석부(330), 디스플레이부(340), 감지 결과 처리부(350), 음향 정보 송수신부(360) 및 통신부(380)에서 각각 고유한 기능을 수행하도록 제어할 수 있다.The control unit 370 includes a user authentication unit 310, a camera unit 320, an analysis unit 330, a display unit 340, a detection result processing unit 350, an acoustic information transceiver 360, And a function of controlling the flow of data between the communication units 380 can be performed. That is, the control unit 370 according to the present invention includes a user authentication unit 310, a camera unit 320, an analysis unit 330, a display unit 340, a detection result processing unit 350, an acoustic information transceiver unit 360, And the communication unit 380, respectively.

일 실시예에 따른 통신부(380)는 상황 정보 제공 장치(300)와 외부 장치 간 통신이 가능하도록 한다. 구체적으로 상황 정보 제공 장치(300)가 센서노드(100), 게이트웨이(200) 및 중앙 관제 서버(400)와의 통신을 가능하게 한다.The communication unit 380 according to one embodiment enables communication between the situation information providing apparatus 300 and an external apparatus. Specifically, the situation information providing apparatus 300 enables communication with the sensor node 100, the gateway 200, and the central control server 400.

도 3은 본 발명의 일 실시예에 따른 전장 상황 인식 기반 상황 정보 제공 방법을 시간의 흐름에 따라 도시한 흐름도이다.FIG. 3 is a flowchart illustrating a method for providing context information based on a battlefield situation recognition according to an exemplary embodiment of the present invention. Referring to FIG.

상황 정보 제공 장치(300)를 사용하고자 하는 사용자가 사용자 ID 및 패스워드 입력 또는 생체 인증의 방법을 통해 사용자 인증을 수행하면, 상황 정보 제공 장치(300)는 기 저장된 사용자 정보와의 대조를 통해 사용자 권한 유무를 확인한다(S310).When the user who intends to use the situation information providing apparatus 300 performs user authentication through a user ID and a password input method or a biometric authentication method, the situation information providing apparatus 300 compares user information (S310).

한편, 센서노드(100)는 주위의 소리, 동작, 압력 등을 감지함으로써, 침입 신호 또는 표적의 움직임 정보 등과 같은 센싱 정보를 수집한다(S320).Meanwhile, the sensor node 100 collects sensing information such as an intrusion signal or motion information of a target by sensing surrounding sounds, operations, pressures, etc. (S320).

일 실시예에 따르면, 센서노드(100)는 상기 센싱 정보와, 센서노드(100)의 구분자 또는 센서노드(100) 배치 정보 등의 센서노드 식별 정보가 포함된 센서노드 데이터를 게이트웨이(200)를 통해 상황 정보 제공 장치(300)로 전송한다(S330). According to one embodiment, the sensor node 100 transmits sensor node data including the sensing information, sensor node identification information such as a separator of the sensor node 100 or sensor node identification information, to the gateway 200 To the situation information providing apparatus 300 (S330).

본 발명의 다른 실시예에 따른 센서노드(100)는 게이트웨이(200)를 거치지 않고, 직접 상황 정보 제공 장치(300)로 센서노드 데이터를 전송할 수도 있다.The sensor node 100 according to another embodiment of the present invention may transmit the sensor node data directly to the situation information providing apparatus 300 without going through the gateway 200. [

상황 정보 제공 장치(300)는 장치 주변의 영상을 촬영한 실제 영상 데이터를 수집한다(S340).The situation information providing apparatus 300 collects actual image data of a video image of the vicinity of the apparatus (S340).

이후, 상황 정보 제공 장치(300)는 상기 단계 S330에서 수신된 센서노드 데이터의 센싱 정보 및 상기 단계 S340에서 수집된 영상 데이터의 촬영 정보를 분석하여 상황 정보 데이터를 생성한다(S350).In operation S350, the situation information providing device 300 analyzes the sensing information of the sensor node data received in operation S330 and the image sensing information of the image data collected in operation S340, and generates the context information data.

상황 정보 제공 장치(300)는 센싱 정보 분석을 통해, 관심 영역 근방에서 감지된 침입 신호 유무, 표적의 움직임, 표적의 수, 표적의 이동 경로, 또는 표적의 이동 속도 등을 예측할 수 있으며, 촬영 정보 분석을 통해서는, 사용자가 위치한 지역에 대한 위치적 정보, 공간적 정보, 해당 위치에 존재하는 사물들에 관한 정보, 해당 위치의 장소적 활용 정보 또는 촬영 영상에서 포착된 표적 등의 움직임 정보 등을 분석할 수 있다. Through the sensing information analysis, the situation information providing device 300 can predict the presence or absence of the intrusion signal detected in the vicinity of the area of interest, the movement of the target, the number of the targets, the movement path of the target or the moving speed of the target, Through the analysis, it analyzes the location information of the user, the spatial information, the information about the objects in the corresponding location, the location utilization information of the corresponding location, or the motion information of the target captured in the captured image can do.

상황 정보 제공 장치(300)는 S340에서 수집된 실제 영상 데이터와 센서노드들을 통해 수집된 센싱 정보들 중, 표적의 움직임 정보를 나타낸 가상의 표적 영상 데이터를 중첩하여 증강현실 영상 데이터를 생성하고, 상기 증강현실 영상을 사용자에게 제공한다(S360).The situation information providing device 300 generates the augmented reality image data by superimposing the virtual target image data representing the motion information of the target among the actual image data collected at S340 and the sensing information collected through the sensor nodes, And provides the user with the augmented reality image (S360).

본 발명의 일 실시예에 따르면, 중앙 관제 서버(400)는 각 상황 정보 제공 장치(300)로 제어 명령을 전송할 수 있다(S370). 중앙 관제 서버(400)는 일 이상의 센서노드(100), 일 이상의 게이트웨이(200), 및 일 이상의 상황 정보 제공 장치(300)와의 통신을 통해, 일 이상의 관심 영역에 대한 센싱 정보 또는 촬영 정보 등을 수신할 수 있으며, 상황 정보 제공 장치(300)의 관심 영역 외부의 타 지역에 대한 상황 정보를 상기 상황 정보 제공 장치(300)로 전송할 수도 있다. 뿐만 아니라, 타 지역의 상황 정보에 따른 사용자 제어 명령을 상기 상황 정보 제공 장치(300)로 전송할 수 있다.According to an embodiment of the present invention, the central control server 400 may transmit a control command to each situation information providing apparatus 300 (S370). The central control server 400 transmits sensing information or photographing information or the like for one or more areas of interest through communication with one or more sensor nodes 100, one or more gateways 200 and one or more status information providing apparatuses 300 And may transmit the situation information about the other area outside the area of interest of the situation information providing device 300 to the situation information providing device 300. [ In addition, it is possible to transmit a user control command according to situation information of the other area to the situation information providing device 300.

상황 정보 제공 장치(300)는 단계 S350를 통해 생성된 관심 영역에 대한 다양한 상황 정보, 중앙 관제 서버(400)로부터 수신된 타 관심 영역의 상황 정보 또는 제어 명령 정보를 사용자에게 제공할 수 있다(S380).The situation information providing apparatus 300 can provide various status information on the ROI generated in step S350, context information of another ROI received from the central control server 400, or control command information to the user (S380 ).

이후, 상황 정보 제공 장치(300)는 상황 정보 데이터의 중요도 또는 심각도를 판단하여, 일정 기준 이상의 중요도 또는 심각도를 갖는 상황 정보 데이터의 경우, 해당 상황에 대한 사용자의 실제 대응 결과 정보와 상기 상황 정보 데이터를 취합한 감지 결과를 상황 정보 제공 장치(300) 자체적으로 저장할 수 있으며(S390), 상기 감지 결과를 중앙 관제 서버(400)에 전송할 수도 있다(S400).Then, the situation information providing device 300 determines the importance or severity of the situation information data and, in the case of the situation information data having the importance or severity higher than a certain standard, (S390), and transmits the detection result to the central control server (400) (S400).

이에 따라, 사용자는 추후 유사한 특성의 상황 정보가 감지되면, 기 저장된 감지 결과 데이터, 즉, 종전의 상황 정보 데이터와 그에 대한 기존의 사용자 대응 결과 정보를 바탕으로 보다 효율적인 대응을 수행할 수 있다.Accordingly, if the user subsequently detects similar situation information, the user can perform a more efficient response based on the previously stored detection result data, i.e., the previous situation information data and the existing user response result information.

도 4는 본 발명의 일 실시예에 따른 상황 정보 제공 장치(300)의 증강현실 영상 및 가상의 표적 영상 디스플레이 화면을 도시한 도면이다.4 is a diagram illustrating an augmented reality image and a virtual target image display screen of the situation information providing apparatus 300 according to an embodiment of the present invention.

도 4의 (a)는 사용자가 휴대하고 있는 상황 정보 제공 장치(300)의 카메라 모듈을 통해 획득된 실제 사용자 주변의 영상과, 센서노드들에서 센싱된 센싱 정보 또는 중앙 관제 서버로부터 수신된 정보를 바탕으로 예측된 표적의 위치 또는 움직임을 나타내는 가상의 표적 영상을 중첩한 증강현실 영상이 디스플레이된 상황 정보 제공 장치(300) 화면을 도시하고 있다.4A shows an image of an actual user's surroundings obtained through a camera module of the situation information providing device 300 carried by the user, sensing information sensed by the sensor nodes, or information received from the central control server A scene of the situation information providing apparatus 300 on which an augmented reality image in which a virtual target image superimposed on the predicted target position or movement is displayed is displayed.

도 4의 (a)를 참고하면, 하얀색 원형의 포인트를 통해 표적을 나타내고 있는데, 상기 표적은 상황 정보 제공 장치(300)의 카메라 모듈을 통해서 감지할 수 없는 위치의 표적에 해당한다. 상기 표적들 중 어느 하나의 표적이 상기 상황 정보 제공 장치(300)의 카메라 모듈에서 감지될 수 있는 곳에 위치하게 되는 경우, 해당 표적이 촬영 가능 영역, 즉, 가시 거리내에 존재함을 사용자가 인지할 수 있도록, 해당 표적을 나타내던 하얀색 원형의 포인트가 다른 색상 또는 다른 형태로 변경될 수 있다.Referring to FIG. 4A, the target is represented by a white circular point, which corresponds to a target of a position that can not be detected through the camera module of the situation information providing apparatus 300. When any one of the targets is located at a place where the camera module of the situation information providing device 300 can detect the target, the user recognizes that the target exists in the photographable area, i.e., the visible distance , The white circle point representing the target may be changed to another color or other form.

도 4의 (b)는 실제 주변 영상 데이터를 제외한 가상의 표적 영상만을 나타내는 상황 정보 제공 장치(300)의 화면을 도시하고 있다.4B shows a screen of the situation information providing apparatus 300 showing only a virtual target image except the actual surrounding image data.

일 실시예에 따른 가상의 표적 영상은 도 4의 (b)와 같이 레이더 화면 형태로 제공될 수 있으며, 방위 및 거리에 따라 일정 영역으로 구분함으로써, 사용자에게 표적의 예상 위치를 보다 정확하게 제공할 수 있다.The virtual target image according to one embodiment can be provided in the form of a radar screen as shown in FIG. 4 (b). By dividing the virtual target image into a certain region according to the orientation and the distance, have.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included within the scope of the present invention.

100 : 센서노드
200 : 게이트웨이
300 : 상황 정보 제공 장치
310 : 사용자 인증부
320 : 카메라부
330 : 분석부
331 : 촬영 정보 분석부
332 : 센싱 정보 분석부
340 : 디스플레이부
341 : 증강현실 디스플레이부
342 : 상황 정보 디스플레이부
350 : 감지 결과 처리부
360 : 음향 정보 송수신부
370 : 제어부
380 : 통신부
400 : 중앙 관제 서버
100: sensor node
200: Gateway
300: situation information providing device
310:
320:
330: Analytical Department
331: photographing information analyzing unit
332: Sensing information analysis section
340:
341: Augmented reality display section
342: Situation information display section
350: detection result processing unit
360: Acoustic information transmission /
370:
380:
400: central control server

Claims (13)

사용자의 관심 영역에 대한 주변 상황 정보를 제공하는, 상황 정보 제공 장치에 있어서,
상기 관심 영역의 실제 영상을 촬영하는, 카메라부;
상기 카메라부로부터 영상 데이터를 수신하여, 상기 관심 영역의 실제 영상을 기반으로 주변 환경 정보 분석을 수행하는, 촬영 정보 분석부;
상기 관심 영역 내부 또는 주변부에 배치된 일 이상의 센서노드로부터 수신된 센싱 정보들을 기반으로 표적의 침입 정보, 표적의 움직임 정보, 표적의 이동 경로, 표적의 이동 속도, 표적의 특징 정보, 표적의 예상 출현 위치 정보 또는 각 위치별 표적의 출현 가능성 정보 중 일 이상의 정보를 포함한 표적 정보를 분석하는, 센싱 정보 분석부; 및
상기 카메라부로부터 수신된 실제 영상 및 상기 센싱 정보 분석부로부터 수신된 표적 정보에 따라 예측되는 가상의 표적 영상이 중첩된 증강현실 영상을 디스플레이 하는, 증강현실 디스플레이부를 포함하고,
상기 촬영 정보 분석부는,
상기 실제 영상을 기반으로, 상기 관심 영역의 공간적 정보, 상기 관심 영역에 존재하는 사물들에 관한 정보, 상기 상황 정보 제공 장치의 위치 정보, 상기 관심 영역의 장소적 활용 정보, 또는 상기 실제 영상에서 촬영된 표적이 존재하는 경우에는 상기 촬영된 표적의 움직임 정보 중 일 이상의 정보를 포함한 주변 환경 정보를 분석하는 것을 특징으로 하는, 상황 정보 제공 장치.
A situation information providing apparatus for providing surrounding situation information on a user's interest area,
A camera unit for photographing a real image of the area of interest;
An image capturing information analyzing unit receiving image data from the camera unit and analyzing surrounding information based on an actual image of the area of interest;
Based on sensing information received from one or more sensor nodes disposed in or around the ROI, target intrusion information, target motion information, target movement path, target movement speed, target feature information, A sensing information analyzer for analyzing target information including at least one of position information or appearance possibility information of a target for each position; And
An augmented reality display unit for displaying an augmented reality image in which a virtual target image predicted according to an actual image received from the camera unit and target information received from the sensing information analysis unit is superimposed,
The photographing information analyzing unit,
The method according to any one of claims 1 to 3, further comprising the steps of: generating, based on the actual image, spatial information of the ROI, information on objects existing in the ROI, location information of the ROI, And analyzes surrounding information including at least one piece of motion information of the photographed target when the target is present.
삭제delete 제1항에 있어서,
상기 촬영 정보 분석부에서 분석된 주변 환경 정보, 상기 센싱 정보 분석부에서 분석된 표적 정보, 중앙 관제 서버로부터 수신된 타 관심 영역의 상황 정보 또는 제어 명령 정보 중 일 이상의 정보를 포함하는 상황 정보를 디스플레이 하는, 상황 정보 디스플레이부를 포함하는, 상황 정보 제공 장치.
The method according to claim 1,
The status information including at least one of the surrounding information analyzed by the shooting information analyzing unit, the target information analyzed by the sensing information analyzing unit, the status information of the other area of interest received from the central control server or the control command information, And a status information display unit for displaying the status information.
제3항에 있어서,
상기 상황 정보 디스플레이부는,
상기 증강현실 영상 위에 도형 또는 그림을 표시하는 방법, 수치적으로 표시하는 방법 또는 상기 상황 정보에 대한 설명을 문자로 나타내는 방법 중 일 이상의 방법을 통해 상기 관심 영역에 대한 상황 정보를 디스플레이 하는 것을 특징으로 하는, 상황 정보 제공 장치.
The method of claim 3,
The situation information display unit displays,
And displaying context information about the ROI through one or more of a method of displaying a figure or figure on the ARP image, a method of numerically displaying the character information, The status information providing device.
제1항에 있어서,
상기 사용자의 ID 및 패스워드 인증, 지문 인증, 또는 홍채 인증 방법 중 일 이상의 방법을 통해, 상기 사용자의 상기 상황 정보 제공 장치에 대한 사용 권한 여부를 확인하는, 사용자 인증부를 포함하는, 상황 정보 제공 장치.
The method according to claim 1,
And a user authentication unit for verifying whether the user is authorized to use the situation information providing apparatus through one or more of ID, password authentication, fingerprint authentication, or iris authentication method of the user.
제1항에 있어서,
상기 촬영 정보 분석부 또는 상기 센싱 정보 분석부에서 분석된 상기 상황 정보를 토대로, 상기 관심 영역의 주변 상황의 중요도 또는 심각도를 판단하여, 상기 상황 정보 데이터의 자체적인 저장 또는 중앙 관제 서버로의 전송 여부를 결정하는, 감지 결과 처리부를 포함하는, 상황 정보 제공 장치.
The method according to claim 1,
The importance information or the severity of the circumstance of the ROI is determined based on the situation information analyzed by the shooting information analyzing unit or the sensing information analyzing unit and whether or not the status information data is stored in its own storage or transmitted to the central control server And a detection result processing unit for determining the detection result processing unit.
제1항에 있어서,
상기 사용자의 음성 인식을 통한 사용자 명령 수신, 또는 음성으로 상기 상황 정보의 제공을 수행하는, 음향 정보 송수신부를 포함하는, 상황 정보 제공 장치.
The method according to claim 1,
And an acoustic information transceiver for performing reception of a user command through speech recognition of the user or providing of the context information by voice.
사용자의 관심 영역에 대한 주변 상황 정보를 제공하기 위한, 상황 정보 제공 시스템에 있어서,
동작 감지 센싱을 통해 침입 감지 또는 표적의 움직임 감지를 수행하여 센싱 정보를 생성하는, 일 이상의 센서노드;
상기 일 이상의 센서노드와 무선 센서 네트워크를 통해 일 이상의 센싱 정보를 수집하여, 무선 센서 네트워크 외부의 상황 정보 제공 장치 또는 중앙 관제 서버로 전송하는, 게이트웨이;
상기 관심 영역 주변의 실제 영상을 촬영하고, 상기 실제 영상 및 상기 센서노드의 센싱 정보를 분석함으로써, 상기 관심 영역에 대한 상황 정보를 제공하는, 상황 정보 제공 장치; 및
일 이상의 상황 정보 제공 장치로부터 일 이상의 관심 영역에 대한 상황 정보 데이터를 수집함으로써, 광범위한 영역에 대한 주변 상황 분석을 수행하고, 상기 상황 정보 제공 장치에 타 관심 영역에 대한 상황 정보를 제공하거나, 상기 센서노드 또는 상기 상황 정보 제공 장치에 제어 명령을 전송하는, 중앙 관제 서버를 포함하고,
상기 일 이상의 센서노드는,
상기 관심 영역 내부 또는 상기 관심 영역 주변부에 배치되는 것을 특징으로 하는, 상황 정보 제공 시스템.
A situation information providing system for providing surrounding situation information on a user's interest area,
One or more sensor nodes for generating intrusion detection or motion detection of a target through motion detection sensing to generate sensing information;
A gateway for collecting one or more pieces of sensing information through the one or more sensor nodes and the wireless sensor network and transmitting the collected sensing information to a situation information providing device or a central control server outside the wireless sensor network;
A situation information providing device for capturing an actual image around the ROI, and providing context information about the ROI by analyzing the actual image and sensing information of the sensor node; And
The information processing apparatus according to any one of claims 1 to 3, further comprising: a status information collecting unit for collecting status information data for one or more interested areas from one or more status information providing apparatuses, And a central control server for transmitting a control command to the node or the situation information providing device,
The at least one sensor node comprises:
Wherein the location information is located within the area of interest or around the area of interest.
삭제delete 제8항에 있어서,
상기 게이트웨이는,
상기 센서노드 각각에 대한 구분자 정보 또는 상기 각 센서노드의 배치 정보를 수집하여 상기 상황 정보 제공 장치 또는 상기 중앙 관제 서버로 전송하는 것을 특징으로 하고,
상기 상황 정보 제공 장치는,
상기 게이트웨이로부터 수신된 상기 각 센서노드의 구분자 정보 또는 상기 배치 정보를 토대로 상기 센싱 정보를 분석함으로써, 상기 표적의 정확한 위치 정보 또는 이동 경로 정보를 파악할 수 있도록 하는 것을 특징으로 하는, 상황 정보 제공 시스템.
9. The method of claim 8,
The gateway comprises:
Wherein the sensor node collects delimiter information for each of the sensor nodes or arrangement information of the sensor nodes and transmits the collected information to the status information providing device or the central control server,
The situation information providing apparatus includes:
Wherein the sensing information analyzing unit analyzes the sensing information based on the delimiter information or the layout information of each sensor node received from the gateway so as to grasp accurate positional information or movement route information of the target.
상황 정보 제공 장치가 사용자의 관심 영역에 대한 주변 상황 정보를 제공하는 방법으로서,
(a) 상기 관심 영역 내부 또는 상기 관심 영역 주변부에 배치된 일 이상의 센서노드로부터 센싱된 일 이상의 센싱 정보를 수집하는 단계;
(b) 상기 관심 영역을 촬영함으로써, 상기 관심 영역의 촬영 정보를 포함하는 실제 영상 데이터를 수집하는 단계;
(c) 상기 촬영 정보 또는 상기 센싱 정보를 분석하여 상기 관심 영역에 대한 상황 정보를 분석하는 단계;
(d) 상기 촬영 정보, 및 상기 센싱 정보 분석으로부터 예측되는 가상의 표적 영상 데이터를 중첩하여 증강현실 영상 데이터를 생성 및 제공하는 단계; 및
(e) 상기 촬영 정보 분석을 통해 획득되는 상기 관심 영역의 공간적 정보, 상기 관심 영역에 존재하는 사물들에 관한 정보, 상기 상황 정보 제공 장치의 위치 정보, 상기 관심 영역의 장소적 활용 정보, 또는 상기 센싱 정보 분석을 통해 획득되는 표적의 침입 정보, 표적의 움직임 정보, 표적의 이동 경로, 표적의 이동 속도, 표적의 특징 정보, 표적의 예상 출현 위치 정보 또는 각 위치별 표적의 출현 가능성 정보 중 일 이상을 포함하는 상기 관심 영역에 대한 상황 정보를 제공하는 단계를 포함하고,
상기 (a) 단계 이전에,
상기 사용자의 ID 및 패스워드 인증, 지문 인증, 또는 홍채 인증 방법 중 일 이상의 방법을 통해, 상기 사용자의 상기 상황 정보 제공 장치에 대한 사용 권한 유무를 확인하는 단계를 포함하는, 상황 정보 제공 방법.
A method for providing context information on a region of interest of a user, the method comprising:
(a) collecting at least one sensing information sensed from one or more sensor nodes disposed within the ROI or the ROI;
(b) capturing actual image data including photographing information of the ROI by photographing the ROI;
(c) analyzing the shooting information or the sensing information and analyzing the situation information on the ROI;
(d) generating and providing augmented reality image data by superimposing the imaging information and virtual target image data predicted from the sensing information analysis; And
(e) information on the object in the ROI, information on the location of the ROI in the ROI, information on the location of the ROI in the ROI, The target motion information, the movement path of the target, the movement speed of the target, the characteristic information of the target, the expected position of the target, or the possibility of appearance of the target by each position, And providing context information for the region of interest,
Before the step (a)
And checking whether the user has the right to use the situation information providing apparatus through one or more of ID, password authentication, fingerprint authentication, or iris authentication method of the user.
삭제delete 제11항에 있어서,
상기 (e) 단계 이전에,
중앙 관제 서버로부터 타 관심 영역의 상황 정보 또는 제어 명령 정보 중 일 이상의 정보를 수신하는 단계를 포함하고,
상기 (e) 단계에서 제공되는 상기 상황 정보는,
상기 중앙 관제 서버로부터 수신된 상기 타 관심 영역의 상황 정보 또는 상기 제어 명령 정보를 포함하는 것을 특징으로 하는, 상황 정보 제공 방법.
12. The method of claim 11,
Prior to step (e)
And receiving from the central control server one or more pieces of information of status information or control command information of another area of interest,
The status information provided in the step (e)
And the status information of the other area of interest or the control command information received from the central control server.
KR1020160167770A 2016-12-09 2016-12-09 Apparatus for providing circumstance information based on battlefield situation awareness and method thereof KR101757884B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160167770A KR101757884B1 (en) 2016-12-09 2016-12-09 Apparatus for providing circumstance information based on battlefield situation awareness and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160167770A KR101757884B1 (en) 2016-12-09 2016-12-09 Apparatus for providing circumstance information based on battlefield situation awareness and method thereof

Publications (1)

Publication Number Publication Date
KR101757884B1 true KR101757884B1 (en) 2017-07-13

Family

ID=59352445

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160167770A KR101757884B1 (en) 2016-12-09 2016-12-09 Apparatus for providing circumstance information based on battlefield situation awareness and method thereof

Country Status (1)

Country Link
KR (1) KR101757884B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2568361A (en) * 2017-09-11 2019-05-15 Bae Systems Plc Apparatus and method for defining and interacting with regions of an operational area
KR20200081026A (en) 2018-12-27 2020-07-07 주식회사 케이티 Server, device and method for providing augmented reality service
KR102332491B1 (en) * 2020-11-18 2021-12-01 한화시스템 주식회사 Apparatus for providing information and method for providing information
US11200735B2 (en) 2017-09-11 2021-12-14 Bae Systems Plc Apparatus and method for defining and interacting with regions of an operational area
US11783547B2 (en) 2017-09-11 2023-10-10 Bae Systems Plc Apparatus and method for displaying an operational area

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101076240B1 (en) * 2011-03-04 2011-10-26 삼성탈레스 주식회사 Device and method for an air defense situation awareness using augmented reality

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101076240B1 (en) * 2011-03-04 2011-10-26 삼성탈레스 주식회사 Device and method for an air defense situation awareness using augmented reality

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2568361A (en) * 2017-09-11 2019-05-15 Bae Systems Plc Apparatus and method for defining and interacting with regions of an operational area
GB2568361B (en) * 2017-09-11 2021-08-04 Bae Systems Plc Apparatus and method for defining and interacting with regions of an operational area
US11200735B2 (en) 2017-09-11 2021-12-14 Bae Systems Plc Apparatus and method for defining and interacting with regions of an operational area
US11783547B2 (en) 2017-09-11 2023-10-10 Bae Systems Plc Apparatus and method for displaying an operational area
KR20200081026A (en) 2018-12-27 2020-07-07 주식회사 케이티 Server, device and method for providing augmented reality service
KR102332491B1 (en) * 2020-11-18 2021-12-01 한화시스템 주식회사 Apparatus for providing information and method for providing information

Similar Documents

Publication Publication Date Title
KR101757884B1 (en) Apparatus for providing circumstance information based on battlefield situation awareness and method thereof
JP5150067B2 (en) Monitoring system, monitoring apparatus and monitoring method
KR101758576B1 (en) Method and apparatus for detecting object with radar and camera
WO2016110903A1 (en) Person tracking system and person tracking method
KR101248054B1 (en) Object tracking system for tracing path of object and method thereof
KR100989081B1 (en) System and method for event surveillancing by using network camera
KR101948569B1 (en) Flying object identification system using lidar sensors and pan/tilt zoom cameras and method for controlling the same
US20170206664A1 (en) Method for identifying, tracking persons and objects of interest
KR101858396B1 (en) Intelligent intrusion detection system
JP6588413B2 (en) Monitoring device and monitoring method
JP6244120B2 (en) Video display system and video display program
US10341616B2 (en) Surveillance system and method of controlling the same
RU2268497C2 (en) System and method for automated video surveillance and recognition of objects and situations
US11450098B2 (en) Firearm detection system and method
US10896513B2 (en) Method and apparatus for surveillance using location-tracking imaging devices
US11093757B2 (en) Firearm detection system and method
WO2020204735A1 (en) Method for sharing information for identifying a person or object
KR101324221B1 (en) System for tracking object using capturing and method thereof
KR20220048200A (en) Fence monitoring system
GB2586099A (en) An apparatus and method for person detection, tracking and identification utilizing wireless signals and images
KR20170100892A (en) Position Tracking Apparatus
WO2020065852A1 (en) Authentication system, authentication method, and storage medium
US11514600B2 (en) Information processing device and information processing method
JP2024012472A (en) Monitor target identification apparatus, monitor target identification system, and monitor target identification method
CN111294552A (en) Image acquisition equipment determining method and device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant