KR101757884B1 - Apparatus for providing circumstance information based on battlefield situation awareness and method thereof - Google Patents
Apparatus for providing circumstance information based on battlefield situation awareness and method thereof Download PDFInfo
- Publication number
- KR101757884B1 KR101757884B1 KR1020160167770A KR20160167770A KR101757884B1 KR 101757884 B1 KR101757884 B1 KR 101757884B1 KR 1020160167770 A KR1020160167770 A KR 1020160167770A KR 20160167770 A KR20160167770 A KR 20160167770A KR 101757884 B1 KR101757884 B1 KR 101757884B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- target
- roi
- situation
- user
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G06K9/00671—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/69—Involving elements of the real world in the game world, e.g. measurement in live races, real video
Abstract
본 발명의 일 실시예에 따르면, 사용자의 관심 영역에 대한 주변 상황 정보를 제공하는, 상황 정보 제공 장치에 있어서, 상기 관심 영역의 실제 영상을 촬영하는, 카메라부; 상기 카메라부로부터 영상 데이터를 수신하여, 상기 관심 영역의 실제 영상을 기반으로 주변 환경 정보 분석을 수행하는, 촬영 정보 분석부; 상기 관심 영역 내부 또는 주변부에 배치된 일 이상의 센서노드로부터 수신된 센싱 정보들을 기반으로 표적의 침입 정보, 표적의 움직임 정보, 표적의 이동 경로, 표적의 이동 속도, 표적의 특징 정보, 표적의 예상 출현 위치 정보 또는 각 위치별 표적의 출현 가능성 정보 중 일 이상의 정보를 포함한 표적 정보를 분석하는, 센싱 정보 분석부; 및 상기 카메라부로부터 수신된 실제 영상 및 상기 센싱 정보 분석부로부터 수신된 표적 정보에 따라 예측되는 가상의 표적 영상이 중첩된 증강현실 영상을 디스플레이 하는, 증강현실 디스플레이부를 포함하는, 상황 정보 제공 장치가 제공된다.According to an embodiment of the present invention, there is provided a situation information providing apparatus for providing surrounding information on a region of interest of a user, the apparatus comprising: a camera unit for photographing an actual image of the region of interest; An image capturing information analyzing unit receiving image data from the camera unit and analyzing surrounding information based on an actual image of the area of interest; Based on sensing information received from one or more sensor nodes disposed in or around the ROI, target intrusion information, target motion information, target movement path, target movement speed, target feature information, A sensing information analyzer for analyzing target information including at least one of position information or appearance possibility information of a target for each position; And an augmented reality display unit that displays an augmented reality image in which a virtual target image that is predicted according to an actual image received from the camera unit and target information received from the sensing information analysis unit is superimposed, / RTI >
Description
본 발명은 전장 상황 인식 기반 상황 정보 제공 장치 및 그 방법에 관한 것으로, 보다 상세하게는, 상황 정보 제공 장치 주변을 촬영한 실제 영상, 및 센서로부터 센싱된 정보를 기반으로 예측되는 정보를 통해 생성된 가상의 영상을 함께 제공하고, 수집된 촬영 정보 및 센싱 정보를 바탕으로 주변 상황에 대한 다양한 정보를 분석함으로써, 사용자에게 정확하고 활용도 높은 상황 정보를 신속하게 제공할 수 있도록 하는 방법 및 서버에 관한 것이다.The present invention relates to an apparatus and method for providing situation information based on a long-range situation, and more particularly, to an apparatus and method for providing situation information based on a long- To a method and server for providing accurate and highly utilized situation information to a user by analyzing various information about the surrounding situation based on the collected shooting information and sensing information .
종래에는 전장 상황 등과 같은 국방상 목적을 위한 감시 정찰을 위한 정보로서, 센서로부터 수집되는 1차원적인 정보를 이용하였다. Conventionally, one - dimensional information collected from sensors was used as information for surveillance and scouting for the purpose of national defense such as battlefield situation.
그러나, 이러한 1차원적 정보만으로는 정보 수집의 효율성, 신속성 및 정확성을 요하는 국방상 장비의 활용에 부족함이 존재하였다.However, this one - dimensional information alone is insufficient to utilize the military equipment which requires efficiency, speed and accuracy of information collection.
이에 따라, 최근, 모바일 단말 운용을 통한 2차원적 지도의 활용과 적군의 위치 표시 등을 활용하는 기술이 개발되었으나, 이러한 기술은 PDA 및 PRE 등과 같은 운용 단말에만 이용될 수 있어 활용 범위가 극히 제한적이라는 문제점이 있다.Recently, the technology that utilizes the two-dimensional map through mobile terminal operation and the location indication of the enemy army has been developed. However, since the technology can be used only on the operating terminal such as PDA and PRE, the application range is extremely limited .
뿐만 아니라, 기존의 감시 정찰 상황도의 도식은 지휘 통제실에 있는 주둔지에 대한 상황도 도식과 적군의 위치 표시 기술로 제한될 수 밖에 없다는 한계 또한 존재한다.In addition, there is also a limitation that the scheme of the existing surveillance scouting situation can only be limited by the schematics and the enemy's location marking technology for the garrison in the command and control room.
한국공개특허 제10-2009-0040626호(선행문헌 1)의 경우, 감시 정찰 기술의 정확도를 향상시키기 위한 표적 개수 파악 방법을 제시하고 있으나, 이 경우에도 센서를 통한 1차원적 정보를 활용할 뿐, 시간 또는 장소의 변화에 부합하는 상황 정보를 실시간으로 분석하여 제공할 수 없어, 그 활용도에 제한이 크다는 문제점이 여전히 존재한다.Korean Patent Laid-Open No. 10-2009-0040626 (Prior Art 1) discloses a target counting method for improving the accuracy of the surveillance and reconnaissance technique. In this case, however, only one- It is impossible to analyze and provide the situation information corresponding to the change of time or place in real time, and there is still a problem that the utilization is limited to a large extent.
또한, 기존에는 중앙 관제 센터의 통제 하에서 단말기를 통한 감시 정찰 기술을 구현하였는 바, 중앙 관제 센터로부터 독립적으로 단말기 상에서 그 기술을 활용하기 어려워 신속한 정보 제공이 불가능할 뿐만 아니라, 장소적 또는 시간적 요건에 구애 받지 않고, 해당 기술을 활용할 수도 없었다.In addition, since the monitoring and reconnaissance technology has been implemented through the terminal under the control of the central control center, it is difficult to utilize the technology independently on the terminal from the central control center and it is not possible to provide information promptly, I was not able to use the technology without receiving it.
본 발명은 전술한 종래기술의 문제점을 해결하기 위한 것으로, 사용자가 실제 위치한 관심 영역에 대하여 다양한 상황 정보를 분석 및 제공함으로써, 정확하고 효율적인 감시 정찰 정보를 제공할 수 있도록 하기 위한 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems of the prior art, and it is an object of the present invention to provide accurate and efficient surveillance and reconnaissance information by analyzing and providing various situation information about an actually located interest area.
본 발명의 다른 목적으로는, 실제 촬영 영상에서 획득될 수 없는 표적의 위치를 예측하여 실제 영상에 표시되도록 함으로써, 표적에 대한 사용자의 신속한 대응이 수행될 수 있도록 하는 것이다.Another object of the present invention is to predict the position of a target that can not be obtained in an actual photographed image and display it on an actual image so that a user can quickly respond to the target.
본 발명의 또 다른 목적으로는, 센서노드의 센싱 정보, 카메라의 촬영 정보 및 중앙 관제 서버의 광범위한 영역에 대한 상황 정보를 활용하여 상황 정보를 분석함으로써, 감시 정찰 정보의 정확도를 향상시키고, 대응책 운용의 효율성을 향상시킬 수 있도록 하는 것이다.Another object of the present invention is to improve the accuracy of the surveillance and reconnaissance information by analyzing the situation information using sensing information of the sensor node, photographing information of the camera, and situation information on a wide area of the central control server, Thereby improving the efficiency of the system.
본 발명은 전술한 종래기술의 문제점을 해결하기 위한 것으로, 본 발명의 일 실시예에 따르면, 사용자의 관심 영역에 대한 주변 상황 정보를 제공하는, 상황 정보 제공 장치에 있어서, 상기 관심 영역의 실제 영상을 촬영하는, 카메라부; 상기 카메라부로부터 영상 데이터를 수신하여, 상기 관심 영역의 실제 영상을 기반으로 주변 환경 정보 분석을 수행하는, 촬영 정보 분석부; 상기 관심 영역 내부 또는 주변부에 배치된 일 이상의 센서노드로부터 수신된 센싱 정보들을 기반으로 표적의 침입 정보, 표적의 움직임 정보, 표적의 이동 경로, 표적의 이동 속도, 표적의 특징 정보, 표적의 예상 출현 위치 정보 또는 각 위치별 표적의 출현 가능성 정보 중 일 이상의 정보를 포함한 표적 정보를 분석하는, 센싱 정보 분석부; 및 상기 카메라부로부터 수신된 실제 영상 및 상기 센싱 정보 분석부로부터 수신된 표적 정보에 따라 예측되는 가상의 표적 영상이 중첩된 증강현실 영상을 디스플레이 하는, 증강현실 디스플레이부를 포함하는, 상황 정보 제공 장치가 제공된다.According to an aspect of the present invention, there is provided a context information providing apparatus for providing context information on a user's interest area, the apparatus comprising: A camera unit; An image capturing information analyzing unit receiving image data from the camera unit and analyzing surrounding information based on an actual image of the area of interest; Based on sensing information received from one or more sensor nodes disposed in or around the ROI, target intrusion information, target motion information, target movement path, target movement speed, target feature information, A sensing information analyzer for analyzing target information including at least one of position information or appearance possibility information of a target for each position; And an augmented reality display unit that displays an augmented reality image in which a virtual target image that is predicted according to an actual image received from the camera unit and target information received from the sensing information analysis unit is superimposed, / RTI >
상기 촬영 정보 분석부는, 상기 실제 영상을 기반으로, 상기 관심 영역의 공간적 정보, 상기 관심 영역에 존재하는 사물들에 관한 정보, 상기 상황 정보 제공 장치의 위치 정보, 상기 관심 영역의 장소적 활용 정보, 또는 상기 실제 영상에서 촬영된 표적이 존재하는 경우에는 상기 촬영된 표적의 움직임 정보 중 일 이상의 정보를 포함한 주변 환경 정보를 분석하는 것을 특징으로 하는, 상황 정보 제공 장치가 제공된다.The photographing information analyzing unit may extract, based on the actual image, spatial information of the ROI, information about objects existing in the ROI, location information of the ROI, location information of the ROI, Or if there is a target photographed in the actual image, analyzes surrounding information including one or more pieces of the motion information of the photographed target.
상기 촬영 정보 분석부에서 분석된 주변 환경 정보, 상기 센싱 정보 분석부에서 분석된 표적 정보, 중앙 관제 서버로부터 수신된 타 관심 영역의 상황 정보 또는 제어 명령 정보 중 일 이상의 정보를 포함하는 상황 정보를 디스플레이 하는, 상황 정보 디스플레이부를 포함하는, 상황 정보 제공 장치가 제공된다.The status information including at least one of the surrounding information analyzed by the shooting information analyzing unit, the target information analyzed by the sensing information analyzing unit, the status information of the other area of interest received from the central control server or the control command information, A situation information providing apparatus is provided which includes a situation information display unit.
상기 상황 정보 디스플레이부는, 상기 증강현실 영상 위에 도형 또는 그림을 표시하는 방법, 수치적으로 표시하는 방법 또는 상기 상황 정보에 대한 설명을 문자로 나타내는 방법 중 일 이상의 방법을 통해 상기 관심 영역에 대한 상황 정보를 디스플레이 하는 것을 특징으로 하는, 상황 정보 제공 장치가 제공된다.The context information display unit displays status information on the ROI through one or more of a method of displaying a figure or picture on the augmented reality image, a method of numerically displaying the context information, Is displayed on the display unit.
상기 사용자의 ID 및 패스워드 인증, 지문 인증, 또는 홍채 인증 방법 중 일 이상의 방법을 통해, 상기 사용자의 상기 상황 정보 제공 장치에 대한 사용 권한 여부를 확인하는, 사용자 인증부를 포함하는, 상황 정보 제공 장치가 제공된다.And a user authentication unit for verifying whether or not the user is authorized to use the situation information providing apparatus through at least one of ID, password authentication, fingerprint authentication, or iris authentication method of the user / RTI >
상기 촬영 정보 분석부 또는 상기 센싱 정보 분석부에서 분석된 상기 상황 정보를 토대로, 상기 관심 영역의 주변 상황의 중요도 또는 심각도를 판단하여, 상기 상황 정보 데이터의 자체적인 저장 또는 중앙 관제 서버로의 전송 여부를 결정하는, 감지 결과 처리부를 포함하는, 상황 정보 제공 장치가 제공된다.The importance information or the severity of the circumstance of the ROI is determined based on the situation information analyzed by the shooting information analyzing unit or the sensing information analyzing unit and whether or not the status information data is stored in its own storage or transmitted to the central control server And a detection result processing unit for determining a detection result processing unit.
상기 사용자의 음성 인식을 통한 사용자 명령 수신, 또는 음성으로 상기 상황 정보의 제공을 수행하는, 음향 정보 송수신부를 포함하는, 상황 정보 제공 장치가 제공된다.And a sound information transmitting and receiving unit for receiving the user command through voice recognition of the user or providing the status information by voice.
본 발명의 다른 실시예에 따르면, 사용자의 관심 영역에 대한 주변 상황 정보를 제공하기 위한, 상황 정보 제공 시스템에 있어서, 동작 감지 센싱을 통해 침입 감지 또는 표적의 움직임 감지를 수행하여 센싱 정보를 생성하는, 일 이상의 센서노드; 상기 일 이상의 센서노드와 무선 센서 네트워크를 통해 일 이상의 센싱 정보를 수집하여, 무선 센서 네트워크 외부의 상황 정보 제공 장치 또는 중앙 관제 서버로 전송하는, 게이트웨이; 상기 관심 영역 주변의 실제 영상을 촬영하고, 상기 실제 영상 및 상기 센서노드의 센싱 정보를 분석함으로써, 상기 관심 영역에 대한 상황 정보를 제공하는, 상황 정보 제공 장치; 및 일 이상의 상황 정보 제공 장치로부터 일 이상의 관심 영역에 대한 상황 정보 데이터를 수집함으로써, 광범위한 영역에 대한 주변 상황 분석을 수행하고, 상기 상황 정보 제공 장치에 타 관심 영역에 대한 상황 정보를 제공하거나, 상기 센서노드 또는 상기 상황 정보 제공 장치에 제어 명령을 전송하는, 중앙 관제 서버를 포함하는, 상황 정보 제공 시스템이 제공된다.According to another embodiment of the present invention, there is provided a situation information providing system for providing surrounding situation information on a user's area of interest, the system comprising: an intrusion detection unit for detecting an intrusion through motion detection sensing, One or more sensor nodes; A gateway for collecting one or more pieces of sensing information through the one or more sensor nodes and the wireless sensor network and transmitting the collected sensing information to a situation information providing device or a central control server outside the wireless sensor network; A situation information providing device for capturing an actual image around the ROI and analyzing the actual image and sensing information of the sensor node to provide context information about the ROI; And analyzing the surrounding situation for a wide area by collecting the situation information data for one or more interested areas from one or more situation information providing devices and providing the situation information providing device with the situation information about another interested area, And a central control server for transmitting a control command to the sensor node or the situation information providing apparatus.
상기 일 이상의 센서노드는, 상기 관심 영역 내부 또는 상기 관심 영역 주변부에 배치되는 것을 특징으로 하는, 상황 정보 제공 시스템이 제공된다.Wherein the one or more sensor nodes are arranged within the ROI or around the ROI.
상기 게이트웨이는, 상기 센서노드 각각에 대한 구분자 정보 또는 상기 각 센서노드의 배치 정보를 수집하여 상기 상황 정보 제공 장치 또는 상기 중앙 관제 서버로 전송하는 것을 특징으로 하고, 상기 상황 정보 제공 장치는, 상기 게이트웨이로부터 수신된 상기 각 센서노드의 구분자 정보 또는 상기 배치 정보를 토대로 상기 센싱 정보를 분석함으로써, 상기 표적의 정확한 위치 정보 또는 이동 경로 정보를 파악할 수 있도록 하는 것을 특징으로 하는, 상황 정보 제공 시스템이 제공된다.Wherein the gateway collects delimiter information for each of the sensor nodes or arrangement information of the sensor nodes and transmits the collected information to the status information providing apparatus or the central control server, Wherein the sensing information analyzing unit analyzes the sensing information based on the delimiter information or the arrangement information of each sensor node received from the sensor node so as to grasp accurate positional information or movement route information of the target .
본 발명의 또 다른 실시예에 따르면, 상황 정보 제공 장치가 사용자의 관심 영역에 대한 주변 상황 정보를 제공하는 방법으로서, (a) 상기 관심 영역 내부 또는 상기 관심 영역 주변부에 배치된 일 이상의 센서노드로부터 센싱된 일 이상의 센싱 정보를 수집하는 단계; (b) 상기 관심 영역을 촬영함으로써, 상기 관심 영역의 촬영 정보를 포함하는 실제 영상 데이터를 수집하는 단계; (c) 상기 촬영 정보 또는 상기 센싱 정보를 분석하여 상기 관심 영역에 대한 상황 정보를 분석하는 단계; (d) 상기 촬영 정보, 및 상기 센싱 정보 분석으로부터 예측되는 가상의 표적 영상 데이터를 중첩하여 증강현실 영상 데이터를 생성 및 제공하는 단계; 및 (e) 상기 촬영 정보 분석을 통해 획득되는 상기 관심 영역의 공간적 정보, 상기 관심 영역에 존재하는 사물들에 관한 정보, 상기 상황 정보 제공 장치의 위치 정보, 상기 관심 영역의 장소적 활용 정보, 또는 상기 센싱 정보 분석을 통해 획득되는 표적의 침입 정보, 표적의 움직임 정보, 표적의 이동 경로, 표적의 이동 속도, 표적의 특징 정보, 표적의 예상 출현 위치 정보 또는 각 위치별 표적의 출현 가능성 정보 중 일 이상을 포함하는 상기 관심 영역에 대한 상황 정보를 제공하는 단계를 포함하는, 상황 정보 제공 방법이 제공된다.According to another embodiment of the present invention, there is provided a method for providing context information on a region of interest of a user, the method comprising the steps of: (a) receiving, from one or more sensor nodes Collecting sensed information of at least one sensed time; (b) capturing actual image data including photographing information of the ROI by photographing the ROI; (c) analyzing the shooting information or the sensing information and analyzing the situation information on the ROI; (d) generating and providing augmented reality image data by superimposing the imaging information and virtual target image data predicted from the sensing information analysis; And (e) spatial information of the ROI obtained through the analysis of the photographing information, information about objects existing in the ROI, location information of the ROI, location information of the ROI, The motion information of the target obtained through the sensing information analysis, the motion information of the target, the moving path of the target, the moving speed of the target, the characteristic information of the target, the expected appearance position information of the target, And providing context information for the region of interest that includes the above.
상기 (a) 단계 이전에, 상기 사용자의 ID 및 패스워드 인증, 지문 인증, 또는 홍채 인증 방법 중 일 이상의 방법을 통해, 상기 사용자의 상기 상황 정보 제공 장치에 대한 사용 권한 유무를 확인하는 단계를 포함하는, 상황 정보 제공 방법이 제공된다.Confirming whether or not the user has the right to use the situation information providing apparatus through at least one of the ID, password authentication, fingerprint authentication, or iris authentication method of the user before the step (a) , And a situation information providing method are provided.
또한, 상기 (e) 단계 이전에, 중앙 관제 서버로부터 타 관심 영역의 상황 정보 또는 제어 명령 정보 중 일 이상의 정보를 수신하는 단계를 포함하고, 상기 (e) 단계에서 제공되는 상기 상황 정보는, 상기 중앙 관제 서버로부터 수신된 상기 타 관심 영역의 상황 정보 또는 상기 제어 명령 정보를 포함하는 것을 특징으로 하는, 상황 정보 제공 방법이 제공된다.The method may further include receiving at least one piece of status information or control command information of another area of interest from the central control server before step (e), wherein the status information provided in step (e) And the status information of the other area of interest received from the central control server or the control command information.
본 발명의 일 실시예에 따르면, 사용자가 실제 위치한 관심 영역에 대하여 다양한 상황 정보를 분석 및 제공하므로, 정확하고 효율적인 감시 정찰 정보를 제공할 수 있다.According to an embodiment of the present invention, accurate and efficient surveillance and reconnaissance information can be provided since the user analyzes and provides various situation information with respect to an actually located interest area.
본 발명의 일 실시예에 따르면, 사용자의 관심 영역 주변부에 배치된 일 이상의 센서노드들을 통해 센싱 정보를 수집하여, 실제 촬영 영상에서 획득될 수 없는 표적의 위치를 예측 가능하므로, 표적에 대한 사용자의 신속한 대응이 수행될 수 있다.According to an embodiment of the present invention, sensing information can be collected through one or more sensor nodes disposed on the periphery of a user's interest area, and a position of a target that can not be acquired in an actual photographic image can be predicted. A rapid response can be performed.
또한, 본 발명의 일 실시예에 따르면, 센서노드의 센싱 정보 및 카메라의 촬영 정보뿐만 아니라 중앙 관제 서버의 광범위한 영역에 대한 상황 정보를 활용하여 다양한 측면에서의 상황 정보를 분석하므로, 감시 정찰 정보의 정확도를 향상시키고, 대응책 운용의 효율성을 향상시킬 수 있다.In addition, according to an embodiment of the present invention, context information in various aspects is analyzed using sensing information of a sensor node and photographing information of a camera, as well as context information of a wide area of a central control server, It is possible to improve the accuracy and improve the efficiency of the countermeasure operation.
본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.It should be understood that the effects of the present invention are not limited to the above effects and include all effects that can be deduced from the detailed description of the present invention or the configuration of the invention described in the claims.
도 1은 본 발명의 일 실시예에 따른 상황 정보 제공 시스템의 개략적인 구성도이다.
도 2는 본 발명의 일 실시예에 따른 상황 정보 제공 장치의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 전장 상황 인식 기반 상황 정보 제공 방법을 시간의 흐름에 따라 도시한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 상황 정보 제공 장치의 증강현실 영상 및 가상의 표적 영상 디스플레이 화면을 도시한 도면이다.1 is a schematic configuration diagram of a situation information providing system according to an embodiment of the present invention.
2 is a configuration diagram of a situation information providing apparatus according to an embodiment of the present invention.
FIG. 3 is a flowchart illustrating a method for providing context information based on a battlefield situation recognition according to an exemplary embodiment of the present invention. Referring to FIG.
FIG. 4 is a diagram illustrating an augmented reality image and a virtual target image display screen of a situation information providing apparatus according to an embodiment of the present invention. Referring to FIG.
이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "indirectly connected" . Also, when an element is referred to as "comprising ", it means that it can include other elements, not excluding other elements unless specifically stated otherwise.
이하 첨부된 도면을 참고하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 상황 정보 제공 시스템의 개략적인 구성도이다.1 is a schematic configuration diagram of a situation information providing system according to an embodiment of the present invention.
도 1을 참조하면, 상황 정보 제공 시스템은 통신망을 통해 서로 통신 가능한 일 이상의 센서노드(100), 게이트웨이(200), 상황 정보 제공 장치(300) 및 중앙 관제 서버(400)를 포함할 수 있다.Referring to FIG. 1, the situation information providing system may include at least one
먼저, 통신망은 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 근거리 통신망(LAN: Local Area Network), 도시권 통신망(MAN: Metropolitan Area Network), 광역 통신망(WAN: Wide Area Network) 등의 다양한 통신망으로 구성될 수 있으며, 바람직하게는, 무선 통신 방식으로 구현된다. 본 발명의 일 실시예에 따른 일 이상의 센서노드(100)들과 게이트웨이(200) 간의 통신은 무선 센서 네트워크에 적용될 수 있다. First, the communication network is composed of various communication networks such as a local area network (LAN), a metropolitan area network (MAN), and a wide area network (WAN), regardless of the communication modes such as wired and wireless. And is preferably implemented in a wireless communication manner. The communication between the one or
센서노드(100)는 온도, 소리, 압력 등 다양한 주변 상태를 센싱하고, 센싱된 정보를 게이트웨이(200), 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400)로 전송한다. The
본 발명의 일 실시예에 따르면, 상황 정보를 제공하고자 하는 영역에 배치된 일 이상의 센서노드(100)들은 각 센서노드(100)를 식별할 수 있도록 하는 각 센서노드(100)별 ID 등의 센서노드 구분자를 가질 수 있다.According to an embodiment of the present invention, the one or
또한, 각 센서노드(100)의 배치 위치, 배치 방향 등과 같은 배치 정보들을 저장하거나, 게이트웨이(200), 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400)에 전송할 수도 있다.It is also possible to store the placement information such as the placement position and the placement direction of each
본 발명의 일 실시예에 따른 센서노드(100)는 센싱 영역에서의 동작 감지를 수행함으로써, 표적의 이동 방향, 또는 침입자의 발생 감지를 확인하는 침입 신호 등을 획득할 수 있다.The
뿐만 아니라, 일 실시예에 따르면, 센서노드(100)는 게이트웨이(200), 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400)의 명령에 따라, 센싱 모드, 센싱 조건, 또는 센싱 동작 활성화/비활성화 여부가 제어될 수 있다.In addition, according to one embodiment, the
상술한 바와 같이 일 이상의 센서노드(100) 각각에서 센싱된 동작 감지 정보, 표적 이동 방향, 또는 침입 신호 정보 등의 센싱 정보들은 각 센서노드(100)의 센서노드 구분자 정보 또는 센서노드 배치 정보와 함께 게이트웨이(200)로 전송되어 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400)에 제공되도록 할 수 있다.As described above, the sensing information such as the motion sensing information, the target movement direction, or the intrusion signal information sensed by each of the one or
도 1에서는 일 이상의 센서노드(100)가 게이트웨이(200)를 통해 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400)와 통신하는 것을 도시하고 있으나, 본 발명의 다른 실시예에 따르면, 각 센서노드(100)는 센싱 정보 및 각 센서노드의 구분자 정보와 센서노드 배치 정보 등을 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400)에 직접 전송하고, 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400)로부터 센서노드 제어 명령을 직접 수신할 수도 있다.1, one or
게이트웨이(200)는 일 이상의의 센서노드(100)들로부터 전송된 센싱 정보, 센서노드 구분자 정보 및 센서노드 배치 정보 등의 센서노드 데이터를 수집한다. 게이트웨이(200)는 수집된 센서노드 데이터를 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400) 등 무선 센서 네트워크 외부의 장치 또는 서버로 전송할 수 있다. The
본 발명의 일 실시예에 따른 게이트웨이(200)는 게이트웨이 센서노드일 수 있다. 즉, 게이트웨이 센서노드는 센서노드의 기능을 수행함과 동시에, 게이트웨이(200)의 기능도 함께 수행할 수 있다. The
상황 정보 제공 장치(300)는 사용자의 관심 영역에 대한 상황 정보를 제공할 수 있다. The situation
본 발명의 실시예에 따르면, 상황 정보 제공 장치(300)는 휴대폰, 스마트폰, PDA(Personal Digital Assistant), PMP(Portable Multimedia Player), 태블릿 PC 등과 같이 네트워크를 통하여 센서노드(100), 게이트웨이(200) 및 중앙 관제 서버(400) 등의 외부 장치 또는 외부 서버와 연결될 수 있는 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있을 뿐 아니라, 웨어러블(wearable) 장치 등과 같이, 네트워크를 통해 센서노드(100), 게이트웨이(200) 및 중앙 관제 서버(400) 등의 외부 장치 또는 외부 서버와 통신 가능한 다양한 형태의 장치로 구현될 수 있다.According to an exemplary embodiment of the present invention, the situation
일 실시예에 따른 상황 정보 제공 장치(300)는 카메라 기반의 주변 환경 인식을 통해 현 위치의 실제 환경 정보를 수집할 수 있으며, 센서노드(100) 또는 게이트웨이(200)로부터 수신된 센서노드 데이터를 분석하여 상황 정보 데이터를 생성함으로써, 상기 실제 환경 정보에 대한 상황 정보를 실시간으로 제공할 수 있다.The situation
즉, 일 실시예에 따른 상황 정보 제공 장치(300)는 카메라 또는 음향 송수신 모듈을 통해 수집된 해당 위치의 실제 영상 뿐만 아니라, 일 이상의 센서노드(100)들로부터 센싱된 센싱 정보들의 분석을 통해 생성된 가상의 상황 정보들을 제공함으로써, 증강현실을 이용한 정확하고 효율적인 상황 정보 제공이 가능하도록 한다.That is, the situation
상황 정보 제공 장치(300)는 센서노드(100) 또는 게이트웨이(200)로부터 수집된 센서노드 데이터를 분석하여, 표적의 이동 특성, 현 위치에 대한 표적의 출현 가능성 등과 같은 상황 정보 데이터를 생성할 수 있으며, 상기 생성된 상황 정보 데이터를 자체적으로 저장하거나, 중앙 관제 서버(400)에 전송할 수도 있다.The situation
일 실시예에 따른 중앙 관제 서버(400)는 일 이상의 센서노드(100), 게이트웨이(200), 및 일 이상의 상황 정보 제공 장치(300)와 통신을 통해 센서노드 데이터 또는 상황 정보 데이터를 수신 및 저장할 수 있다.The
중앙 관제 서버(400)는 일 이상의 관심 영역에 대한 센서노드 데이터 또는 상황 정보 데이터를 수집하게 되면, 센서노드(100)의 센싱 영역 또는 상황 정보 제공 장치(300)의 감지 영역 외부의 광범위한 영역에 대하여 표적의 움직임 또는 관심 영역별 주변 상황 심각도 분석을 통해 상황 정보 제공 장치(300)에 타 관심 영역에 대한 상황 정보 제공을 할 수 있으며, 센서노드(100) 또는 상황 정보 제공 장치(300)의 동작을 제어하기 위한 명령을 전송할 수도 있다.When the
이와 같은 상황 정보 제공 시스템은 특정 지역에 대하여 정확한 상황 분석 및 신속한 판단을 요하는 기술 분야에 이용될 수 있으며, 일 실시예로서, 적군의 침입 감지, 적군의 이동, 및 적군의 전술 파악이 중요한 방위 산업 분야에 적용될 수 있다. 예를 들어, 적군 침입 예상 지역에 배치된 센서노드(100)들의 센싱 정보로부터 적군의 침입을 감지하고, 적군의 이동 경로를 파악하여, 목전에 적군이 도달하기 전, 상황 정보 제공 장치(300)를 통해 적군의 출현을 예상할 수 있으며, 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400)에서 수집된 데이터 분석을 함으로써, 적군의 전술 파악을 통해 효율적인 아군의 전술 운용이 가능하게 된다.Such a situation information providing system can be used in a technical field requiring accurate situation analysis and quick judgment for a specific area. In one embodiment, the intrusion detection of enemy forces, the movement of enemy forces, It can be applied to industrial fields. For example, the intrusion of the enemy group is detected from the sensing information of the
도 2는 본 발명의 일 실시예에 따른 상황 정보 제공 장치(300)의 구성도이다.2 is a configuration diagram of an
도 2를 참조하면, 일 실시예에 따른 상황 정보 제공 장치(300)는 사용자 인증부(310), 카메라부(320), 분석부(330), 디스플레이부(340), 감지 결과 처리부(350), 음향 정보 송수신부(360), 제어부(370) 및 통신부(380)를 포함할 수 있다.2, an
일 실시예에 따른 사용자 인증부(310)는 상황 정보 제공 장치(300)의 사용자를 식별하고, 사용자의 권한 유무를 판단할 수 있다.The
사용자 인증부(310)는 ID 및 패스워드 인증, 또는 사용자의 지문 인식, 홍채 인식 등과 같은 생체 인증을 통해 상황 정보 제공 장치(300)의 사용 권한 여부를 확인할 수 있다. The
사용자가 권한 인증 절차를 수행하면, 사용자 인증부(310)는 기 저장된 사용자 정보와의 대조를 통해, 권한 유무를 확인하고, 상황 정보 제공 장치(300)의 사용 권한이 있는 사용자에 해당하는 경우, 해당 사용자 정보를 불러오도록 할 수 있다.When the user performs the authority authentication procedure, the
일 실시예에 따른 사용자 인증부(310)는 사용자 인증 절차를 통해, 상황 정보 제공 장치(300) 사용의 보안을 강화할 수 있을 뿐 아니라, 사용자 정보 확인을 통해, 해당 사용자의 특성 또는 역량 등을 파악함으로써, 상황 정보 제공 장치(300) 또는 중앙 관제 서버(400)로 하여금 그에 부합하는 상황 정보 제공 또는 제어 명령 전송이 가능하도록 한다. 또한, 사용자는 사용자 인증을 통해, 기 저장된 사용자 정보, 해당 사용자에 대해 기 설정된 사용 모드, 또는 상황 정보 제공 장치(300) 사용 이력 등에 관한 데이터를 불러올 수도 있다.The
일 실시예에 따른 카메라부(320)는 카메라를 통해 외부의 피사체에 대한 정지 영상 또는 동영상 등과 같은 실제 영상 정보를 제공한다. The camera unit 320 according to an embodiment provides actual image information such as a still image or a moving image with respect to an external subject through a camera.
즉, 카메라부(320)는 상황 정보 제공 장치(300) 외부, 즉, 관심 영역의 실제 영상을 촬영하여, 상기 촬영된 관심 영역에 대한 실제 영상 데이터를 분석부(330) 또는 디스플레이부(340)에 제공할 수 있다.That is, the camera unit 320 captures an actual image of the area of interest outside the context
본 발명의 일 실시예에 따른 분석부(330)는 촬영 정보 분석부(331) 및 센싱 정보 분석부(332)를 포함할 수 있다.The analysis unit 330 may include an imaging information analysis unit 331 and a sensing information analysis unit 332 according to an embodiment of the present invention.
촬영 정보 분석부(331)는 카메라부(320)로부터 수신된 상황 정보 제공 장치(300) 주변의 촬영 영상 데이터를 분석하여 관심 영역에 대한 주변 환경 분석을 수행할 수 있다.The photographing information analyzing unit 331 analyzes the photographed image data around the circumstance
구체적으로, 촬영 정보 분석부(331)는 촬영된 영상 데이터를 통해, 사용자가 위치한 지역에 대한 공간적 정보, 해당 위치에 존재하는 사물들에 관한 정보 또는 촬영 영상에서 포착된 표적 등의 움직임 정보 등을 분석할 수 있으며, 나아가, 이를 통해, 사용자가 현재 위치에서 주변 환경을 활용할 수 있는 요소들, 즉, 장소적 활용 정보를 분석하여 제공할 수도 있다.Specifically, the photographing information analyzing unit 331 obtains, based on the photographed image data, spatial information on the area where the user is located, information on objects existing at the location, or motion information such as a target captured in the photographed image In addition, through this, it is possible to analyze and provide the user with the elements that can utilize the surrounding environment at the current location, that is, the location utilization information.
예를 들어, 본 발명의 일 실시예에 따른 촬영 정보 분석부(331)는 카메라부(320)에서 촬영된 영상 데이터를 통해 관심 영역, 즉, 사용자의 위치에 대한 특성들을 분석함으로써, 사용자가 몸을 숨기기에 적합한 장소, 사용자의 최적 동선, 또는 해당 위치의 주변 사물 활용 방안 등을 제공할 수 있으며, 표적의 움직임이 촬영된 경우, 상기 표적의 사용자로부터 거리, 속도, 또는 예상 경로 등을 분석하여 제공할 수도 있다.For example, the photographing information analyzing unit 331 according to an embodiment of the present invention analyzes characteristics of a region of interest, i.e., a user, through image data photographed by the camera unit 320, The optimum route of the user, or the utilization method of surrounding objects at the location, etc. When the motion of the target is photographed, it is possible to analyze the distance, speed, or anticipated route from the user of the target .
또한, 촬영 정보 분석부(331)는 촬영 영상 데이터를 통해, 상황 정보 제공 장치(300)의 위치, 즉, 사용자의 위치 정보를 분석할 수도 있을 뿐 아니라, 별도의 GPS(Global Positioning System) 모듈을 탑재함으로써, 해당 위치를 측정할 수도 있다.The photographing information analyzing unit 331 can analyze the position of the situation
일 실시예에 따른 센싱 정보 분석부(332)는 상황 정보 제공 장치(300) 주변 지역에 배치된 일 이상의 센서노드들로부터 센싱된 센싱 정보를 센서노드 또는 게이트웨이로부터 수신하여 분석한다.The sensing information analyzing unit 332 according to an embodiment receives and analyzes sensing information sensed from one or more sensor nodes disposed in the vicinity of the situation
상기 일 이상의 센서노드들은 상황 정보 제공 장치(300)의 카메라부(320)의 촬영 가능 영역, 즉, 가시 영역 내부 뿐 아니라, 외부에도 배치될 수 있다. 따라서, 상황 정보 제공 장치(300)에서 직접 인지하지 못한 정보를 상기 센서노드의 센싱 정보들을 통해 수집할 수 있다.The one or more sensor nodes may be disposed not only inside the photographable area of the camera unit 320 of the situation
센싱 정보 분석부(332)는 다수의 센서노드들로부터 동작 감지 정보, 표적 이동 방향, 또는 침입 신호 정보 등과 같은 센싱 정보와 함께, 각 센서노드의 센서노드 구분자 정보 또는 센서노드 배치 정보를 수신함으로써, 각각의 센서노드가 배치된 위치 및 방향을 토대로 실시간 표적의 위치, 사용자로부터의 거리, 표적의 이동 경로, 또는 표적의 움직임 속도 등을 분석 및 파악할 수 있다.The sensing information analyzer 332 receives sensor node identifier information or sensor node allocation information of each sensor node along with sensing information such as motion sensing information, target movement direction, or intrusion signal information from a plurality of sensor nodes, Based on the position and orientation of each sensor node, the position of the real-time target, the distance from the user, the movement path of the target, or the movement speed of the target can be analyzed and grasped.
센싱 정보 분석부(332)는 다수개의 센서노드들로부터 센싱 정보를 수집하기 때문에, 상술한 바와 같이, 표적의 움직임을 정확히 분석할 수 있을 뿐 아니라, 특정 센서노드의 오작동시에도 타 센서노드들의 센싱 결과를 바탕으로 상기 오작동 여부를 확인할 수 있다.Since the sensing information analyzing unit 332 collects sensing information from a plurality of sensor nodes, it is possible to accurately analyze the movement of the target as described above, Based on the result, it is possible to confirm whether the malfunction is occurred or not.
본 발명의 일 실시예에 따른 디스플레이부(340)는 증강현실 디스플레이부(341) 및 상황 정보 디스플레이부(342)를 포함할 수 있다.The display unit 340 may include an augmented reality display unit 341 and a situation information display unit 342. [
일 실시예에 따른 증강현실 디스플레이부(341)는 카메라부(320)에서 촬영된 실제 주변 영상과, 센서노드에서 감지된 표적의 움직임에 따라 예측되는 표적의 위치 정보를 도시하는 영상을 제공할 수 있다.The augmented reality display unit 341 according to an exemplary embodiment may provide an image showing an actual peripheral image photographed by the camera unit 320 and position information of a target predicted according to the movement of the target sensed by the sensor node have.
즉, 증강현실 디스플레이부(341)는 상황 정보 제공 장치(300) 주변의 실제 영상에, 가시 영역 내 미도래한 표적에 대한 가상의 표적 위치 영상을 중첩적으로 나타내어 사용자에게 제공할 수 있다. 따라서, 사용자는 가시 거리 외부에 존재하는 표적에 대해서도 정보를 획득할 수 있어, 신속하고 정확한 대응을 수행할 수 있다.That is, the augmented reality display unit 341 may superimpose the virtual target position image of the target that is not within the visible region in the actual image around the circumstance
또한, 증강현실 디스플레이부(341)는 상기 실제 영상 및 가상 영상의 디스플레이 방식을 상이하게 함으로써, 표적이 상황 정보 제공 장치(300)의 카메라부(320)에서 인식 가능한 지점에 도달하였음을 알릴 수도 있다.In addition, the augmented reality display unit 341 may notify that the target has reached a point recognizable by the camera unit 320 of the situation
예를 들면, 센서노드들로부터 표적의 움직임이 포착되어 증강현실 디스플레이부(341)가 상기 표적의 움직임을 센싱한 센서노드 들의 위치에 따라, 표적의 움직임을 디스플레이 할 경우, 하얀색 포인트로 표적을 표시하고, 상기 표적이 상황 정보 제공 장치(300)의 촬영 가능 영역에 도달한 경우, 상기 하얀색 포인트를 빨간색 포인트가 되도록 변형하여 나타냄으로써, 사용자가 표적의 움직임이 가까워졌음을 인지하도록 할 수 있다.For example, when the target motion is captured from the sensor nodes and the augmented reality display unit 341 displays the target motion according to the position of the sensor nodes that sensed the motion of the target, a target is displayed with a white point And when the target reaches the photographable area of the situation
다른 실시예에 따른 증강현실 디스플레이부(341)는 표적의 움직임 이외에도, 센서노드에서 감지된 기타 센싱 정보들에 대한 가상의 영상을 생성하여, 실제 영상과 중첩한 증강현실 영상을 제공할 수도 있다.The augmented reality display unit 341 according to another embodiment may generate a virtual image of the guitar sensing information sensed by the sensor node in addition to the movement of the target to provide an augmented reality image superposed with the actual image.
본 발명의 실시예에 따른 증강현실 디스플레이부(341)는 실제 영상과 가상 영상이 중첩된 증강현실 영상뿐만 아니라, 사용자의 선택에 따라, 카메라부(320)에서 촬영된 실제 주변 영상, 또는 센서노드의 센싱 정보들을 바탕으로 분석된 가상의 표적 영상 각각을 별개로 제공할 수도 있다.The augmented reality display unit 341 according to the embodiment of the present invention may display not only an augmented reality image in which an actual image and a virtual image are superimposed but also an actual peripheral image photographed by the camera unit 320, It is possible to separately provide each of the virtual target images analyzed based on the sensing information of the target.
상황 정보 디스플레이부(342)는 카메라부(320)로부터 촬영된 실제 주변 영상을 통해 분석된 정보, 센싱 정보를 바탕으로 분석된 정보, 또는 중앙 관제 서버로부터의 명령 정보를 기반으로 하는 상황 정보 제공 장치(300) 주변 환경에 대한 일체의 정보를 제공할 수 있다.The situation information display unit 342 displays information analyzed based on actual surrounding images photographed from the camera unit 320, information analyzed based on sensing information, or a situation information providing apparatus based on command information from a central control server It is possible to provide all information about the environment of the
구체적으로, 상술한 바와 같이, 촬영 정보 분석부(331)에서 상황 정보 제공 장치(300) 주변 장소에 대해 사용자가 몸을 숨기기에 적합한 장소, 사용자의 최적 동선, 또는 해당 위치의 주변 사물 활용 방안 등을 분석하게 되면, 상기 분석된 정보들을 상황 정보 디스플레이부(342)를 통해 사용자에게 제공할 수 있다.Specifically, as described above, the shooting information analyzing unit 331 determines whether or not the user is in a suitable place for hiding his or her body, the optimal moving line of the user, The analyzed information may be provided to the user through the status information display unit 342. [
또한, 상황 정보 디스플레이부(342)는 센싱 정보 분석부(332)를 통해 파악된 표적의 위치, 사용자로부터의 거리, 표적의 이동 경로, 표적의 움직임 속도, 또는 표적의 특징들을 나타낼 수 있으며, 각 위치별 표적 출현 가능성 등을 제공할 수도 있다. 뿐만 아니라, 상기 표적 정보에 따른 최적의 사용자 대처 방안 정보를 제공할 수도 있다.In addition, the situation information display unit 342 can display the position of the target captured by the sensing information analysis unit 332, the distance from the user, the movement path of the target, the movement speed of the target, And the likelihood of appearance of targets by location. In addition, it is also possible to provide optimal user countermeasure information according to the target information.
상황 정보 디스플레이부(342)는 중앙 관제 서버(400)로부터 제어 명령을 수신하거나, 타 지역에 대한 상황 정보를 수신한 경우, 이러한 정보를 제공할 수도 있다.The status information display unit 342 may receive the control command from the
본 발명의 일 실시예에 따르면, 상황 정보 디스플레이부(342)가 다양한 상황 정보를 사용자에게 제공하는 방법으로는, 상기 증강현실 디스플레이부(341)에서 제공되는, 실제 주변 영상, 가시 거리 외부의 표적의 움직임을 나타내는 가상의 표적 영상, 또는 상기 실제 주변 영상과 가상의 표적 영상을 중첩적으로 나타내는 증강현실 영상 위에 점 또는 선을 통해 사용자의 최적 이동 경로 등이 표시될 수 있으며, 표적의 움직임 정보, 표적의 출현 확률 등에 대해서는 수치적으로 표현될 수도 있다.According to an embodiment of the present invention, the context information display unit 342 may provide a variety of context information to a user. The context information may include at least one of an actual peripheral image, Or an optimal movement path of the user through a point or a line on an augmented reality image superimposing the actual peripheral image and the virtual target image may be displayed and the motion information of the target, Probability of appearance of the target can be expressed numerically.
요약하면, 증강현실 디스플레이부(341)는 현재 사용자 위치를 촬영한 실제 주변 영상과, 일 이상의 센서노드의 센싱 정보로부터 예측되는 표적의 움직임을 나타내는 가상의 표적 영상을 중첩적으로 제공할 수 있으며, 상황 정보 디스플레이부(342)는 분석부(330)로부터 분석된 주변 상황에 관한 제반 정보 및 중앙 관제 서버로부터 수신된 정보 등을 제공할 수 있다.In summary, the augmented reality display unit 341 can superimpose an actual peripheral image of the current user position and a virtual target image representing the movement of the target predicted from the sensing information of one or more sensor nodes, The situation information display unit 342 can provide information about the surrounding situation analyzed from the analysis unit 330 and information received from the central control server.
일 실시예에 따른 감지 결과 처리부(350)는 상황 정보 제공 장치(300)에서 촬영 또는 분석된 정보들을 바탕으로 현재 주변 상황의 중요도 또는 심각도를 판단하고, 상기 판단된 중요도 또는 심각도에 따라 상황 정보 데이터를 자체적으로 저장하거나, 타 상황 정보 제공 장치 또는 중앙 관제 서버로 전송할 수 있다.The detection
또한, 감지 결과 처리부(350)는 각 상황에 대한 사용자의 대처 정보 등을 기록함으로써, 추후 유사한 상황 정보 감지시, 상기 사용자의 대응 정보 및 그에 따른 결과 정보를 활용하도록 할 수도 있다.In addition, the detection
일 실시예에 따른 음향 정보 송수신부(360)는 사용자의 음성 인식을 통해 사용자의 명령을 수신할 수 있을 뿐만 아니라, 사용자에게 음성을 통해 상황 정보를 제공할 수도 있다.The
또한, 사용자는 음향 정보 송수신부(360)를 통해 타 상황 정보 제공 장치(300)의 사용자 또는 중앙 관제 서버(400)와 음성 정보를 송수신할 수도 있다.In addition, the user may transmit and receive voice information to the user of the other situation
일 실시예에 따른 음향 정보 송수신부(360)는 마이크 및 이어폰과 같은 음성 입력 또는 출력 모듈을 구비할 수 있다.The
일 실시예에 따른 제어부(370)는 사용자 인증부(310), 카메라부(320), 분석부(330), 디스플레이부(340), 감지 결과 처리부(350), 음향 정보 송수신부(360) 및 통신부(380) 간의 데이터의 흐름을 제어하는 기능을 수행할 수 있다. 즉, 본 발명에 따른 제어부(370)는 사용자 인증부(310), 카메라부(320), 분석부(330), 디스플레이부(340), 감지 결과 처리부(350), 음향 정보 송수신부(360) 및 통신부(380)에서 각각 고유한 기능을 수행하도록 제어할 수 있다.The
일 실시예에 따른 통신부(380)는 상황 정보 제공 장치(300)와 외부 장치 간 통신이 가능하도록 한다. 구체적으로 상황 정보 제공 장치(300)가 센서노드(100), 게이트웨이(200) 및 중앙 관제 서버(400)와의 통신을 가능하게 한다.The communication unit 380 according to one embodiment enables communication between the situation
도 3은 본 발명의 일 실시예에 따른 전장 상황 인식 기반 상황 정보 제공 방법을 시간의 흐름에 따라 도시한 흐름도이다.FIG. 3 is a flowchart illustrating a method for providing context information based on a battlefield situation recognition according to an exemplary embodiment of the present invention. Referring to FIG.
상황 정보 제공 장치(300)를 사용하고자 하는 사용자가 사용자 ID 및 패스워드 입력 또는 생체 인증의 방법을 통해 사용자 인증을 수행하면, 상황 정보 제공 장치(300)는 기 저장된 사용자 정보와의 대조를 통해 사용자 권한 유무를 확인한다(S310).When the user who intends to use the situation
한편, 센서노드(100)는 주위의 소리, 동작, 압력 등을 감지함으로써, 침입 신호 또는 표적의 움직임 정보 등과 같은 센싱 정보를 수집한다(S320).Meanwhile, the
일 실시예에 따르면, 센서노드(100)는 상기 센싱 정보와, 센서노드(100)의 구분자 또는 센서노드(100) 배치 정보 등의 센서노드 식별 정보가 포함된 센서노드 데이터를 게이트웨이(200)를 통해 상황 정보 제공 장치(300)로 전송한다(S330). According to one embodiment, the
본 발명의 다른 실시예에 따른 센서노드(100)는 게이트웨이(200)를 거치지 않고, 직접 상황 정보 제공 장치(300)로 센서노드 데이터를 전송할 수도 있다.The
상황 정보 제공 장치(300)는 장치 주변의 영상을 촬영한 실제 영상 데이터를 수집한다(S340).The situation
이후, 상황 정보 제공 장치(300)는 상기 단계 S330에서 수신된 센서노드 데이터의 센싱 정보 및 상기 단계 S340에서 수집된 영상 데이터의 촬영 정보를 분석하여 상황 정보 데이터를 생성한다(S350).In operation S350, the situation
상황 정보 제공 장치(300)는 센싱 정보 분석을 통해, 관심 영역 근방에서 감지된 침입 신호 유무, 표적의 움직임, 표적의 수, 표적의 이동 경로, 또는 표적의 이동 속도 등을 예측할 수 있으며, 촬영 정보 분석을 통해서는, 사용자가 위치한 지역에 대한 위치적 정보, 공간적 정보, 해당 위치에 존재하는 사물들에 관한 정보, 해당 위치의 장소적 활용 정보 또는 촬영 영상에서 포착된 표적 등의 움직임 정보 등을 분석할 수 있다. Through the sensing information analysis, the situation
상황 정보 제공 장치(300)는 S340에서 수집된 실제 영상 데이터와 센서노드들을 통해 수집된 센싱 정보들 중, 표적의 움직임 정보를 나타낸 가상의 표적 영상 데이터를 중첩하여 증강현실 영상 데이터를 생성하고, 상기 증강현실 영상을 사용자에게 제공한다(S360).The situation
본 발명의 일 실시예에 따르면, 중앙 관제 서버(400)는 각 상황 정보 제공 장치(300)로 제어 명령을 전송할 수 있다(S370). 중앙 관제 서버(400)는 일 이상의 센서노드(100), 일 이상의 게이트웨이(200), 및 일 이상의 상황 정보 제공 장치(300)와의 통신을 통해, 일 이상의 관심 영역에 대한 센싱 정보 또는 촬영 정보 등을 수신할 수 있으며, 상황 정보 제공 장치(300)의 관심 영역 외부의 타 지역에 대한 상황 정보를 상기 상황 정보 제공 장치(300)로 전송할 수도 있다. 뿐만 아니라, 타 지역의 상황 정보에 따른 사용자 제어 명령을 상기 상황 정보 제공 장치(300)로 전송할 수 있다.According to an embodiment of the present invention, the
상황 정보 제공 장치(300)는 단계 S350를 통해 생성된 관심 영역에 대한 다양한 상황 정보, 중앙 관제 서버(400)로부터 수신된 타 관심 영역의 상황 정보 또는 제어 명령 정보를 사용자에게 제공할 수 있다(S380).The situation
이후, 상황 정보 제공 장치(300)는 상황 정보 데이터의 중요도 또는 심각도를 판단하여, 일정 기준 이상의 중요도 또는 심각도를 갖는 상황 정보 데이터의 경우, 해당 상황에 대한 사용자의 실제 대응 결과 정보와 상기 상황 정보 데이터를 취합한 감지 결과를 상황 정보 제공 장치(300) 자체적으로 저장할 수 있으며(S390), 상기 감지 결과를 중앙 관제 서버(400)에 전송할 수도 있다(S400).Then, the situation
이에 따라, 사용자는 추후 유사한 특성의 상황 정보가 감지되면, 기 저장된 감지 결과 데이터, 즉, 종전의 상황 정보 데이터와 그에 대한 기존의 사용자 대응 결과 정보를 바탕으로 보다 효율적인 대응을 수행할 수 있다.Accordingly, if the user subsequently detects similar situation information, the user can perform a more efficient response based on the previously stored detection result data, i.e., the previous situation information data and the existing user response result information.
도 4는 본 발명의 일 실시예에 따른 상황 정보 제공 장치(300)의 증강현실 영상 및 가상의 표적 영상 디스플레이 화면을 도시한 도면이다.4 is a diagram illustrating an augmented reality image and a virtual target image display screen of the situation
도 4의 (a)는 사용자가 휴대하고 있는 상황 정보 제공 장치(300)의 카메라 모듈을 통해 획득된 실제 사용자 주변의 영상과, 센서노드들에서 센싱된 센싱 정보 또는 중앙 관제 서버로부터 수신된 정보를 바탕으로 예측된 표적의 위치 또는 움직임을 나타내는 가상의 표적 영상을 중첩한 증강현실 영상이 디스플레이된 상황 정보 제공 장치(300) 화면을 도시하고 있다.4A shows an image of an actual user's surroundings obtained through a camera module of the situation
도 4의 (a)를 참고하면, 하얀색 원형의 포인트를 통해 표적을 나타내고 있는데, 상기 표적은 상황 정보 제공 장치(300)의 카메라 모듈을 통해서 감지할 수 없는 위치의 표적에 해당한다. 상기 표적들 중 어느 하나의 표적이 상기 상황 정보 제공 장치(300)의 카메라 모듈에서 감지될 수 있는 곳에 위치하게 되는 경우, 해당 표적이 촬영 가능 영역, 즉, 가시 거리내에 존재함을 사용자가 인지할 수 있도록, 해당 표적을 나타내던 하얀색 원형의 포인트가 다른 색상 또는 다른 형태로 변경될 수 있다.Referring to FIG. 4A, the target is represented by a white circular point, which corresponds to a target of a position that can not be detected through the camera module of the situation
도 4의 (b)는 실제 주변 영상 데이터를 제외한 가상의 표적 영상만을 나타내는 상황 정보 제공 장치(300)의 화면을 도시하고 있다.4B shows a screen of the situation
일 실시예에 따른 가상의 표적 영상은 도 4의 (b)와 같이 레이더 화면 형태로 제공될 수 있으며, 방위 및 거리에 따라 일정 영역으로 구분함으로써, 사용자에게 표적의 예상 위치를 보다 정확하게 제공할 수 있다.The virtual target image according to one embodiment can be provided in the form of a radar screen as shown in FIG. 4 (b). By dividing the virtual target image into a certain region according to the orientation and the distance, have.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included within the scope of the present invention.
100 : 센서노드
200 : 게이트웨이
300 : 상황 정보 제공 장치
310 : 사용자 인증부
320 : 카메라부
330 : 분석부
331 : 촬영 정보 분석부
332 : 센싱 정보 분석부
340 : 디스플레이부
341 : 증강현실 디스플레이부
342 : 상황 정보 디스플레이부
350 : 감지 결과 처리부
360 : 음향 정보 송수신부
370 : 제어부
380 : 통신부
400 : 중앙 관제 서버100: sensor node
200: Gateway
300: situation information providing device
310:
320:
330: Analytical Department
331: photographing information analyzing unit
332: Sensing information analysis section
340:
341: Augmented reality display section
342: Situation information display section
350: detection result processing unit
360: Acoustic information transmission /
370:
380:
400: central control server
Claims (13)
상기 관심 영역의 실제 영상을 촬영하는, 카메라부;
상기 카메라부로부터 영상 데이터를 수신하여, 상기 관심 영역의 실제 영상을 기반으로 주변 환경 정보 분석을 수행하는, 촬영 정보 분석부;
상기 관심 영역 내부 또는 주변부에 배치된 일 이상의 센서노드로부터 수신된 센싱 정보들을 기반으로 표적의 침입 정보, 표적의 움직임 정보, 표적의 이동 경로, 표적의 이동 속도, 표적의 특징 정보, 표적의 예상 출현 위치 정보 또는 각 위치별 표적의 출현 가능성 정보 중 일 이상의 정보를 포함한 표적 정보를 분석하는, 센싱 정보 분석부; 및
상기 카메라부로부터 수신된 실제 영상 및 상기 센싱 정보 분석부로부터 수신된 표적 정보에 따라 예측되는 가상의 표적 영상이 중첩된 증강현실 영상을 디스플레이 하는, 증강현실 디스플레이부를 포함하고,
상기 촬영 정보 분석부는,
상기 실제 영상을 기반으로, 상기 관심 영역의 공간적 정보, 상기 관심 영역에 존재하는 사물들에 관한 정보, 상기 상황 정보 제공 장치의 위치 정보, 상기 관심 영역의 장소적 활용 정보, 또는 상기 실제 영상에서 촬영된 표적이 존재하는 경우에는 상기 촬영된 표적의 움직임 정보 중 일 이상의 정보를 포함한 주변 환경 정보를 분석하는 것을 특징으로 하는, 상황 정보 제공 장치.A situation information providing apparatus for providing surrounding situation information on a user's interest area,
A camera unit for photographing a real image of the area of interest;
An image capturing information analyzing unit receiving image data from the camera unit and analyzing surrounding information based on an actual image of the area of interest;
Based on sensing information received from one or more sensor nodes disposed in or around the ROI, target intrusion information, target motion information, target movement path, target movement speed, target feature information, A sensing information analyzer for analyzing target information including at least one of position information or appearance possibility information of a target for each position; And
An augmented reality display unit for displaying an augmented reality image in which a virtual target image predicted according to an actual image received from the camera unit and target information received from the sensing information analysis unit is superimposed,
The photographing information analyzing unit,
The method according to any one of claims 1 to 3, further comprising the steps of: generating, based on the actual image, spatial information of the ROI, information on objects existing in the ROI, location information of the ROI, And analyzes surrounding information including at least one piece of motion information of the photographed target when the target is present.
상기 촬영 정보 분석부에서 분석된 주변 환경 정보, 상기 센싱 정보 분석부에서 분석된 표적 정보, 중앙 관제 서버로부터 수신된 타 관심 영역의 상황 정보 또는 제어 명령 정보 중 일 이상의 정보를 포함하는 상황 정보를 디스플레이 하는, 상황 정보 디스플레이부를 포함하는, 상황 정보 제공 장치.The method according to claim 1,
The status information including at least one of the surrounding information analyzed by the shooting information analyzing unit, the target information analyzed by the sensing information analyzing unit, the status information of the other area of interest received from the central control server or the control command information, And a status information display unit for displaying the status information.
상기 상황 정보 디스플레이부는,
상기 증강현실 영상 위에 도형 또는 그림을 표시하는 방법, 수치적으로 표시하는 방법 또는 상기 상황 정보에 대한 설명을 문자로 나타내는 방법 중 일 이상의 방법을 통해 상기 관심 영역에 대한 상황 정보를 디스플레이 하는 것을 특징으로 하는, 상황 정보 제공 장치.The method of claim 3,
The situation information display unit displays,
And displaying context information about the ROI through one or more of a method of displaying a figure or figure on the ARP image, a method of numerically displaying the character information, The status information providing device.
상기 사용자의 ID 및 패스워드 인증, 지문 인증, 또는 홍채 인증 방법 중 일 이상의 방법을 통해, 상기 사용자의 상기 상황 정보 제공 장치에 대한 사용 권한 여부를 확인하는, 사용자 인증부를 포함하는, 상황 정보 제공 장치.The method according to claim 1,
And a user authentication unit for verifying whether the user is authorized to use the situation information providing apparatus through one or more of ID, password authentication, fingerprint authentication, or iris authentication method of the user.
상기 촬영 정보 분석부 또는 상기 센싱 정보 분석부에서 분석된 상기 상황 정보를 토대로, 상기 관심 영역의 주변 상황의 중요도 또는 심각도를 판단하여, 상기 상황 정보 데이터의 자체적인 저장 또는 중앙 관제 서버로의 전송 여부를 결정하는, 감지 결과 처리부를 포함하는, 상황 정보 제공 장치.The method according to claim 1,
The importance information or the severity of the circumstance of the ROI is determined based on the situation information analyzed by the shooting information analyzing unit or the sensing information analyzing unit and whether or not the status information data is stored in its own storage or transmitted to the central control server And a detection result processing unit for determining the detection result processing unit.
상기 사용자의 음성 인식을 통한 사용자 명령 수신, 또는 음성으로 상기 상황 정보의 제공을 수행하는, 음향 정보 송수신부를 포함하는, 상황 정보 제공 장치.The method according to claim 1,
And an acoustic information transceiver for performing reception of a user command through speech recognition of the user or providing of the context information by voice.
동작 감지 센싱을 통해 침입 감지 또는 표적의 움직임 감지를 수행하여 센싱 정보를 생성하는, 일 이상의 센서노드;
상기 일 이상의 센서노드와 무선 센서 네트워크를 통해 일 이상의 센싱 정보를 수집하여, 무선 센서 네트워크 외부의 상황 정보 제공 장치 또는 중앙 관제 서버로 전송하는, 게이트웨이;
상기 관심 영역 주변의 실제 영상을 촬영하고, 상기 실제 영상 및 상기 센서노드의 센싱 정보를 분석함으로써, 상기 관심 영역에 대한 상황 정보를 제공하는, 상황 정보 제공 장치; 및
일 이상의 상황 정보 제공 장치로부터 일 이상의 관심 영역에 대한 상황 정보 데이터를 수집함으로써, 광범위한 영역에 대한 주변 상황 분석을 수행하고, 상기 상황 정보 제공 장치에 타 관심 영역에 대한 상황 정보를 제공하거나, 상기 센서노드 또는 상기 상황 정보 제공 장치에 제어 명령을 전송하는, 중앙 관제 서버를 포함하고,
상기 일 이상의 센서노드는,
상기 관심 영역 내부 또는 상기 관심 영역 주변부에 배치되는 것을 특징으로 하는, 상황 정보 제공 시스템.A situation information providing system for providing surrounding situation information on a user's interest area,
One or more sensor nodes for generating intrusion detection or motion detection of a target through motion detection sensing to generate sensing information;
A gateway for collecting one or more pieces of sensing information through the one or more sensor nodes and the wireless sensor network and transmitting the collected sensing information to a situation information providing device or a central control server outside the wireless sensor network;
A situation information providing device for capturing an actual image around the ROI, and providing context information about the ROI by analyzing the actual image and sensing information of the sensor node; And
The information processing apparatus according to any one of claims 1 to 3, further comprising: a status information collecting unit for collecting status information data for one or more interested areas from one or more status information providing apparatuses, And a central control server for transmitting a control command to the node or the situation information providing device,
The at least one sensor node comprises:
Wherein the location information is located within the area of interest or around the area of interest.
상기 게이트웨이는,
상기 센서노드 각각에 대한 구분자 정보 또는 상기 각 센서노드의 배치 정보를 수집하여 상기 상황 정보 제공 장치 또는 상기 중앙 관제 서버로 전송하는 것을 특징으로 하고,
상기 상황 정보 제공 장치는,
상기 게이트웨이로부터 수신된 상기 각 센서노드의 구분자 정보 또는 상기 배치 정보를 토대로 상기 센싱 정보를 분석함으로써, 상기 표적의 정확한 위치 정보 또는 이동 경로 정보를 파악할 수 있도록 하는 것을 특징으로 하는, 상황 정보 제공 시스템.9. The method of claim 8,
The gateway comprises:
Wherein the sensor node collects delimiter information for each of the sensor nodes or arrangement information of the sensor nodes and transmits the collected information to the status information providing device or the central control server,
The situation information providing apparatus includes:
Wherein the sensing information analyzing unit analyzes the sensing information based on the delimiter information or the layout information of each sensor node received from the gateway so as to grasp accurate positional information or movement route information of the target.
(a) 상기 관심 영역 내부 또는 상기 관심 영역 주변부에 배치된 일 이상의 센서노드로부터 센싱된 일 이상의 센싱 정보를 수집하는 단계;
(b) 상기 관심 영역을 촬영함으로써, 상기 관심 영역의 촬영 정보를 포함하는 실제 영상 데이터를 수집하는 단계;
(c) 상기 촬영 정보 또는 상기 센싱 정보를 분석하여 상기 관심 영역에 대한 상황 정보를 분석하는 단계;
(d) 상기 촬영 정보, 및 상기 센싱 정보 분석으로부터 예측되는 가상의 표적 영상 데이터를 중첩하여 증강현실 영상 데이터를 생성 및 제공하는 단계; 및
(e) 상기 촬영 정보 분석을 통해 획득되는 상기 관심 영역의 공간적 정보, 상기 관심 영역에 존재하는 사물들에 관한 정보, 상기 상황 정보 제공 장치의 위치 정보, 상기 관심 영역의 장소적 활용 정보, 또는 상기 센싱 정보 분석을 통해 획득되는 표적의 침입 정보, 표적의 움직임 정보, 표적의 이동 경로, 표적의 이동 속도, 표적의 특징 정보, 표적의 예상 출현 위치 정보 또는 각 위치별 표적의 출현 가능성 정보 중 일 이상을 포함하는 상기 관심 영역에 대한 상황 정보를 제공하는 단계를 포함하고,
상기 (a) 단계 이전에,
상기 사용자의 ID 및 패스워드 인증, 지문 인증, 또는 홍채 인증 방법 중 일 이상의 방법을 통해, 상기 사용자의 상기 상황 정보 제공 장치에 대한 사용 권한 유무를 확인하는 단계를 포함하는, 상황 정보 제공 방법.A method for providing context information on a region of interest of a user, the method comprising:
(a) collecting at least one sensing information sensed from one or more sensor nodes disposed within the ROI or the ROI;
(b) capturing actual image data including photographing information of the ROI by photographing the ROI;
(c) analyzing the shooting information or the sensing information and analyzing the situation information on the ROI;
(d) generating and providing augmented reality image data by superimposing the imaging information and virtual target image data predicted from the sensing information analysis; And
(e) information on the object in the ROI, information on the location of the ROI in the ROI, information on the location of the ROI in the ROI, The target motion information, the movement path of the target, the movement speed of the target, the characteristic information of the target, the expected position of the target, or the possibility of appearance of the target by each position, And providing context information for the region of interest,
Before the step (a)
And checking whether the user has the right to use the situation information providing apparatus through one or more of ID, password authentication, fingerprint authentication, or iris authentication method of the user.
상기 (e) 단계 이전에,
중앙 관제 서버로부터 타 관심 영역의 상황 정보 또는 제어 명령 정보 중 일 이상의 정보를 수신하는 단계를 포함하고,
상기 (e) 단계에서 제공되는 상기 상황 정보는,
상기 중앙 관제 서버로부터 수신된 상기 타 관심 영역의 상황 정보 또는 상기 제어 명령 정보를 포함하는 것을 특징으로 하는, 상황 정보 제공 방법.12. The method of claim 11,
Prior to step (e)
And receiving from the central control server one or more pieces of information of status information or control command information of another area of interest,
The status information provided in the step (e)
And the status information of the other area of interest or the control command information received from the central control server.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160167770A KR101757884B1 (en) | 2016-12-09 | 2016-12-09 | Apparatus for providing circumstance information based on battlefield situation awareness and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160167770A KR101757884B1 (en) | 2016-12-09 | 2016-12-09 | Apparatus for providing circumstance information based on battlefield situation awareness and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101757884B1 true KR101757884B1 (en) | 2017-07-13 |
Family
ID=59352445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160167770A KR101757884B1 (en) | 2016-12-09 | 2016-12-09 | Apparatus for providing circumstance information based on battlefield situation awareness and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101757884B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2568361A (en) * | 2017-09-11 | 2019-05-15 | Bae Systems Plc | Apparatus and method for defining and interacting with regions of an operational area |
KR20200081026A (en) | 2018-12-27 | 2020-07-07 | 주식회사 케이티 | Server, device and method for providing augmented reality service |
KR102332491B1 (en) * | 2020-11-18 | 2021-12-01 | 한화시스템 주식회사 | Apparatus for providing information and method for providing information |
US11200735B2 (en) | 2017-09-11 | 2021-12-14 | Bae Systems Plc | Apparatus and method for defining and interacting with regions of an operational area |
US11783547B2 (en) | 2017-09-11 | 2023-10-10 | Bae Systems Plc | Apparatus and method for displaying an operational area |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101076240B1 (en) * | 2011-03-04 | 2011-10-26 | 삼성탈레스 주식회사 | Device and method for an air defense situation awareness using augmented reality |
-
2016
- 2016-12-09 KR KR1020160167770A patent/KR101757884B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101076240B1 (en) * | 2011-03-04 | 2011-10-26 | 삼성탈레스 주식회사 | Device and method for an air defense situation awareness using augmented reality |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2568361A (en) * | 2017-09-11 | 2019-05-15 | Bae Systems Plc | Apparatus and method for defining and interacting with regions of an operational area |
GB2568361B (en) * | 2017-09-11 | 2021-08-04 | Bae Systems Plc | Apparatus and method for defining and interacting with regions of an operational area |
US11200735B2 (en) | 2017-09-11 | 2021-12-14 | Bae Systems Plc | Apparatus and method for defining and interacting with regions of an operational area |
US11783547B2 (en) | 2017-09-11 | 2023-10-10 | Bae Systems Plc | Apparatus and method for displaying an operational area |
KR20200081026A (en) | 2018-12-27 | 2020-07-07 | 주식회사 케이티 | Server, device and method for providing augmented reality service |
KR102332491B1 (en) * | 2020-11-18 | 2021-12-01 | 한화시스템 주식회사 | Apparatus for providing information and method for providing information |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101757884B1 (en) | Apparatus for providing circumstance information based on battlefield situation awareness and method thereof | |
JP5150067B2 (en) | Monitoring system, monitoring apparatus and monitoring method | |
KR101758576B1 (en) | Method and apparatus for detecting object with radar and camera | |
WO2016110903A1 (en) | Person tracking system and person tracking method | |
KR101248054B1 (en) | Object tracking system for tracing path of object and method thereof | |
KR100989081B1 (en) | System and method for event surveillancing by using network camera | |
KR101948569B1 (en) | Flying object identification system using lidar sensors and pan/tilt zoom cameras and method for controlling the same | |
US20170206664A1 (en) | Method for identifying, tracking persons and objects of interest | |
KR101858396B1 (en) | Intelligent intrusion detection system | |
JP6588413B2 (en) | Monitoring device and monitoring method | |
JP6244120B2 (en) | Video display system and video display program | |
US10341616B2 (en) | Surveillance system and method of controlling the same | |
RU2268497C2 (en) | System and method for automated video surveillance and recognition of objects and situations | |
US11450098B2 (en) | Firearm detection system and method | |
US10896513B2 (en) | Method and apparatus for surveillance using location-tracking imaging devices | |
US11093757B2 (en) | Firearm detection system and method | |
WO2020204735A1 (en) | Method for sharing information for identifying a person or object | |
KR101324221B1 (en) | System for tracking object using capturing and method thereof | |
KR20220048200A (en) | Fence monitoring system | |
GB2586099A (en) | An apparatus and method for person detection, tracking and identification utilizing wireless signals and images | |
KR20170100892A (en) | Position Tracking Apparatus | |
WO2020065852A1 (en) | Authentication system, authentication method, and storage medium | |
US11514600B2 (en) | Information processing device and information processing method | |
JP2024012472A (en) | Monitor target identification apparatus, monitor target identification system, and monitor target identification method | |
CN111294552A (en) | Image acquisition equipment determining method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |