KR20110110895A - System for fusing realtime image and context data by using position and time information - Google Patents

System for fusing realtime image and context data by using position and time information Download PDF

Info

Publication number
KR20110110895A
KR20110110895A KR1020100030173A KR20100030173A KR20110110895A KR 20110110895 A KR20110110895 A KR 20110110895A KR 1020100030173 A KR1020100030173 A KR 1020100030173A KR 20100030173 A KR20100030173 A KR 20100030173A KR 20110110895 A KR20110110895 A KR 20110110895A
Authority
KR
South Korea
Prior art keywords
index
image
sensing data
storage unit
information
Prior art date
Application number
KR1020100030173A
Other languages
Korean (ko)
Inventor
김도현
현진규
박희동
Original Assignee
제주대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 제주대학교 산학협력단 filed Critical 제주대학교 산학협력단
Priority to KR1020100030173A priority Critical patent/KR20110110895A/en
Publication of KR20110110895A publication Critical patent/KR20110110895A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/18Service support devices; Network management devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Multimedia (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명은 센서 네트워크에서 수집된 센싱 데이터와 영상을 인덱스를 이용하여 융합하는 실시간 동영상 및 상황 텍스트 데이터 융합 시스템에 관한 것이다. 본 발명의에 따른 실시간 동영상 및 상황 텍스트 데이터 융합 시스템은, 센서 네트워크로부터 제공되는 센싱 데이터로부터 위치와 센서 인덱스를 추출하는 센싱 데이터 수집부; 영상 장치로부터 제공되는 영상 정보로부터 위치와 영상 인덱스를 추출하는 영상 수집부; 상기 센싱 데이터 수집부에 의해 추출된 센서 인덱스와, 상기 영상 수집부에 의해 추출된 영상 인덱스, 위치와 시간 정보를 통합하여 통합 인덱스를 생성하는 인덱스 처리부; 상기 인덱스 처리부에 의해 생성된 통합 인덱스를 저장하기 위한 통합 인덱스 저장부; 센서 네트워크로부터 상기 센싱 데이터 수집부를 거쳐 제공되는 센싱 데이터를 저장하기 위한 센싱 데이터 저장부; 영상 장치로부터 상기 영상 수집부를 거쳐 제공되는 영상 정보를 영상 데이터로서 저장하기 위한 영상 데이터 저장부; 및 상기 통합 인덱스 저장부로부터 통합 인덱스를 불러와서 상기 센싱 데이터 저장부 및 상기 영상 데이터 저장부에 각각 저장된 센싱 데이터 및 영상 데이터를 상기 불러온 통합 인덱스와 연결하고, 통합 인덱스가 연결된 센싱 데이터 및 영상 데이터를 상기 센싱 데이터 저장부 및 상기 영상 데이터 저장부에 저장시키는 인덱스 연결부를 포함하는 것을 특징으로 한다.The present invention relates to a real-time video and contextual text data fusion system that fuses sensing data and images collected from a sensor network using an index. Real-time video and contextual text data fusion system according to the present invention, the sensing data collection unit for extracting the position and sensor index from the sensing data provided from the sensor network; An image collecting unit extracting a position and an image index from the image information provided from the imaging apparatus; An index processing unit for generating an integrated index by integrating the sensor index extracted by the sensing data collector, the image index extracted by the image collector, position and time information; A unitary index storage unit for storing a unitary index generated by the index processor; A sensing data storage unit for storing sensing data provided from the sensor network via the sensing data collector; An image data storage unit for storing image information provided from the imaging apparatus via the image collecting unit as image data; And import sensing indexes from the unified index storage unit, and connect sensing data and image data stored in the sensing data storage unit and the image data storage unit with the retrieved unified index, respectively. And an index connection unit for storing the sensing data storage unit and the image data storage unit.

Description

위치와 시간 정보를 이용한 실시간 동영상 및 상황 텍스트 데이터 융합 시스템{SYSTEM FOR FUSING REALTIME IMAGE AND CONTEXT DATA BY USING POSITION AND TIME INFORMATION}Real-time video and contextual text data fusion system using location and time information {SYSTEM FOR FUSING REALTIME IMAGE AND CONTEXT DATA BY USING POSITION AND TIME INFORMATION}

본 발명은 센서 네트워크에서 수집된 데이터를 웹 상에서 제어 및 표시하기 위한 센서 웹 기술에 관한 것으로, 더욱 구체적으로, 센서 네트워크에서 수집된 센싱 데이터와 영상 장치에서 수집된 영상을 위치와 시간 정보 기반의 통합 인덱스를 이용하여 융합하고, 영상과 센싱 데이터의 검색을 가능하게 하는 실시간 동영상 및 상황 텍스트 데이터 융합 시스템에 관한 것이다.
The present invention relates to a sensor web technology for controlling and displaying data collected from a sensor network on a web. More specifically, the present invention provides a method of integrating sensing data collected from a sensor network and an image collected from an imaging device based on location and time information. The present invention relates to a real-time video and contextual text data fusion system that fuses using an index and enables searching of images and sensing data.

유비쿼터스 컴퓨팅(ubiquitous computing) 개념은 1988년 XEROX 사의 PARC(Palo Alto Research Center)의 마크 와이저에 의해 처음으로 제안되었다. 이 유비쿼터스 컴퓨팅 개념에 따르면, 도처에 언제 어디서나 존재하고 환경이나 사물 속에 스며들어 보이지 않는 컴퓨터를 구현하여, 컴퓨터의 활용과 연결을 의식하지 않아도 되는 인간 중심의 컴퓨팅 환경이 강조되고 있다.The concept of ubiquitous computing was first proposed in 1988 by Mark Weiser of the Palo Alto Research Center (PARC) of XEROX. According to this ubiquitous computing concept, a human-centered computing environment that emphasizes the use and connection of computers by embodying computers that exist everywhere and do not seep into the environment or objects is emphasized.

유비쿼터스 컴퓨팅 환경을 실현하기 위하여, 여러 분야에 센서 네트워크가 구축되고 실시간 상황 정보가 수집되고 있다. 최근, 이와 같이 센서 네트워크로부터 수집된 센싱 데이터를 인터넷을 통해 일반 사용자에게 전달하는 연구가 진행되고 있다. 더불어, 센싱 데이터를 단순히 문자나 그래프 형태뿐만 아니라 지리정보시스템(GIS : geographic information system)과 연계하여 지도 상에서 표시하는 연구가 시도되고 있다.In order to realize a ubiquitous computing environment, sensor networks have been established in various fields and real-time situation information is collected. Recently, researches for transmitting sensing data collected from the sensor network to the general user through the Internet have been conducted. In addition, research has been attempted to display sensing data on a map in connection with a geographic information system (GIS) as well as a text or graph form.

이러한 연구의 일환으로서 OGC(open geospatial consortium)의 센서 웹 기술이 대표적이며, 센서 웹은 물리적 세계와 사이버 공간을 연결하는 새로운 패러다임으로, 여러 센서, 시설물, 영상 장치들을 이용하여 저장된 센싱 데이터를 표시하고 제어할 수 있는 웹 응용 기술이다.As part of this research, OGC (open geospatial consortium) sensor web technology is representative. The sensor web is a new paradigm that connects the physical world and cyber space, and displays stored sensing data using various sensors, facilities, and imaging devices. Web application technology that can be controlled.

현재, 단위 센서 네트워크에서 수집된 데이터를 웹상에서 보여주는 센서 웹 기술은 마이크로소프트사, OGC, 호주 멜버런 대학교 등에서 서비스 중심 센서웹(service oriented sensor web), 센싱 데이터의 표준 표현이나 프로토콜, 센싱 데이터 및 노드를 검색하고 관리하는 구조 등에 대해 연구되고 있다. 이러한 센서 웹에서 센싱 데이터와, 영상 장치로부터 수집된 영상을 표시하기 위해서는 이 센싱 데이터와 영상 데이터 사이의 융합이 필요하다.Currently, sensor web technologies that display data collected from unit sensor networks on the web include service oriented sensor webs, standard representations or protocols of sensing data, sensing data, and the like at Microsoft, OGC, and Melbourne University, Australia. The researches on the structure of searching and managing nodes have been conducted. In order to display the sensing data and the image collected from the imaging apparatus in such a sensor web, a fusion between the sensing data and the image data is required.

종래의 기술에 의하면, 클라이언트가 영상 정보와 센싱 데이터를 제공받을 때, 해당 센서 네트워크와 영상 시스템에서 수집된 정보가 개별적으로 표시되므로, 제공된 영상 정보와 센싱 데이터에 대해 관련성을 해독하기가 곤란하다는 문제점이 있었다. 이로 인해 사용자에게 동일한 시간이나 장소에서 발생한 상황 센싱 데이터와 영상 정보를 효과적으로 동시에 제공하기 어렵다.
According to the related art, when the client receives the image information and the sensing data, the information collected from the sensor network and the image system are displayed separately, so that it is difficult to decipher the relation between the provided image information and the sensing data. There was this. As a result, it is difficult to effectively provide both the situation sensing data and the image information generated at the same time or place to the user.

본 발명은 전술한 바와 같은 기술적 과제를 달성하기 위한 것으로서, 센서 네트워크에서 수집된 센싱 데이터 및 영상 장치로부터 수집된 영상 정보를 위치와 시간(timestamp) 정보를 이용하여 사용자에게 통합하여 제공하는 실시간 동영상 및 상황 텍스트 데이터 융합 시스템을 제공하는 것을 목적으로 한다.
The present invention is to achieve the technical problem as described above, real-time video that integrates the sensing data collected from the sensor network and the image information collected from the imaging device to the user using location and time (timestamp) information and It is an object to provide a contextual text data fusion system.

본 발명의 일 특징에 따른 실시간 동영상 및 상황 텍스트 데이터 융합 시스템은, 센서 네트워크로부터 제공되는 센싱 데이터로부터 위치와 센서 인덱스를 추출하는 센싱 데이터 수집부; 영상 장치로부터 제공되는 영상 정보로부터 위치와 영상 인덱스를 추출하는 영상 수집부; 상기 센싱 데이터 수집부에 의해 추출된 센서 인덱스와, 상기 영상 수집부에 의해 추출된 영상 인덱스와, 위치 및 시간 정보를 통합하여 통합 인덱스를 생성하는 인덱스 처리부; 상기 인덱스 처리부에 의해 생성된 통합 인덱스를 저장하는 통합 인덱스 저장부; 센서 네트워크로부터 상기 센싱 데이터 수집부를 거쳐 제공되는 센싱 데이터를 저장하는 센싱 데이터 저장부; 영상 장치로부터 상기 영상 수집부를 거쳐 제공되는 영상 정보를 영상 데이터로서 저장하는 영상 데이터 저장부; 및 상기 통합 인덱스 저장부로부터 통합 인덱스를 불러와서 상기 센싱 데이터 저장부 및 상기 영상 데이터 저장부에 각각 저장된 센싱 데이터 및 영상 데이터를 상기 불러온 통합 인덱스와 연결하고, 통합 인덱스가 연결된 센싱 데이터 및 영상 데이터를 상기 센싱 데이터 저장부 및 상기 영상 데이터 저장부에 저장시키는 인덱스 연결부를 포함하는 것을 특징으로 한다.
Real-time video and contextual text data fusion system according to an aspect of the present invention, the sensing data collection unit for extracting the position and sensor index from the sensing data provided from the sensor network; An image collecting unit extracting a position and an image index from the image information provided from the imaging apparatus; An index processor for generating a unified index by integrating a sensor index extracted by the sensing data collector, an image index extracted by the image collector, and position and time information; A unitary index storage unit which stores a unitary index generated by the index processor; A sensing data storage configured to store sensing data provided from the sensor network via the sensing data collector; An image data storage unit for storing image information provided from the image apparatus via the image collecting unit as image data; And import sensing indexes from the unified index storage unit, and connect sensing data and image data stored in the sensing data storage unit and the image data storage unit with the retrieved unified index, respectively. And an index connection unit for storing the sensing data storage unit and the image data storage unit.

본 발명의 위치와 시간 정보를 이용한 실시간 동영상 및 상황 텍스트 데이터 융합 시스템에 따르면, 센서 네트워크에서 수집된 센싱 데이터로부터 추출된 센서 인덱스, 영상 장치에서 수집된 영상 정보로부터 추출된 영상 인덱스, 위치 및 시간 정보를 이용하여 통합 인덱스를 생성함으로써, 센서 네트워크 내의 해당 노드에 대한 실시간 영상 정보와 센싱 데이터를 효과적으로 융합하여 사용자에게 제공할 수 있고, 사용자는 영상 정보와 센싱 데이터의 관련성을 용이하게 해독할 수 있는 효과를 달성할 수 있다.
According to the real-time video and contextual text data fusion system using the location and time information of the present invention, the sensor index extracted from the sensing data collected from the sensor network, the image index extracted from the image information collected from the imaging device, the position and time information By generating a unified index using, it is possible to effectively fuse the real-time image information and the sensing data for the node in the sensor network to provide to the user, the user can easily decipher the relationship between the image information and the sensing data Can be achieved.

도 1은 본 발명의 실시예에 따른 실시간 동영상 및 상황 텍스트 데이터 융합 시스템을 도시하는 블럭도이다.
도 2는 도 1의 융합 시스템에서 영상과 센싱 데이터의 수집 및 저장 과정을 도시하는 도면이다.
도 3은 도 1의 융합 시스템에서 클라이언트에 의한 영상 및 센싱 데이터 질의 과정을 도시하는 도면이다.
도 4는 도 1에 도시된 융합 시스템의 통합 인덱스 저장부(40)에서 이용되는 통합 인덱스 테이블의 스키마 구조를 도시하는 도표이다.
도 5는 도 1에 도시된 융합 시스템의 표시 모듈(82)에서 센싱 데이터 및 영상 데이터를 표시하는 과정을 도시하는 도면이다.
도 6은 본 발명의 실시예에 따른 융합 시스템에서 노드 컴포넌트의 이동 및 업데이트 과정을 도시하는 도면이다.
도 7은 도 1에 도시된 영상 장치(12)를 예시하는 도면이다.
도 8은 도 1에 도시된 센서 웹 어플리케이션(81)의 실행에 의한 관리자 응용 화면을 예시하는 도면이다.
도 9는 도 1에 도시된 센서 웹 어플리케이션(81)의 실행에 의한 사용자 응용 화면을 예시하는 도면이다.
도 10은 도 1에 도시된 센서 웹 어플리케이션(81)의 실행에 의한 첫 번째 센서 노드의 영상 및 센싱 데이터 표시 화면을 도시하는 도면이다.
도 11은 도 1에 도시된 센서 웹 어플리케이션(81)의 실행에 의한 두 번째 센서 노드의 영상 및 센싱 데이터 표시 화면을 도시하는 도면이다.
1 is a block diagram illustrating a real-time video and contextual text data fusion system according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a process of collecting and storing images and sensing data in the fusion system of FIG. 1.
FIG. 3 is a diagram illustrating an image and sensing data query process performed by a client in the fusion system of FIG. 1.
FIG. 4 is a diagram illustrating a schema structure of a unified index table used in the unified index storage 40 of the fusion system shown in FIG. 1.
FIG. 5 is a diagram illustrating a process of displaying sensing data and image data in the display module 82 of the fusion system illustrated in FIG. 1.
6 is a diagram illustrating a process of moving and updating a node component in a fusion system according to an embodiment of the present invention.
FIG. 7 is a diagram illustrating the imaging device 12 illustrated in FIG. 1.
FIG. 8 is a diagram illustrating an administrator application screen by executing the sensor web application 81 shown in FIG. 1.
FIG. 9 is a diagram illustrating a user application screen by executing the sensor web application 81 shown in FIG. 1.
FIG. 10 is a diagram illustrating an image and sensing data display screen of the first sensor node by executing the sensor web application 81 shown in FIG. 1.
FIG. 11 is a diagram illustrating an image and sensing data display screen of a second sensor node by executing the sensor web application 81 shown in FIG. 1.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명한다. 그러나, 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예는 본 발명의 개시가 완전하도록 하며 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be embodied in various different forms, and only the embodiments are intended to complete the disclosure of the present invention and to those skilled in the art. It is provided for complete information.

이하의 실시예에 대한 설명에서는 "실시간 동영상 및 상황 텍스트 데이터 융합 시스템"을 간단히 축약하여 "융합 시스템"으로 표현하고 있으나, 이러한 용어들이 동일한 대상을 지칭한다는 것은 당업자에게 자명할 것이다.In the following description of the embodiment, "real-time video and contextual text data fusion system" is briefly abbreviated as "fusion system", but it will be apparent to those skilled in the art that these terms refer to the same object.

먼저, 도 1을 참조하여 본 발명의 실시예에 따른 실시간 동영상 및 상황 텍스트 데이터 융합 시스템의 구성 및 동작에 대해 설명한다.First, the configuration and operation of a real-time video and contextual text data fusion system according to an embodiment of the present invention will be described with reference to FIG. 1.

도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 실시간 동영상 및 상황 텍스트 데이터 융합 시스템은 센서 네트워크(11)에 연결된 센싱 데이터 수집부(21), 영상 장치(12)의 출력신호를 받아들이는 영상 수집부(22), 센서 인덱스 테이블(31) 및 영상 인덱스 테이블(32)을 내장하는 인덱스 처리부(30), 통합 인덱스 저장부(40), 인덱스 연결부(50), 센싱 데이터 저장부(61), 영상 데이터 저장부(62), 노드 관리부(70), 센서 웹 어플리케이션(81), 표시 모듈(82) 및 지도 관리부(83)를 포함한다.As shown in FIG. 1, the real-time video and contextual text data fusion system according to an embodiment of the present invention receives an output signal from the sensing data collector 21 and the imaging device 12 connected to the sensor network 11. Index processing unit 30 that incorporates an image collector 22, a sensor index table 31, and an image index table 32, an integrated index storage unit 40, an index connection unit 50, and a sensing data storage unit 61. And an image data storage 62, a node manager 70, a sensor web application 81, a display module 82, and a map manager 83.

센서 네트워크(11)는 관찰 대상 공간의 복수의 노드에서 특정 물리량, 예를 들어, 습도, 온도, 광도 또는 전력 용량 등을 측정하기 위한 센서들의 집합이다. 센서 네트워크(11)의 각각의 센서는 이러한 측정된 물리량에 관한 데이터와 함께 센서들의 위치 정보를 출력한다. 영상 장치(12)는 상기 복수의 노드에 각각 설치되어 실시간 영상을 촬영하여 제공한다. 영상 장치(12)는 촬영된 실시간 영상 데이터와 함께 영상 장치(12)의 위치 정보를 출력한다.The sensor network 11 is a collection of sensors for measuring a specific physical quantity, for example, humidity, temperature, light intensity or power capacity, etc. at a plurality of nodes in the observation target space. Each sensor of the sensor network 11 outputs the position information of the sensors together with the data about the measured physical quantity. The imaging device 12 is installed at each of the plurality of nodes to provide a real time image. The imaging device 12 outputs the location information of the imaging device 12 together with the captured real-time image data.

센서 네트워크(11)의 각 센서들로부터 검출된 센싱 데이터는 센싱 데이터 수집부(21)에 제공되고, 센싱 데이터 수집부(21)는 이 센싱 데이터로부터 센서 인덱스와 위치 정보를 추출하여 센서 인덱스 테이블(31)로 출력함과 동시에, 상기 센싱 데이터를 센싱 데이터 저장부(61)로 출력한다.The sensing data detected from each sensor of the sensor network 11 is provided to the sensing data collector 21, and the sensing data collector 21 extracts the sensor index and the position information from the sensing data to generate a sensor index table ( 31 and at the same time, the sensing data is output to the sensing data storage 61.

이와 유사하게, 영상 장치(12)에 의해 촬영된 영상 정보는 영상 수집부(22)에 제공되고, 영상 수집부(22)는 이 영상 정보로부터 위치와 영상 인덱스를 추출하여 영상 인덱스 테이블(32)로 출력함과 동시에, 상기 영상 정보를 영상 데이터 저장부(62)로 출력한다.Similarly, the image information photographed by the image device 12 is provided to the image collecting unit 22, and the image collecting unit 22 extracts the position and the image index from the image information to the image index table 32. The video information is outputted to the video data storage 62.

인덱스 처리부(30)는 센서 인덱스 테이블(31) 및 영상 인덱스 테이블(32)에 각각 저장된 위치, 시간, 센서 인덱스 및 영상 인덱스를 통합하여 통합 인덱스를 생성한다. 인덱스 처리부(30)는 생성된 통합 인덱스를 통합 인덱스 저장부(40)에 출력한다.The index processing unit 30 generates an integrated index by integrating the position, time, sensor index, and image index stored in the sensor index table 31 and the image index table 32, respectively. The index processor 30 outputs the generated unified index to the unified index storage 40.

인덱스 연결부(50)는 통합 인덱스 저장부(40)로부터 통합 인덱스를 불러와서 센싱 데이터 저장부(61) 및 영상 데이터 저장부(62)에 각각 저장된 센싱 데이터 및 영상 데이터를 상기 불러온 통합 인덱스와 연결하는 작업을 수행한다. 인덱스 연결부(50)는 통합 인덱스가 연결된 센싱 데이터 및 영상 데이터를 다시 센싱 데이터 저장부(61) 및 영상 데이터 저장부(62)에 각각 출력하여 이를 저장한다.The index connecting unit 50 retrieves the integrated index from the integrated index storage 40 and connects the sensing data and the image data stored in the sensing data storage 61 and the image data storage 62 with the imported integrated index. To do the job. The index connection unit 50 outputs the sensing data and the image data connected to the integrated index to the sensing data storage 61 and the image data storage 62, respectively, and stores them.

센서 웹 어플리케이션(81)은 사용자 또는 클라이언트(client)의 조작에 의해 실행되고, 센서 네트워크(11) 및 영상 장치(12)로부터 제공되는 센싱 데이터 및 영상 데이터에 대한 사용자 또는 클라이언트의 액세스를 인터페이스한다.The sensor web application 81 is executed by an operation of a user or a client, and interfaces a user's or client's access to sensing data and image data provided from the sensor network 11 and the image device 12.

사용자 또는 클라이언트가 관찰하고자 하는 노드에 관한 데이터 요청 명령을 센서 웹 어플리케이션(81)을 통해 입력하면, 노드 관리부(70)는 인덱스 연결부(50)에 데이터 요청 명령을 전송한다.When a user or client inputs a data request command for a node to be observed through the sensor web application 81, the node manager 70 transmits a data request command to the index connector 50.

인덱스 연결부(50)는 데이터 요청 명령에 응답하여 통합 인덱스 정보를 노드 관리부(70)에 전송하고, 노드 관리부(70)는 응답된 통합 인덱스 정보에 기초하여 센싱 데이터 및 영상 데이터를 센싱 데이터 저장부(61) 및 영상 데이터 저장부(62)로부터 불러오고, 지도 관리부(83)로부터 제공되는 지도 상에 상기 센싱 데이터 및 영상 데이터를 융합하여 표시 모듈(82)에 제공한다.The index connection unit 50 transmits the integrated index information to the node manager 70 in response to the data request command, and the node manager 70 transmits the sensing data and the image data based on the responded integrated index information. 61 and the image data storage 62, and the sensing data and the image data are fused to a map provided from the map manager 83 to the display module 82.

표시 모듈(82)은 노드 관리부(70)에 의해 제공된 지도 상에 융합된 센싱 데이터 및 영상 데이터를 사용자 또는 클라이언트에게 시각적으로 표시하여 센싱 데이터 및 영상 데이터에 대한 복합적인 관찰을 가능하게 한다.The display module 82 visually displays the sensing data and the image data fused on the map provided by the node manager 70 to the user or the client to enable complex observation of the sensing data and the image data.

다음으로, 도 2를 참조하여 도 1의 융합 시스템에서 수행되는 영상과 센싱 데이터의 수집 및 저장 과정에 대해 설명한다.Next, a process of collecting and storing the image and the sensing data performed in the fusion system of FIG. 1 will be described with reference to FIG. 2.

도 2는 도 1의 융합 시스템에서 영상과 센싱 데이터의 수집 및 저장 과정을 도시하는 도면이다.FIG. 2 is a diagram illustrating a process of collecting and storing images and sensing data in the fusion system of FIG. 1.

각 센서에 의해 검출된 센싱 데이터와 위치 정보는 센서 네트워크(11)로부터 센싱 데이터 수집부(21)로 제공되고, 센싱 데이터 수집부(21)는 이 센싱 데이터로부터 센서 노드 인덱스와 위치 정보를 추출하여 인덱스 처리부(30)의 센서 인덱스 테이블(31)에 출력한다. 이와 동시에, 센싱 데이터 수집부(21)는 센서 네트워크(11)로부터 제공된 센싱 데이터를 센싱 데이터 저장부(61)에 출력한다.The sensing data and position information detected by each sensor are provided from the sensor network 11 to the sensing data collector 21, and the sensing data collector 21 extracts sensor node indexes and position information from the sensing data. It outputs to the sensor index table 31 of the index processing part 30. FIG. At the same time, the sensing data collector 21 outputs the sensing data provided from the sensor network 11 to the sensing data storage 61.

이와 유사하게, 영상 장치(12)에 의해 촬영된 영상 정보와 위치 정보는 영상 수집부(22)로 제공되고, 영상 수집부(22)는 이 영상 정보로부터 영상 인덱스와 위치 정보를 추출하여 인덱스 처리부(30)의 영상 인덱스 테이블(32)에 출력한다. 이와 동시에, 영상 수집부(22)는 영상 장치(12)로부터 제공된 영상 정보를 영상 데이터 저장부(62)에 출력한다.Similarly, the image information and the position information photographed by the image device 12 are provided to the image collecting unit 22, and the image collecting unit 22 extracts the image index and the position information from the image information and index processing unit. The video is output to the video index table 32 at 30. At the same time, the image collector 22 outputs the image information provided from the image device 12 to the image data storage 62.

다음으로, 도 3을 참조하여 사용자 또는 클라이언트가 센서 웹 어플리케이션을 이용하여 영상 및 센싱 데이터를 질의하는 과정에 대해 설명한다.Next, a process of querying the image and the sensing data by the user or the client using the sensor web application will be described with reference to FIG. 3.

도 3은 도 1의 융합 시스템에서 클라이언트에 의한 영상 및 센싱 데이터 질의 과정을 도시하는 도면이다.FIG. 3 is a diagram illustrating an image and sensing data query process performed by a client in the fusion system of FIG. 1.

우선, 사용자 또는 클라이어트는 센서 웹 어플리케이션(81)을 실행하여 노드 관리부(70)에 영상 및 센싱 데이터를 요청한다. 이에 대응하여, 노드 관리부(70)는 통합 인덱스 정보를 얻기 위하여 인덱스 연결부(50)에 데이터 요청 명령을 전송하고, 인덱스 연결부(50)는 데이터 요청에 대응하는 통합 인덱스 정보를 노드 관리부(70)에 응답한다.First, the user or client executes the sensor web application 81 to request the image and sensing data from the node manager 70. Correspondingly, the node manager 70 transmits a data request command to the index connector 50 to obtain the combined index information, and the index connector 50 sends the integrated index information corresponding to the data request to the node manager 70. Answer.

그 다음으로, 노드 관리부(70)는 얻어진 통합 인덱스 정보에 대응하는 센싱 데이터를 센싱 데이터 저장부(61)에 요청하여, 해당 센싱 데이터를 센싱 데이터 저장부(61)로부터 획득한다.Next, the node manager 70 requests the sensing data storage unit 61 for sensing data corresponding to the obtained integrated index information, and obtains the sensing data from the sensing data storage unit 61.

전술한 바와 같이, 센싱 데이터 저장부(61)는 통합 인덱스가 연결된 센싱 데이터를 저장하고 있으므로, 입력된 통합 인덱스 정보에 대응하는 센싱 데이터를 용이하게 출력할 수 있다. 노드 관리부(70)는 위와 같이 얻어진 센싱 데이터를 사용자 또는 클라이언트에 제공한다.As described above, since the sensing data storage 61 stores sensing data to which the unified index is connected, the sensing data storage 61 may easily output the sensed data corresponding to the input unified index information. The node manager 70 provides the sensing data obtained as described above to a user or a client.

한편, 노드 관리부(70)는 인덱스 연결부(50)로부터 얻어진 통합 인덱스 정보에 대응하는 영상 데이터를 영상 데이터 저장부(62)에 요청하고, 해당 영상 데이터를 영상 데이터 저장부(62)로부터 획득한다. 노드 관리부(70)는 위와 같이 얻어진 영상 데이터를 사용자 또는 클라이언트에 제공한다.Meanwhile, the node manager 70 requests the image data storage 62 for image data corresponding to the integrated index information obtained from the index connector 50, and obtains the image data from the image data storage 62. The node manager 70 provides the image data obtained as described above to a user or a client.

전술한 바와 같이, 본 발명의 실시예에 따른 실시간 동영상 및 상황 텍스트 데이터 융합 시스템은 센싱 데이터로부터 추출된 센서 인덱스, 영상 데이터로부터 추출된 영상 인덱스, 그리고 위치 및 시간 정보로부터 통합 인덱스 정보를 생성하고, 이 통합 인덱스 정보를 기반으로 사용자 또는 클라이언트에 의한 영상 정보 및 센싱 데이터의 검색 및 출력을 가능하게 한다.As described above, the real-time video and contextual text data fusion system according to the embodiment of the present invention generates the integrated index information from the sensor index extracted from the sensing data, the image index extracted from the image data, and the position and time information, Based on this integrated index information, it is possible to search and output image information and sensing data by a user or a client.

다음으로, 본 발명에서 채용된 통합 인덱스에 대해 도 4의 도표를 참조하여 더욱 상세하게 설명한다.Next, the integrated index employed in the present invention will be described in more detail with reference to the diagram of FIG. 4.

통합 인덱스는 데이터베이스의 테이블의 형태로 설계된다. 도 4는 통합 인덱스에서 가장 핵심인 노드 정보 테이블의 스키마 구조를 도시하고 있다.Consolidated indexes are designed in the form of tables in a database. 4 illustrates a schema structure of the node information table which is the core of the unified index.

도 4에서, "열 이름"이라고 표현된 각 레코드는 센서 웹 어플리케이션의 화면에 도시될 각각의 노드에 대한 정보이고, 그 데이터 형식, 길이, Null 허용 여부, 옵션 및 설명 등이 기술되어 있다.In FIG. 4, each record expressed as "column name" is information about each node to be displayed on the screen of the sensor web application, and its data format, length, nullability, options, and descriptions are described.

본 발명의 실시예에 따른 실시간 동영상 및 상황 텍스트 데이터 융합 시스템에서는, 도 4의 통합 인덱스 테이블에서 인덱스 키 정보인 NI_SC_Code와, 해당 노드에 설치된 영상장치(12) 즉, 웹캠의 IP 및 포트(port) 정보인 NI-WebCamURL와 더불어 위치 정보와 시간 정보를 이용하여 하나의 인덱스 키 정보(NI_II_Code)로서 통합하여 이용하고 있으며, 센서 웹 어플리케이션에서는 이러한 인덱스 키 정보를 이용하여 노드 정보를 검색할 수 있다.In the real-time video and contextual text data fusion system according to an embodiment of the present invention, the index key information NI_SC_Code in the unified index table of FIG. 4 and the video device 12 installed in the node, that is, the IP and port of the webcam. In addition to the NI-WebCamURL information, location information and time information are integrated and used as one index key information (NI_II_Code). In the sensor web application, node information can be searched using this index key information.

다음으로, 도 5를 참조하여 본 발명의 실시예에 따른 융합 시스템에서 표시 모듈(82)에 의한 센싱 데이터 및 영상 데이터 표시 과정을 설명한다.Next, a process of displaying sensing data and image data by the display module 82 in the fusion system according to an exemplary embodiment of the present invention will be described with reference to FIG. 5.

도 1의 센서 웹 어플리케이션(81)의 실행시에, 사용자 또는 클라이언트가 특정 노드 컴포넌트를 선택하고 해당 노드의 정보를 요청하면, 센서 웹 어플리케이션(81)은 통합 인덱스의 노드 ID를 노드 관리부(70)에 전달한다. 도 5에서, a는 노드 ID이고, b는 인덱스이며, Request_Event는 해당 노드의 정보 요청을 의미한다.In the execution of the sensor web application 81 of FIG. 1, when a user or a client selects a specific node component and requests information of the corresponding node, the sensor web application 81 assigns the node ID of the integrated index to the node manager 70. To pass on. In FIG. 5, a is a node ID, b is an index, and Request_Event means a request for information of a corresponding node.

노드 관리부(70)는 센서 웹 어플리케이션(81)으로부터 전달된 노드 ID를 인덱스 연결부(50)에 전달하고, 인덱스 연결부(50)는 해당 노드 ID에 대응하는 통합 인덱스 정보를 검색하여 이를 노드 관리부(70)에 출력한다.The node manager 70 transfers the node ID transmitted from the sensor web application 81 to the index connector 50, and the index connector 50 retrieves the integrated index information corresponding to the node ID, and retrieves the index information. )

노드 관리부(70)는 인덱스 연결부(50)로부터 제공된 통합 인덱스 정보를 이용하여 센싱 데이터 저장부(61) 및 영상 데이터 저장부(62)를 액세스하고, 상기 통합 인덱스 정보에 대응하는 영상 정보 및 센싱 데이터를 불러온다. 노드 관리부(70)는 이와 같이 얻어진 영상 정보 및 센싱 데이터를 표시 모듈(82)에 전달하여 표시되도록 함으로써, 사용자 또는 클라이언트에게 실시간 영상 정보 및 주변 상황에 대한 센싱 데이터를 융합하여 제공할 수 있다.The node manager 70 accesses the sensing data storage 61 and the image data storage 62 by using the integrated index information provided from the index connector 50, and the image information and the sensing data corresponding to the integrated index information. Bring up The node manager 70 transmits the image information and the sensing data thus obtained to the display module 82 so that the node manager 70 displays the image information and the sensing data so as to display the image information and the sensing data.

다음으로, 도 6을 참조하여 본 발명의 실시예에 따른 융합 시스템에서 노드 컴포넌트의 이동 및 업데이트 과정을 설명한다.Next, a process of moving and updating a node component in a fusion system according to an embodiment of the present invention will be described with reference to FIG. 6.

도 6에 도시된 노드 컴포넌트의 이동 및 업데이트 과정은 센서 웹 어플리케이션(81)에 의해 실행된다. 센서 웹 어플리케이션(81)의 노드 컴포넌트의 이동 및 업데이트 절차에 따라, 노드 관리부(70)는 통합 인덱스 저장부(40)에서 노드 정보를 검색하고, 이 검색된 노드 정보에 따라 해당 노드 컴포넌트의 정보를 설정한다.The movement and update process of the node component shown in FIG. 6 is executed by the sensor web application 81. According to the procedure of moving and updating a node component of the sensor web application 81, the node manager 70 retrieves node information from the integrated index storage 40 and sets information of the corresponding node component according to the retrieved node information. do.

노드 컴포넌트에 대해 사용자 또는 클라이언트의 선택에 의해 노드 이동 이벤트가 발생하면, 노드 관리부(70)는 노드 ID에 따라 수정된 정보를 검색 처리하고, 수정된 노드 정보를 노드 컴포넌트로 전송한다. 도 6에서 a는 노드 정보이고, b는 수정된 노드 정보이다.When a node movement event occurs by the user or client selection for the node component, the node manager 70 searches for the modified information according to the node ID, and transmits the modified node information to the node component. In FIG. 6, a is node information and b is modified node information.

수정된 노드 정보를 갖는 노드 컴포넌트에 대해 사용자 또는 클라이언트의 선택에 의해 노드 정보 저장 이벤트가 발생하면, 노드 관리부(70)는 노드 정보 테이블의 해당 노드 ID를 참조하여 수정된 노드 정보를 노드 정보 테이블에 업데이트한다.When a node information storage event occurs by a user or a client selection for the node component having the modified node information, the node manager 70 refers to the node ID of the node information table and stores the modified node information in the node information table. Update.

도 7은 도 1에 도시된 영상 장치(12)의 구현예를 예시하고 있다.FIG. 7 illustrates an embodiment of the imaging device 12 shown in FIG. 1.

도 7에 도시된 영상 장치(12)의 구현 환경에서는, Windows XP 운영체제에서 닷넷(.net) 기반의 C# 언어가 사용되며, 영상 장치(12)로서 로지텍(주)의 QuickCam이 사용되고 있다. 도 7에 예시된 영상 장치(12)는 USB 인터페이스를 이용하여 컴퓨터와 연결되고, 최대 130만 픽셀 이미지와 초당 30프레임의 프레임 레이트(frame rate)를 지원한다. 상기 영상 장치(12)의 구현예는 하나의 예에 불과하므로 다른 사양을 갖는 영상 장치로 대체될 수 있으며, 본 발명의 기술적 범위는 이에 한정되지 않는다.In the implementation environment of the imaging device 12 illustrated in FIG. 7, a .net based C # language is used in the Windows XP operating system, and Logitech Corporation's QuickCam is used as the imaging device 12. The image device 12 illustrated in FIG. 7 is connected to a computer using a USB interface and supports a maximum 1.3 million pixel image and a frame rate of 30 frames per second. Since the implementation of the imaging device 12 is only one example, the imaging device 12 may be replaced with an imaging device having different specifications, and the technical scope of the present invention is not limited thereto.

도 8은 도 1에 도시된 센서 웹 어플리케이션(81)의 실행에 의한 관리자 응용 화면을 예시하는 도면이다.FIG. 8 is a diagram illustrating an administrator application screen by executing the sensor web application 81 shown in FIG. 1.

도 8에 도시된 바와 같이, 센서 웹 어플리케이션(81)의 관리자 응용 화면에서는 관리자가 노드 생성 및 위치 수정을 행할 수 있다. 노드 생성 역할을 수행하기 위해서는, 센서 웹 어플리케이션(81) 상에서 관리자 인증을 통과한 후, 센싱 데이터 및 영상 정보를 수집하고자 하는 노드를 생성할 수 있다. 관리자는 센서 웹 어플리케이션(81)의 실행에 의해, 노드를 생성하여 센싱 데이터와 영상 정보를 수집할 곳으로 노드의 위치를 설정하고, 노드 정보 테이블의 노드 ID에 따라 센서 정보 테이블의 인덱스 키 정보인 NI_SC_Code와, IP 및 Port 정보인 NI_WebCamURL와 더불어 위치 정보와 시간 정보를 이용하여 하나의 인덱스 정보로서 통합할 수 있다.As shown in FIG. 8, in the manager application screen of the sensor web application 81, an administrator may create a node and correct a location. In order to perform the node creation role, after passing the administrator authentication on the sensor web application 81, it is possible to generate a node to collect the sensing data and image information. By executing the sensor web application 81, the administrator generates a node and sets the position of the node to a location where the sensing data and the image information are collected, and the index key information of the sensor information table is set according to the node ID of the node information table. In addition to NI_SC_Code and NI_WebCamURL, which is IP and Port information, location information and time information can be used as one index information.

도 9는 도 1에 도시된 센서 웹 어플리케이션(81)의 실행에 의한 사용자 응용 화면을 예시하는 도면이다.FIG. 9 is a diagram illustrating a user application screen by executing the sensor web application 81 shown in FIG. 1.

도 9에 도시된 바와 같이, 사용자는 센서 웹 어플리케이션(81)의 사용자 모드에서 관리자가 생성된 노드를 관찰할 수 있다. 제공되는 노드는 각각의 노드 ID에 따라 센싱 데이터 및 영상 정보가 인덱스 키 정보로 통합되어 있다.As shown in FIG. 9, a user may observe a node in which an administrator is created in the user mode of the sensor web application 81. In the provided node, sensing data and image information are integrated into index key information according to each node ID.

도 10은 도 1에 도시된 센서 웹 어플리케이션(81)의 실행에 의한 첫 번째 센서 노드의 영상 및 센싱 데이터 표시 화면을 도시하는 도면이다.FIG. 10 is a diagram illustrating an image and sensing data display screen of the first sensor node by executing the sensor web application 81 shown in FIG. 1.

도 10을 참조하면, 센서 웹 어플리케이션(81)의 실행에 의해 표시 모듈(82)에서 제공되는 화면에는 해당 노드의 실시간 영상과 센싱 데이터에 대한 정보가 표시된다. 도 10의 화면 중간에 위치한 윈도우에는 선택된 노드의 실시간 영상과 함께, 습도(humidity), 온도(temperature), 광도(intensity) 및 전력 용량(power capacity)에 대한 센싱 데이터가 표시된다.Referring to FIG. 10, information about a real time image and sensing data of a corresponding node is displayed on a screen provided by the display module 82 by the execution of the sensor web application 81. In the window located in the middle of the screen of FIG. 10, sensing data about humidity, temperature, intensity, and power capacity are displayed along with a real-time image of the selected node.

예를 들어, 사용자 또는 클라이언트는 관리자가 생성한 여러 개의 노드 중에서 자신이 알고 싶은 노드 컴포넌트를 선택하여 해당 노드 컴포넌트에 대한 정보 요청 이벤트를 발생시키고, 도 5에 참조하여 설명된 과정을 통해 해당 노드의 영상 정보 및 센싱 데이터가 표시 모듈(82)에 표시되고, 이것에 의해 사용자는 해당 노드의 실시간 영상 및 센싱 데이터를 복합적으로 관찰할 수 있다.For example, a user or a client selects a node component that he / she wants to know from among multiple nodes created by an administrator, generates an information request event for the node component, and the node of the node through the process described with reference to FIG. 5. The image information and the sensing data are displayed on the display module 82, whereby the user can compositely observe the real-time image and the sensing data of the corresponding node.

도 11은 도 1에 도시된 센서 웹 어플리케이션(81)의 실행에 의한 두 번째 센서 노드의 영상 및 센싱 데이터 표시 화면을 도시하는 도면이다.FIG. 11 is a diagram illustrating an image and sensing data display screen of a second sensor node by executing the sensor web application 81 shown in FIG. 1.

도 11을 참조하면, 사용자가 센서 웹 어플리케이션(81)의 실행시에 다른 노드 컴포넌트를 선택하여 해당 노드 컴포넌트에 대한 정보 요청 이벤트를 발생시킬 경우, 해당 노드 정보 테이블의 노드 ID에 대응하는 통합 인덱스 키 정보를 이용하여 검색된 영상 정보 및 센싱 데이터가 표시 모듈(82)에 표시됨을 알 수 있다.Referring to FIG. 11, when a user selects another node component to generate an information request event for the corresponding node component when the sensor web application 81 is executed, an integrated index key corresponding to the node ID of the corresponding node information table. It can be seen that the image information and the sensing data retrieved using the information are displayed on the display module 82.

이상과 같이 설명된 본 발명의 실시간 동영상 및 상황 텍스트 데이터 융합 시스템은, 센서 네트워크에서 수집된 센싱 데이터 및 영상 장치로부터 수집된 영상 정보를 통합 인덱스를 이용하여 융합함으로써, 센서 네트워크 내의 해당 노드에 대한 실시간 영상 정보와 센싱 데이터를 효과적으로 융합하여 사용자에게 제공할 수 있고, 사용자는 영상 정보와 센싱 데이터의 관련성을 용이하게 해독할 수 있는 효과를 달성할 수 있다.The real-time video and contextual text data fusion system of the present invention described above, by combining the sensing data collected in the sensor network and the image information collected from the imaging device using an integrated index, the real-time video for the node in the sensor network The image information and the sensing data can be effectively fused and provided to the user, and the user can achieve the effect of easily decoding the relation between the image information and the sensing data.

지금까지 본 발명의 실시예의 구성 및 동작에 대해 설명하였다. 본 발명은 상기 설명된 실시예에 한정되지 않으며, 본 발명의 범위를 벗어나지 않는 한도 내에서 다양한 변형을 가할 수 있다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 안되며, 특허청구범위뿐만 아니라 특허청구범위와 균등한 것들에 의해 정해져야 한다.
So far, the configuration and operation of the embodiment of the present invention have been described. The present invention is not limited to the above-described embodiments, and various modifications may be made without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined not only by the claims but also by the equivalents of the claims.

11 : 센서 네트워크 12 : 영상 장치
21 : 센싱 데이터 수집부 22 : 영상 수집부
30 : 인덱스 처리부 31 : 센서 인덱스 테이블
32 : 영상 인덱스 테이블 40 : 통합 인덱스 저장부
50 : 인덱스 연결부 61 : 센싱 데이터 저장부
62 : 영상 데이터 저장부 70 : 노드 관리부
81 : 센서 웹 어플리케이션 82 : 표시 모듈
83 : 지도 관리부
11 sensor network 12 image device
21: sensing data collector 22: image collector
30: index processing unit 31: sensor index table
32: video index table 40: integrated index storage unit
50: index connection 61: sensing data storage
62: image data storage unit 70: node management unit
81: sensor web application 82: display module
83: Map Management Department

Claims (11)

센서 네트워크로부터 제공되는 센싱 데이터로부터 위치와 센서 인덱스를 추출하는 센싱 데이터 수집부;
영상 장치로부터 제공되는 영상 정보로부터 위치와 영상 인덱스를 추출하는 영상 수집부;
상기 센싱 데이터 수집부에 의해 추출된 센서 인덱스와, 상기 영상 수집부에 의해 추출된 영상 인덱스, 위치와 시간 정보를 통합하여 통합 인덱스를 생성하는 인덱스 처리부;
상기 인덱스 처리부에 의해 생성된 통합 인덱스를 저장하기 위한 통합 인덱스 저장부;
센서 네트워크로부터 상기 센싱 데이터 수집부를 거쳐 제공되는 센싱 데이터를 저장하기 위한 센싱 데이터 저장부;
영상 장치로부터 상기 영상 수집부를 거쳐 제공되는 영상 정보를 영상 데이터로서 저장하기 위한 영상 데이터 저장부; 및
상기 통합 인덱스 저장부로부터 통합 인덱스를 불러와서 상기 센싱 데이터 저장부 및 상기 영상 데이터 저장부에 각각 저장된 센싱 데이터 및 영상 데이터를 상기 불러온 통합 인덱스와 연결하고, 통합 인덱스가 연결된 센싱 데이터 및 영상 데이터를 상기 센싱 데이터 저장부 및 상기 영상 데이터 저장부에 저장시키는 인덱스 연결부를 포함하는
실시간 동영상 및 상황 텍스트 데이터 융합 시스템.
A sensing data collector extracting a position and a sensor index from sensing data provided from a sensor network;
An image collecting unit extracting a position and an image index from the image information provided from the imaging apparatus;
An index processing unit for generating an integrated index by integrating the sensor index extracted by the sensing data collector, the image index extracted by the image collector, position and time information;
A unitary index storage unit for storing a unitary index generated by the index processor;
A sensing data storage unit for storing sensing data provided from the sensor network via the sensing data collector;
An image data storage unit for storing image information provided from the imaging apparatus via the image collecting unit as image data; And
Import the unified index from the unified index storage unit and connect the sensing data and the image data stored in the sensing data storage unit and the image data storage unit with the retrieved unified index, and connect the sensing data and the image data connected with the unified index. And an index connector configured to store the sensing data storage unit and the image data storage unit.
Real-time video and contextual text data fusion system.
제 1 항에 있어서,
상기 센서 네트워크는 위치 정보를 포함하는 관찰 대상 공간의 복수의 노드에서 특정 물리량을 측정하기 위한 센서들의 집합을 포함하는
실시간 동영상 및 상황 텍스트 데이터 융합 시스템.
The method of claim 1,
The sensor network includes a set of sensors for measuring a specific physical quantity at a plurality of nodes in the observation target space including location information.
Real-time video and contextual text data fusion system.
제 1 항에 있어서,
상기 인덱스 처리부는
상기 센싱 데이터 수집부로부터 제공되는 위치와 센서 인덱스를 저장하는 센서 인덱스 테이블; 및
상기 영상 수집부로부터 제공되는 위치와 영상 인덱스를 저장하는 영상 인덱스 테이블을 포함하는
실시간 동영상 및 상황 텍스트 데이터 융합 시스템.
The method of claim 1,
The index processing unit
A sensor index table for storing a position and a sensor index provided from the sensing data collector; And
And an image index table for storing the position and the image index provided from the image collecting unit.
Real-time video and contextual text data fusion system.
제 1 항에 있어서,
상기 인덱스 연결부는 사용자로부터의 데이터 요청 명령에 따라 상기 통합 인덱스 저장부를 검색하여 해당하는 통합 인덱스 정보를 제공하는
실시간 동영상 및 상황 텍스트 데이터 융합 시스템.
The method of claim 1,
The index connection unit searches the unified index storage unit according to a data request command from a user and provides corresponding unified index information.
Real-time video and contextual text data fusion system.
제 1 항에 있어서,
상기 통합 인덱스 테이블은 인덱스 키 정보(N_II_Code)인 위치와 시간, NI_SC_Code와, 해당 노드에 설치된 영상장치의 IP 및 포트 정보인 NI_WebCamURL을 하나의 인덱스 키 정보(NI_II_Code)로서 통합적으로 이용하여 구성되는
실시간 동영상 및 상황 텍스트 데이터 융합 시스템.
The method of claim 1,
The unified index table is configured by integrally using the location and time of the index key information (N_II_Code), the NI_SC_Code, and the NI_WebCamURL, which is the IP and port information of the video device installed in the node, as one index key information (NI_II_Code).
Real-time video and contextual text data fusion system.
센서 네트워크로부터 제공되는 센싱 데이터로부터 위치와 센서 인덱스를 추출하는 센싱 데이터 수집부;
영상 장치로부터 제공되는 영상 정보로부터 위치와 영상 인덱스를 추출하는 영상 수집부;
상기 센싱 데이터 수집부에 의해 추출된 센서 인덱스와, 상기 영상 수집부에 의해 추출된 영상 인덱스를 통합하여 통합 인덱스를 생성하는 인덱스 처리부;
상기 인덱스 처리부에 의해 생성된 통합 인덱스를 저장하기 위한 통합 인덱스 저장부;
센서 네트워크로부터 상기 센싱 데이터 수집부를 거쳐 제공되는 센싱 데이터를 저장하기 위한 센싱 데이터 저장부;
영상 장치로부터 상기 영상 수집부를 거쳐 제공되는 영상 정보를 영상 데이터로서 저장하기 위한 영상 데이터 저장부;
상기 통합 인덱스 저장부로부터 통합 인덱스를 불러와서 상기 센싱 데이터 저장부 및 상기 영상 데이터 저장부에 각각 저장된 위치와 시간 정보, 센싱 데이터 및 영상 데이터를 상기 불러온 통합 인덱스와 연결하고, 통합 인덱스가 연결된 센싱 데이터 및 영상 데이터를 상기 센싱 데이터 저장부 및 상기 영상 데이터 저장부에 저장시키는 인덱스 연결부;
사용자 또는 클라이언트의 조작에 의해 실행되고, 센싱 데이터 및 영상 데이터에 대한 사용자 또는 클라이언트의 액세스를 인터페이스하는 센서 웹 어플리케이션; 및
사용자 또는 클라이언트가 상기 센서 웹 어플리케이션을 통해 관찰 대상 노드를 선택할 경우, 해당 노드에 대한 데이터 요청 명령을 상기 인덱스 연결부에 전송하여 이에 대응하는 통합 인덱스 정보를 수신하고, 상기 수신된 통합 인덱스 정보에 기초하여 상기 센싱 데이터 저장부 및 상기 영상 데이터 저장부로부터 대응하는 센싱 데이터 및 영상 데이터를 불러오는 노드 관리부를 포함하는
실시간 동영상 및 상황 텍스트 데이터 융합 시스템.
A sensing data collector extracting a position and a sensor index from sensing data provided from a sensor network;
An image collecting unit extracting a position and an image index from the image information provided from the imaging apparatus;
An index processing unit for generating an integrated index by integrating the sensor index extracted by the sensing data collector and the image index extracted by the image collector;
A unitary index storage unit for storing a unitary index generated by the index processor;
A sensing data storage unit for storing sensing data provided from the sensor network via the sensing data collector;
An image data storage unit for storing image information provided from the imaging apparatus via the image collecting unit as image data;
The integrated index is retrieved from the integrated index storage unit, and the position and time information, the sensing data, and the image data stored in the sensing data storage unit and the image data storage unit are respectively connected to the imported integrated index, and the integrated index is connected. An index connector configured to store data and image data in the sensing data storage unit and the image data storage unit;
A sensor web application executed by a user's or client's operation to interface a user's or client's access to sensing data and image data; And
When a user or a client selects a node to be observed through the sensor web application, a data request command for the node is transmitted to the index connection unit to receive corresponding index information, and based on the received integrated index information, And a node manager configured to retrieve corresponding sensing data and image data from the sensing data storage unit and the image data storage unit.
Real-time video and contextual text data fusion system.
제 6 항에 있어서,
상기 센서 네트워크는 관찰 대상 공간의 복수의 노드에서 특정 물리량을 측정하기 위한 센서들의 집합을 포함하는
실시간 동영상 및 상황 텍스트 데이터 융합 시스템.
The method according to claim 6,
The sensor network includes a set of sensors for measuring a specific physical quantity at a plurality of nodes in the observation target space.
Real-time video and contextual text data fusion system.
제 6 항에 있어서,
상기 인덱스 처리부는
상기 센싱 데이터 수집부로부터 제공되는 센서 인덱스를 저장하는 센서 인덱스 테이블; 및
상기 영상 수집부로부터 제공되는 영상 인덱스를 저장하는 영상 인덱스 테이블을 포함하는
실시간 동영상 및 상황 텍스트 데이터 융합 시스템.
The method according to claim 6,
The index processing unit
A sensor index table for storing a sensor index provided from the sensing data collector; And
An image index table for storing an image index provided from the image collecting unit;
Real-time video and contextual text data fusion system.
제 6 항에 있어서,
상기 인덱스 연결부는 사용자의 상기 센서 웹 어플리케이션에 대한 조작에 의해 상기 노드 관리부로부터 입력되는 데이터 요청 명령에 따라, 상기 통합 인덱스 저장부를 검색하여 해당하는 통합 인덱스 정보를 상기 노드 관리부에 제공하는
실시간 동영상 및 상황 텍스트 데이터 융합 시스템.
The method according to claim 6,
The index connection unit searches for the unified index storage unit and provides corresponding unified index information to the node manager according to a data request command input from the node manager by a user's manipulation of the sensor web application.
Real-time video and contextual text data fusion system.
제 6 항에 있어서,
사용자의 상기 센서 웹 어플리케이션에 대한 조작에 의해 노드 컴포넌트의 이동 및 업데이트 절차가 실행될 경우, 상기 노드 관리부는 상기 통합 인덱스 저장부에서 노드 정보를 검색하고, 상기 검색된 노드 정보에 따라 해당 노드 컴포넌트의 정보를 설정하는
실시간 동영상 및 상황 텍스트 데이터 융합 시스템.
The method according to claim 6,
When a node component movement and update procedure is executed by a user's manipulation of the sensor web application, the node manager retrieves node information from the unified index storage unit, and retrieves node information according to the retrieved node information. To set
Real-time video and contextual text data fusion system.
제 6 항에 있어서,
노드 및 센싱 데이터를 표시하기 위한 지도 정보를 상기 노드 관리부에 제공하는 지도 관리부; 및
상기 노드 관리부가 지도 정보, 사용자 표시를 위한 센싱 데이터 및 영상 데이터를 출력할 경우, 상기 지도 상에 센싱 데이터 및 영상 데이터를 융합하여 사용자에게 시각적으로 표시하는 표시 모듈을 더 포함하는
실시간 동영상 및 상황 텍스트 데이터 융합 시스템.
The method according to claim 6,
A map manager providing map information for displaying nodes and sensing data to the node manager; And
When the node manager outputs map information, sensing data and image data for user display, the node manager further includes a display module that visually displays the user by fusing the sensing data and image data on the map.
Real-time video and contextual text data fusion system.
KR1020100030173A 2010-04-02 2010-04-02 System for fusing realtime image and context data by using position and time information KR20110110895A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100030173A KR20110110895A (en) 2010-04-02 2010-04-02 System for fusing realtime image and context data by using position and time information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100030173A KR20110110895A (en) 2010-04-02 2010-04-02 System for fusing realtime image and context data by using position and time information

Publications (1)

Publication Number Publication Date
KR20110110895A true KR20110110895A (en) 2011-10-10

Family

ID=45027198

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100030173A KR20110110895A (en) 2010-04-02 2010-04-02 System for fusing realtime image and context data by using position and time information

Country Status (1)

Country Link
KR (1) KR20110110895A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10834455B2 (en) 2018-06-27 2020-11-10 At&T Intellectual Property I, L.P. Integrating real-time text with video services
KR20220054945A (en) * 2020-10-26 2022-05-03 (주) 글루시스 Method for managing media data and sensing data
CN114943290A (en) * 2022-05-25 2022-08-26 盐城师范学院 Biological invasion identification method based on multi-source data fusion analysis

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10834455B2 (en) 2018-06-27 2020-11-10 At&T Intellectual Property I, L.P. Integrating real-time text with video services
US11595718B2 (en) 2018-06-27 2023-02-28 At&T Intellectual Property I, L.P. Integrating real-time text with video services
KR20220054945A (en) * 2020-10-26 2022-05-03 (주) 글루시스 Method for managing media data and sensing data
WO2022092328A1 (en) * 2020-10-26 2022-05-05 (주)글루시스 Method for managing media data and sensing data
CN114943290A (en) * 2022-05-25 2022-08-26 盐城师范学院 Biological invasion identification method based on multi-source data fusion analysis
CN114943290B (en) * 2022-05-25 2023-08-08 盐城师范学院 Biological intrusion recognition method based on multi-source data fusion analysis

Similar Documents

Publication Publication Date Title
US20200169700A1 (en) Systems and methods for managing and displaying video sources
US7982603B2 (en) Sensor net system, sensor net system data managing method, and sensor net system data managing program
CN109417684A (en) Distributed data collection in wireless sensor network, wherein first node can will be issued own as collector or sensing data to other nodes
CN109040960A (en) A kind of method and apparatus for realizing location-based service
KR20180049634A (en) DEVICE AND METHOD FOR GENERATING IoT DATA
JPWO2016157271A1 (en) Sensor network system
KR101260425B1 (en) Cloud-Based AR System
JP5702478B1 (en) Personal information management system and personal information management program
KR20110110895A (en) System for fusing realtime image and context data by using position and time information
JP2016212498A (en) Data collecting system, server device, communication apparatus, method for collecting data, and program
US10599928B2 (en) Method and system for enabling information in augmented reality applications
KR101004798B1 (en) Potential peer producing method and system thereof using P2P sensor network
JP4903118B2 (en) WEB server and program for collecting sensing data
US20160034497A1 (en) Information processing system, information processing method, and information processing apparatus
KR20190074552A (en) Mash-up method for integrating heterogeneous data and apparatus thereof
KR20150083589A (en) Server for sharing and managing bookmarks, system and method for sharing and managing bookmarks using the same
JP2014042170A (en) Photographing system, photographing support method, photographing device and control method of the same, management device and control method of the same, and program
EP3432593B1 (en) Data-flow control device and data-flow control method
US20140173421A1 (en) System for providing a travel guide
KR20200091280A (en) Method for collecting and providing and sharing character information of SNS
Shimoda et al. RW-QAnswer: an assisting system for intelligent environments using semantic technology
KR20200024540A (en) Providing Method of summary information for an image searching and service device thereof
JP6188512B2 (en) Information processing apparatus, information processing method, and program
KR101770407B1 (en) Automatic phone connection system using display device on a distributed environment and method therefor
KR101271091B1 (en) method of processing image using map information and device thereof

Legal Events

Date Code Title Description
A201 Request for examination
E601 Decision to refuse application