KR102029741B1 - Method and system of tracking object - Google Patents

Method and system of tracking object Download PDF

Info

Publication number
KR102029741B1
KR102029741B1 KR1020120147734A KR20120147734A KR102029741B1 KR 102029741 B1 KR102029741 B1 KR 102029741B1 KR 1020120147734 A KR1020120147734 A KR 1020120147734A KR 20120147734 A KR20120147734 A KR 20120147734A KR 102029741 B1 KR102029741 B1 KR 102029741B1
Authority
KR
South Korea
Prior art keywords
image information
information
tracking
location
position coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020120147734A
Other languages
Korean (ko)
Other versions
KR20130139152A (en
Inventor
양회성
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US13/907,215 priority Critical patent/US9239965B2/en
Publication of KR20130139152A publication Critical patent/KR20130139152A/en
Application granted granted Critical
Publication of KR102029741B1 publication Critical patent/KR102029741B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

본 발명의 일실시예들은 영상 내 객체에 대해, 상기 객체가 보유하는 위치추적 장치를 통해 획득한 위치좌표를 조합시켜 표시 함으로써, 상기 객체가 이동하려는 지점으로의 추적을 가능하게 하는, 객체를 추적하는 방법 및 시스템에 관한 것이다.According to an embodiment of the present invention, an object in an image is tracked by displaying a combination of position coordinates acquired through a position tracking device held by the object, thereby enabling tracking to a point to which the object is to be moved. To a method and system.

Description

객체를 추적하는 방법 및 시스템{METHOD AND SYSTEM OF TRACKING OBJECT}Method and system for tracking objects {METHOD AND SYSTEM OF TRACKING OBJECT}

본 발명의 일실시예들은 영상 내 객체에 대해, 상기 객체가 보유하는 위치추적 장치를 통해 획득한 위치좌표를 조합시켜 표시 함으로써, 상기 영상 내의 객체의 이동에 대한 추적을 가능하게 하는, 객체를 추적하는 방법 및 시스템에 관한 것이다.According to an embodiment of the present invention, an object in an image is tracked by displaying a combination of position coordinates obtained through a position tracking device held by the object, thereby enabling tracking of the movement of the object in the image. To a method and system.

종래의 카메라를 이용한 객체 추적 모델은, 카메라로부터 수집된 이전 프레임의 데이터와 현재 프레임의 데이터를 실시간으로 비교 및 분석하고, 그 변화의 정도를 추출하여 영상처리를 통해 객체의 위치를 추적하는 방식이다.The object tracking model using a conventional camera is a method of comparing and analyzing data of a previous frame and data of a current frame collected from a camera in real time, extracting the degree of change, and tracking the position of an object through image processing. .

하지만, 종래의 객체 추적 모델은, 실시간으로 그 정보를 처리하기에는 상당히 많은 계산 처리가 요구되는 한계가 있어 왔다. 또한, 종래의 객체 추적 모델은 영상 내에 객체가 겹치거나 해당 객체의 크기가 작을 때에는 객체를 분리하여 추적하는 것이 사실상 불가능하다는 문제점이 상존하고 있다.However, the conventional object tracking model has a limitation that requires a great deal of calculation processing to process the information in real time. In addition, the conventional object tracking model has a problem that it is virtually impossible to separate and track the object when the object overlaps in the image or the size of the object is small.

따라서, 실시간으로 움직이는 복수의 객체에 대해, 그 영상 정보로부터 객체의 위치를 정확하게 추적할 수 있는 기술의 등장이 절실히 요구되고 있다.Therefore, there is an urgent need for a technology that can accurately track the position of an object from the video information of a plurality of objects moving in real time.

본 발명의 일실시예는, 객체에 부착된 위치추적 장치로부터, 객체의 위치 관련 정보를 입력받고, 이를 상기 객체가 촬영된 영상 정보에 적용 함으로써, 상기 영상 내의 객체가 이동하는 위치를 정확하게 추적하는 것을 그 목적으로 한다.In one embodiment of the present invention, by receiving the position-related information of the object from the location tracking device attached to the object, and applying it to the image information of the object, to accurately track the position of the object in the image moving For that purpose.

또한, 본 발명은, 카메라의 영상 정보와, 위치추적 장치를 포함하는 객체의 실시간 이동 정보를 결합 함으로써, 객체의 현 위치를 신속하게 인지할 수 있게 하는 것을 목적으로 한다.In addition, an object of the present invention is to make it possible to quickly recognize the current position of the object by combining the video information of the camera and the real-time movement information of the object including the location tracking device.

또한, 본 발명은 영상 정보 내 객체 간의 중첩 문제로 인해 복수의 객체에 대한 위치 추적이 어렵게 되는 종래의 문제를 해소하기 위해, 객체에 부착된 위치 추적 장치로부터, 객체의 위치 관련 정보를 입력받아, 영상 정보의 객체와 매핑하여, 각 객체에 대해 위치 추적하는 것으로 목적으로 한다.In addition, the present invention, in order to solve the conventional problem that it is difficult to track the position of a plurality of objects due to the problem of overlap between the objects in the image information, receives the position-related information of the object from the position tracking device attached to the object, It aims to map the location of each object by mapping with the object of the video information.

상기의 목적을 이루기 위한, 객체를 추적하는 방법은, 영상 정보에서 객체를 추출하는 단계와, 상기 추출된 객체에 관한 위치좌표를 수신하는 단계, 및 상기 추출된 객체에 관한 정보와, 상기 수신된 위치좌표를 결합하여, 상기 객체에 대한 통합 위치 정보를 추적하는 단계를 포함 할 수 있다.In order to achieve the above object, a method for tracking an object comprises: extracting an object from image information, receiving a position coordinate regarding the extracted object, and information about the extracted object; Combining the position coordinates, it may include the step of tracking the integrated position information for the object.

또한, 본 발명의 따른 객체 추적 시스템은, 영상 정보에서 객체를 추출하는 객체 추출부와, 상기 추출된 객체에 관한 위치좌표를 수신하는 위치 정보 수신부, 및 상기 추출된 객체에 관한 정보와, 상기 수신된 위치좌표를 결합하여, 상기 객체에 대한 통합 위치 정보를 추적하는 객체 추적부를 포함할 수 있다.In addition, the object tracking system according to the present invention, the object extraction unit for extracting the object from the image information, the position information receiving unit for receiving the position coordinates of the extracted object, the information about the extracted object and the reception Combining the position coordinates, it may include an object tracking unit for tracking the integrated position information for the object.

본 발명의 일실시예에 따르면, 객체에 부착된 위치추적 장치로부터, 객체의 위치 관련 정보를 입력받고, 이를 상기 객체가 촬영된 영상 정보에 적용 함으로써, 상기 객체가 이동하는 위치를 정확하게 추적할 수 있다.According to an embodiment of the present invention, by receiving the position-related information of the object from the position tracking device attached to the object, and applying it to the image information photographed by the object, it is possible to accurately track the position of the object movement have.

또한, 본 발명에 따르면, 카메라의 영상 정보와, 위치추적 장치를 포함하는 객체의 실시간 이동 정보를 결합 함으로써, 객체의 현 위치를 신속하게 인지 시킬 수 있다.In addition, according to the present invention, by combining the image information of the camera and the real-time movement information of the object including the location tracking device, it is possible to quickly recognize the current position of the object.

또한, 본 발명에 의해서는, 객체에 부착된 위치 추적 장치로부터, 객체의 위치 관련 정보를 입력 받아, 영상 정보의 객체와 매핑 함으로써, 영상 정보 내 객체 간의 중첩 문제로 인해 복수의 객체에 대한 위치 추적이 어렵게 되는 종래의 문제를 해소할 수 있다.In addition, according to the present invention, by receiving the position-related information of the object from the position tracking device attached to the object, and mapping the object with the information of the image information, the position tracking for the plurality of objects due to the overlapping problem between the objects in the image information This difficulty of the conventional problem can be solved.

도 1은 본 발명의 일실시예에 따른 객체 추적 시스템을 도시한 블록도이다.
도 2는 본 발명에 따른 좌표계에 객체의 위치 좌표를 매핑하는 일례를 도시한 도면이다.
도 3은 본 발명에 따른, 영상 정보 내 객체를 추적하는 일례를 나타내는 도면이다.
도 4는 본 발명의 일실시예에 따른 객체를 추적하는 방법을 구체적으로 도시한 작업 흐름도이다.
1 is a block diagram illustrating an object tracking system according to an embodiment of the present invention.
2 is a diagram illustrating an example of mapping the position coordinates of an object to a coordinate system according to the present invention.
3 is a diagram illustrating an example of tracking an object in image information according to the present invention.
4 is a flowchart illustrating a method of tracking an object in detail according to an embodiment of the present invention.

이하, 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 다양한 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings and the contents described in the accompanying drawings, but the present invention is not limited or limited to the embodiments.

본 명세서에서 지속적으로 사용하는, '객체(object)'는 촬영 대상체로서, 예컨대 사람, 동물 등의 유기체, 움직이는 이동체 등 카메라의 시선 초점이 형성되는 외부체를 지칭할 수 있다. 특히, 본 명세서에서는 영상 정보에 포함되며, 정보 가치가 있는 물체를, 상기 객체로 의미할 수 있다.As used herein, the term 'object' may refer to an external object in which a gaze focus of the camera is formed, such as an object such as a human or an animal or a moving moving object. In particular, in the present specification, an object included in the image information and having information value may mean the object.

예컨대, 도시 풍경을 촬영하는 카메라에 의해 생성되는 영상 정보에서의 객체는, 상기 영상 정보에서 일정한 면적을 점유하면서 도시의 거리를 걸어가는 도시민 일 수 있다. 해당 영상 정보에서 적은 면적을 점유하면서 먼 배경으로 고정되는 가로수, 가로등 등은, 객체로 지칭(추출)하지 않는다.For example, the object in the image information generated by the camera photographing the urban landscape may be a city citizen walking the street of the city while occupying a certain area in the image information. Street trees, street lamps, and the like, which occupy a small area in the video information and are fixed to a distant background, are not referred to as objects.

카메라를 통해 생성된 영상 정보에는, 주로 촬영 대상이 되는 주객체 이외에, 상기 주객체와 함께 촬영된 부객체 등을 포함할 수 있다.The image information generated by the camera may include, in addition to the main object to be mainly captured, a sub-object photographed together with the main object.

이를 고려하여, 본 발명의 객체 추적 시스템에서는, 주객체, 부객체를 막론하고, 위치추적장치를 장착한 개별 객체로부터 위치 좌표를 입력 받고, 이를 분석 함으로써, 각 객체가 이동하는 경로를 추적하는 환경을 조성할 수 있게 한다.In consideration of this, the object tracking system of the present invention, regardless of the main object and the sub-object, receives the position coordinates from the individual object equipped with the position tracking device, and analyzes the environment, thereby tracking the path that each object moves To make it possible.

도 1은 본 발명의 일실시예에 따른 객체 추적 시스템을 도시한 블록도이다.1 is a block diagram illustrating an object tracking system according to an embodiment of the present invention.

도 1을 참조하면, 객체 추적 시스템(100)은 객체 추출부(110), 위치 정보 수신부(120) 및 객체 추적부(130)를 포함하여 구성할 수 있다. 또한, 객체 추적 시스템(100)은 실시예에 따라, 제어 처리부(140)를 더 포함하여 구성할 수도 있다.Referring to FIG. 1, the object tracking system 100 may include an object extractor 110, a location information receiver 120, and an object tracker 130. In addition, the object tracking system 100 may further include a control processor 140 according to an embodiment.

우선, 객체 추출부(110)는 영상 정보에서 객체를 추출한다. 즉, 객체 추출부(110)는 카메라에 의해 생성된 영상 정보로부터, 상기 영상 정보가 포함하고 있는 객체를 식별하는 기능을 한다.First, the object extractor 110 extracts an object from the image information. That is, the object extracting unit 110 functions to identify an object included in the image information from the image information generated by the camera.

예컨대, 도시 풍경을 배경으로 하여 거리를 걷는 도시민 A를 중심으로 촬영되어 생성된 영상 정보로부터, 객체 추출부(110)는, 상기 도시민 A와, 상기 도시민 A와 동행인 도시민 B, 상기 도시민 A와 마주하여 걸어오는 도시민 C 등을 객체로 추출할 수 있다. 이때, 객체 추출부(110)는 상기 영상 정보에서 점유하는 면적이 적고 또한 위치가 고정되는 가로등, 가로수 등을, 정보 가치가 없는 물체로 판단하여 추출 대상에서 제외 시킬 수 있다.For example, from the image information generated by being photographed based on the urban citizen A who walks on the street in the background of the urban landscape, the object extractor 110 faces the urban citizen A, the urban citizen B who is accompanied by the urban citizen A, and the urban citizen A. You can extract the walking people C and the like as an object. In this case, the object extractor 110 may determine that the object occupied by the image information has a small area and a fixed position, such as a street lamp and a roadside tree, as an object having no information value and may be excluded from the extraction object.

영상 정보로부터 객체를 추출하는 기법은, 객체의 윤곽선 정보를 이용한 추출 방식, 객체의 주요 특징 점을 이용한 추출 방식, 3D 모델 기반 또는 영역 기반 추출 방식 등을 예시할 수 있고, 본 발명의 객체 추출부(110)는 이러한 공지의 기법들을 유효 적절하게 활용하여 영상 정보로부터 객체를 추출하게 된다.The technique of extracting an object from image information may include an extraction method using contour information of the object, an extraction method using main feature points of the object, a 3D model-based or region-based extraction method, and the like. 110 effectively extracts the object from the image information by utilizing the known techniques effectively.

위치 정보 수신부(120)는 상기 추출된 객체에 관한 위치좌표를 수신한다. 위치추적 장치로부터 위치 정보를 수신 받는 방법은, 예컨대 위치추적 장치 자체에서 좌표정보의 절대좌표를 계산하여 그 좌표 정보를 발송하는 방법과, 위치추적 장치는 단지 신호만 발생하고 발생된 신호를 복수의 수신장치(최소 1대 이상)로 신호를 수신하여 측량방법(예, 삼각측량법-시간, 각도, 신호세기 등 이용하거나 상기 방법을 복합으로 이용)을 이용하여 수신장치에서 위치를 계산하는 방법이 있을 수 있다.The location information receiver 120 receives location coordinates of the extracted object. A method of receiving location information from a location tracking device is, for example, a method of calculating absolute coordinates of coordinate information in the location tracking device itself and sending the coordinate information, and the location tracking device generates only a signal and generates a plurality of generated signals. There may be a method of receiving a signal from a receiver (at least one) and calculating a position at the receiver using a surveying method (e.g. triangulation method-time, angle, signal strength, etc., or a combination of the above). Can be.

또한, 위치정보를 요구하는 방법은, 예컨대 이벤트를 요청하여 수신받는 방법과, 위치추적 장치가 일정 시간간격으로 신호를 전송하는 방법이 있을 수 있다.In addition, the method for requesting location information may include, for example, a method of requesting and receiving an event and a method of transmitting a signal at a predetermined time interval by the location tracking device.

이하에서는 이벤트를 요청하고, 위치추적 장치에서 절대좌표를 발송하는 것에 대해서 설명한다. 단, 이는 설명의 편의를 위한 것으로 위치 정보를 획득하는 구성을 제약하는 것은 아니다.Hereinafter, a description will be given of requesting an event and sending an absolute coordinate from the location tracking device. However, this is for convenience of description and does not limit the configuration of obtaining location information.

예컨대, 위치 정보 수신부(120)는, 객체에 장착되는 위치추적 장치로부터 위치 관련 정보를 일정한 시간동안 복수 회 입력받고, 아래 설명하는 객체 추적부(130)에서, 상기 추출된 객체에 관한 정보(객체 정보)와 위치 정보 수신부의 위치 정보를 매핑하여 시간 경과에 따른 객체의 이동 양태를 확인할 수 있게 된다.For example, the location information receiving unit 120 receives a plurality of times of location-related information from a location tracking device mounted on an object for a predetermined time, and the object tracking unit 130 described below provides information about the extracted object (object Information) and the position information of the position information receiver to map the movement of the object over time.

수신시간은 본 발명의 실시자에 의해 자유롭게 설정될 수 있고, 예컨대 객체추적요청의 발생 이후 정해진 주기 간격으로 설정될 수 있다.The reception time may be freely set by the practitioner of the present invention and may be set at a predetermined periodic interval after the generation of the object tracking request.

위치추적 장치는 무선 통신을 비롯하여 위치를 추적할 수 있는 알고리즘을 이용하여 위치를 추적하는 장치일 수 있다.The location tracking device may be a device that tracks a location using an algorithm capable of tracking the location, including wireless communication.

위치추적 장치는 객체에 보유되어 장착될 수 있고, 예컨대 본 발명의 객체 추적 시스템에서의 객체추적요청 발생에 따라, 객체의 상기 위치좌표를 계산하게 된다.The position tracking device may be held and mounted on an object, and calculate the position coordinates of the object, for example, according to the occurrence of the object tracking request in the object tracking system of the present invention.

객체의 위치좌표 수신과 관련한 일례로서, 위치 정보 수신부(120)는 상기 수신시간이 도래 함에 따라, 상기 객체에 보유되는 위치추적 장치로 이벤트 신호를 송출하고, 상기 이벤트 신호에 응답하여 상기 위치추적 장치에서 산출한, 상기 객체에 대한 위치좌표를, 수신하거나, 상기 위치 추적 장치가 일정한 시간 간격으로 위치 정보를 송신할 수 있다.As an example of receiving the position coordinates of an object, the location information receiver 120 transmits an event signal to a location tracking device held in the object as the reception time arrives, and responds to the location signal in response to the event signal. Received, the position coordinates for the object, or the location tracking device may transmit the location information at regular time intervals.

또한 상기 위치 추적 장치에서 신호를 발생하고 위치 정보 수신부(120)에서 신호를 검출하여 위치 정보를 계산하는 것을 더 포함 할 수 있다. 즉, 위치 정보 수신부(120)는 객체가 위치하는 지점에 대한 위치 관련 정보를 획득하는 기능을 한다.In addition, the location tracking apparatus may further include generating a signal and detecting the signal in the location information receiver 120 to calculate location information. That is, the location information receiving unit 120 functions to obtain location related information on the point where the object is located.

예컨대, 앞서의 도시 풍경 관련의 영상 정보와 관련하여, 위치 정보 수신부(120)는 객체로 추출된 도시인 A, B, C의 위치추적 장치로부터 위치 정보를 직접 수신 받거나 위치 추적 장치로부터 발신된 신호를 검출하여 위치좌표를 산출할 수 있다. 또한, 객체 추적부(130)는, 상기 객체 추출부(110)에서 추출된 객체 정보와 상기 수신된 위치좌표를 이용하여, 상기 객체에 대한 통합 위치 정보를 추적한다. 즉, 객체 추적부(130)는, 카메라 데이터베이스(135)에서 상기 카메라가 설치된 설치위치를, 상기 카메라 위치좌표로서 검색하고, 상기 검색된 카메라 위치좌표를 기준점으로 하는 좌표계를, 상기 영상 정보 상에 설정하고, 상기 좌표계에서, 상기 객체 추출부(110)에서 추출된 객체의 위치정보를 설정하여, 상기 위치 정보 수신부(120)에 수신된 위치좌표를 매핑한다.For example, with respect to the image information related to the above-described urban landscape, the location information receiver 120 directly receives location information from a location tracking device of A, B, or C, which is a city extracted as an object, or receives a signal transmitted from the location tracking device. By detecting the position coordinates can be calculated. In addition, the object tracking unit 130, using the object information extracted from the object extraction unit 110 and the received position coordinates, tracks the integrated position information for the object. That is, the object tracking unit 130 searches for the installation position where the camera is installed in the camera database 135 as the camera position coordinate, and sets a coordinate system based on the retrieved camera position coordinate as the reference point on the image information. In addition, in the coordinate system, location information of the object extracted by the object extraction unit 110 is set, and the location coordinates received by the location information receiver 120 are mapped.

카메라 데이터베이스(135)는 카메라가 설치된 것으로 등록된 위치 좌표를 저장하는 수단으로, 예컨대 카메라를 설치한 설비 업체로부터 해당 카메라의 식별정보에 대응하는 위치 좌표를 입력받아 저장할 수 있다.The camera database 135 is a means for storing the position coordinates registered as the camera is installed. For example, the camera database 135 may receive and store the position coordinates corresponding to the identification information of the corresponding camera from the facility company which installed the camera.

좌표계는 상기 영상 정보의 평면을 예컨대, 가로와 세로로 n 등분하고(상기 n은 자연수), 상기 등분에 따라 형성되는 접점 각각으로 임의의 좌표값을 할당하여 위치를 특정할 수 있게 하는 좌표계 일 수 있다. 예를 들어, 객체 추적부(130)는 카메라의 카메라 위치좌표를 원점으로 하여, 복수의 가로와 세로의 등분선을 작성하여 2차원의 좌표계를 작성할 수 있다. 이는 2차원 좌표계로 한정하지 않고 3차원 좌표계로 확대할 수 있다.The coordinate system may be a coordinate system that divides the plane of the image information, for example, horizontally and vertically by n (where n is a natural number), and assigns arbitrary coordinate values to each of the contacts formed according to the equality, so that the position can be specified. have. For example, the object tracking unit 130 may create a two-dimensional coordinate system by creating a plurality of horizontal and vertical equal lines using the camera position coordinates of the camera as the origin. This is not limited to the two-dimensional coordinate system can be expanded to a three-dimensional coordinate system.

상술에서, 상기 좌표계의 기준점을 카메라가 설치된 설치위치로 한다고 하였으나, 실시예에 따라서, 객체 추적부(130)는 영상 정보 내 특이점(예, 랜드마크 등) 또는 상기 생성된 좌표계의 임의 일점을 기준점으로 결정할 수 있다.In the above description, the reference point of the coordinate system is referred to as an installation position where a camera is installed. However, according to an exemplary embodiment, the object tracking unit 130 may refer to a singular point (eg, landmark, etc.) in the image information or any one point of the generated coordinate system. Can be determined.

또한, 객체 추적부(130)는 상기 객체와 상기 위치 정보를 좌표계에 매핑하여 상기 객체에 대한 통합 위치 정보를 추적할 수 있다. 즉, 객체 추적부(130)는 상기 추출된 객체 정보에 상기 위치 정보 수신부의 위치 좌표를 할당하여 매핑함으로써 영상 내에서 이동하는 객체를 추적할 수 있고, 더하여 상기 수신된 위치 정보를 이용하여 상기 객체가 실제 이동하는 방향과 속도를 연산할 수 있다.In addition, the object tracking unit 130 may track the integrated location information for the object by mapping the object and the location information in a coordinate system. That is, the object tracking unit 130 may track the object moving in the image by allocating and mapping the location coordinates of the location information receiver to the extracted object information, and in addition, the object using the received location information. Can calculate the actual moving direction and speed.

상기 영상 정보에서 객체를 추출하는 단계에 있어 다수의 영상 정보에서 객체를 추출하는 단계와 상기 추출된 다수의 객체에 관한 위치좌표를 결합하여 영상 정보에서 다수의 객체와 위치계산이 이루어진 다수의 객체 정보를 매핑하는 경우, 상기 다수의 객체에 대해 광역 영상을 구성할 수 있다.In the step of extracting an object from the image information, a plurality of object information in which a position calculation is performed in the image information by combining an object from the plurality of image information and position coordinates of the extracted plurality of objects. In the case of mapping, a wide area image may be configured for the plurality of objects.

또한, 상기 객체에 대한 통합 위치 정보를 추적하는 단계에 있어 상기 추출된 객체에 관한 정보와 상기 위치좌표를 결합하여 다차원 영상을 구성할 수 있다.In the tracking of the integrated location information of the object, a multi-dimensional image may be formed by combining the information about the extracted object and the location coordinates.

도 2는 본 발명에 따른 좌표계에 객체의 위치 좌표를 매핑하는 일례를 도시한 도면이다.2 is a diagram illustrating an example of mapping the position coordinates of an object to a coordinate system according to the present invention.

도 2에서는, 영상 정보로부터 객체 도시인 A, B, C가 추출되고, 위치 정보 수신부(120)에 의해, 상기 도시인 A, B, C 보유의 위치추적 장치 각각으로부터, 수신시간 #1과 수신시간 #2에, 2개의 위치좌표가 소정의 시간격을 가지고 순차적으로 수신되는 경우를 예시한다.In Fig. 2, A, B, and C, which are object illustrations, are extracted from the video information, and the reception time # 1 and the reception time # are extracted by the position information receiving unit 120 from each of the position tracking devices of the A, B, and C holdings, respectively. 2 illustrates a case where two position coordinates are sequentially received at predetermined time intervals.

도 2에서와 같이, 객체 추적부(130)는, 카메라의 설치위치인 카메라 위치좌표(N 34:00, E125:00)를 기준점으로 하여, 가로선(동경선)과 세로선(북위선)으로 등분되는 좌표계를, 영상 정보 상에 작성할 수 있다.As shown in FIG. 2, the object tracking unit 130 is divided into horizontal lines (equivalent lines) and vertical lines (north lines) with reference to the camera position coordinates (N 34:00, E125: 00), which are the camera installation positions. The coordinate system can be created on the video information.

객체 도시인 A에 대해, 객체 추적부(130)는, 수신시간 #1에 수신된 위치좌표(N 33:05, E124:06)를 상기 좌표계에 매핑한다. 이후 객체 추적부(130)는 수신시간 #2에 수신된 위치좌표(N 33:06, E124:05)를 추적함으로써 객체의 이동상태를 영상을 통해 추적할 수 있다. 이에 더하여 상기 수신시간 #1과 수신시간 #2에 수신된 위치좌표 정보와 시간을 통해 도시인 A에 대한 궤적을 그릴 수 있고, 이동 방향과 이동 속도를 계산할 수 있다.For A, which is an object city, the object tracking unit 130 maps the position coordinates (N 33:05 and E124: 06) received at the reception time # 1 to the coordinate system. Thereafter, the object tracking unit 130 may track the movement state of the object through the image by tracking the position coordinates (N 33:06 and E124: 05) received at the reception time # 2. In addition, it is possible to draw a trajectory for the city A through the position coordinate information and the time received in the reception time # 1 and the reception time # 2, and calculate a moving direction and a moving speed.

이후, 객체 추적부(130)는 좌표계에 매핑된, 상기 도시인 A와 연관된 복수의 위치좌표를 통해 관찰자는 도시인 A가 북서 방향으로, 일정 속도(이동 변화량/시간격)으로 이동하는 위치를 추적할 수 있다.Thereafter, the object tracking unit 130 may track a position where the city A moves in a northwest direction at a constant speed (moving change amount / time interval) through a plurality of position coordinates associated with the city A, which is mapped to a coordinate system. Can be.

유사하게 객체 도시인 A와 동행인 객체 도시인 B에 대해, 객체 추적부(130)는, 수신시간 #1에 수신된 위치좌표(N 33:04, E124:05)와, 수신시간 #2에 수신된 위치좌표(N 33:05, E124:04)를, 상기 좌표계에 매핑한다.Similarly, for the object city B that accompanies the object city A, the object tracking unit 130 receives the position coordinates (N 33:04, E124: 05) received at the reception time # 1, and the position received at the reception time # 2. Coordinates (N 33:05, E124: 04) are mapped to the coordinate system.

이후, 객체 추적부(130)는 좌표계에 매핑된, 상기 도시인 B와 연관된 복수의 위치좌표를 통해 객체 추적부(130)는 도시인 B가 도시인 A과 동일 방향과 동일 속도로 함께 이동하는 위치를 추적할 수 있다.Subsequently, the object tracking unit 130 tracks a position where the city B moves in the same direction and at the same speed as the city A through a plurality of position coordinates associated with the city B, which is mapped to a coordinate system. can do.

영상 정보에서, 도시인 A와 반대에 위치하는, 객체 도시인 C에 대해, 객체 추적부(130)는, 수신시간 #1에 수신된 위치좌표(N 33:07, E123:09)와, 수신시간 #2에 수신된 위치좌표(N 33:05, E123:09)를, 상기 좌표계에 매핑한다.In the video information, for the object city C, which is located opposite to the city A, the object tracking unit 130 receives the position coordinates (N 33:07, E123: 09) received at the reception time # 1, and the reception time #. The positional coordinates (N 33:05, E123: 09) received at 2 are mapped to the coordinate system.

이후, 객체 추적부(130)는 좌표계에 매핑된, 상기 도시인 C와 연관된 복수의 위치좌표를 통해 객체 추적부(130)는 도시인 C가 남쪽 방향으로, 상기 도시인 A, C 보다는 빠른 속도로 이동하는 위치를 추적할 수 있다.Subsequently, the object tracking unit 130 moves through the plurality of position coordinates associated with the city C, which is mapped to the coordinate system, to the object tracking unit 130 in a south direction, at a faster speed than the cities A and C. You can track the location.

이를 통해, 본 발명의 객체 추적 시스템은 객체에 부착된 위치추적 장치로부터, 객체의 위치 관련 정보를 입력받고, 이를 상기 객체가 촬영된 영상 정보에 적용 함으로써, 상기 객체가 현재 이동하는 위치에 대해 정확하게 추적할 수 있다.Through this, the object tracking system of the present invention receives the position-related information of the object from the position tracking device attached to the object, and applies it to the image information of the object, thereby accurately correcting the position of the object currently moving Can be traced

실시예에 따라, 객체 추적 시스템(100)은, 도 1에서와 같이 제어 처리부(140)를 더 포함하여 구성할 수 있다.According to an exemplary embodiment, the object tracking system 100 may further include a control processor 140 as shown in FIG. 1.

제어 처리부(140)는 수신된 위치좌표를, 상기 객체와 연관하여 상기 영상 정보에 표시한다. 즉, 제어 처리부(140)는 위치 추적 시스템으로부터 수신되는 위치좌표를, 영상 정보에 포함하여 객체와 함께 표시되게 할 수 있다. 이를 통해 제어 처리부(140)는, 객체의 위치 관련 정보가, 상기 영상 정보를 보는 사용자에게 실시간으로 제공되도록 할 수 있다.The control processor 140 displays the received position coordinate in the image information in association with the object. That is, the control processor 140 may include the position coordinates received from the location tracking system in the image information to be displayed together with the object. Through this, the control processor 140 may allow the location related information of the object to be provided to the user viewing the image information in real time.

또한, 제어 처리부(140)는, 추적된 통합 위치 정보를, 상기 객체와 연관하여 상기 영상 정보에 별도의 기호, 그림(예, 화살표)으로 표시할 수 있다. 즉, 제어 처리부(140)는 객체에 대한 추적된 위치를 영상 정보에 포함하여 표시할 수 있다. 이 역시, 사용자로 하여금 특정 객체에 대해 추적된 위치를 용이하게 인지하게 할 수 있다.In addition, the control processor 140 may display the tracked integrated location information in a separate symbol or picture (eg, arrow) on the image information in association with the object. That is, the control processor 140 may display the tracked position of the object in the image information. This may also allow the user to easily recognize the tracked location for a particular object.

도 3은 본 발명에 따른, 영상 정보 내 객체를 추적하는 일례를 나타내는 도면이다.3 is a diagram illustrating an example of tracking an object in image information according to the present invention.

도 3(a)에서는 카메라(301)를 통해 생성된 영상 정보(302)로부터 객체를 추출하는 과정을 예시하고 있다. 객체 추적 시스템(100)은 영상 정보(302)에서 촬영 대상이 되는 이동체의 주객체(303)와 고정체의 부객체(304)를 추출하고, 추출된 객체 만을 나타내는 객체영상 정보(305)를 생성할 수 있다.3A illustrates a process of extracting an object from the image information 302 generated by the camera 301. The object tracking system 100 extracts the main object 303 of the moving object to be photographed and the sub-object 304 of the fixed object from the image information 302, and generates object image information 305 indicating only the extracted object. can do.

도 3(b)에서는 주객체(303)가 보유하고 있는 위치추적 장치(306)로부터, 주객체(303)에 관한 위치좌표를 수신하고, 좌표계(307)에 상기 복수의 위치좌표를 매핑하는 과정을 예시하고 있다. 객체 추적 시스템(100)은 카메라(301)가 설치된 카메라 위치좌표를 기준점으로 하는 좌표계(307)를 설정하고, 좌표계(307) 위에, 상기 수신된 복수의 위치좌표를 매핑할 수 있다. 여기서 상기 기준점은 카메라 위치좌표만으로 한정하지는 않는다.In FIG. 3B, a process of receiving the position coordinates of the main object 303 from the position tracking device 306 held by the main object 303 and mapping the plurality of position coordinates to the coordinate system 307. To illustrate. The object tracking system 100 may set a coordinate system 307 based on a camera position coordinate at which the camera 301 is installed, and map the plurality of received position coordinates on the coordinate system 307. The reference point is not limited to the camera position coordinates only.

이후, 객체 추적 시스템(100)은 좌표계(307)에 매핑된 복수의 위치좌표를 분석하여, 주객체(303)에 대한 위치를 추적하고, 추적 결과를 화살표(308)로 표시한다.Thereafter, the object tracking system 100 analyzes a plurality of position coordinates mapped to the coordinate system 307, tracks the position of the main object 303, and displays the tracking result by the arrow 308.

도 3(c)에서는, 영상 정보(302)와 주객체(303)에 대한 위치 추적 결과를 조합하여 나타내는 위치 추적 결과를 포함하는 영상 정보(309)를 예시한다.In FIG. 3C, the image information 309 including the position tracking result which is a combination of the image information 302 and the position tracking result for the main object 303 is illustrated.

이에 따라, 객체 추적 시스템(100)은 카메라로 수집된 영상 정보의 초기 프레임에서 이동하는 객체를 추출하여 좌표화하고, 객체의 좌표와 위치추적 장치로부터 획득한 위치 좌표를 조합하며, 그 이후에는 위치추적 장치로부터 획득하는 이동 좌표에 따라 영상 정보의 객체를 추적할 수 있게 된다.Accordingly, the object tracking system 100 extracts and coordinates the moving object in the initial frame of the image information collected by the camera, combines the coordinates of the object and the position coordinates obtained from the position tracking device, and then the position It is possible to track the object of the image information according to the movement coordinates obtained from the tracking device.

이하, 본 발명의 실시예에 따른 객체 추적 시스템의 작업 흐름을 상세히 설명한다.Hereinafter, the workflow of the object tracking system according to an embodiment of the present invention will be described in detail.

도 4는 본 발명의 일실시예에 따른 객체를 추적하는 방법을 구체적으로 도시한 작업 흐름도이다.4 is a flowchart illustrating a method of tracking an object in detail according to an embodiment of the present invention.

본 실시예에 따른 객체를 추적하는 방법은 상술한 객체 추적 시스템(100)에 의해 수행될 수 있다.The method for tracking an object according to the present embodiment may be performed by the object tracking system 100 described above.

객체 추적 시스템(100)는 영상 정보에서 객체를 추출한다(410). 본 단계(410)는 카메라에 의해 생성된 영상 정보로부터, 상기 영상 정보가 포함하고 있는 객체를 식별하는 과정이다.The object tracking system 100 extracts an object from the image information (410). This step 410 is a process of identifying an object included in the image information from the image information generated by the camera.

본 단계(410)에서 사용할 수 있는, 영상 정보로부터 객체를 추출하는 기법은, 객체의 윤곽선 정보를 이용한 추출 방식, 객체의 주요 특징 점을 이용한 추출 방식, 3D 모델 기반 또는 영역 기반 추출 방식 등 일 수 있다.The technique for extracting an object from the image information, which can be used in this step 410, may be an extraction method using contour information of the object, an extraction method using main feature points of the object, a 3D model-based or region-based extraction method, and the like. have.

다음으로, 객체 추적 시스템(100)은 객체의 위치 추적 장치로부터 위치 정보를 수신한다(420). 본 단계(420)는, 객체에 장착되는 위치추적 장치로부터 위치 관련 정보를 입력받는 과정이다. 특히, 본 단계(420)에서의 객체 추적 시스템(100)은 시간 경과에 따른 객체의 이동 양태를 확인할 수 있게, 정해진 시간 간격으로 상기 위치 관련 정보를 복수 회 입력 받게 된다.Next, the object tracking system 100 receives the location information from the location tracking device of the object (420). This step 420 is a process of receiving location related information from a location tracking device mounted on an object. In particular, the object tracking system 100 in this step 420 receives the position-related information a plurality of times at predetermined time intervals so that the movement of the object over time can be confirmed.

상기 객체의 위치좌표 수신과 관련하여, 객체 추적 시스템(100)은 상기 수신시간이 도래 함에 따라, 상기 객체에 보유되는 위치추적 장치로 이벤트 신호를 송출하고, 상기 이벤트 신호에 응답하여 상기 위치추적 장치에서 산출한, 상기 객체에 대한 위치좌표를, 수신하거나, 상기 위치 추적 장치가 일정한 시간 간격으로 위치 정보를 송신할 수 있다. 또한 상기 위치 추적 장치에서 신호를 발생하고 위치 정보 수신부(120)에서 신호를 검출하여 위치 정보를 계산하는 것을 더 포함 할 수 있다. 즉, 위치 정보 수신부(120)는 객체가 위치하는 지점에 대한 위치 관련 정보를 획득하는 기능을 한다. 또한, 객체 추적 시스템(100)은, 상기 영상 정보를 생성하는 카메라의 카메라 위치좌표와, 상기 수신된 복수의 위치좌표를 이용하여, 상기 객체에 대한 통합 위치 정보를 추적한다(430). 본 단계(430)는, 카메라 데이터베이스(135)에서 상기 카메라가 설치된 설치위치를, 상기 카메라 위치좌표로서 검색하고, 상기 검색된 카메라 위치좌표를 기준점으로 하는 좌표계를, 상기 영상 정보 상에 설정하며, 상기 좌표계 위에, 상기 수신된 복수의 위치좌표를 매핑하는 과정이다. 여기서 기준좌표는 카메라의 위치좌표만으로 한정하지는 않는다.In relation to receiving the position coordinates of the object, the object tracking system 100 transmits an event signal to a location tracking device held in the object as the reception time arrives, and responds to the location tracking device in response to the event signal. Received, the position coordinates for the object, or the location tracking device may transmit the location information at regular time intervals. In addition, the location tracking apparatus may further include generating a signal and detecting the signal in the location information receiver 120 to calculate location information. That is, the location information receiving unit 120 functions to obtain location related information on the point where the object is located. In addition, the object tracking system 100 tracks the integrated position information of the object by using the camera position coordinates of the camera generating the image information and the received plurality of position coordinates (430). In the step 430, the installation location where the camera is installed in the camera database 135 is searched as the camera position coordinates, and a coordinate system based on the retrieved camera position coordinates as a reference point is set on the image information. The process of mapping the plurality of received position coordinates on a coordinate system. The reference coordinates are not limited to the position coordinates of the camera.

또한, 객체 추적 시스템(100)은 상기 좌표계에 매핑된 복수의 위치좌표를 분석하여, 상기 객체의 이동 방향 및 이동 속도 중 적어도 하나를 연산하여 상기 객체에 대한 통합 위치 정보를 추적할 수 있다.In addition, the object tracking system 100 may analyze the plurality of position coordinates mapped to the coordinate system, calculate at least one of the moving direction and the moving speed of the object to track the integrated position information of the object.

즉, 본 단계(430)에서의 객체 추적 시스템(100)은 좌표계 상에서 위치좌표가 매핑되는 위치 변화와, 위치 변화량을 통해 상기 객체가 실제 이동하는 방향과 속도를 연산할 수 있다.That is, the object tracking system 100 in this step 430 may calculate the direction and speed at which the object actually moves through the position change and the position change amount of the position coordinates are mapped on the coordinate system.

확장된 실시예에서 객체 추적 시스템(100)은 수신된 위치좌표를, 상기 객체와 연관하여 상기 영상 정보에 표시할 수 있다. 즉, 객체 추적 시스템(100)은 위치 추적 시스템으로부터 수신되는 위치좌표를, 영상 정보에 포함하여 객체와 함께 표시되게 할 수 있다. 이를 통해 객체 추적 시스템(100)은 객체의 위치 관련 정보가, 상기 영상 정보를 보는 사용자에게 실시간으로 제공되도록 할 수 있다.In an extended embodiment, the object tracking system 100 may display the received position coordinates in the image information in association with the object. That is, the object tracking system 100 may include the position coordinates received from the location tracking system in the image information to be displayed together with the object. Through this, the object tracking system 100 may allow the location related information of the object to be provided to the user viewing the image information in real time.

또한, 객체 추적 시스템(100)은 추적된 통합 위치 정보를, 상기 객체와 연관하여 상기 영상 정보에 별도의 기호, 그림(예, 화살표)으로 표시할 수 있다. 즉, 객체 추적 시스템(100)은 객체에 대한 추적된 위치를 영상 정보에 포함하여 표시할 수 있다. 이 역시, 사용자로 하여금 특정 객체에 대해 추적된 위치를 용이하게 인지하게 할 수 있다.In addition, the object tracking system 100 may display the tracked integrated location information as a separate symbol or figure (eg, an arrow) on the image information in association with the object. That is, the object tracking system 100 may display the tracked position of the object in the image information. This may also allow the user to easily recognize the tracked location for a particular object.

본 발명에 따르면, 객체에 부착된 위치추적 장치로부터, 객체의 위치 관련 정보를 입력받고, 이를 상기 객체가 촬영된 영상 정보에 적용 함으로써, 상기 객체가 현재 이동하는 위치와 이동하고자 하는 위치를 정확하게 추적할 수 있다.According to the present invention, by receiving the position-related information of the object from the position tracking device attached to the object, and applying it to the image information photographed by the object, precisely track the position of the current movement and the position to be moved can do.

또한, 본 발명에 따르면, 카메라의 영상 정보에, 위치추적 장치를 포함하는 객체의 실시간 이동 정보를 결합 함으로써, 객체의 현 위치를 신속하게 인지 시킬 수 있다.In addition, according to the present invention, by combining the real-time movement information of the object including the location tracking device with the image information of the camera, it is possible to quickly recognize the current position of the object.

또한, 본 발명에 의해서는, 객체에 부착된 위치 추적 장치로부터, 객체의 위치 관련 정보를 입력 받아, 영상 정보의 객체와 매핑 함으로써, 영상 정보 내 객체 간의 중첩 문제로 인해 복수의 객체에 대한 위치 추적이 어렵게 되는 종래의 문제를 해소할 수 있다.In addition, according to the present invention, by receiving the position-related information of the object from the position tracking device attached to the object, and mapping the object with the information of the image information, the position tracking for the plurality of objects due to the overlapping problem between the objects in the image information This difficulty of the conventional problem can be solved.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components. Or even if replaced or substituted by equivalents, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.

100 : 객체 추적 시스템
110 : 객체 추출부 120 : 위치 정보 수신부
130 : 객체 추적부 135 : 카메라 데이터베이스
140 : 제어 처리부
100: Object Tracking System
110: object extraction unit 120: location information receiver
130: object tracking unit 135: camera database
140: control processing unit

Claims (20)

영상 정보에서 객체를 추출하는 단계;
상기 추출된 객체에 관한 위치좌표를 수신하는 단계;
카메라 데이터베이스에서 상기 영상 정보를 생성하는 카메라가 설치된 설치위치를, 카메라 위치좌표로서 검색하는 단계;
상기 검색된 카메라 위치좌표를 기준점으로 하는 좌표계를, 상기 영상 정보 상에 설정하는 단계; 및
상기 좌표계 위에, 상기 수신된 위치좌표를 매핑하여, 상기 객체에 대한 통합 위치 정보를 추적하는 단계
를 포함하는 영상 정보 내 객체를 추적하는 방법.
Extracting an object from the image information;
Receiving a position coordinate with respect to the extracted object;
Retrieving an installation location where a camera for generating the image information from the camera database is installed, as camera location coordinates;
Setting a coordinate system using the retrieved camera position coordinates as a reference point on the image information; And
Mapping the received position coordinates on the coordinate system to track integrated position information for the object.
How to track the object in the image information comprising a.
제1항에 있어서,
다수의 영상 정보에서 다수의 객체를 추출하는 단계; 및
상기 추출된 다수의 객체에 관한 위치좌표와 결합하여, 상기 다수의 객체에 대해 광역 영상을 구성하는 단계
를 더 포함하는 영상 정보 내 객체를 추적하는 방법.
The method of claim 1,
Extracting a plurality of objects from the plurality of image information; And
Composing a wide-area image for the plurality of objects in combination with the coordinates of the extracted plurality of objects;
How to track the object in the image information further comprising.
제1항에 있어서,
상기 추출된 객체에 관한 정보와, 상기 수신된 위치좌표를 결합하여, 다차원 영상을 구성하는 단계
를 더 포함하여 영상 정보 내 객체를 추적하는 방법.
The method of claim 1,
Composing a multi-dimensional image by combining the information about the extracted object and the received position coordinates;
How to track the object within the image information, including more.
삭제delete 삭제delete 제1항에 있어서,
상기 영상 정보 내 특이점을 기준점으로 하는 좌표계를, 상기 영상 정보 상에 설정하고, 상기 좌표계 위에, 상기 수신된 위치좌표를 매핑하는 단계
를 더 포함하는 영상 정보 내 객체를 추적하는 방법.
The method of claim 1,
Setting a coordinate system having a singular point in the image information as a reference point on the image information, and mapping the received position coordinates on the coordinate system;
How to track the object in the image information further comprising.
제1항에 있어서,
상기 객체에 대한 통합 위치 정보를 추적하는 단계는,
상기 객체의 이동 방향 및 이동 속도 중 적어도 하나를 연산하여 상기 객체에 대한 통합 위치 정보를 추적하는 단계
를 포함하는 영상 정보 내 객체를 추적하는 방법.
The method of claim 1,
Tracking integrated location information for the object,
Tracking integrated position information on the object by calculating at least one of a moving direction and a moving speed of the object.
How to track the object in the image information comprising a.
제1항에 있어서,
상기 위치좌표를 수신하는 단계는,
상기 객체에 보유되는 위치추적 장치와 연관하여 산출한, 상기 객체에 대한 좌표를, 상기 위치좌표로서 수신하는 단계
를 포함하는 영상 정보 내 객체를 추적하는 방법.
The method of claim 1,
Receiving the position coordinates,
Receiving, as the position coordinates, coordinates for the object calculated in association with the position tracking device held in the object.
How to track the object in the image information comprising a.
제1항에 있어서,
상기 수신된 위치좌표를, 상기 객체와 연관하여 상기 영상 정보에 표시하는 단계
를 더 포함하는 영상 정보 내 객체를 추적하는 방법.
The method of claim 1,
Displaying the received position coordinates on the image information in association with the object.
How to track the object in the image information further comprising.
제1항에 있어서,
상기 추적된 통합 위치 정보를, 상기 객체와 연관하여 상기 영상 정보에, 기호 및 그림 중 적어도 하나로 표시하는 단계
를 더 포함하는 영상 정보 내 객체를 추적하는 방법.
The method of claim 1,
Displaying the tracked integrated location information on at least one of a symbol and a picture in the image information in association with the object.
How to track the object in the image information further comprising.
영상 정보에서 객체를 추출하는 객체 추출부;
상기 추출된 객체에 관한 위치좌표를 수신하는 위치 정보 수신부; 및
카메라 데이터베이스에서 상기 영상 정보를 생성하는 카메라가 설치된 설치위치를, 카메라 위치좌표로서 검색하고, 상기 검색된 카메라 위치좌표를 기준점으로 하는 좌표계를, 상기 영상 정보 상에 설정하며, 상기 좌표계 위에, 상기 수신된 위치좌표를 매핑하여, 상기 객체에 대한 통합 위치 정보를 추적하는 객체 추적부
를 포함하는 객체 추적 시스템.
An object extracting unit extracting an object from the image information;
A location information receiver configured to receive location coordinates of the extracted object; And
In the camera database, an installation position where a camera for generating the image information is installed is searched as a camera position coordinate, and a coordinate system whose reference point is the retrieved camera position coordinate is set on the image information, and on the coordinate system, An object tracking unit that maps position coordinates and tracks integrated position information of the object.
Object tracking system comprising a.
제11항에 있어서,
상기 객체 추출부에 의해 다수의 영상 정보에서 다수의 객체가 추출되는 경우,
상기 객체 추적부는,
상기 추출된 다수의 객체에 관한 위치좌표와 결합하여, 상기 다수의 객체에 대해 광역 영상을 구성하는
객체 추적 시스템.
The method of claim 11,
When a plurality of objects are extracted from a plurality of image information by the object extracting unit,
The object tracking unit,
Combining the position coordinates of the extracted plurality of objects, to form a wide image for the plurality of objects
Object tracking system.
제11항에 있어서,
상기 객체 추적부는,
상기 추출된 객체에 관한 정보와, 상기 수신된 위치좌표를 결합하여, 다차원 영상을 구성하는
객체 추적 시스템.
The method of claim 11,
The object tracking unit,
Combining the information about the extracted object and the received position coordinates to form a multi-dimensional image
Object tracking system.
삭제delete 삭제delete 제11항에 있어서,
상기 객체 추적부는,
상기 영상 정보 내 특이점을 기준점으로 하는 좌표계를, 상기 영상 정보 상에 설정하고, 상기 좌표계 위에, 상기 수신된 위치좌표를 매핑하는
객체 추적 시스템.
The method of claim 11,
The object tracking unit,
A coordinate system having a singular point in the image information as a reference point is set on the image information, and the received position coordinates are mapped onto the coordinate system.
Object tracking system.
제11항에 있어서,
상기 객체 추적부는,
상기 객체의 이동 방향 및 이동 속도 중 적어도 하나를 연산하여 상기 객체에 대한 통합 위치 정보를 추적하는
객체 추적 시스템.
The method of claim 11,
The object tracking unit,
Computing at least one of the moving direction and the moving speed of the object to track the integrated position information for the object
Object tracking system.
제11항에 있어서,
상기 위치 정보 수신부는,
상기 객체에 보유되는 위치추적 장치와 연관하여 산출한, 상기 객체에 대한 좌표를, 상기 위치좌표로서 수신하는
객체 추적 시스템.
The method of claim 11,
The location information receiver,
Receiving, as the position coordinates, coordinates for the object calculated in association with the location tracking device held in the object.
Object tracking system.
제11항에 있어서,
상기 수신된 위치좌표를, 상기 객체와 연관하여 상기 영상 정보에 표시하는 제어 처리부
를 더 포함하는 객체 추적 시스템.
The method of claim 11,
A control processor configured to display the received position coordinates on the image information in association with the object;
Object tracking system further comprising.
제11항에 있어서,
상기 추적된 통합 위치 정보를, 상기 객체와 연관하여 상기 영상 정보에, 기호 및 그림 중 적어도 하나로 표시하는 제어 처리부
를 더 포함하는 객체 추적 시스템.
The method of claim 11,
A control processor configured to display the tracked integrated position information on at least one of a symbol and a picture in the image information in association with the object;
Object tracking system further comprising.
KR1020120147734A 2012-06-12 2012-12-17 Method and system of tracking object Active KR102029741B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/907,215 US9239965B2 (en) 2012-06-12 2013-05-31 Method and system of tracking object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120062797 2012-06-12
KR20120062797 2012-06-12

Publications (2)

Publication Number Publication Date
KR20130139152A KR20130139152A (en) 2013-12-20
KR102029741B1 true KR102029741B1 (en) 2019-10-10

Family

ID=49984554

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120147734A Active KR102029741B1 (en) 2012-06-12 2012-12-17 Method and system of tracking object

Country Status (1)

Country Link
KR (1) KR102029741B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102261881B1 (en) 2019-11-29 2021-06-04 연세대학교 산학협력단 Method and Apparatus for Efficient Object Detection Using Skip Code

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101679597B1 (en) * 2014-04-11 2016-12-06 렉스젠(주) System for managing objects and method thereof
KR101684098B1 (en) * 2015-04-15 2016-12-15 (주)파슨텍 Monitoring system with 3-dimensional sensor and image analysis integrated
KR101732981B1 (en) 2015-10-29 2017-05-08 삼성에스디에스 주식회사 System and method for analyzing personalized characteristics
KR102634188B1 (en) * 2016-11-30 2024-02-05 한화비전 주식회사 System for monitoring image

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100815920B1 (en) * 2007-02-13 2008-03-21 주식회사 코웰테크 Security system using GPS location information and image information and non-authorized detection method using it

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101071352B1 (en) * 2009-08-31 2011-10-07 주식회사 이미지넥스트 Apparatus and method for tracking object based on PTZ camera using coordinate map
KR101142933B1 (en) * 2009-11-30 2012-05-11 에스케이 텔레콤주식회사 Cctv camera device and server of safety management center using location based service, intelligent security system using the same and method thereof
KR101077967B1 (en) * 2010-02-09 2011-10-28 중앙대학교 산학협력단 Apparatus and method for surveillance and tracking

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100815920B1 (en) * 2007-02-13 2008-03-21 주식회사 코웰테크 Security system using GPS location information and image information and non-authorized detection method using it

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102261881B1 (en) 2019-11-29 2021-06-04 연세대학교 산학협력단 Method and Apparatus for Efficient Object Detection Using Skip Code

Also Published As

Publication number Publication date
KR20130139152A (en) 2013-12-20

Similar Documents

Publication Publication Date Title
US10499002B2 (en) Information processing apparatus and information processing method
US11776222B2 (en) Method for detecting objects and localizing a mobile computing device within an augmented reality experience
US10462406B2 (en) Information processing apparatus and information processing method
TWI574223B (en) Navigation system using augmented reality technology
US9239965B2 (en) Method and system of tracking object
US20190277632A1 (en) Visual Odometry and Pairwise Alignment for High Definition Map Creation
US11290705B2 (en) Rendering augmented reality with occlusion
US10229331B2 (en) Three-dimensional information calculation device, three-dimensional information calculation method, and autonomous mobile device
WO2020055928A1 (en) Calibration for vision in navigation systems
CN112105892B (en) Method and system for identifying map features using motion data and face metadata
KR102029741B1 (en) Method and system of tracking object
TW201145983A (en) Video processing system providing correlation between objects in different georeferenced video feeds and related methods
US12254041B2 (en) Position recognition method and system based on visual information processing
KR102463698B1 (en) System and method for building a location information database of road sign, apparatus and method for estimating location of vehicle using the same
CN112422653A (en) Scene information pushing method, system, storage medium and equipment based on location service
US10735902B1 (en) Method and computer program for taking action based on determined movement path of mobile devices
LU et al. Scene Visual Perception and AR Navigation Applications
JPWO2016189633A1 (en) Recognition calculation device, recognition calculation method, and recognition calculation program
KR101924491B1 (en) System and Method for Clipping Augmented Reality Object based on GIS data
Lee et al. Building Identification Using Smartphone Sensors and a Map
Kochanov et al. Urban Positioning Using Smartphone-Based Imaging
Reinhardt et al. DETERMINATION OF DEVICE POSE USING TEXT MATCHING FROM CAPTURED IMAGES
TWM439180U (en) Moving object tracking system
Patel et al. A Survey on Improving Navigation for Street Data Using Mobile Augmented Reality

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20121217

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20171218

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20121217

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20190115

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20190725

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20191001

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20191002

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20220921

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee