KR20210055567A - Positioning system and the method thereof using similarity-analysis of image - Google Patents

Positioning system and the method thereof using similarity-analysis of image Download PDF

Info

Publication number
KR20210055567A
KR20210055567A KR1020200037182A KR20200037182A KR20210055567A KR 20210055567 A KR20210055567 A KR 20210055567A KR 1020200037182 A KR1020200037182 A KR 1020200037182A KR 20200037182 A KR20200037182 A KR 20200037182A KR 20210055567 A KR20210055567 A KR 20210055567A
Authority
KR
South Korea
Prior art keywords
image
frame
moving means
storage system
video
Prior art date
Application number
KR1020200037182A
Other languages
Korean (ko)
Inventor
박명준
Original Assignee
주식회사 휴머놀러지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 휴머놀러지 filed Critical 주식회사 휴머놀러지
Priority to KR1020200037182A priority Critical patent/KR20210055567A/en
Publication of KR20210055567A publication Critical patent/KR20210055567A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a positioning system using similarity-analysis of an image and a method thereof. The positioning system includes: an image storage system (160) in which grouped fingerprints and position information of each frame of a video containing a plurality of frames are indexed and stored; a moving means (400) for taking the video containing the frames; a feature point extraction unit (110) for generating the grouped fingerprints for each frame of the video taken by the moving means; an image analysis unit (120) for comparing the video of the moving means, from which the feature point is extracted, with the video of the image storage system, wherein the image analysis unit compares the feature points of the video of the moving means with the feature points of the video of the storage system to determine whether the similarity is greater than or equal to a threshold, thereby finding out the video of the storage system that corresponds to the video of the moving means, and recognizing position information of the video of the found storage system as position information of the moving means. Thus, the position of the imaging device is quickly checked.

Description

영상의 유사도 분석을 이용한 위치 측정 시스템 및 그 방법 {POSITIONING SYSTEM AND THE METHOD THEREOF USING SIMILARITY-ANALYSIS OF IMAGE}Position measurement system and method using image similarity analysis {POSITIONING SYSTEM AND THE METHOD THEREOF USING SIMILARITY-ANALYSIS OF IMAGE}

본 발명은 디지털 영상 파일의 화면을 비교하고 유사도 분석을 통하여 위치를 측정하고자 하는 시스템 및 그 방법에 관한 것이다. 특히 카메라가 고정된 채 촬영한 영상이 아니라 촬영 위치, 시점 등에 따라 변화하는 이동식 카메라가 촬영한 영상에서 이전 촬영 영상을 비교하여 촬영하는 시스템의 위치를 파악하고자 하는 것이다.The present invention relates to a system for comparing screens of digital image files and measuring a location through similarity analysis and a method thereof. In particular, it is not an image captured with the camera fixed, but an image captured by a mobile camera that changes according to the shooting location and viewpoint to determine the location of the system to be photographed by comparing the previous image.

자동차 또는 드론과 같은 이동 수단의 운행을 하기 위해서는 상기 이동 수단의 위치를 파악을 하고 파악된 위치를 기반으로 이동 수단의 운행 방향 및 속도등을 제어하게 된다.In order to operate a moving means such as a car or a drone, the location of the moving means is determined, and the driving direction and speed of the moving means are controlled based on the identified position.

이러한 이동 수단의 위치를 파악하기 위하여 GPS를 이용하게 되나, 건물 내부, 다리 밑, 터널 같은 곳에서는 GPS를 사용할 수 없게 된다.GPS is used to determine the location of such a means of transportation, but the GPS cannot be used inside a building, under a bridge, or in a tunnel.

본 발명에서는 이동 수단에 부착된 촬영 수단 (차량의 블랙 박스, 드론의 카메라)에 의하여 촬영된 영상과, 기존에 촬영한 영상을 비교하여 이동 수단의 현재 위치를 파악하고, 이와 같이 파악된 위치에 의하여 상기 이동 수단을 제어하고자 하는 것이다.In the present invention, an image captured by a photographing means (a vehicle's black box, a drone's camera) attached to the vehicle is compared with an existing image to determine the current position of the vehicle, and Thus, it is intended to control the moving means.

공개 특허 제10-2015-0033043호 (2015.04.01)Publication Patent No. 10-2015-0033043 (2015.04.01) 등록 특허 제10-1240924-0000호 (2013.03.04)Registered Patent No. 10-1240924-0000 (2013.03.04)

본 발명은 자동차 또는 드론과 같은 이동 수단의 운행을 하기 위하여 이동 수단에 구비된 촬영 장치에 의해 상기 이동 수단의 위치를 파악하고자 하는 것이다.The present invention is to determine the location of the moving means by means of a photographing device provided in the moving means in order to operate a moving means such as a vehicle or a drone.

상기 위치를 파악하기 위하여 촬영한 영상 이미지의 특이점을 추출하여 저장 시스템에 저장하고 촬영 장치에 의해 촬영된 영상 이미지의 특이점을 추출하여, 특이점들을 비교하고 이로 인하여 촬영 장치의 위치를 파악하고자 한다.In order to determine the location, a singular point of a captured video image is extracted, stored in a storage system, and a singular point of a video image captured by a photographing device is extracted, and the singular points are compared, and thereby the location of the photographing device is determined.

상기 특이점은 촬영 영상의 프레임 이미지를 복수개의 블록 단위로 분할하고 분할된 블록 단위별 각 픽셀의 영상 밝기 데이터의 평균갑을 산출한 후 블록 간 영상 밝기 데이터의 평균값의 차이를 이용하여 핑커 프린트를 생성하고, 이와 같이 생성된 핑거 프린트를 이용하여 프레임 이미지를 비교함으로써 프레임 이미지의 비교를 빠르게 할 수 있도록 하고자 한다.The singularity is to divide the frame image of the captured image into a plurality of blocks, calculate the average value of the image brightness data of each pixel for each divided block unit, and then generate a pinker print using the difference in the average value of the image brightness data between blocks. , By comparing the frame images using the fingerprint generated in this way, it is intended to speed up the comparison of the frame images.

본 발명은 복수의 프레임을 포함하는 동영상의 각 프레임별 그룹화된 핑거 프린트와 위치 정보가 색인화되어 저장되는 영상 저장 시스템(160); 복수의 프레임을 포함하는 동영상을 촬영하는 이동 수단(400); 상기 이동 수단이 촬영한 동영상의 각 프레임별 그룹화된 핑거프린트를 생성하는 특징점 추출부(110); 및 상기 특징점이 추출된 이동 수단의 동영상을 상기 영상 저장 시스템의 동영상과 비교하는 영상 분석부(120);를 포함하고, 상기 영상 분석부는 이동 수단의 동영상의 특징점과 저장 시스템의 동영상의 특징점을 비교하여 유사도가 임계치 이상인지를 확인하여 이동 수단의 동영상과 대응되는 저장 시스템의 동영상을 찾아내고, 상기 찾아낸 저장 시스템의 동영상의 위치 정보를 이동 수단의 위치 정보로 인식하는 것을 특징으로 하는 영상의 유사도 분석을 이용한 위치 측정 시스템에 관한 것이다.The present invention includes an image storage system 160 in which finger prints and location information grouped for each frame of a moving picture including a plurality of frames are indexed and stored; A moving means 400 for photographing a moving picture including a plurality of frames; A feature point extracting unit 110 for generating a fingerprint grouped for each frame of the moving picture photographed by the moving means; And an image analysis unit 120 that compares the video of the moving means from which the feature points are extracted with the video of the image storage system, wherein the image analysis unit compares the feature points of the video of the moving means with the feature points of the video of the storage system. By checking whether the similarity is greater than or equal to a threshold, the video of the storage system corresponding to the video of the moving means is found, and the location information of the found video of the storage system is recognized as the location information of the moving means. It relates to a position measurement system using.

또한 본 발명에서 상기 특징점 추출부는, 동영상의 비디오 스트림을 RGB 포맷 또는 흑백 영상 포맷으로 디코딩한 후 디코딩된 각 프레임 이미지를 복수 개의 블록 단위로 분할하고, 상기 분할된 블록 단위별로 각 픽셀의 영상 밝기 데이터의 평균값을 산출한 후, 인접한 블록 간의 영상 밝기 데이터의 평균값의 차이를 기준으로 특징점을 추출하여 각 프레임별로 그룹화된 핑거프린트를 생성할 수 있다.In addition, in the present invention, the feature point extracting unit decodes a video stream of a moving picture into an RGB format or a black-and-white video format, and then divides the decoded frame image into a plurality of block units, and the image brightness data of each pixel for each block unit After calculating the average value of, a fingerprint grouped for each frame may be generated by extracting a feature point based on a difference between the average value of the image brightness data between adjacent blocks.

또한, 본 발명에서 상기 영상 분석부는, 상기 이동 수단의 영상의 각 프레임 이미지별로 그룹화된 핑거프린트로 추출된 특징점과 상기 영상 저장 시스템에 기저장된 영상의 색인화된 특징점을 상호 비교하여 소정 구간의 복수의 프레임에 대응하는 특징점의 유사도가 임계수치 이상인 위치 정보를 포함하는 기저장된 영상을 찾아내고, 상기 기저장된 영상의 위치 정보를 상기 이동 수단의 위치로 판단할 수 있다.In addition, in the present invention, the image analysis unit compares the feature points extracted as a fingerprint grouped for each frame image of the image of the moving means and the indexed feature points of the image pre-stored in the image storage system, A pre-stored image including position information having a similarity of a feature point corresponding to a frame is greater than or equal to a threshold value may be found, and position information of the pre-stored image may be determined as the position of the moving means.

또한, 본 발명에서 상기 저장 시스템(160)에는 프레임별 핑거 프린트와 위치 정보를 포함하는 다수의 기저장된 영상(200, 210)을 포함하고, 상기 영상 분석부(120)는 상기 이동 수단이 촬영한 영상(300)을 실시간으로 영상 분석부(120)에 전송하고, 영상 분석부(120)는 이동 수단이 촬영한 영상(300)의 프레임별 (301, 302, 303, 304, 305, 306, 307, 308)로 핑거 프린트(P301, P302, P303, P304, P305, P306, P307, P308)와 저장 시스템(160)에 기저장된 영상(200, 210)의 프레임별(211, 212, 213, 214, 215, 216, 217, 218)로 핑거 프린트(P211, P212, P213, P214, P215, P216, P217, P218)를 비교하여 유사도가 임계치 이상인 프레임을 찾아 기저장된 영상의 프레임 위치 정보를 이동 수단의 위치 정보로 판단할 수 있다.In addition, in the present invention, the storage system 160 includes a plurality of pre-stored images 200 and 210 including a finger print for each frame and location information, and the image analysis unit 120 is The image 300 is transmitted to the image analysis unit 120 in real time, and the image analysis unit 120 is 301, 302, 303, 304, 305, 306, 307 , 308) for each frame (P 301 , P 302 , P 303 , P 304 , P 305 , P 306 , P 307 , P 308 ) and the image (200, 210) previously stored in the storage system 160 ( 211, 212, 213, 214, 215, 216, 217, 218) with finger prints (P 211 , P 212 , P 213 , P 214 , P 215 , P 216 , P 217 , P 218 ) The abnormal frame may be found and the frame position information of the pre-stored image may be determined as the position information of the vehicle.

또한, 본 발명은 복수의 프레임을 포함하는 동영상의 각 프레임별 그룹화된 핑거 프린트와 위치 정보가 색인화되어 영상 저장 시스템(160)에 저장하는 단계; 이동 수단(400)이 복수의 프레임을 포함하는 동영상을 촬영하는 단계; 상기 이동 수단(400)이 특징점 추출부(110)에 전송하여 상기 이동 수단이 촬영한 동영상의 각 프레임별 그룹화된 핑거프린트를 생성하는 단계; 및 상기 특징점 추출부((110)에 의해서 상기 특징점이 추출된 이동 수단의 동영상을 영상 분석부(120)에서 상기 영상 저장 시스템의 동영상과 비교하는 단계;를 포함하는 영상의 유사도 분석을 이용한 위치 측정 방법에 관한 것이다.In addition, the present invention includes the steps of indexing the finger print and location information grouped for each frame of a moving picture including a plurality of frames and storing them in the image storage system 160; The moving means 400 photographing a moving picture including a plurality of frames; Generating a fingerprint grouped for each frame of the moving picture captured by the moving means by transmitting the moving means 400 to the feature point extracting unit 110; And comparing, in the image analysis unit 120, the moving picture of the moving means from which the feature points are extracted by the feature point extracting unit 110 with the moving picture of the image storage system; It's about the method.

본 발명은 자동차 또는 드론과 같은 이동 수단의 운행을 하기 위하여 이동 수단에 구비된 촬영 장치에 의해 촬영한 이미지의 특이점을 추출하고, 저장 시스템에 저장된 촬영 영상 이미지의 특이점과 비교하여 촬영 장치의 위치를 파악할 수 있도록 하였으며 이로 인하여 촬영 장치의 위치를 빠르게 파악할 수 있도록 하고자 한다.The present invention extracts a singular point of an image photographed by a photographing device provided in the transport means in order to operate a transport means such as a vehicle or a drone, and compares the singular point of the photographed image image stored in the storage system to determine the location of the photographing device. It is designed to be able to grasp, and by this, the location of the photographing device is to be quickly identified.

또한 본 발명에 의하면, 현 시점의 촬영 영상과 평상시의 영상을 실시간으로 비교하여 특이사항 파악할 수 있는 유리한 효과가 있다.In addition, according to the present invention, there is an advantageous effect of comparing the captured image at the current point of time and the image at a normal time in real time to identify a specific matter.

도 1은 본 발명 블록 구성도이다.
도 2 본 발명에서 핑거 프린트를 추출하기 위해서 영상의 프레임(100)을 분할한 예이다.
도 3는 위치 정보를 추적하기 위한 실시예이다.
도 4a 및 도 4b는 영상 저장 시스템(160)에 저장된 영상에 대한 예시이다.
도 5는 이동 수단이 촬영한 동영상(300)의 프레임별 핑거프린트화된 예시이다.
1 is a block diagram of the present invention.
2 is an example of dividing the frame 100 of an image in order to extract a finger print in the present invention.
3 is an embodiment for tracking location information.
4A and 4B are examples of images stored in the image storage system 160.
5 is an example of a frame-by-frame fingerprint of a video 300 captured by a moving means.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. First of all, in adding reference numerals to elements of each drawing, it should be noted that the same elements are assigned the same numerals as possible, even if they are indicated on different drawings. In describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the subject matter of the present invention, a detailed description thereof will be omitted.

도 1은 본 발명 이동형 촬영 영상의 유사도 분석을 이용한 위치 추적 시스템을 나타낸 블록 구성도로서, 영상 촬영부(100), 특징점 추출부(110), 영상 분석부(120), 영상 저장 시스템(160)을 포함한다.1 is a block diagram showing a location tracking system using similarity analysis of a mobile photographed image according to the present invention, wherein an image capture unit 100, a feature point extraction unit 110, an image analysis unit 120, and an image storage system 160 Includes.

상기 영상 촬영부(100)는 이동 수단에 장착된 각종 동영상을 촬영할 수 있는 카메라 등이 될 수 있으며, 촬영 동영상을 상기 특징점 추출부(110)로 전송한다.The image capturing unit 100 may be a camera or the like capable of capturing various videos mounted on a moving means, and transmits the captured video to the feature point extracting unit 110.

특징점 추출부(110)는 동영상 파일에 포함된 비디오 데이터를 분석하여 비디오 특징점인 비디오 핑거프린트를 추출한다.The feature point extracting unit 110 extracts a video fingerprint, which is a video feature point, by analyzing video data included in the moving picture file.

여기서, 비디오 핑거 프린트란 비디오 데이터를 고유하게 식별할 수 있는 일종의 비디오 고유 아이디의 요소를 지칭하고, 상기 특징점 추출부(110)는 비디오 핑거 프린트를 추출하기에 앞서 영상 파일로부터 비디오 데이터만을 선택적으로 분리하는 과정을 선행할 수 있다.Here, the video fingerprint refers to a kind of video unique ID element capable of uniquely identifying video data, and the feature point extracting unit 110 selectively separates only video data from an image file prior to extracting the video fingerprint. You can precede the process of doing it.

상기 특징점 추출부(110)는 비디오 핑거 프린트를 추출하기 위해 동영상 파일에서 비디오 스트림을 선택적으로 분리하고, 분리된 비디오 스트림을 RGB 포맷으로 디코딩한다. 이어서 디코딩된 영상 데이터를 구성하는 각 프레임 이미지별로 서브 비디오 특징점을 추출한다.The feature point extracting unit 110 selectively separates a video stream from a video file to extract a video fingerprint, and decodes the separated video stream into an RGB format. Subsequently, sub-video feature points are extracted for each frame image constituting the decoded video data.

상기 특징점 추출부(110)가 각 프레임 이미지별로 서브 비디오 특징점을 추출하는 과정은 다음과 같다. 이는 상기 좁 우스트빈 외 1명의 논문을 참조한다(Job Oostveen, Ton Kalker, Jaap Haitsma의 논문 "Feature Extraction and a Database Strategy for Video Fingerprinting"(Lecture Notes in Computer Science 2314 Springer 2002).A process in which the feature point extracting unit 110 extracts sub-video feature points for each frame image is as follows. This refers to the paper by Job Oostveen, Ton Kalker, and Jaap Haitsma, "Feature Extraction and a Database Strategy for Video Fingerprinting" (Lecture Notes in Computer Science 2314 Springer 2002).

먼저, 특징점 추출부(110)는 프레임 이미지를 블록 단위로 분할한다. First, the feature point extraction unit 110 divides a frame image into blocks.

예를 들어, 이미지의 세로축을 n 등분하고 가로축을 m 등분하여 프레임 이미지를 n×m 개의 블록으로 분할한다. 다른 예로서, 이미지의 세로축을 n 등분하여 프레임 이미지를 n 개의 블록으로 분할하고 다시 가로축을 m 등분하여 프레임 이미지를 m 개의 블록으로 분할하여 n×m 개의 블록으로 분할한다.For example, the frame image is divided into n×m blocks by dividing the vertical axis by n and the horizontal axis by dividing by m. As another example, the frame image is divided into n blocks by dividing the vertical axis of the image into n equal parts, and the frame image is divided into m blocks by dividing the horizontal axis into m blocks and divided into n×m blocks.

그리고 특징점 추출부(110)는 분할된 블록 단위별로 각 영상 밝기 데이터인 Y값의 평균을 산출한 후 인접한 블록 간의 영상 밝기 평균값의 차이를 기준으로 소정 비트수의 서브 비디오 핑거프린트를 생성한다.In addition, the feature point extracting unit 110 calculates the average of the Y values of each image brightness data for each divided block unit, and then generates a sub-video fingerprint of a predetermined number of bits based on the difference between the average image brightness values between adjacent blocks.

[수학식 1]은 하나의 프레임 이미지에 대한 서브 비디오 핑거프린트를 생성하는데 사용될 수 있는 비트 할당 함수 'B(r, c, p)'를 예시한 것이다.[Equation 1] exemplifies a bit allocation function'B(r, c, p)' that can be used to generate a sub-video fingerprint for one frame image.

Figure pat00001
Figure pat00001

여기서 B(r, c, p)는 p번째 프레임 이미지의 가로축 및 세로축을 기준으로 각각 r번째 및 c번째에 위치한 블록에 대해 비트를 할당하는 함수이다. 그리고, F(r, c, p)는 p번째 프레임 이미지의 가로축 및 세로축을 기준으로 각각 r번째 및 c번째에 위치한 블록의 영상 밝기값 평균을 나타낸다.Here, B(r, c, p) is a function that allocates bits to blocks located at the rth and cth positions, respectively, based on the horizontal and vertical axes of the p-th frame image. In addition, F(r, c, p) denotes the average of the image brightness values of the r-th and c-th blocks, respectively, based on the horizontal and vertical axes of the p-th frame image.

상기 [수학식 1]의 F(r, c, p)에서, r은 1부터 n까지의 정수값을 갖고, c는 1부터 m-1까지의 정수값을 갖는다. 여기서 a는 1보다 작은 수로서 적절하게 선택할 수 있는 상수이다.In F(r, c, p) of [Equation 1], r has an integer value from 1 to n, and c has an integer value from 1 to m-1. Where a is a number less than 1 and is an appropriately selectable constant.

한편 상기 특징점 추출부(110)는 영상의 밝기 데이터인 Y값 이외에도 각 픽셀의 색차 데이터인 Cb 또는 Cr값을 활용하여 서브 비디오 핑거프린트를 생성할 수 있다.Meanwhile, the feature point extracting unit 110 may generate a sub-video fingerprint using a Cb or Cr value that is color difference data of each pixel in addition to the Y value that is the brightness data of the image.

상기 특징점 추출부(110)는 동영상을 구성하는 각 프레임 이미지에 대한 서브 비디오 핑거프린트를 추출한 후에는 추출된 각 서브 비디오 핑거프린트를 그룹핑함으로써 동영상 파일에 대한 비디오 핑거프린트의 생성을 완료한다.After the feature point extracting unit 110 extracts the sub-video fingerprint for each frame image constituting the moving picture, the extracted sub-video fingerprint is grouped to complete the generation of the video fingerprint for the moving picture file.

본 발명에서는 상기 좁 우스트빈 외 1명의 논문에 기술된 방식 외의 비디오 핑거프린트를 추출할 수 있는 알고리즘이면 어떠한 것이라도 적용가능하다.In the present invention, any algorithm capable of extracting a video fingerprint other than the method described in the above paper by Narrow Ustbin can be applied.

이와 같은 방식으로, 동영상 파일에 대한 비디오 핑거 프리트를 생성하여 영상 저장 시스템(160)에 저장하고 저장시 동영상 파일의 프레임별 위치 정보도 함께 저장을 한다.In this way, a video finger print for a video file is generated and stored in the image storage system 160, and when the video file is stored, location information for each frame of the video file is also stored.

차량 및 드론과 같은 이동 수단에 장착된 촬영 수단이 새로 영상을 촬영하면, 촬영된 영상의 이미지를 특징점 추출부(110)에 전송하여 핑거 프린트를 생성하고 생성된 핑거 프린트를 영상 분석부(120)에 전송하여, 저장 시스템의 동영상 파일의 핑거 프린트와 비교를 한다.When a photographing means mounted on a vehicle or a moving means such as a drone newly photographs an image, the image of the photographed image is transmitted to the feature point extracting unit 110 to generate a finger print, and the generated finger print is the image analysis unit 120 And compare it with the fingerprint of the video file in the storage system.

새로 촬영한 이미지의 촬영한 영상에 생성된 비디오 핑거 프린트와 저장 시스템에 저장된 핑거 프린트를 비교하여, 핑거 프린트간의 유사도가 임계 수치 이상인지 여부를 판단한 결과 임계수치 이상인 경우, 새로 촬영한 영상의 위치가 종전 저장 시스템(160)에 저장된 영상의 촬영한 장소와 일치한다고 판단한다.As a result of determining whether the similarity between the finger prints is greater than or equal to the threshold value by comparing the video fingerprint generated in the captured image of the newly captured image with the fingerprint stored in the storage system, the location of the newly captured image is It is determined that it matches the photographed location of the image stored in the previous storage system 160.

이와 같이, 이동 수단의 촬영 수단이 촬영한 영상과 위치 정보가 기록된 저장 시스템의 종전 영상과 비교하여, 상기 영상 촬영 수단의 위치를 실시간으로 파악하여 이동 수단의 위치를 파악할 수 있고 이로 인하여, 이동 수단인 차량 또는 드론을 제어할 수 있다.In this way, by comparing the image captured by the photographing means of the transport means and the previous image of the storage system in which the location information is recorded, the position of the image photographing means can be grasped in real time to determine the position of the transport means. Vehicles or drones can be controlled.

도 2는 본 발명의 이동형 촬영 영상의 유사도 분석을 이용한 지능형 이동 감시 시스템의 특징점 추출의 과정 중 블록을 분할하는 일실시례이다. 도 2에서는, 9개의 블록으로 분할하였다. 2 is an example of segmenting a block during a process of extracting a feature point of an intelligent movement monitoring system using similarity analysis of a mobile photographed image according to the present invention. In Fig. 2, it is divided into 9 blocks.

특징점 추출부(110)는 색상에 기반한 특징점을 추출하기 위해서는 색상 히스토그램 그래프를 이용할 수도 있다. 이는 웨이-룬 차오(Wei-Lun Chao)의 논문 "The Core of Video Fingerprinting Example of Feature Extraction"의 내용을 이용할 수 있다.The feature point extracting unit 110 may use a color histogram graph to extract a feature point based on a color. This can be done using the contents of Wei-Lun Chao's thesis "The Core of Video Fingerprinting Example of Feature Extraction".

또한 특징점 추출부(110)는 객체 이동에 기반한 특징점을 추출하기 위해서는 객체 인식 기반 특징점 추출 알고리즘을 이용할 수 있다. 이는 후이타오 루오(Huitao Luo)의 논문(Algorithms for Video Ob ject Detection and Segmentation with Application to Content-Based Multimedia Systems)을 이용하는 것이 바람직하다.In addition, the feature point extraction unit 110 may use an object recognition-based feature point extraction algorithm to extract a feature point based on object movement. It is desirable to use Huitao Luo's Algorithms for Video Object Detection and Segmentation with Application to Content-Based Multimedia Systems.

한편 특징점 추출부(110)는 상기 서브 비디오 특징점을 추출한 각 프레임 고유값들을 영상 분석부(120)로 전송한다. 영상 분석부(120)는 전달된 파라미터 또는 전달 인자에 따라 특정 시점부터 검색할 수 있다.Meanwhile, the feature point extraction unit 110 transmits the unique values of each frame from which the sub-video feature point is extracted to the image analysis unit 120. The image analysis unit 120 may search from a specific point in time according to a transmitted parameter or a transmission factor.

영상 저장 시스템(160)는 촬영 경과 시점 및 프레임, GPS 좌표별로 색인화하는 것이 좋다. It is preferable that the image storage system 160 indexes an elapsed photographing time point, frame, and GPS coordinate.

상기 영상 분석부(120)는 기설정된 기간으로 제한하여 영상 저장 시스템(160)를 검색하는 기능을 수행하는 것이 바람직하다. 상기 영상 저장 시스템(160)에 기저장된 전체 데이터를 검색하지 않고 관리자가 기설정한 검색 구간으로 제한하여 검색 속도를 높일 수 있는 것이다.It is preferable that the image analysis unit 120 performs a function of searching the image storage system 160 by limiting to a preset period. It is possible to increase the search speed by limiting to a search section preset by an administrator without searching for all data previously stored in the image storage system 160.

도 3에 도시된 것과 같이, 드론과 같은 이동 수단(400) 등을 통해 9월 10일에 촬영하는 영상과 기저장된 영상의 핑거프린트가 임계치 이상인 영상을 찾으며, 상기 기저장된 영상의 위치 정보를 통해 9월10일 촬영하는 이동 수단의 위치를 파악할 수 있다.As shown in FIG. 3, an image photographed on September 10 through a moving means 400 such as a drone, and an image having a fingerprint of a pre-stored image above a threshold value are searched, and through the location information of the pre-stored image. You can find out the location of the means of transportation taken on September 10th.

현재 실시간으로 촬영되고 있는 대상 영상 (9월10일 영상)을 기저정된 영상 자체의 이미지가 아니라 특징점 추출부(110)가 영상의 프레임별 추출한 특징점(핑거 프린트)을 비트연산을 통해 상호 비교하기 때문에 연산속도가 빠르다. 따라서 실시간 비교도 가능하고 이러한 비교는 영상 분석부(120)가 수행한다. Comparing the target image (September 10 image) currently being photographed in real time, not the image itself, but the feature points (finger print) extracted for each frame of the image by the feature point extraction unit 110 through bit operation. Therefore, the calculation speed is fast. Therefore, real-time comparison is also possible, and the image analysis unit 120 performs this comparison.

도 3에서 영상의 A point부터 D point까지는 특징점의 상호 비교 결과 유사도가 임계수치 이상인 경우로서 9월10일 찍은 촬영 수단의 위치를 기저장된 영상의 위치 정보를 통해 파악할 수 있다.In FIG. 3, as a result of mutual comparison of the feature points from point A to point D of the image, the similarity is greater than or equal to a threshold value, and the location of the photographing means taken on September 10 can be identified through the location information of the previously stored image.

도 4a 및 도 4b에 도시된 것과 같이, 영상 저장 시스템에는 다수의 프레임(201, 202,..; 211, 212. ....)을 포함하는 영상(200, 210)이 저장되어 있으며, 기저장된 영상의 프레임별(211, 212, 213, 214, 215, 216, 217, 218)로 핑거 프린트(P211, P212, P213, P214, P215, P216, P217, P218)가 생성되어 있다.4A and 4B, images 200 and 210 including a plurality of frames 201, 202,..; 211, 212. ....) are stored in the image storage system. Finger print (P 211 , P 212 , P 213 , P 214 , P 215 , P 216 , P 217 , P 218 ) for each frame of the saved image (211, 212, 213, 214, 215, 216, 217, 218) Has been created.

도 5에서 처럼 이동 수단은 실시간으로 영상(300)을 촬영하며, 촬영한 영상(300)은 특징점 추출부(110)에서 프레임별 (301, 302, 303, 304, 305, 306, 307, 308)로 핑거 프린트(P301, P302, P303, P304, P305, P306, P307, P308)를 생성하고, 영상 분석부(160)에서는 상기 촬영한 영상(300)의 핑거 프린트를 이용하여 기저장된 영상중 일치하는 프레임을 검색한다.As shown in FIG. 5, the moving means captures an image 300 in real time, and the captured image 300 is frame-by-frame (301, 302, 303, 304, 305, 306, 307, 308) A finger print (P 301 , P 302 , P 303 , P 304 , P 305 , P 306 , P 307 , P 308 ) is generated, and the image analysis unit 160 performs a finger print of the captured image 300. It searches for a matching frame among the previously stored images.

예를 들어, 기저장된 영상(210)의 프레임 (213, 214, 215, 216, 217)의 핑거 프린트(P213, P214, P215, P216, P217)가 영상(300)의 프레임(302, 303, 304, 305, 306)의 핑거 프린트(P302, P303, P304, P305, P306, P307)와 임계치 이상으로 일치하는 경우, 영상(300)을 촬영하는 이동 수단의 위치는 영상(210)의 프레임 (213, 214, 215, 216, 217)의 위치와 동일한 것으로 판단한다. For example, the finger prints (P 213, P 214 , P 215 , P 216 , P 217 ) of the frames (213, 214, 215, 216, 217) of the pre-stored image 210 are the frames of the image 300 ( 302, 303, 304, 305, 306) of the finger print (P 302 , P 303 , P 304 , P 305 , P 306, P 307 ) and above the threshold value, The location is determined to be the same as the location of the frames 213, 214, 215, 216, 217 of the image 210.

또한, 영상(300)의 프레임(307)과 영상(210)의 프레임(218)의 핑거 프린트 값(P307, P218) 값의 유사도가 임계치 이하 (예를 들면 90%이하)가 되는 경우 영상 분석부는 이동 수단이 촬영하는 영상(300)의 프레임별 핑거프린트와 유사도가 임계치 이상인 영상을 다시 찾게 된다. In addition, when the similarity between the finger print values (P 307 , P 218 ) of the frame 307 of the image 300 and the frame 218 of the image 210 is less than or equal to the threshold (eg, less than 90%), the image The analysis unit searches again for an image having a similarity with a fingerprint for each frame of the image 300 photographed by the moving means equal to or greater than a threshold value.

이와 같이, 본원 발명에서는 영상을 프레임별 핑거 프린트에 의해 특징점을 추출하고 프레임별 위치 정보를 포함하여 저장 시스템에 저장한 후, 이동 수단이 찍은 영상의 특징점을 비교하여, 저장 시스템의 동영상의 일치하는 프레임의 위치 정보를 통해 현재 이동 수단의 위치를 파악할 수 있도록 한 것이다.As described above, in the present invention, feature points are extracted by frame-by-frame finger prints, and after storing the feature points in the storage system including frame-by-frame location information, the feature points of the images taken by the moving means are compared to match the video of the storage system. It is possible to determine the location of the current vehicle through the location information of the frame.

이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 부가 및 변경이 가능하다는 것이 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다. The present invention described above is not limited by the above-described embodiments and the accompanying drawings, and various substitutions, additions, and changes are possible within the scope of the technical spirit of the present invention. It will be obvious to those of ordinary skill.

100: 영상촬영부 110: 특징점 추출부
120: 영상분석부 130: 관리자검열부
160: 영상 저장 시스템
100: image capturing unit 110: feature point extraction unit
120: image analysis unit 130: manager censorship unit
160: video storage system

Claims (6)

복수의 프레임을 포함하는 동영상의 각 프레임별 그룹화된 핑거 프린트와 위치 정보가 색인화되어 저장되는 영상 저장 시스템(160);
복수의 프레임을 포함하는 동영상을 촬영하는 이동 수단(400);
상기 이동 수단이 촬영한 동영상의 각 프레임별 그룹화된 핑거프린트를 생성하는 특징점 추출부(110); 및
상기 특징점이 추출된 이동 수단의 동영상을 상기 영상 저장 시스템의 동영상과 비교하는 영상 분석부(120);를 포함하고,
상기 영상 분석부는 이동 수단의 동영상의 특징점과 저장 시스템의 동영상의 특징점을 비교하여 유사도가 임계치 이상인지를 확인하여 이동 수단의 동영상과 대응되는 저장 시스템의 동영상을 찾아내고, 상기 찾아낸 저장 시스템의 동영상의 위치 정보를 이동 수단의 위치 정보로 인식하는 것을 특징으로 하는 영상의 유사도 분석을 이용한 위치 측정 시스템.
An image storage system 160 in which finger prints and location information grouped for each frame of a moving picture including a plurality of frames are indexed and stored;
A moving means 400 for photographing a moving picture including a plurality of frames;
A feature point extracting unit 110 for generating a fingerprint grouped for each frame of the moving picture taken by the moving means; And
Including; an image analysis unit 120 comparing the video of the moving means from which the feature points are extracted with the video of the image storage system,
The image analysis unit compares the feature points of the moving picture of the moving means and the feature points of the moving picture of the storage system to check whether the similarity is greater than or equal to a threshold value, finds a moving picture of the storage system corresponding to the moving picture of the moving means, and A position measurement system using image similarity analysis, characterized in that the position information is recognized as position information of a moving means.
제1항에 있어서,
상기 특징점 추출부는, 동영상의 비디오 스트림을 RGB 포맷 또는 흑백 영상 포맷으로 디코딩한 후 디코딩된 각 프레임 이미지를 복수 개의 블록 단위로 분할하고, 상기 분할된 블록 단위별로 각 픽셀의 영상 밝기 데이터의 평균값을 산출한 후, 인접한 블록 간의 영상 밝기 데이터의 평균값의 차이를 기준으로 특징점을 추출하여 각 프레임별로 그룹화된 핑거프린트를 생성하고,
상기 영상 분석부는, 상기 이동 수단의 영상의 각 프레임 이미지별로 그룹화된 핑거프린트로 추출된 특징점과 상기 영상 저장 시스템에 기저장된 영상의 색인화된 특징점을 상호 비교하여 소정 구간의 복수의 프레임에 대응하는 특징점의 유사도가 임계수치 이상인 위치 정보를 포함하는 기저장된 영상을 찾아내고, 상기 기저장된 영상의 위치 정보를 상기 이동 수단의 위치로 판단하는 것을 특징으로 하는 영상의 유사도 분석을 이용한 위치 측정 시스템.
The method of claim 1,
The feature point extracting unit decodes the video stream of the moving picture into an RGB format or a black-and-white video format, divides the decoded frame image into units of a plurality of blocks, and calculates an average value of image brightness data of each pixel for each of the divided blocks. After that, a fingerprint grouped for each frame is generated by extracting a feature point based on the difference in the average value of the image brightness data between adjacent blocks,
The image analysis unit compares a feature point extracted as a fingerprint grouped for each frame image of the image of the moving means and an indexed feature point of an image pre-stored in the image storage system to correspond to a plurality of frames in a predetermined section. A position measurement system using image similarity analysis, characterized in that: finding a pre-stored image including location information having a similarity of greater than or equal to a threshold value, and determining the location information of the pre-stored image as the location of the moving means.
제1항에 있어서,
상기 저장 시스템(160)에는 프레임별 핑거 프린트와 위치 정보를 포함하는 다수의 기저장된 영상(200, 210)을 포함하고,
상기 영상 분석부(120)는 상기 이동 수단이 촬영한 영상(300)을 실시간으로 영상 분석부(120)에 전송하고,
영상 분석부(120)는 이동 수단이 촬영한 영상(300)의 프레임별 (301, 302, 303, 304, 305, 306, 307, 308)로 핑거 프린트(P301, P302, P303, P304, P305, P306, P307, P308)와 저장 시스템(160)에 기저장된 영상(200, 210)의 프레임별(211, 212, 213, 214, 215, 216, 217, 218)로 핑거 프린트(P211, P212, P213, P214, P215, P216, P217, P218)를 비교하여 유사도가 임계치 이상인 프레임을 찾아 기저장된 영상의 프레임 위치 정보를 이동 수단의 위치 정보로 판단하는 것을 특징으로 하는 영상의 유사도 분석을 이용한 위치 측정 시스템.
The method of claim 1,
The storage system 160 includes a plurality of pre-stored images 200 and 210 including a finger print and location information for each frame,
The image analysis unit 120 transmits the image 300 captured by the moving means to the image analysis unit 120 in real time,
The image analysis unit 120 uses a finger print (P 301 , P 302 , P 303 , P) for each frame (301, 302, 303, 304, 305, 306, 307, 308) of the image 300 captured by the moving means. 304 , P 305 , P 306 , P 307 , P 308 ) and each frame (211, 212, 213, 214, 215, 216, 217, 218) of the image (200, 210) previously stored in the storage system 160 Finger prints (P 211 , P 212 , P 213 , P 214 , P 215 , P 216 , P 217 , P 218 ) are compared to find a frame with a similarity greater than or equal to a threshold, and the frame location information of the pre-stored image is transferred to the location information of the vehicle Position measurement system using the similarity analysis of the image, characterized in that the determination as.
복수의 프레임을 포함하는 동영상의 각 프레임별 그룹화된 핑거 프린트와 위치 정보가 색인화되어 영상 저장 시스템(160)에 저장하는 단계;
이동 수단(400)이 복수의 프레임을 포함하는 동영상을 촬영하는 단계;
상기 이동 수단(400)이 특징점 추출부(110)에 전송하여 상기 이동 수단이 촬영한 동영상의 각 프레임별 그룹화된 핑거프린트를 생성하는 단계; 및
상기 특징점 추출부((110)에 의해서 상기 특징점이 추출된 이동 수단의 동영상을 영상 분석부(120)에서 상기 영상 저장 시스템의 동영상과 비교하는 단계;를 포함하고,
상기 영상 분석부는 이동 수단의 동영상의 특징점과 저장 시스템의 동영상의 특징점을 비교하여 유사도가 임계치 이상인지를 확인하여 이동 수단의 동영상과 대응되는 저장 시스템의 동영상을 찾아내고, 상기 찾아낸 저장 시스템의 동영상의 위치 정보를 이동 수단의 위치 정보로 인식하는 것을 특징으로 하는 영상의 유사도 분석을 이용한 위치 측정 방법.
Indexing finger prints and location information grouped for each frame of a moving picture including a plurality of frames and storing them in the image storage system 160;
The moving means 400 photographing a moving picture including a plurality of frames;
Generating a fingerprint grouped for each frame of the moving picture captured by the moving means by transmitting the moving means 400 to the feature point extracting unit 110; And
Comprising, in the image analysis unit 120, comparing the moving picture of the moving means from which the feature points are extracted by the feature point extracting unit 110 with the moving picture of the image storage system,
The image analysis unit compares the feature points of the moving picture of the moving means and the feature points of the moving picture of the storage system to check whether the similarity is greater than or equal to a threshold value, finds a moving picture of the storage system corresponding to the moving picture of the moving means, and Position measurement method using image similarity analysis, characterized in that the position information is recognized as position information of the moving means.
제4항에 있어서,
상기 특징점 추출부는, 동영상의 비디오 스트림을 RGB 포맷 또는 흑백 영상 포맷으로 디코딩한 후 디코딩된 각 프레임 이미지를 복수 개의 블록 단위로 분할하고, 상기 분할된 블록 단위별로 각 픽셀의 영상 밝기 데이터의 평균값을 산출한 후, 인접한 블록 간의 영상 밝기 데이터의 평균값의 차이를 기준으로 특징점을 추출하여 각 프레임별로 그룹화된 핑거프린트를 생성하고,
상기 영상 분석부는, 상기 이동 수단의 영상의 각 프레임 이미지별로 그룹화된 핑거프린트로 추출된 특징점과 상기 영상 저장 시스템에 기저장된 영상의 색인화된 특징점을 상호 비교하여 소정 구간의 복수의 프레임에 대응하는 특징점의 유사도가 임계수치 이상인 위치 정보를 포함하는 기저장된 영상을 찾아내고, 상기 기저장된 영상의 위치 정보를 상기 이동 수단의 위치로 판단하는 것을 특징으로 하는 영상의 유사도 분석을 이용한 위치 측정 방법.
The method of claim 4,
The feature point extracting unit decodes the video stream of the moving picture into an RGB format or a black-and-white video format, divides the decoded frame image into units of a plurality of blocks, and calculates an average value of image brightness data of each pixel for each of the divided blocks. After that, a fingerprint grouped for each frame is generated by extracting a feature point based on the difference in the average value of the image brightness data between adjacent blocks,
The image analysis unit compares a feature point extracted as a fingerprint grouped for each frame image of the image of the moving means and an indexed feature point of an image pre-stored in the image storage system to correspond to a plurality of frames in a predetermined section. A method for measuring a location using similarity analysis of an image, characterized in that: finding a pre-stored image including location information having a similarity of greater than or equal to a threshold value, and determining the location information of the pre-stored image as the location of the moving means.
제5항에 있어서,
상기 저장 시스템(160)에는 프레임별 핑거 프린트와 위치 정보를 포함하는 다수의 기저장된 영상(200, 210)을 포함하고,
상기 영상 분석부(120)는 상기 이동 수단이 촬영한 영상(300)을 실시간으로 영상 분석부(120)에 전송하고,
영상 분석부(120)는 이동 수단이 촬영한 영상(300)의 프레임별 (301, 302, 303, 304, 305, 306, 307, 308)로 핑거 프린트(P301, P302, P303, P304, P305, P306, P307, P308)와 저장 시스템(160)에 기저장된 영상(200, 210)의 프레임별(211, 212, 213, 214, 215, 216, 217, 218)로 핑거 프린트(P211, P212, P213, P214, P215, P216, P217, P218)를 비교하여 유사도가 임계치 이상인 프레임을 찾아 기저장된 영상의 프레임 위치 정보를 이동 수단의 위치 정보로 판단하는 것을 특징으로 하는 영상의 유사도 분석을 이용한 위치 측정 방법.
The method of claim 5,
The storage system 160 includes a plurality of pre-stored images 200 and 210 including a finger print and location information for each frame,
The image analysis unit 120 transmits the image 300 captured by the moving means to the image analysis unit 120 in real time,
The image analysis unit 120 uses a finger print (P 301 , P 302 , P 303 , P) for each frame (301, 302, 303, 304, 305, 306, 307, 308) of the image 300 captured by the moving means. 304 , P 305 , P 306 , P 307 , P 308 ) and each frame (211, 212, 213, 214, 215, 216, 217, 218) of the image (200, 210) previously stored in the storage system 160 Finger prints (P 211 , P 212 , P 213 , P 214 , P 215 , P 216 , P 217 , P 218 ) are compared to find a frame with a similarity greater than or equal to a threshold, and the frame location information of the pre-stored image is transferred to the location information of the vehicle A method of measuring a location using similarity analysis of an image, characterized in that it is determined as.
KR1020200037182A 2019-11-07 2020-03-27 Positioning system and the method thereof using similarity-analysis of image KR20210055567A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200037182A KR20210055567A (en) 2019-11-07 2020-03-27 Positioning system and the method thereof using similarity-analysis of image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190141486A KR102096784B1 (en) 2019-11-07 2019-11-07 Positioning system and the method thereof using similarity-analysis of image
KR1020200037182A KR20210055567A (en) 2019-11-07 2020-03-27 Positioning system and the method thereof using similarity-analysis of image

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190141486A Division KR102096784B1 (en) 2019-11-07 2019-11-07 Positioning system and the method thereof using similarity-analysis of image

Publications (1)

Publication Number Publication Date
KR20210055567A true KR20210055567A (en) 2021-05-17

Family

ID=70282422

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190141486A KR102096784B1 (en) 2019-11-07 2019-11-07 Positioning system and the method thereof using similarity-analysis of image
KR1020200037182A KR20210055567A (en) 2019-11-07 2020-03-27 Positioning system and the method thereof using similarity-analysis of image

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020190141486A KR102096784B1 (en) 2019-11-07 2019-11-07 Positioning system and the method thereof using similarity-analysis of image

Country Status (2)

Country Link
KR (2) KR102096784B1 (en)
WO (1) WO2021091053A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102096784B1 (en) * 2019-11-07 2020-04-03 주식회사 휴머놀러지 Positioning system and the method thereof using similarity-analysis of image
KR102509981B1 (en) 2021-08-02 2023-03-14 주식회사 휴머놀러지 Video Finger Printing Learning Method Using Virtual world and system using same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101240924B1 (en) 2011-12-27 2013-03-12 주식회사 유티솔 Apparatus and method for motion detecting sensor using camera
KR20150033043A (en) 2013-09-23 2015-04-01 (주)한국스마트시티 Locatiion chase system and method based on radio frequency recognition and image of camera

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012046671A1 (en) * 2010-10-06 2012-04-12 日本電気株式会社 Positioning system
KR101778530B1 (en) * 2011-06-14 2017-09-15 삼성전자 주식회사 Method and apparatus for processing image
KR101734029B1 (en) * 2016-01-19 2017-05-10 박명준 Intellegent monitoring system and the method thereof using similarity-analysis of mobile moving-image
KR20190109325A (en) * 2019-08-07 2019-09-25 엘지전자 주식회사 Robot and method for localizing robot
KR102096784B1 (en) * 2019-11-07 2020-04-03 주식회사 휴머놀러지 Positioning system and the method thereof using similarity-analysis of image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101240924B1 (en) 2011-12-27 2013-03-12 주식회사 유티솔 Apparatus and method for motion detecting sensor using camera
KR20150033043A (en) 2013-09-23 2015-04-01 (주)한국스마트시티 Locatiion chase system and method based on radio frequency recognition and image of camera

Also Published As

Publication number Publication date
WO2021091053A1 (en) 2021-05-14
KR102096784B1 (en) 2020-04-03

Similar Documents

Publication Publication Date Title
JP7317919B2 (en) Appearance search system and method
US9560323B2 (en) Method and system for metadata extraction from master-slave cameras tracking system
US9208226B2 (en) Apparatus and method for generating evidence video
KR101337060B1 (en) Imaging processing device and imaging processing method
US8675065B2 (en) Video monitoring system
CN102007499B (en) Detecting facial expressions in digital images
KR101781358B1 (en) Personal Identification System And Method By Face Recognition In Digital Image
KR101734029B1 (en) Intellegent monitoring system and the method thereof using similarity-analysis of mobile moving-image
CN105279480A (en) Method of video analysis
US10037467B2 (en) Information processing system
US20130083965A1 (en) Apparatus and method for detecting object in image
KR102096784B1 (en) Positioning system and the method thereof using similarity-analysis of image
KR102090739B1 (en) Intellegent moving monitoring system and the method thereof using video region grid multidivision for video image similarity-analysis
CN111091041A (en) Vehicle law violation judging method and device, computer equipment and storage medium
KR101509593B1 (en) Image classification method and apparatus for preset tour camera
US11682211B2 (en) Computer-implemented method
US20220327716A1 (en) Method of detecting moving objects
WO2022228325A1 (en) Behavior detection method, electronic device, and computer readable storage medium
CN104680143B (en) A kind of fast image retrieval method for video investigation
KR102509981B1 (en) Video Finger Printing Learning Method Using Virtual world and system using same
JP2018137639A (en) Moving image processing system, encoder and program, decoder and program
CN108399411B (en) A kind of multi-cam recognition methods and device
KR102589150B1 (en) Long-distance object detection system using cumulative difference image
JP2019169843A (en) Video recording device, video recording method and program
JP2015220549A (en) Image processing apparatus, image processing method, and program