KR20230019744A - Video Finger Printing Learning Method Using Virtual world and system using same - Google Patents

Video Finger Printing Learning Method Using Virtual world and system using same Download PDF

Info

Publication number
KR20230019744A
KR20230019744A KR1020210101655A KR20210101655A KR20230019744A KR 20230019744 A KR20230019744 A KR 20230019744A KR 1020210101655 A KR1020210101655 A KR 1020210101655A KR 20210101655 A KR20210101655 A KR 20210101655A KR 20230019744 A KR20230019744 A KR 20230019744A
Authority
KR
South Korea
Prior art keywords
image
video
frame
fingerprints
feature point
Prior art date
Application number
KR1020210101655A
Other languages
Korean (ko)
Other versions
KR102509981B1 (en
Inventor
박명준
Original Assignee
주식회사 휴머놀러지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 휴머놀러지 filed Critical 주식회사 휴머놀러지
Priority to KR1020210101655A priority Critical patent/KR102509981B1/en
Publication of KR20230019744A publication Critical patent/KR20230019744A/en
Application granted granted Critical
Publication of KR102509981B1 publication Critical patent/KR102509981B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

An objective of the present invention is to build a video using a virtual camera (like moving a viewpoint during a 3D game) within a 3D virtual space (like using a real environment as a game background). The present invention relates to a video fingerprinting learning method using virtual world, comprising: a virtual space (500); a virtual camera (20) which acquires an image including a plurality of frames while virtually moving in the virtual space (500); a first feature point extraction unit (110A) which generates a grouped fingerprint for each frame of the image acquired by the virtual camera (20); an image index DB (130) which indexes a shooting angle (AA) and shooting path (FA) of the image acquired by the virtual camera (20) into the image; an image storage system (160) in which fingerprints, location information, the shooting angle (AA), and the shooting path (FA) grouped for each frame of the video are indexed and stored; a moving means which captures a video including a plurality of frames; a second feature point extraction unit (110B) which generates fingerprints grouped for each frame of the video captured by the moving means; and a video analysis unit (120) which compares the video, from which the feature points are extracted, of the moving means with the video of the image storage system.

Description

가상 세계를 이용한 비디오 핑거프린팅 학습 방법 및 이를 이용한 시스템 {Video Finger Printing Learning Method Using Virtual world and system using same}Video Finger Printing Learning Method Using Virtual World and system using same}

본 발명은 가상 세계를 이용한 비디오 핑거 프린팅 학습 방법 및 이를 이용한 시스템에 관한 것이다.The present invention relates to a video fingerprinting learning method using a virtual world and a system using the same.

특히, 본 발명은 가상 세계에서 가상 드론을 위치시키고 이동시켜서 다수의 프레임을 구비한 가상 영상 이미지를 획득하고 상기 다수의 영상 이미지 각각에서 핑거 프린트를 획득하거나 또는 각각의 이미지를 분할하여 분할 영역에서의 핑거 프린트를 저장하여 영상 데이터를 획득하는 방법 또는 이를 이용한 시스템에 관한 것이다.In particular, the present invention obtains a virtual video image having a plurality of frames by locating and moving a virtual drone in a virtual world, obtains a fingerprint from each of the plurality of video images, or divides each image to obtain a video image in a divided area. A method of obtaining image data by storing a fingerprint or a system using the same.

자동차 또는 드론과 같은 이동 수단의 운행을 하기 위해서는 상기 이동 수단의 위치를 파악을 하고 파악된 위치를 기반으로 이동 수단의 운행 방향 및 속도등을 제어하게 된다.In order to operate a means of transportation such as a car or a drone, the location of the means of transportation is identified, and the driving direction and speed of the means of transportation are controlled based on the identified location.

이러한 이동 수단의 위치를 파악하기 위하여 GPS를 이용하게 되나, 건물 내부, 다리 밑, 터널 같은 곳에서는 GPS를 사용할 수 없게 된다.Although GPS is used to determine the location of such means of transportation, GPS cannot be used in places such as inside buildings, under bridges, and tunnels.

따라서, 이동 수단에 부착된 촬영 수단 (차량의 블랙 박스, 드론의 카메라)에 의하여 촬영된 영상과, 기존에 촬영한 영상을 비교하여 이동 수단의 현재 위치를 파악하고, 이와 같이 파악된 위치에 의하여 상기 이동 수단을 제어하고자 하는 발명이 등록 특허 제10-2096784-0000호에 공개되어 있다.Therefore, the current position of the means of transportation is identified by comparing the image captured by the photographing means attached to the means of transportation (the black box of the vehicle, the camera of the drone) with the previously captured image, and An invention for controlling the moving means is disclosed in Registered Patent No. 10-2096784-0000.

또한, 감시대상 영역을 사전에 촬영한 동영상의 프레임 이미지별 서브 비디오 핑거 프린트 또는 프레임 이미지의 분할 영역에서의 핑거 프린트 (특이점)을 추출하고 추출한 후 분할 영역들을 비교하여 감시 대상 영역 또는 감시 대상 영역의 일부 영역에서의 변화가 발생한 경우 용이하게 감지할 수 있도록 하고자 하는 발명이 등록 특허 제10-1734029-0000호 및 제10-2090739-0000호에 공개되어 있다.In addition, sub-video fingerprints for each frame image of a motion picture taken in advance of the surveillance target area or fingerprints (singular points) in the divided areas of the frame image are extracted, and after extraction, the divided areas are compared to determine the surveillance target area or the surveillance target area. Inventions aimed at enabling easy detection of changes in some areas are disclosed in Registered Patent Nos. 10-1734029-0000 and 10-2090739-0000.

그러나 상기 특허들에서는 지정 경로 비행 동영상의 유사도 또는 지정 경로의 유사도를 판단하기 위해서는 사전에 같은 경로를 촬영한 동영상들이 필요하며 실제 촬영에는 많은 인적, 물적, 시간적 비용이 소요된다.However, in the above patents, in order to determine the similarity of the flight video of the designated route or the similarity of the designated route, videos of the same route are required in advance, and a lot of human, material, and time costs are required for actual shooting.

공개 특허 제10-2015-0033043호 (2015.04.01)Publication Patent No. 10-2015-0033043 (2015.04.01) 등록 특허 제10-1240924-0000호 (2013.03.04)Registered Patent No. 10-1240924-0000 (2013.03.04) 등록 특허 제10-2090739-0000호 (2020.03.12)Registered Patent No. 10-2090739-0000 (2020.03.12) 등록 특허 제10-2096784-0000호 (2020.03.30)Registered Patent No. 10-2096784-0000 (2020.03.30)

본 발명에서는 3차원 가상공간(실제 환경을 게임 배경으로 활용하는 것과 같이) 내에서 가상 카메라(3차원 게임 중 시점 이동처럼)를 이용해서 동영상을 구축하고자 한다.In the present invention, it is intended to build a video using a virtual camera (like moving a viewpoint in a 3D game) in a 3D virtual space (like using a real environment as a game background).

또한, 본 발명에서는 경로 비행 오차, 시간에 따른 그림자에 따른 오차, 카메라 촬영 각도에 따른 오차 등을 감안해서 다양한 동영상을 가상 환경의 설정 변경을 통해 보다 저렴한 영상 경로 데이터를 생성하고자 한다.In addition, in the present invention, in consideration of path flight error, shadow error over time, error due to camera shooting angle, etc., it is intended to generate cheaper video path data by changing the setting of a virtual environment for various videos.

또한, 지정된 경로 오차가 아닌 다양한 경로의 동영상을 구축하고 이동하는 카메라에서 촬영하는 동영상이 어떤 경로, 어떠한 각도로 촬영하였느지에 대한 정로를 파악하고자 한다. In addition, it is intended to construct videos of various paths rather than a specified path error, and to understand the path and angle of the video taken by the moving camera.

본 발명은 가상 공간(500); 상기 가상 공간(500)에서 가상으로 이동하면서 다수의 프레임을 포함하는 영상을 획득하는 가상 카메라(20); 상기 가상 카메라(20)가 획득한 영상의 각 프레임별 그룹화된 핑거프린트를 생성하는 제1 특징점 추출부(110A); 상기 가상 카메라(20)가 획득한 영상의 촬영 각도(AA)와 촬영 경로(FA)를 상기 영상에 색인화하는 영상 색인 DB (130); 상기 동영상의 각 프레임별 그룹화된 핑거 프린트, 위치 정보, 촬영 각도(AA) 및 촬영 경로(FA)가 색인화되어 저장되는 영상 저장 시스템(160); 복수의 프레임을 포함하는 동영상을 촬영하는 이동 수단; 상기 이동 수단이 촬영한 동영상의 각 프레임별 그룹화된 핑거프린트를 생성하는 제2 특징점 추출부(110B); 및 상기 특징점이 추출된 이동 수단의 동영상을 상기 영상 저장 시스템의 동영상과 비교하는 영상 분석부(120);를 포함하는 가상 세계를 이용한 비디오 핑거프린팅을 이용한 시스템에 관한 것이다.The present invention includes a virtual space 500; a virtual camera 20 that obtains an image including a plurality of frames while moving virtually in the virtual space 500; a first feature point extraction unit 110A generating grouped fingerprints for each frame of the image acquired by the virtual camera 20; an image index DB (130) for indexing the photographing angle (AA) and photographing path (FA) of the image acquired by the virtual camera 20 into the image; an image storage system 160 indexing and storing grouped fingerprints, location information, capturing angles (A A ) and capturing paths (F A ) of each frame of the video; a moving means for capturing a moving image including a plurality of frames; a second feature point extraction unit 110B for generating grouped fingerprints for each frame of the video captured by the moving means; and an image analyzer 120 that compares the video of the means of transportation from which the characteristic points are extracted with the video of the video storage system.

또한, 상기 영상 분석부는, 상기 이동 수단의 영상의 각 프레임 이미지별로 그룹화된 핑거프린트로 추출된 특징점과 상기 영상 저장 시스템에 기저장된 영상의 색인화된 특징점을 상호 비교하여 소정 구간의 복수의 프레임에 대응하는 특징점의 유사도가 임계수치 이상인 기저장된 영상을 찾아내고, 상기 기저장된 영상의 위치 정보, 촬영 각도(AA) 및 촬영 경로(FA)를 상기 이동 수단의 위치 정보, 촬영 각도(AA) 및 촬영 경로(FA)로 판단할 수 있다.In addition, the image analysis unit compares feature points extracted as fingerprints grouped for each frame image of the image of the moving means and indexed feature points of images previously stored in the image storage system to correspond to a plurality of frames in a predetermined section A pre-stored image having a similarity of feature points equal to or greater than a threshold value is found, and the location information, the shooting angle (A A ) and the shooting path (F A ) of the pre-stored image are converted into the location information of the moving means and the shooting angle (A A ). And it can be determined by the photographing path (F A ).

또한, 본 발명에서 상기 제1 및 제2 특징점 추출부(100A, 100B)는, 동영상의 비디오 스트림을 RGB 포맷 또는 흑백 영상 포맷으로 디코딩한 후 디코딩된 각 프레임 이미지를 복수 개의 블록 단위로 분할하고, 상기 분할된 블록 단위별로 각 픽셀의 영상 밝기 데이터의 평균값을 산출한 후, 인접한 블록 간의 영상 밝기 데이터의 평균값의 차이를 기준으로 특징점을 추출하여 각 프레임별로 그룹화된 핑거프린트를 생성할 수 있다.In addition, in the present invention, the first and second feature point extraction units 100A and 100B decode a video stream of a moving image into an RGB format or a black and white video format, and then divide each decoded frame image into a plurality of blocks, After calculating the average value of the image brightness data of each pixel for each divided block unit, a feature point may be extracted based on a difference in the average value of the image brightness data between adjacent blocks to generate a grouped fingerprint for each frame.

또한, 상기 저장 시스템(160)은 프레임별 핑거 프린트와 위치 정보를 포함하는 다수의 기저장된 영상(200, 210, 220, 230)을 포함할 수 있고, 상기 이동 수단은 촬영한 영상(300)을 제2 특징점 추출부(110B)에서 각 프레임별 그룹화된 핑거프린트를 생성하고 상기 제2 특징점 추출부(110B)는 핑거프린트가 생성된 영상(300)을 실시간으로 영상 분석부(120)에 전송하고, 상기 영상 분석부(120)는 이동 수단이 촬영한 영상(300)의 프레임별 (301, 302, 303, 304, 305, 306, 307, 308)로 핑거 프린트(P301, P302, P303, P304, P305, P306, P307, P308)와 저장 시스템(160)에 기저장된 영상(200, 210)의 프레임별(211, 212, 213, 214, 215, 216, 217, 218)로 핑거 프린트(P211, P212, P213, P214, P215, P216, P217, P218)를 비교하여 유사도가 임계치 이상인 프레임을 찾아 기저장된 영상의 위치 정보, 촬영 각도(AA) 및 촬영 경로(FA)를 상기 이동 수단의 위치 정보, 촬영 각도(AA) 및 촬영 경로(FA)로 판단할 수 있다.In addition, the storage system 160 may include a plurality of pre-stored images 200, 210, 220, and 230 including fingerprints and location information for each frame, and the moving unit stores the captured image 300. The second feature point extraction unit 110B generates grouped fingerprints for each frame, and the second feature point extraction unit 110B transmits the image 300 in which the fingerprint is generated to the image analysis unit 120 in real time. , The image analyzer 120 prints fingerprints (P 301 , P 302 , P 303 ) by frames (301, 302, 303, 304, 305, 306, 307 , 308 ) of the image 300 captured by the moving unit. , P 304 , P 305 , P 306 , P 307 , P 308 ) and the images 200 and 210 previously stored in the storage system 160 for each frame (211, 212, 213, 214, 215, 216, 217, 218 ) by comparing fingerprints (P 211 , P 212 , P 213 , P 214 , P 215 , P 216 , P 217 , P 218 ) to find a frame with similarity equal to or higher than the threshold, and find the location information of the previously stored image, the shooting angle (A A ) and the photographing path F A may be determined based on the location information of the moving means, the photographing angle A , and the photographing path F A .

또한, 본 발명은 가상 공간(500)에서 가상 카메라(20)가 가상으로 이동하면서 다수의 프레임을 포함하는 영상을 획득하는 단계; 제1 특징점 추출부(110A)에서 상기 가상 카메라(20)가 획득한 영상의 각 프레임별 그룹화된 핑거프린트를 생성하는 단계; 영상 색인 DB (130)이 가상 카메라(20)가 획득한 영상의 촬영 각도(AA)와 촬영 경로(FA) 및 각각의 프레임의 위치 정보를 색인화하는 단계; 영상 저장 시스템(160)이 각 프레임별 그룹화된 핑거 프린트, 위치 정보, 촬영 각도(AA) 및 촬영 경로(FA)가 색인화된 상기 동영상을 저장하는 단계; 이동 수단이 복수의 프레임을 포함하는 동영상을 촬영하는 단계; 상기 이동 수단(400)이 제2 특징점 추출부(110B)에 상기 이동 수단이 촬영한 동영상을 전송하고 제2 특징점 추출부(110B)는 상기 이동 수단이 촬영한 동영상의 각 프레임별 그룹화된 핑거프린트를 생성하는 단계; 및 상기 제2 특징점 추출부((110B)에 의해서 상기 특징점이 추출된 이동 수단의 동영상을 영상 분석부(120)에서 상기 영상 저장 시스템의 동영상과 비교하는 단계;를 포함하는 가상 세계를 이용한 비디오 핑거프린팅 학습 방법에 관한 것이다.In addition, the present invention includes the steps of acquiring an image including a plurality of frames while the virtual camera 20 moves virtually in the virtual space 500; generating grouped fingerprints for each frame of the image acquired by the virtual camera 20 in a first feature point extraction unit 110A; indexing, by the image index DB 130, information on the photographing angle (AA) and the photographing path (FA) of the image obtained by the virtual camera 20 and the location of each frame; storing, by an image storage system 160, the moving picture indexed with the fingerprint, location information, photographing angle (A A ), and photographing path (F A ) grouped for each frame; photographing a moving image including a plurality of frames by a moving unit; The moving means 400 transmits the video taken by the moving means to the second feature point extraction unit 110B, and the second feature point extraction unit 110B provides a grouped fingerprint for each frame of the video taken by the moving means. generating; and comparing the video of the moving means from which the feature points are extracted by the second feature point extractor (110B) with the video of the image storage system in the image analyzer 120. It is about a printing learning method.

본 발명에서는 3차원 가상공간(실제 환경을 게임 배경으로 활용하는 것과 같이) 내에서 가상 카메라(3차원 게임 중 시점 이동처럼)를 이용해서 동영상을 구축하여 실시간으로 촬영하는 것에 비하여 시간과 비용을 줄일수 있도록 하였다.In the present invention, compared to real-time filming by constructing a video using a virtual camera (like moving a viewpoint in a 3D game) in a 3D virtual space (like using a real environment as a game background), time and cost can be reduced. made it possible

또한, 본 발명에서는 경로 비행 오차, 시간에 따른 그림자에 따른 오차, 카메라 촬영 각도에 따른 오차 등을 감안해서 가상 환경의 설정 변경을 통해 다양한 동영상을 생성하여 저렴한 영상 경로 데이터를 획득하고 실제 동영상과 비교하도록 하여 데이터의 정확성을 추구할 수 있게 하였다.In addition, in the present invention, in consideration of path flight error, error due to shadow over time, error due to camera shooting angle, etc., various videos are generated through changing the setting of the virtual environment to obtain inexpensive image path data and compare with the actual video. This was done to ensure the accuracy of the data.

또한, 가상공간에서 이동하는 카메라의 경로를 핑거프린트와 색인정보를 합하도록 하여 경로 데이터를 획득할 수 있게 하였다.In addition, it is possible to obtain path data by combining the fingerprint and index information of the path of the camera moving in the virtual space.

도 1은 종래 발명에서의 영상 촬영에 대한 예시이다.
도 2는 본 발명 구성도이다.
도 3은 가상 공간에서 가상 이동 수단(20)를 통해 촬영하는 구성도이다.
도 4a 내지 4d는 다양한 경로에서의 카메라 촬영에 대한 경로 사진이다.
도 5는 핑거 프린트를 추출하기 위하여 영상 프레임을 분할한 예이다.
도 6a 내지 도 6d는 도 4a 내지 도 4d의 경로에서 촬영한 영상을 핑거 프린트화 해서 영상 저장 시스템(160)에 저장된 상태를 도시한다.
도 7은 위치 정보를 추적하기 위한 실시예이다.
도 8은 실제 공간에서 촬영한 동영상을 핑거프린트화한 예시이다.
도 9는 도 8의 영상과 대응되는 영상 저장 시스템(160)에 미리 저장된 상태의 핑거프린트화된 영상 데이터이다.
도 10은 본 발명 이동 촬영 영상 프레임(400)을 서브 프레임으로 분할한 예이다.
도 11은 서브 프레임[S1(1,1))에서 특이점을 추출하기 위하여 다수의 블록으로 분할한 예시이다.
도 12는 프레임(400)의 서브 프레임 각각에 특이점을 추출한 예시이다.
도 13a 및 13b는 본 발명의 특이점 비교예이다.
1 is an example of image capturing in the prior art.
2 is a configuration diagram of the present invention.
3 is a configuration diagram of photographing through the virtual moving unit 20 in a virtual space.
4a to 4d are route photos for camera shooting in various routes.
5 is an example of dividing an image frame to extract a fingerprint.
6A to 6D show a state in which images taken in the paths of FIGS. 4A to 4D are fingerprinted and stored in the image storage system 160 .
7 is an embodiment for tracking location information.
8 is an example of fingerprinting a video taken in a real space.
FIG. 9 is fingerprinted image data in a state previously stored in the image storage system 160 corresponding to the image of FIG. 8 .
10 is an example in which a moving photographing image frame 400 according to the present invention is divided into sub-frames.
11 is an example of dividing a subframe [S1(1,1)) into a plurality of blocks to extract a singular point.
12 is an example of extracting a singularity from each subframe of the frame 400 .
13a and 13b are comparative examples of singularities of the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. First, in adding reference numerals to components of each drawing, it should be noted that the same components have the same numerals as much as possible even if they are displayed on different drawings. In describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted.

도 1은 종래 발명에서의 영상 촬영에 대한 예시도로서 다양한 경로의 데이터가 충분하지 않아 저장된 데이터는 F의 경로로 이동하였는데 실제 데이터 비교시 F'의 경로로 이동하는 경우 오차가 발생할 수 있다.FIG. 1 is an exemplary view of image capture in the prior art. Since data of various paths is not sufficient, stored data moves to a path F, but when comparing actual data, an error may occur when moving to a path F'.

따라서 본 발명에서는 도 3과 같은 가상공간에 가상적인 촬영 수단(20)을 이동시키면서 다양한 가상적인 영상을 획득한다.Therefore, in the present invention, various virtual images are acquired while moving the virtual photographing unit 20 in the virtual space as shown in FIG. 3 .

가상적이 공간에서 촬영 경로는 도 4a 내지 도 4d와 같이 다양한 경로에서 영상을 획득한다. In the virtual space, images are obtained from various paths as shown in FIGS. 4A to 4D .

도 2은 본 발명 이동형 촬영 영상의 유사도 분석을 이용한 위치 추적 시스템을 나타낸 블록 구성도로서, 제1 영상 촬영부(100A), 제1 특징점 추출부(110A), 제2 영상 촬영부(200B), 제2 특징점 추출부(110B), 영상 분석부(120) 및 영상 색인 DB (130)를 포함한다.2 is a block configuration diagram showing a location tracking system using similarity analysis of mobile captured images according to the present invention. It includes a second feature point extraction unit 110B, an image analysis unit 120 and an image index DB 130.

상기 제1 영상 촬영부(100A)는 가상 공간(500)에서 가상의 촬영 수단(20)을 이동시키면서 다양한 경로에서 다수의 프레임을 포함하는 영상을 획득하고, 제1 특징점 추출부(110A)에서는 상기 가상 공간에서 획득한 다수의 프레임을 포함하는 영상의 특징점인 핑거 프린트를 추출한다.The first image capturing unit 100A obtains an image including a plurality of frames in various paths while moving the virtual capturing unit 20 in the virtual space 500, and the first feature point extracting unit 110A A fingerprint, which is a feature point of an image including a plurality of frames acquired in a virtual space, is extracted.

제2 영상 촬영부(200B)에서는 실제 이동 수단 (예: 드론, 자동차)이 실제로 이동을 하면서 장착된 카메라를 통해 각종 다수의 프레임을 포함하는 동영상을 촬영하고, 상기 실제 촬영된 동영상은 제2 특징점 추출부(110B)에 전송하며 제2 특징점 추출부(110B)는 제1 특징점 추출부(110A)에서 처럼, 동영상 파일에 포함된 비디오 데이터를 분석하여 비디오 특징점인 비디오 핑거프린트를 추출한다.In the second video capture unit 200B, a moving means (e.g., a drone, a car) actually moves and captures a video including a plurality of various frames through a camera mounted thereon, and the actually captured video has second feature points. It is transmitted to the extractor 110B, and the second feature point extractor 110B, like the first feature point extractor 110A, analyzes the video data included in the video file and extracts a video fingerprint, which is a video feature point.

여기서, 비디오 핑거 프린트란 비디오 데이터를 고유하게 식별할 수 있는 일종의 비디오 고유 아이디의 요소를 지칭하고, 상기 제1 특징점 추출부(110A)는 비디오 핑거 프린트를 추출하기에 앞서 가상 공간(500)에서 획득한 영상 파일로부터 비디오 데이터만을 선택적으로 분리하는 과정을 선행할 수 있다.Here, the video fingerprint refers to a kind of video unique ID element capable of uniquely identifying video data, and the first feature point extractor 110A obtains the video fingerprint from the virtual space 500 prior to extracting it. A process of selectively separating only video data from one image file may be preceded.

상기 제1 특징점 추출부(110A)는 비디오 핑거 프린트를 추출하기 위해 가상 공간에서 획득한 동영상 파일에서 비디오 스트림을 선택적으로 분리하고, 분리된 비디오 스트림을 RGB 포맷으로 디코딩한다. The first feature point extraction unit 110A selectively separates a video stream from a video file acquired in a virtual space to extract a video fingerprint, and decodes the separated video stream into an RGB format.

이어서 디코딩된 영상 데이터를 구성하는 각 프레임 이미지별로 서브 비디오 특징점을 추출한다.Subsequently, sub video feature points are extracted for each frame image constituting the decoded video data.

상기 제1 특징점 추출부(110A)가 각 프레임 이미지별로 서브 비디오 특징점을 추출하는 과정은 다음과 같다. 이는 상기 좁 우스트빈 외 1명의 논문을 참조한다(Job Oostveen, Ton Kalker, Jaap Haitsma의 논문 "Feature Extraction and a Database Strategy for Video Fingerprinting"(Lecture Notes in Computer Science 2314 Springer 2002).The process of extracting sub video feature points for each frame image by the first feature point extractor 110A is as follows. This refers to the paper by Job Oostveen, Ton Kalker, and Jaap Haitsma, “Feature Extraction and a Database Strategy for Video Fingerprinting” (Lecture Notes in Computer Science 2314 Springer 2002).

먼저, 제1 특징점 추출부(110A)는 프레임 이미지를 도 5에 도시된 것과 같이 블록 단위로 분할한다. First, the first feature point extraction unit 110A divides the frame image into blocks as shown in FIG. 5 .

예를 들어, 이미지의 세로축을 n 등분하고 가로축을 m 등분하여 프레임 이미지를 n×m 개의 블록으로 분할한다. For example, the frame image is divided into n×m blocks by dividing the vertical axis of the image into n equal parts and dividing the horizontal axis into m equal parts.

그리고 제1 특징점 추출부(110A)는 분할된 블록 단위별로 각 영상 밝기 데이터인 Y값의 평균을 산출한 후 인접한 블록 간의 영상 밝기 평균값의 차이를 기준으로 소정 비트수의 서브 비디오 핑거프린트를 생성한다.Then, the first feature point extraction unit 110A calculates the average of Y values, which is each image brightness data, for each divided block unit, and then generates a sub-video fingerprint of a predetermined number of bits based on the difference in average image brightness values between adjacent blocks. .

[수학식 1]은 하나의 프레임 이미지에 대한 서브 비디오 핑거프린트를 생성하는데 사용될 수 있는 비트 할당 함수 'B(r, c, p)'를 예시한 것이다.[Equation 1] illustrates a bit allocation function 'B(r, c, p)' that can be used to generate a sub video fingerprint for one frame image.

Figure pat00001
Figure pat00001

여기서 B(r, c, p)는 p번째 프레임 이미지의 가로축 및 세로축을 기준으로 각각 r번째 및 c번째에 위치한 블록에 대해 비트를 할당하는 함수이다. 그리고, F(r, c, p)는 p번째 프레임 이미지의 가로축 및 세로축을 기준으로 각각 r번째 및 c번째에 위치한 블록의 영상 밝기값 평균을 나타낸다.Here, B(r, c, p) is a function for allocating bits to blocks located at the rth and cth positions on the basis of the horizontal axis and the vertical axis of the pth frame image, respectively. Further, F(r, c, p) denotes average image brightness values of blocks located at the rth and cth positions, respectively, on the basis of the horizontal axis and the vertical axis of the pth frame image.

상기 [수학식 1]의 F(r, c, p)에서, r은 1부터 n까지의 정수값을 갖고, c는 1부터 m까지의 정수값을 갖는다. 여기서 a는 1보다 작은 수로서 적절하게 선택할 수 있는 상수이다.In F(r, c, p) of [Equation 1], r has an integer value from 1 to n, and c has an integer value from 1 to m. Here, a is a constant that can be selected appropriately as a number less than 1.

한편 상기 제1 특징점 추출부(110A)는 영상의 밝기 데이터인 Y값 이외에도 각 픽셀의 색차 데이터인 Cb 또는 Cr값을 활용하여 서브 비디오 핑거프린트를 생성할 수 있다.Meanwhile, the first feature point extraction unit 110A may generate a sub video fingerprint by utilizing Cb or Cr values, which are color difference data of each pixel, in addition to Y values, which are brightness data of the image.

상기 제1 특징점 추출부(110A)는 동영상을 구성하는 각 프레임 이미지에 대한 서브 비디오 핑거프린트를 추출한 후에는 추출된 각 서브 비디오 핑거프린트를 그룹핑함으로써 동영상 파일에 대한 비디오 핑거프린트의 생성을 완료한다.After the first feature point extraction unit 110A extracts the sub-video fingerprints of each frame image constituting the video, it completes the generation of video fingerprints for the video file by grouping the extracted sub-video fingerprints.

본 발명에서는 상기 좁 우스트빈 외 1명의 논문에 기술된 방식 외의 비디오 핑거프린트를 추출할 수 있는 알고리즘이면 어떠한 것이라도 적용가능하다.In the present invention, any algorithm capable of extracting a video fingerprint other than the method described in the paper by Jop Ustbin and one other person can be applied.

이와 같은 방식으로, 동영상 파일에 대한 비디오 핑거 프리트를 제1 특징점 추출부(110A)에서 생성하고 영상 색인 DB(130)에서는 상기 동영상 파일의 촬영 각도(AA)와 촬영 경로(FA)를 형성한후 동영상 파일을 영상 저장 시스템(160)에 저장한다. 따라서, 가상 공간에서 획득한 영상 정보는 프레임별 핑거 프린트, 촬영 각도, 촬영 경로, 위치 정보에 관한 정보를 함께 저장 한다.In this way, the video finger frit for the video file is generated in the first feature point extractor 110A, and the shooting angle A and the shooting path F A of the video file are formed in the image index DB 130 After that, the video file is stored in the video storage system 160. Accordingly, the image information obtained in the virtual space stores information about the fingerprint, the shooting angle, the shooting path, and the location information for each frame.

차량 및 드론과 같은 이동 수단에 장착된 촬영 수단을 포함하는 제2 영상 촬영부(100B)에서 새로 영상을 촬영하면, 상기 촬영된 영상의 이미지는 제2 특징점 추출부(110B)에 전송하여 핑거 프린트를 생성하고 생성된 핑거 프린트를 영상 분석부(120)에 전송하여, 저장 시스템의 동영상 파일의 핑거 프린트와 비교를 한다.When a new image is captured by the second image capturing unit 100B including a capturing means mounted on a vehicle or a drone, the image of the captured image is transmitted to the second feature point extracting unit 110B for fingerprint printing is generated and the generated fingerprint is transmitted to the image analysis unit 120, and compared with the fingerprint of the video file of the storage system.

새로 촬영한 영상에 생성된 비디오 핑거 프린트와 저장 시스템에 저장된 핑거 프린트를 비교하여, 핑거 프린트간의 유사도가 임계 수치 이상인지 여부를 판단한 결과 임계수치 이상인 경우, 새로 촬영한 영상의 위치가 종전 저장 시스템(160)에 저장된 영상을 획득한 장소와 일치한다고 판단한다.The video fingerprint generated in the newly captured image is compared with the fingerprint stored in the storage system, and it is determined whether the similarity between the fingerprints is greater than or equal to a threshold value. 160) is determined to match the location where the image was acquired.

이와 같이, 이동 수단의 촬영 수단이 촬영한 영상을 위치 정보가 기록된 저장 시스템의 종전 영상과 비교하여, 상기 영상 촬영 수단의 위치를 실시간으로 파악하여 이동 수단의 위치를 파악할 수 있고 이로 인하여, 이동 수단인 차량 또는 드론을 제어할 수 있다.In this way, by comparing the image captured by the photographing means of the moving means with the previous image of the storage system in which the location information is recorded, the position of the image photographing means can be grasped in real time to determine the location of the moving means. It can control vehicles or drones.

도 5는 본 발명의 이동형 촬영 영상의 유사도 분석을 이용한 지능형 이동 감시 시스템의 특징점 추출의 과정 중 블록을 분할하는 일실시례이다. 도 5에서는, 9개의 블록으로 분할하였다. 5 is an exemplary embodiment of segmenting blocks during the process of extracting feature points of an intelligent mobile monitoring system using similarity analysis of mobile captured images according to the present invention. In Fig. 5, it is divided into 9 blocks.

제1 및 제2 특징점 추출부(110A, 110B)는 색상에 기반한 특징점을 추출하기 위해서는 색상 히스토그램 그래프를 이용할 수도 있다. 이는 웨이-룬 차오(Wei-Lun Chao)의 논문 "The Core of Video Fingerprinting Example of Feature Extraction"의 내용을 이용할 수 있다.The first and second feature point extraction units 110A and 110B may use a color histogram graph to extract color-based feature points. This can use the contents of Wei-Lun Chao's thesis "The Core of Video Fingerprinting Example of Feature Extraction".

또한 제1 및 제2 특징점 추출부(110A, 110B)는 객체 이동에 기반한 특징점을 추출하기 위해서는 객체 인식 기반 특징점 추출 알고리즘을 이용할 수 있다. 이는 후이타오 루오(Huitao Luo)의 논문(Algorithms for Video Ob ject Detection and Segmentation with Application to Content-Based Multimedia Systems)을 이용하는 것이 바람직하다.In addition, the first and second feature point extractors 110A and 110B may use an object recognition based feature point extraction algorithm to extract feature points based on object movement. It is preferable to use Huitao Luo's thesis (Algorithms for Video Object Detection and Segmentation with Application to Content-Based Multimedia Systems).

한편 제2 특징점 추출부(110B)는 상기 서브 비디오 특징점을 추출한 각 프레임 고유값들을 영상 분석부(120)로 전송한다. 영상 분석부(120)는 전달된 파라미터 또는 전달 인자에 따라 특정 시점부터 검색할 수 있다.Meanwhile, the second feature point extractor 110B transmits the unique values of each frame from which the sub-video feature points are extracted to the image analyzer 120. The image analyzer 120 may search from a specific point in time according to the transmitted parameters or factors.

영상 색인 DB(130)는 제1 영상 촬영부(100A)와 제1 특징점 추출부(110A)에서 핑거 프린트를 구비한 영상의 이미지를 획득한 촬영 각도(Aa, Ab, Ac, Ad), 촬영 경로(Fa, Fb, Fc, Fd) 및 위치 정보를 색인화하는 것이 좋다. The image index DB 130 includes a photographing angle (Aa, Ab, Ac, Ad) and a photographing path obtained by obtaining an image of an image having a fingerprint from the first image capturing unit 100A and the first feature point extracting unit 110A. It is good to index (Fa, Fb, Fc, Fd) and location information.

상기 영상 분석부(120)는 설정 경로를 제한하여 영상 저장 시스템(160)를 검색하는 기능을 수행하는 것이 바람직하다. 상기 영상 저장 시스템(160)에 기저장된 전체 데이터를 검색하지 않고 관리자가 기설정한 검색 구간으로 제한하여 검색 속도를 높일 수 있는 것이다.Preferably, the image analysis unit 120 performs a function of searching the image storage system 160 by limiting a set path. It is possible to increase the search speed by limiting the search section to a search section set by the manager without searching all the data pre-stored in the image storage system 160 .

도 7에 도시된 것과 같이, 드론과 같은 이동 수단(400) 등을 통해 9월 10일에 촬영하는 영상과 가상 공간(500)에서 가상의 촬영 수단(20)에 의하여 획득한 기저장된 영상의 핑거프린트가 임계치 이상인 영상을 찾으며, 상기 기저장된 영상의 위치 정보를 통해 9월10일 촬영하는 이동 수단의 위치를 파악할 수 있다.As shown in FIG. 7, the image captured on September 10 through the mobile means 400 such as a drone and the finger of the pre-stored image obtained by the virtual photographing means 20 in the virtual space 500 An image with a print value of more than a threshold value is found, and the location of the means of transportation to be photographed on September 10 can be identified through the location information of the pre-stored image.

현재 실시간으로 촬영되고 있는 대상 영상 (9월10일 영상)은 기저정된 영상 자체의 이미지가 아니라 제1 특징점 추출부(110A)가 영상의 프레임별 추출한 특징점(핑거 프린트)을 비트 연산을 통해 상호 비교하기 때문에 연산속도가 빠르다. 따라서 실시간 비교도 가능하고 이러한 비교는 영상 분석부(120)가 수행한다. The target image (September 10th image) currently being captured in real time is not the image of the base image itself, but the feature point (finger print) extracted by the first feature point extraction unit 110A for each frame of the image is mutually transmitted through bit operation. Comparison is fast because of comparison. Therefore, real-time comparison is also possible, and this comparison is performed by the image analysis unit 120.

도 7에서 영상의 A point부터 D point까지는 특징점의 상호 비교 결과 유사도가 임계수치 이상인 경우로서 9월10일 찍은 촬영 수단의 위치를 기저장된 영상의 위치 정보를 통해 파악할 수 있다.In FIG. 7 , as a result of mutual comparison of feature points from point A to point D of the image, the similarity is greater than or equal to a critical value, and the location of the photographing device taken on September 10 can be identified through the location information of the previously stored image.

도 6a 내지 도 6d에 도시된 것과 같이, 영상 저장 시스템에는 다수의 프레임(201, 202,..; 211, 212. ..; 221, 222, ...; 231, 232,,,)을 포함하는 영상(200, 210, 220, 230)이 저장되어 있으며, 기저장된 영상의 프레임별(211, 212, 213, 214, 215, 216, 217, 218)로 핑거 프린트, 촬영 각도, 촬영 경로(P211, AA, FA; P212, AA, FA; P213, AA, FA; P214, AA, FA; P215, AA, FA; P216, AA, FA; P217, AA, FA; P218, AA, FA;)가 생성되어 있다. As shown in Figures 6a to 6d, the image storage system includes a plurality of frames (201, 202, ...; 211, 212 ...; 221, 222, ...; 231, 232,,,) The images (200, 210, 220, 230) are stored, and the fingerprint, shooting angle, and shooting path (P 211, A A, F A ;P 212 , A A, F A ; P213 , A A, F A ; P 214 , A A , F A ; P 215 , A A , F A ; P 216 , A A , F A ; P 217 , A A , F A ; P 218, A A, F A ;) are created.

도 8에서 처럼 이동 수단은 실시간으로 영상(300)을 촬영하며, 촬영한 영상(300)은 제2 특징점 추출부(110B)에서 프레임별 (301, 302, 303, 304, 305, 306, 307, 308)로 핑거 프린트(P301, P302, P303, P304, P305, P306, P307, P308)를 생성하고, 영상 분석부(120)에서는 상기 촬영한 영상(300)의 핑거 프린트를 이용하여 기저장된 영상중 일치하는 프레임을 검색한다.As shown in FIG. 8 , the moving unit captures an image 300 in real time, and the captured image 300 is captured by the second feature point extractor 110B for each frame (301, 302, 303, 304, 305, 306, 307, 308) to generate fingerprints (P 301 , P 302 , P 303 , P 304 , P 305 , P 306 , P 307 , P 308 ), and the image analysis unit 120 prints the fingers of the captured image 300 Search for matching frames among pre-stored images using print.

예를 들어, 도 9의 기저장된 영상(210)의 프레임 (213, 214, 215, 216, 217)의 핑거 프린트(P213, P214, P215, P216, P217)가 영상(300)의 프레임(302, 303, 304, 305, 306)의 핑거 프린트(P302, P303, P304, P305, P306, P307)와 임계치 이상으로 일치하는 경우, 영상(300)을 촬영하는 이동 수단의 위치는 영상(210)의 프레임(213, 214, 215, 216, 217)의 위치, 촬영 각도(AB) 및 경로 정보(FB)와 동일한 것으로 판단한다.For example, the fingerprints (P 213 , P 214, P 215 , P 216 , P 217) of the frames 213, 214, 215, 216 , and 217 of the pre-stored image 210 of FIG. 9 are the image 300. When matching the fingerprints (P 302 , P 303 , P 304 , P 305, P 306 , P 307 ) of the frames 302, 303, 304, 305, and 306 by more than a threshold value, capturing an image 300 The location of the moving means is determined to be the same as the location of the frames 213 , 214 , 215 , 216 , and 217 of the image 210 , the photographing angle A B , and the path information F B .

또한, 영상(300)의 프레임(307)과 영상(210)의 프레임(218)의 핑거 프린트 값(P307, P218) 값의 유사도가 임계치 이하 (예를 들면 90%이하)가 되는 경우 영상 분석부는 이동 수단이 촬영하는 영상(300)의 프레임별 핑거 프린트와 유사도가 임계치 이상인 영상을 다시 찾게 된다.In addition, when the similarity between the fingerprint values (P 307 , P 218 ) of the frame 307 of the image 300 and the frame 218 of the image 210 is less than or equal to a threshold value (for example, 90% or less), the image The analysis unit finds again an image whose similarity to the frame-by-frame fingerprint of the image 300 captured by the moving means is greater than or equal to a threshold value.

이와 같이, 본원 발명에서는 가상 공간(500)에서 영상을 획득하고 획득한 영상을 프레임별 핑거 프린트에 의해 특징점을 추출하고 가상 공간 영상의 촬영 각도 및 촬영 경로를 포함하여 저장 시스템에 저장한 후, 이동 수단이 찍은 영상의 특징점과 비교하여, 저장 시스템의 동영상의 일치하는 프레임의 위치 정보를 통해 현재 이동 수단의 위치 및 이동 경로등을 파악할 수 있도록 한 것이다.As described above, in the present invention, an image is acquired in the virtual space 500, feature points are extracted from the acquired image by frame-by-frame fingerprinting, and after storing the image including the shooting angle and the shooting path of the virtual space image in a storage system, movement Compared with feature points of images taken by means, the location and movement path of the current moving means can be grasped through location information of matching frames of videos in the storage system.

또한, 본 발명에서는 가상 공간에서 획득한 영상의 각 프레임(400)을 도 10에 도시된 것과 같이 다수의 서브 영역[SI(1,1), SI(1,2), SI(1,3) ...]으로 분할하고 분할된 서브 영역 각각을 도 11와 같이 다수개의 블록 단위 (도 11은 9개의 블록으로 구분)로 분할할 수 있다.In addition, in the present invention, each frame 400 of an image acquired in a virtual space is divided into a plurality of sub-regions [SI(1,1), SI(1,2), SI(1,3) as shown in FIG. ...], and each of the divided sub-regions can be divided into a plurality of block units (Fig. 11 is divided into 9 blocks) as shown in FIG.

예를 들어, 각각의 서브 영역[SI(1,1), S(1,2), S(1,3) ...] 이미지의 세로축을 n 등분하고 가로축을 m 등분하여 프레임의 서브 영역 이미지를 n×m 개의 블록으로 분할할 수 있고, 도 11에서는 서브 영역 [SI(1,1)]를 3x3으로 분할 하였다.For example, each subregion [SI(1,1), S(1,2), S(1,3) ...] subregion image of a frame by dividing the vertical axis of the image into n equal parts and dividing the horizontal axis into m equal parts. can be divided into n × m blocks, and in FIG. 11, the subregion [SI(1,1)] is divided into 3x3 blocks.

제1 특징점 추출부(110A)는 분할된 블록 단위별로 각 영상 밝기 데이터인 Y값의 평균을 산출한 후 인접한 블록 간의 영상 밝기 평균값의 차이를 기준으로 소정 비트수의 서브 비디오 핑거 프린트를 생성한다. The first feature point extraction unit 110A calculates the average of Y values, which is each image brightness data, for each divided block unit, and then generates a sub-video fingerprint of a predetermined number of bits based on the difference in average image brightness values between adjacent blocks.

도 12에 도시된 것과 같이, 서브 영역별로 P(1,1), P(1, 2), P(1,3), P(1, 4)... 와 같이 핑거 프린트가 생성되어 있으며, 예를 들어 P(1, 1)은 도 11에 도시된 다수개의 블럭 단위의 RGB값을 수치화 하여 설정할 수 있다.As shown in FIG. 12, fingerprints such as P(1,1), P(1,2), P(1,3), P(1,4)... are generated for each sub-region, For example, P(1, 1) can be set by digitizing RGB values in units of a plurality of blocks shown in FIG. 11 .

도 12와 같이 서브 영역별로 핑거 프린트[P(1,1), P(1, 2), P(1,3), P(1, 4)... ]를 제1 특징점 추출부(110A)에서 생성하고 영상 색인 DB(130)는 촬영 각도(AA), 촬영 경로(FA)를 상기 핑거 프린트 정보와 함께 가상 공간에서 촬영된 영상에 대하여 색인화 하여 영상 저장 시스템(160)에 저장한다.As shown in FIG. 12, the first feature point extraction unit 110A prints fingerprints [P(1,1), P(1,2), P(1,3), P(1,4)...] for each sub-region. And the image index DB 130 indexes the photographing angle (A A ) and the photographing path (F A) of the image captured in the virtual space together with the fingerprint information and stores it in the image storage system 160.

도 13a 내지 도 13b는 가상 공간에서 획득하여 영상 저장 시스템에 저장된 영상과 촬영한 영상을 비교하는 실시예이다.13A and 13B are examples of comparing an image acquired in a virtual space and stored in an image storage system with a photographed image.

도 13a의 5개의 프레임(400ba, 400bb, 400bc, 400bd, 400be)은 실시간 촬영중인 영상이고, 특정 구간인 T1 시간 동안 촬영한 프레임 집합인 동영상이다. 촬영의 시작점이 Ti 시각이 된다고 가정할 때, 상기 5개의 프레임은 제2 특징점 추출부(110B)에 의하여 서브 영역 각각이 핑거 프린트화 되어 있다.The five frames 400ba, 400bb, 400bc, 400bd, and 400be of FIG. 13A are images being captured in real time, and are a set of frames captured during a specific section, T1. Assuming that the starting point of photography is the time Ti, each of the sub-regions of the five frames is fingerprinted by the second feature point extraction unit 110B.

그리고 도 13b의 8개의 프레임은 기저장된 영상이고, 상기 5개의 프레임(400ba, 400bb, 400bc, 400bd, 400be)의 서브 영역 이미지의 일부 핑거 프린트된 값과 임계수치 이상의 값을 구비하는 5개의 프레임(400aa, 400ab, 400ac, 400ad, 400ae)과 특정 구간인 TS에서 동기화가 된다.In addition, the 8 frames of FIG. 13B are pre-stored images, and the 5 frames (400ba, 400bb, 400bc, 400bd, 400be) having a value equal to or higher than a threshold value and a partial fingerprinted value of the sub-region image ( 400aa, 400ab, 400ac, 400ad, 400ae) and a specific section, TS, are synchronized.

즉, 5개의 프레임(400ba, 400bb, 400bc, 400bd, 400be) 각각의 서브 영역의 핑거 프린트 값 P(1,1), P(1, 2), P(1,3), P(1, 4) ...들중 일부가 기 저장된 DB의 5개의 프레임(400aa, 400ab, 400ac, 400ad, 400ae)의 핑거 프린트의 일부와 임계치 이상에서 서로 대응되는 것으로 파악되면, 유사도 비교의 시작점을 Ti와 Ts로써 동기화되고 이후의 각각의 프레임에 포함되는 서브 영역 이미지의 특징점을 상호 비교하게 되는 것이다.That is, the fingerprint values P(1,1), P(1, 2), P(1,3), P(1, 4) of each sub-region of 5 frames (400ba, 400bb, 400bc, 400bd, 400be) ) ... If some of them are found to correspond to each other above the threshold with some of the fingerprints of 5 frames (400aa, 400ab, 400ac, 400ad, 400ae) of the previously stored DB, the starting points of similarity comparison are Ti and Ts As a result, feature points of sub-region images synchronized and included in each subsequent frame are mutually compared.

동기화를 하기 위해서는 프레임의 서브 영역 핑거 프린트 값 모두가 일치하는 것이 아니라, 각각 프레임의 서브영역의 일정 개수 및 일정 개수의 프레임의 핑거 프린트 값이 일치하면 동기화를 한다.In order to perform synchronization, synchronization is performed when a certain number of sub-regions of each frame and a certain number of fingerprint values of each frame are identical, rather than matching all sub-region fingerprint values of a frame.

[예를 들어, 촬영된 영상의 제1 내지 제5 프레임(400ba, 400bb, 400bc, 400bd, 400be)의 서브 영역 SI(1,1) 및 SI(2,1)의 핑거 프린트값이 저장된 된 5개의 프레임(400aa, 400ab, 400ac, 400ad, 400ae)의 서브 영역 SI(1,1) 및 SI(2,1)의 핑거 프린트값에서의 차이가 10% 미만(임계치가 90%인경우)인 경우 촬영된 5개의 프레임(400ba, 400bb, 400bc, 400bd, 400be)과 기저장된 5개의 프레임(400aa, 400ab, 400ac, 400ad, 400ae)을 동기화 할 수 있다.[For example, 5 fingerprint values of sub-regions SI(1,1) and SI(2,1) of the first to fifth frames (400ba, 400bb, 400bc, 400bd, 400be) of the captured image are stored. When the difference in the fingerprint values of the sub-regions SI(1,1) and SI(2,1) of the two frames (400aa, 400ab, 400ac, 400ad, 400ae) is less than 10% (when the threshold is 90%) 5 captured frames (400ba, 400bb, 400bc, 400bd, 400be) and 5 previously stored frames (400aa, 400ab, 400ac, 400ad, 400ae) may be synchronized.

동기화가 된 후에는 각각의 프레임의 서브 영역의 핑거 프린트값을 비교하게 되며 일부에서 차이가 10% 이상의 오차가 발생하면 평상시와는 다른 이벤트가 발생하였음을 알 수 있다.After synchronization, the fingerprint values of sub-regions of each frame are compared, and if an error of 10% or more occurs in some parts, it can be seen that an unusual event has occurred.

위에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 부가 및 변경이 가능하다는 것이 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다. The present invention described above is not limited by the foregoing embodiments and the accompanying drawings, and it is common in the technical field to which the present invention belongs that various substitutions, additions, and changes are possible without departing from the technical spirit of the present invention. It will be clear to those who have knowledge of

400a, 400b: 제1 및 제2 영상촬영부
110A, 110B: 제1 및 제2 특징점 추출부
120: 영상분석부 130: 영상 색인 DB
160: 영상 저장 시스템
400a, 400b: first and second imaging unit
110A, 110B: first and second feature point extraction units
120: image analysis unit 130: image index DB
160: video storage system

Claims (5)

가상 공간(500);
상기 가상 공간(500)에서 가상으로 이동하면서 다수의 프레임을 포함하는 영상을 획득하는 가상 카메라(20);
상기 가상 카메라(20)가 획득한 영상의 각 프레임별 그룹화된 핑거프린트를 생성하는 제1 특징점 추출부(110A);
상기 가상 카메라(20)가 획득한 영상의 촬영 각도(AA)와 촬영 경로(FA)를 상기 영상에 색인화하는 영상 색인 DB (130);
상기 동영상의 각 프레임별 그룹화된 핑거 프린트, 위치 정보, 촬영 각도(AA) 및 촬영 경로(FA)가 색인화되어 저장되는 영상 저장 시스템(160);
복수의 프레임을 포함하는 동영상을 촬영하는 이동 수단;
상기 이동 수단이 촬영한 동영상의 각 프레임별 그룹화된 핑거프린트를 생성하는 제2 특징점 추출부(110B); 및
상기 특징점이 추출된 이동 수단의 동영상을 상기 영상 저장 시스템의 동영상과 비교하는 영상 분석부(120);를 포함하고,
상기 영상 분석부는, 상기 이동 수단의 영상의 각 프레임 이미지별로 그룹화된 핑거프린트로 추출된 특징점과 상기 영상 저장 시스템에 기저장된 영상의 색인화된 특징점을 상호 비교하여 소정 구간의 복수의 프레임에 대응하는 특징점의 유사도가 임계수치 이상인 기저장된 영상을 찾아내고, 상기 기저장된 영상의 위치 정보, 촬영 각도(AA) 및 촬영 경로(FA)를 상기 이동 수단의 위치 정보, 촬영 각도(AA) 및 촬영 경로(FA)로 판단하는 것을 특징으로 하는 가상 세계를 이용한 비디오 핑거프린팅을 이용한 시스템.
virtual space 500;
a virtual camera 20 that obtains an image including a plurality of frames while moving virtually in the virtual space 500;
a first feature point extraction unit 110A generating grouped fingerprints for each frame of the image acquired by the virtual camera 20;
an image index DB (130) for indexing the photographing angle (AA) and photographing path (FA) of the image acquired by the virtual camera 20 into the image;
an image storage system 160 indexing and storing grouped fingerprints, location information, capturing angles (A A ) and capturing paths (F A ) of each frame of the video;
a moving means for capturing a moving image including a plurality of frames;
a second feature point extraction unit 110B for generating grouped fingerprints for each frame of the video captured by the moving means; and
An image analyzer 120 comparing the video of the moving means from which the feature points are extracted with the video of the video storage system;
The image analysis unit compares feature points extracted as fingerprints grouped for each frame image of the image of the moving means with indexed feature points of images pre-stored in the image storage system to obtain feature points corresponding to a plurality of frames in a predetermined section. Finds a pre-stored image whose similarity is greater than or equal to a threshold value, and converts the location information of the pre-stored image, the shooting angle (A A ), and the shooting path (F A ) to the location information of the moving means, the shooting angle (A A ), and the shooting path (F A ). A system using video fingerprinting using a virtual world, characterized in that the path (F A ) is determined.
제1항에 있어서,
상기 제1 및 제2 특징점 추출부(100A, 100B)는, 동영상의 비디오 스트림을 RGB 포맷 또는 흑백 영상 포맷으로 디코딩한 후 디코딩된 각 프레임 이미지를 복수 개의 블록 단위로 분할하고, 상기 분할된 블록 단위별로 각 픽셀의 영상 밝기 데이터의 평균값을 산출한 후, 인접한 블록 간의 영상 밝기 데이터의 평균값의 차이를 기준으로 특징점을 추출하여 각 프레임별로 그룹화된 핑거프린트를 생성하는 것을 특징으로 하는 가상 세계를 이용한 비디오 핑거프린팅을 이용한 시스템.
According to claim 1,
The first and second feature point extraction units 100A and 100B decode the video stream of the moving image into an RGB format or a black and white video format, divide each decoded frame image into a plurality of block units, and divide the divided block units into blocks. After calculating the average value of the image brightness data of each pixel for each pixel, a feature point is extracted based on the difference in the average value of the image brightness data between adjacent blocks to generate a fingerprint grouped for each frame. Video using virtual world, characterized in that A system using fingerprinting.
제2항에 있어서,
상기 저장 시스템(160)에는 프레임별 핑거 프린트와 위치 정보를 포함하는 다수의 기저장된 영상(200, 210, 220, 230)을 포함하고,
상기 이동 수단은 촬영한 영상(300)을 제2 특징점 추출부(110B)에서 각 프레임별 그룹화된 핑거프린트를 생성하고 상기 제2 특징점 추출부(110B)는 핑거프린트가 생성된 영상(300)을 실시간으로 영상 분석부(120)에 전송하고,
상기 영상 분석부(120)는 이동 수단이 촬영한 영상(300)의 프레임별 (301, 302, 303, 304, 305, 306, 307, 308)로 핑거 프린트(P301, P302, P303, P304, P305, P306, P307, P308)와 저장 시스템(160)에 기저장된 영상(200, 210)의 프레임별(211, 212, 213, 214, 215, 216, 217, 218)로 핑거 프린트(P211, P212, P213, P214, P215, P216, P217, P218)를 비교하여 유사도가 임계치 이상인 프레임을 찾아 기저장된 영상의 위치 정보, 촬영 각도(AA) 및 촬영 경로(FA)를 상기 이동 수단의 위치 정보, 촬영 각도(AA) 및 촬영 경로(FA)로 판단하는 것을 특징으로 하는 가상 세계를 이용한 비디오 핑거프린팅을 이용한 시스템.
According to claim 2,
The storage system 160 includes a plurality of pre-stored images 200, 210, 220, 230 including fingerprints and location information for each frame,
The moving means generates grouped fingerprints for each frame in the second feature point extraction unit 110B from the captured image 300, and the second feature point extraction unit 110B generates the image 300 from which the fingerprint is generated. Transmit to the image analysis unit 120 in real time,
The image analysis unit 120 prints fingerprints (P 301 , P 302 , P 303 , P 304 , P 305 , P 306 , P 307 , P 308 ) and the images 200 and 210 previously stored in the storage system 160 for each frame (211, 212, 213, 214, 215, 216, 217, 218) by comparing the fingerprints (P 211 , P 212 , P 213 , P 214 , P 215 , P 216 , P 217 , P 218 ) to find a frame with a similarity of more than the threshold, and find the location information of the previously stored image, the shooting angle (A A ) And the photographing path (F A ) is determined by the location information of the moving means, the photographing angle (A A ), and the photographing path (F A ). A system using video fingerprinting using a virtual world.
가상 공간(500)에서 가상 카메라(20)가 가상으로 이동하면서 다수의 프레임을 포함하는 영상을 획득하는 단계;
제1 특징점 추출부(110A)에서 상기 가상 카메라(20)가 획득한 영상의 각 프레임별 그룹화된 핑거프린트를 생성하는 단계;
영상 색인 DB (130)이 가상 카메라(20)가 획득한 영상의 촬영 각도(AA)와 촬영 경로(FA) 및 각각의 프레임의 위치 정보를 색인화하는 단계;
영상 저장 시스템(160)이 각 프레임별 그룹화된 핑거 프린트, 위치 정보, 촬영 각도(AA) 및 촬영 경로(FA)가 색인화된 상기 동영상을 저장하는 단계;
이동 수단이 복수의 프레임을 포함하는 동영상을 촬영하는 단계;
상기 이동 수단(400)이 제2 특징점 추출부(110B)에 상기 이동 수단이 촬영한 동영상을 전송하고 제2 특징점 추출부(110B)는 상기 이동 수단이 촬영한 동영상의 각 프레임별 그룹화된 핑거프린트를 생성하는 단계; 및
상기 제2 특징점 추출부((110B)에 의해서 상기 특징점이 추출된 이동 수단의 동영상을 영상 분석부(120)에서 상기 영상 저장 시스템의 동영상과 비교하는 단계;를 포함하고,
상기 영상 분석부는, 상기 이동 수단의 영상의 각 프레임 이미지별로 그룹화된 핑거프린트로 추출된 특징점과 상기 영상 저장 시스템에 기저장된 영상의 색인화된 특징점을 상호 비교하여 소정 구간의 복수의 프레임에 대응하는 특징점의 유사도가 임계수치 이상인 기저장된 영상을 찾아내고, 이상인 기저장된 영상을 찾아내고, 상기 기저장된 영상의 위치 정보, 촬영 각도(AA) 및 촬영 경로(FA)를 상기 이동 수단의 위치 정보, 촬영 각도(AA) 및 촬영 경로(FA)로 판단하는 것을 특징으로 하는 가상 세계를 이용한 비디오 핑거프린팅 학습 방법.
obtaining an image including a plurality of frames while the virtual camera 20 moves virtually in the virtual space 500;
generating grouped fingerprints for each frame of the image acquired by the virtual camera 20 in a first feature point extraction unit 110A;
indexing, by the image index DB 130, information on the photographing angle (AA) and the photographing path (FA) of the image obtained by the virtual camera 20 and the location of each frame;
storing, by an image storage system 160, the moving picture indexed with the fingerprint, location information, photographing angle (A A ), and photographing path (F A ) grouped for each frame;
photographing a moving image including a plurality of frames by a moving unit;
The moving means 400 transmits the video taken by the moving means to the second feature point extraction unit 110B, and the second feature point extraction unit 110B provides a grouped fingerprint for each frame of the video taken by the moving means. generating; and
Comparing the video of the moving means from which the feature points are extracted by the second feature point extractor (110B) with the video of the image storage system in the image analyzer 120;
The image analysis unit compares feature points extracted as fingerprints grouped for each frame image of the image of the moving means with indexed feature points of images pre-stored in the image storage system to obtain feature points corresponding to a plurality of frames in a predetermined section. Finds a pre-stored image whose similarity is greater than or equal to a threshold value, finds a pre-stored image that is greater than or equal to the threshold value, and converts the location information of the pre-stored image, the shooting angle (A A ) and the shooting path (F A ) to the location information of the moving means, Video fingerprinting learning method using a virtual world, characterized in that the determination is made by the shooting angle (A A ) and the shooting path (F A ).
제4항에 있어서,
상기 제1 및 제2 특징점 추출부(100A, 100B)는, 동영상의 비디오 스트림을 RGB 포맷 또는 흑백 영상 포맷으로 디코딩한 후 디코딩된 각 프레임 이미지를 복수 개의 블록 단위로 분할하고, 상기 분할된 블록 단위별로 각 픽셀의 영상 밝기 데이터의 평균값을 산출한 후, 인접한 블록 간의 영상 밝기 데이터의 평균값의 차이를 기준으로 특징점을 추출하여 각 프레임별로 그룹화된 핑거프린트를 생성하고,
상기 저장 시스템(160)에는 프레임별 핑거 프린트와 위치 정보를 포함하는 다수의 기저장된 영상(200, 210, 220, 230)을 포함하고,
상기 이동 수단은 촬영한 영상(300)을 제2 특징점 추출부(110B)에서 각 프레임별 그룹화된 핑거프린트를 생성하고 상기 제2 특징점 추출부(110B)는 핑거프린트가 생성된 영상(300)을 실시간으로 영상 분석부(120)에 전송하고,
상기 영상 분석부(120)는 이동 수단이 촬영한 영상(300)의 프레임별 (301, 302, 303, 304, 305, 306, 307, 308)로 핑거 프린트(P301, P302, P303, P304, P305, P306, P307, P308)와 저장 시스템(160)에 기저장된 영상(200, 210)의 프레임별(211, 212, 213, 214, 215, 216, 217, 218)로 핑거 프린트(P211, P212, P213, P214, P215, P216, P217, P218)를 비교하여 유사도가 임계치 이상인 프레임을 찾아 기저장된 영상의 위치 정보, 촬영 각도(AA) 및 촬영 경로(FA)를 상기 이동 수단의 위치 정보, 촬영 각도(AA) 및 촬영 경로(FA)로 판단하는 것을 특징으로 하는 가상 세계를 이용한 비디오 핑거프린팅 학습 방법.
According to claim 4,
The first and second feature point extraction units 100A and 100B decode the video stream of the moving image into an RGB format or a black and white video format, divide each decoded frame image into a plurality of block units, and divide the divided block units into blocks. After calculating the average value of the image brightness data of each pixel for each pixel, a feature point is extracted based on the difference in the average value of the image brightness data between adjacent blocks to create a grouped fingerprint for each frame,
The storage system 160 includes a plurality of pre-stored images 200, 210, 220, 230 including fingerprints and location information for each frame,
The moving means generates grouped fingerprints for each frame in the second feature point extraction unit 110B from the captured image 300, and the second feature point extraction unit 110B generates the image 300 from which the fingerprint is generated. Transmit to the image analysis unit 120 in real time,
The image analysis unit 120 prints fingerprints (P 301 , P 302 , P 303 , P 304 , P 305 , P 306 , P 307 , P 308 ) and the images 200 and 210 previously stored in the storage system 160 for each frame (211, 212, 213, 214, 215, 216, 217, 218) by comparing the fingerprints (P 211 , P 212 , P 213 , P 214 , P 215 , P 216 , P 217 , P 218 ) to find a frame with a similarity of more than the threshold, and find the location information of the previously stored image, the shooting angle (A A ) and the photographing path (F A ) is determined by the location information of the moving means, the photographing angle (A A ), and the photographing path (F A ).
KR1020210101655A 2021-08-02 2021-08-02 Video Finger Printing Learning Method Using Virtual world and system using same KR102509981B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210101655A KR102509981B1 (en) 2021-08-02 2021-08-02 Video Finger Printing Learning Method Using Virtual world and system using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210101655A KR102509981B1 (en) 2021-08-02 2021-08-02 Video Finger Printing Learning Method Using Virtual world and system using same

Publications (2)

Publication Number Publication Date
KR20230019744A true KR20230019744A (en) 2023-02-09
KR102509981B1 KR102509981B1 (en) 2023-03-14

Family

ID=85224769

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210101655A KR102509981B1 (en) 2021-08-02 2021-08-02 Video Finger Printing Learning Method Using Virtual world and system using same

Country Status (1)

Country Link
KR (1) KR102509981B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101240924B1 (en) 2011-12-27 2013-03-12 주식회사 유티솔 Apparatus and method for motion detecting sensor using camera
KR20150033043A (en) 2013-09-23 2015-04-01 (주)한국스마트시티 Locatiion chase system and method based on radio frequency recognition and image of camera
KR101734029B1 (en) * 2016-01-19 2017-05-10 박명준 Intellegent monitoring system and the method thereof using similarity-analysis of mobile moving-image
KR101915729B1 (en) * 2017-06-20 2018-11-06 주식회사 아이닉스 Apparatus and Method for Generating 360 degree omni-directional view
KR102090739B1 (en) 2019-10-21 2020-03-18 주식회사 휴머놀러지 Intellegent moving monitoring system and the method thereof using video region grid multidivision for video image similarity-analysis
KR102096784B1 (en) 2019-11-07 2020-04-03 주식회사 휴머놀러지 Positioning system and the method thereof using similarity-analysis of image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101240924B1 (en) 2011-12-27 2013-03-12 주식회사 유티솔 Apparatus and method for motion detecting sensor using camera
KR20150033043A (en) 2013-09-23 2015-04-01 (주)한국스마트시티 Locatiion chase system and method based on radio frequency recognition and image of camera
KR101734029B1 (en) * 2016-01-19 2017-05-10 박명준 Intellegent monitoring system and the method thereof using similarity-analysis of mobile moving-image
KR101915729B1 (en) * 2017-06-20 2018-11-06 주식회사 아이닉스 Apparatus and Method for Generating 360 degree omni-directional view
KR102090739B1 (en) 2019-10-21 2020-03-18 주식회사 휴머놀러지 Intellegent moving monitoring system and the method thereof using video region grid multidivision for video image similarity-analysis
KR102096784B1 (en) 2019-11-07 2020-04-03 주식회사 휴머놀러지 Positioning system and the method thereof using similarity-analysis of image

Also Published As

Publication number Publication date
KR102509981B1 (en) 2023-03-14

Similar Documents

Publication Publication Date Title
JP7317919B2 (en) Appearance search system and method
US8270806B2 (en) Information processing apparatus and method of controlling same
US20140214885A1 (en) Apparatus and method for generating evidence video
CN105279480A (en) Method of video analysis
KR101788225B1 (en) Method and System for Recognition/Tracking Construction Equipment and Workers Using Construction-Site-Customized Image Processing
US9959651B2 (en) Methods, devices and computer programs for processing images in a system comprising a plurality of cameras
US10037467B2 (en) Information processing system
KR20150021526A (en) Self learning face recognition using depth based tracking for database generation and update
CN112419233B (en) Data annotation method, device, equipment and computer readable storage medium
JP2016163328A (en) Information processing device, information processing method and program
JP2016134803A (en) Image processor and image processing method
Gálai et al. Feature selection for Lidar-based gait recognition
US9947106B2 (en) Method and electronic device for object tracking in a light-field capture
CN110633648A (en) Face recognition method and system in natural walking state
KR102096784B1 (en) Positioning system and the method thereof using similarity-analysis of image
KR102090739B1 (en) Intellegent moving monitoring system and the method thereof using video region grid multidivision for video image similarity-analysis
US20220327716A1 (en) Method of detecting moving objects
KR102509981B1 (en) Video Finger Printing Learning Method Using Virtual world and system using same
KR101826669B1 (en) System and method for video searching
KR102042397B1 (en) syntax-based method of producing heat-map for compressed video
KR100853267B1 (en) Multiple People Tracking Method Using Stereo Vision and System Thereof
JP4964044B2 (en) Face detection apparatus and face detection method
JP2017073071A (en) Identity determination program, identity determination device, and identity determination method
JP2019103029A (en) Information processing device, color correction method, and computer program
CN108234868A (en) The intelligent camera system and method for a kind of case-based reasioning

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant