KR102079378B1 - Method and apparatus for reconstructing of video - Google Patents

Method and apparatus for reconstructing of video Download PDF

Info

Publication number
KR102079378B1
KR102079378B1 KR1020180091925A KR20180091925A KR102079378B1 KR 102079378 B1 KR102079378 B1 KR 102079378B1 KR 1020180091925 A KR1020180091925 A KR 1020180091925A KR 20180091925 A KR20180091925 A KR 20180091925A KR 102079378 B1 KR102079378 B1 KR 102079378B1
Authority
KR
South Korea
Prior art keywords
image
frame
characteristic
order
processor
Prior art date
Application number
KR1020180091925A
Other languages
Korean (ko)
Other versions
KR20190035485A (en
Inventor
이희조
표영빈
이충인
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Publication of KR20190035485A publication Critical patent/KR20190035485A/en
Application granted granted Critical
Publication of KR102079378B1 publication Critical patent/KR102079378B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/008Vector quantisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

영상 복원 방법 및 그 장치를 제공한다. 영상 복원 방법은, 입력 영상 파일의 프레임 별로 기설정된 종류의 이미지 특성을 추출하여 특성 벡터를 생성하고, 특성 벡터를 차원 축소 처리를 통해 저차원 공간에 매핑하여 시각화 하고, 시각화에 따른 특성 벡터들의 분포에 최적화된 모델 그래프를 생성하고, 모델 그래프 및 프레임 별 특성 벡터에 기초하여 상기 프레임들의 순서를 재구성하며, 재구성된 프레임들의 순서에 기반하여 영상 파일을 복구한다. An image restoration method and apparatus are provided. The image reconstruction method extracts a predetermined type of image characteristic for each frame of an input image file, generates a characteristic vector, maps the characteristic vector to a low dimensional space through dimensional reduction, and distributes the characteristic vectors according to the visualization. Generate a model graph optimized for the RX, reconstruct the order of the frames based on the model graph and the characteristic vector for each frame, and restore the image file based on the reconstructed order of the frames.

Description

영상 복원 방법 및 그 장치{METHOD AND APPARATUS FOR RECONSTRUCTING OF VIDEO}Image restoration method and apparatus therefor {METHOD AND APPARATUS FOR RECONSTRUCTING OF VIDEO}

본 발명은 영상을 복원하는 방법 및 그 장치에 관한 것으로, 더욱 상세하게는 시각적 분석을 통해 비디오 프레임의 순서를 복원하는 방법 및 그 장치에 관한 것이다. The present invention relates to a method and apparatus for restoring an image, and more particularly, to a method and apparatus for restoring a sequence of video frames through visual analysis.

차량용 블랙박스가 보급화됨에 따라 교통사고 발생 시 블랙박스의 영상이 사법 영역 및 보험 관련 업계에서 주요한 증거물로서 사용되고 있다. 그러나 차량용 블랙박스 기기는 증거용 영상을 항상 온전한 상태로 제공하지 못할 수도 있다. 예시적으로, 차량용 블랙박스 기기에 일시적으로 전원 공급이 차단될 경우 영상 인코딩에 실패하여 영상이 온전하게 기록되지 못할 수 있다. 또한, 사용자의 임의 삭제로 인해 블랙박스 영상 데이터가 손실되는 경우가 빈번하게 발생한다. 이처럼 손상된 블랙박스 영상이 증거물로서 효력을 갖도록 하기 위해서는, 별도의 작업을 통해 시각적으로 식별이 가능한 수준의 온전한 영상 파일로 복구시켜야한다.As vehicle black boxes are becoming more popular, images of black boxes are being used as a major evidence in the judicial and insurance industries in case of traffic accidents. However, automotive black box devices may not always provide evidence video intact. For example, when the power supply to the vehicle black box device is temporarily cut off, the image encoding may fail and the image may not be recorded intact. In addition, black box image data is frequently lost due to random deletion of a user. In order for the damaged black box image to be effective as evidence, it must be restored to an intact image file of visually identifiable level through separate work.

한편, 가장 대중적인 영상 파일 복구 기법으로서, 파일의 메타 데이터를 사용하여 특정한 패턴을 찾아 파일을 복원하는 파일 카빙 기법이 있다. 그러나 대용량의 영상 파일은 중간에서 조각난(fragmented) 경우가 많아 파일 카빙 기법으로는 완전한 복원이 어려웠다. 이러한 문제를 해결하기 위해 코덱 시그니처를 기반으로 복원하는 기법 등 여러 영상 파일 복구 기법들이 개발되었으나, 영상 순서 정보의 부재 또는 부분적인 누락으로 인해 파일 단위로 복원하는데 여전히 어려움이 있다.On the other hand, as the most popular image file recovery technique, there is a file carving technique that restores a file by searching for a specific pattern using metadata of the file. However, large image files are often fragmented in the middle, so it is difficult to completely restore them by the file carving technique. In order to solve this problem, various image file recovery techniques have been developed, such as a technique for restoring based on codec signature, but there is still a difficulty in restoring file by file due to the absence or partial omission of image order information.

한국등록특허 제10-1348216호(발명의 명칭: 차량용 영상기록장치 및 영상기록방법)Korean Patent Registration No. 10-1348216 (Invention name: Vehicle image recording device and image recording method)

본 발명의 일 실시예는 손상된 영상을 복원하되 복원된 영상 프레임을 기반으로 각 프레임 간의 상호 관계를 시각적으로 분석하여 조각난 영상 데이터의 순서를 복원할 수 있는 방법 및 그 장치를 제공하고자 한다. An embodiment of the present invention is to provide a method and apparatus for restoring the order of fragmented image data by reconstructing the damaged image but visually analyzing the interrelation between each frame based on the restored image frame.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제1 측면에 따른 영상 복원 방법은, 입력 영상 파일의 프레임 별로 기설정된 종류의 이미지 특성을 추출하여 특성 벡터를 생성하는 단계; 상기 특성 벡터를 차원 축소 처리를 통해 저차원 공간에 매핑하여 시각화하는 단계; 상기 시각화에 따른 특성 벡터들의 분포에 최적화된 모델 그래프를 생성하고, 상기 모델 그래프 및 상기 프레임 별 특성 벡터에 기초하여 상기 프레임들의 영상 내 순서를 재구성하는 단계; 및 상기 재구성된 프레임들의 순서에 기반하여 영상 파일을 복구하는 단계를 포함한다.As a technical means for achieving the above-described technical problem, an image restoration method according to the first aspect of the present invention, the step of extracting a predetermined type of image characteristics for each frame of the input image file to generate a feature vector; Visualizing the feature vector by mapping it to a low dimensional space through a dimension reduction process; Generating a model graph optimized for distribution of the feature vectors according to the visualization, and reconstructing the order of the frames in the image based on the model graph and the feature vector for each frame; And restoring an image file based on the order of the reconstructed frames.

또한, 본 발명의 제2 측면에 따른 영상 복원 장치는, 영상 복원 프로그램이 저장된 메모리; 및 상기 메모리에 저장된 프로그램을 실행하는 프로세서를 포함하며, 상기 프로세서는 상기 영상 복원 프로그램의 실행에 따라, 입력 영상 파일의 프레임 별로 기설정된 종류의 이미지 특성을 추출하여 특성 벡터를 생성하고, 상기 특성 벡터를 차원 축소 처리를 통해 저차원 공간에 매핑하여 시각화 하고, 상기 시각화에 따른 특성 벡터들의 분포에 최적화된 모델 그래프를 생성하고, 상기 모델 그래프 및 상기 프레임 별 특성 벡터에 기초하여 상기 프레임들의 영상 내 순서를 재구성하고, 상기 재구성된 프레임들의 순서에 기반하여 영상 파일을 복구한다.In addition, the image restoration apparatus according to the second aspect of the present invention, the memory for storing the image restoration program; And a processor configured to execute a program stored in the memory, wherein the processor extracts a predetermined type of image characteristic for each frame of an input image file according to the execution of the image restoration program to generate a characteristic vector. Is visualized by mapping to a low dimensional space through a dimensional reduction process, generating a model graph optimized for distribution of feature vectors according to the visualization, and ordering the images in the frames based on the model graph and the feature vector for each frame. And reconstruct the image file based on the reconstructed frames.

또한, 본 발명의 제 3 측면은 상기 제1 측면의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체를 제공한다.A third aspect of the invention also provides a computer readable recording medium having recorded thereon a program for implementing the method of the first aspect.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 임의의 영상이 저장 장치 내부 등에서 프레임 단위로 조각난 상태일 때 해당 영상의 인코딩 정보 혹은 메타 데이터가 없이도 자동으로 영상 파일 단위로 재조합된 결과를 제공할 수 있다. According to any one of the above-described means for solving the problem of the present invention, when any image is fragmented in the frame unit in the storage device, etc., the result of automatically recombining the image file unit without encoding information or metadata of the corresponding image is provided. can do.

또한, 손상된 영상에 포함된 프레임의 개수와 상관없이 자동화된 프레임 재조합을 수행할 수 있어, 디지털 포렌식 영역에서 증거물 확보에 효과적으로 사용될 수 있다.In addition, automated frame recombination may be performed regardless of the number of frames included in the damaged image, and thus may be effectively used for securing evidence in the digital forensic region.

도 1은 본 발명의 일 실시예에 따른 영상 복원 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 영상 프레임 블록 별 색채 특성 및 기하 특성 추출 방식을 설명하기 위한 일례이다.
도 3은 본 발명의 일 실시예에 따른 소실점 기반 블록 생성 방식을 설명하기 위한 일례이다.
도 4는 본 발명의 일 실시예에 따른 영상 프레임의 특성 벡터를 시각화한 결과의 일례이다.
도 5는 본 발명의 일 실시예에 따른 2차원 특성 벡터를 커브-피팅 기법을 통해 시각화한 결과의 일례이다.
도 6은 본 발명의 일 실시예에 따른 영상 복원 방법을 설명하기 위한 순서도이다.
1 is a block diagram of an image restoration apparatus according to an embodiment of the present invention.
2 is an example for describing a color characteristic and a geometric characteristic extraction method for each image frame block according to an embodiment of the present invention.
3 is an example for describing a vanishing point-based block generation method according to an embodiment of the present invention.
4 is an example of a result of visualizing a feature vector of an image frame according to an embodiment of the present invention.
5 is an example of a result of visualizing a two-dimensional feature vector according to an embodiment of the present invention through a curve-fitting technique.
6 is a flowchart illustrating an image restoration method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 본 발명을 명확하게 설명하기 위해 도면에서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. 또한, 도면을 참고하여 설명하면서, 같은 명칭으로 나타낸 구성일지라도 도면에 따라 도면 번호가 달라질 수 있고, 도면 번호는 설명의 편의를 위해 기재된 것에 불과하고 해당 도면 번호에 의해 각 구성의 개념, 특징, 기능 또는 효과가 제한 해석되는 것은 아니다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in the drawings, and like reference numerals designate like parts throughout the specification. In addition, while describing with reference to the drawings, even if the configuration shown by the same name may be different according to the drawing number, the drawing number is just described for convenience of description and the concept, features, functions of each configuration by the corresponding reference number Or the effects are not to be construed as limiting.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a portion is said to "include" any component, it means that it can further include other components, without excluding other components, unless specifically stated otherwise, one or more It is to be understood that the present invention does not exclude in advance the possibility of the presence or the addition of other features, numbers, steps, operations, components, parts, or combinations thereof.

본 명세서에 있어서 '부(部)' 또는 '모듈'이란, 하드웨어 또는 소프트웨어에 의해 실현되는 유닛(unit), 양방을 이용하여 실현되는 유닛을 포함하며, 하나의 유닛이 둘 이상의 하드웨어를 이용하여 실현되어도 되고, 둘 이상의 유닛이 하나의 하드웨어에 의해 실현되어도 된다.In the present specification, the term 'part' or 'module' includes a unit realized by hardware or software and a unit realized by both, and one unit is realized by using two or more pieces of hardware. Two or more units may be implemented by one hardware.

도 1은 본 발명의 일 실시예에 따른 영상 복원 장치의 구성도이다.1 is a block diagram of an image restoration apparatus according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 영상 복원 장치(100)는 입력모듈(110), 메모리(120), 프로세서(130), 출력모듈(120)을 포함한다.As shown in FIG. 1, the image restoration apparatus 100 includes an input module 110, a memory 120, a processor 130, and an output module 120.

입력모듈(110)은 복원 처리 대상인 영상 파일을 입력받아 프로세서(130)로 전달한다.The input module 110 receives an image file, which is a restoration process target, and delivers the image file to the processor 130.

이때, 입력모듈(110)은 사전에 연동된 외부 장치(예를 들어, 차량용 블랙박스 기기 등)와 설정된 통신을 수행하여 데이터를 송수신하는 통신모듈의 기능을 포함할 수 있다. 입력모듈(110)을 통해 입력된 영상 파일은 외부 장치를 통해 촬영되거나 생성된 영상 파일로서, 손상된 영상 데이터를 포함할 수 있다.In this case, the input module 110 may include a function of a communication module for transmitting and receiving data by performing communication with an external device (for example, a vehicle black box device, etc.) interlocked in advance. The image file input through the input module 110 is an image file photographed or generated through an external device and may include damaged image data.

메모리(120)에는 영상 복원 장치(100)를 제어하기 위한 다양한 프로그램이 저장되어 있으며, 특히 영상 복원 프로그램이 저장되어 있다. 참고로, 메모리(120)는 전원이 공급되지 않아도 저장된 정보를 유지하는 비휘발성(non-volatile) 저장 장치 및 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장 장치를 통칭하는 것일 수 있다. The memory 120 stores various programs for controlling the image restoration apparatus 100, and in particular, an image restoration program. For reference, the memory 120 may refer to a non-volatile storage device that maintains stored information even when power is not supplied, and a volatile storage device that requires power to maintain stored information.

프로세서(130)는 영상 복원 장치(100)의 전체적인 동작을 제어한다. 이를 위해, 프로세서(130)는 적어도 하나의 프로세싱 유닛(CPU, micro-processor, DSP 등), RAM(Random Access Memory), ROM(Read-Only Memory), CPU, GPU(Graphic Processing Unit) 및 버스(bus) 중 적어도 하나를 포함하여 구현될 수 있으며, 메모리(120)에 저장된 프로그램을 RAM으로 독출하여 하나 이상의 프로세싱 유닛을 통해 실행할 수 있다. 한편, 실시예에 따라서 '프로세서'라는 용어는 '제어부', '컨트롤러', '연산 장치' 등의 용어와 동일한 의미로 해석될 수 있다.The processor 130 controls the overall operation of the image reconstruction device 100. To this end, the processor 130 may include at least one processing unit (CPU, micro-processor, DSP, etc.), random access memory (RAM), read-only memory (ROM), CPU, graphic processing unit (GPU), and bus ( and a program stored in the memory 120 may be read into the RAM and executed through one or more processing units. Meanwhile, according to an embodiment, the term 'processor' may be interpreted to have the same meaning as terms such as 'control unit', 'controller', and 'computing device'.

프로세서(130)는 메모리(120)에 저장된 프로그램을 실행하되, 영상 복원 프로그램을 실행함으로써 다음의 동작을 처리한다.The processor 130 executes a program stored in the memory 120, and processes the following operation by executing an image restoration program.

먼저, 프로세서(130)는 입력된 영상 파일(video file)(이하, '입력 영상 파일'이라고 지칭함)에 대한 특성 추출(feature extraction) 과정을 처리한다.First, the processor 130 processes a feature extraction process for an input video file (hereinafter, referred to as an "input image file").

프로세서(130)는 영상 프레임(video frame)들로부터 이미지 기반의 특성들을 추출하고, 영상 프레임을 표현하는 특성 벡터를 구성한다. The processor 130 extracts image-based features from the video frames and constructs a feature vector representing the video frame.

프로세서(130)는 손상된 영상 데이터(예를 들어, 입력 영상 파일에 포함된 조각난 영상 프레임들)로부터 기설정된 종류의 이미지 특성(image feature)들을 추출한다. 이때, 프로세서(130)는 해당 영상 프레임에서의 소실점(vanishing point)에 기반하여 영상 프레임을 복수의 블록으로 구분하고, 구분된 각 블록 단위로 이미지 특성을 추출한다. 그리고 프로세서(130)는 추출된 이미지 특성들을 각 프레임 별로 벡터화(vectorize)하여 특성 벡터를 생성한다. 이처럼, 추출된 이미지 특성들은 특성 벡터로 표현됨으로써 정량적으로 표현될 수 있다. 참고로, 이미지 특성은 해당 프레임을 특정할 수 있도록, 색채 히스토그램(color histogram) 및 기하학적 특성(geometrical feature)(예: 가장자리 선(edge) 및 모서리(corner)) 등을 포함할 수 있다.The processor 130 extracts a predetermined kind of image features from damaged image data (eg, fragmented image frames included in an input image file). At this time, the processor 130 divides the image frame into a plurality of blocks based on vanishing points in the corresponding image frame, and extracts image characteristics in units of each divided block. The processor 130 generates a feature vector by vectorizing the extracted image features for each frame. As such, the extracted image characteristics may be expressed quantitatively by being represented by the characteristic vector. For reference, the image characteristic may include a color histogram and geometrical features (eg, edges and corners) to specify a corresponding frame.

프로세서(130)는 입력 영상 파일에 포함된 각 영상 프레임을 셀(cell) 이라는 가장 작은 단위로 분할하며, 분할된 셀들을 일정한 크기의 영역(즉, 블록(block))들로 그룹화한다. 이때, 프로세서(130)는 블록 영역 분할의 대상을 해당 영상 프레임에 존재하는 객체(object)들로 설정할 수 있다. '객체'는 영상 프레임 내에 존재하는 배경 외의 물체들(예를 들어, 차량, 차선 및 표지판 등)을 의미한다. 프로세서(130)는 블록 영역 분할의 단위를 해당 블록에 포함된 셀의 개수로 설정하며, 각 블록은 서로 다른 개수의 셀을 포함한다. The processor 130 divides each image frame included in the input image file into the smallest unit called a cell, and groups the divided cells into regions of a predetermined size (ie, blocks). In this case, the processor 130 may set an object of block region division to objects existing in the corresponding image frame. 'Object' means objects other than a background (eg, a vehicle, a lane, a sign, etc.) existing in an image frame. The processor 130 sets the unit of block region division to the number of cells included in the block, and each block includes a different number of cells.

이때, 블록 별 셀의 개수는 해당 블록에 포함된 객체가 소실점으로부터 얼마나 멀리 떨어져 있는지와 이를 통해 얻어진 특정 넓이 및 높이에 의해 결정되며, 이는 아래의 수학식 1과 같이 표현할 수 있다.In this case, the number of cells per block is determined by how far the object included in the block is from the vanishing point and the specific width and height obtained therefrom, which can be expressed by Equation 1 below.

<수학식 1><Equation 1>

Figure 112018078007285-pat00001
Figure 112018078007285-pat00001

수학식 1에서, NC는 해당 블록에 포함된 셀의 개수를 의미하고, Dv는 블록 내 포함된 객체가 소실점으로부터 이격된 거리를 의미하고, Pw 및 Ph는 각각 Dv를 통해 얻어진 특정한 넓이 및 높이를 의미한다. 프로세서(130)는 영상 복원 기술 분야에서 사용되는 역 투시 변환(inverse perspective transformation) 기법을 사용하여 Pw 및 Ph를 산출할 수 있다.In Equation 1, N C denotes the number of cells included in the block, D v denotes a distance from the vanishing point of the object included in the block, and P w and P h are each obtained through D v . It means a specific width and height. The processor 130 may calculate P w and P h using an inverse perspective transformation technique used in the image reconstruction technique.

위와 같은 수학식 1을 통해 산출된 프레임의 소실점으로부터 해당 객체까지의 거리(Dv)를 이용하여 프레임 내 존재하는 각 객체들이 포함된 블록 영역들의 크기를 계산하고, 프레임을 각 블록 영역들로 분할할 수 있다.Using the distance D v from the vanishing point of the frame calculated through Equation 1, the size of the block regions including the objects existing in the frame is calculated, and the frame is divided into the block regions. can do.

도 2 및 도 3을 참조하여, 프로세서(130)가 특성 추출 과정을 처리하는 방식에 대해서 좀 더 상세히 설명하도록 한다. 예시로서, 도 2 및 도 3은 실제 교통사고 장면이 녹화된 블랙박스 영상을 사용하여 영상 복원 장치(100)가 특성 추출 과정을 처리한 결과를 나타냈다. 2 and 3, a method of processing the feature extraction process by the processor 130 will be described in more detail. For example, FIGS. 2 and 3 illustrate a result of processing of the feature extraction process by the image restoration apparatus 100 using the black box image in which the actual traffic accident scene is recorded.

본 발명의 일 실시예에서 영상 프레임은 영상 파일의 가장 작은 시맨틱 단위를 의미한다. 따라서, 하나의 영상 프레임은 하나의 이미지에 대한 정보만 포함하므로, 영상 파일의 메타 정보가 없는 경우 다른 프레임과의 상관 관계를 알 수 없다. 이에, 프로세서(130)는 메타 정보없이 영상 프레임 간의 상관 관계를 이해하기 위해, 이미지 기반 특징(feature)을 추출하여 프레임을 나타내는 특징 벡터를 구성한다.In one embodiment of the present invention, the image frame means the smallest semantic unit of the image file. Therefore, since one image frame includes only information on one image, if there is no meta information of the image file, a correlation with another frame cannot be known. Accordingly, the processor 130 extracts an image-based feature to construct a feature vector representing a frame in order to understand the correlation between image frames without meta information.

일반적으로 블랙박스 기기와 같은 비디오 이벤트 데이터 기록장치(Video Event Data Recorder, VEDR)는 차량의 주행 기록을 일관되게 기록하므로 연속 장면을 기록한다. 따라서, 색채 히스토그램과 같은 글로벌 특성(global feature)을 사용하여 영상 프레임 간 유사성을 비교할 수 있다. 그러나 글로벌 특성은 배경을 개체와 구별하지 않으며 개체의 움직임으로 인해 발생하는 기하학적 변화를 감지하지 못한다는 한계가 있다. 이러한 문제를 극복하기 위해 글로벌 특성과 로컬 특성(local feature)을 결합하여 보완 효과를 얻을 수 있다. 또한, 블랙박스 기기에 의해 녹화된 영상은 차량 주행이 주요 컨텐츠이므로 객체의 이동 및 회전에 강건해야 한다. 이에 따라, 프로세서(130)는 객체의 이동 및 회전에 강건한 로컬 특징을 추출하기 위해 FAST 코너 검출 기법(FAST corner detection method)을 적용한다.In general, a video event data recorder (VEDR) such as a black box device records a continuous scene because the driving record of the vehicle is consistently recorded. Accordingly, similarities between image frames may be compared using global features such as color histograms. However, the global characteristic does not distinguish the background from the object, and there is a limitation in that it does not detect geometric changes caused by the movement of the object. In order to overcome such a problem, a complementary effect may be obtained by combining a global feature and a local feature. In addition, the video recorded by the black box device should be robust to the movement and rotation of the object, as vehicle driving is the main content. Accordingly, the processor 130 applies a FAST corner detection method to extract local features robust to the movement and rotation of the object.

도 2는 본 발명의 일 실시예에 따른 영상 프레임 블록 별 색채 특성 및 기하 특성 추출 방식을 설명하기 위한 일례이다. 그리고 도 3은 본 발명의 일 실시예에 따른 소실점 기반 블록 생성 방식을 설명하기 위한 일례이다.2 is an example for describing a color characteristic and a geometric characteristic extraction method for each image frame block according to an embodiment of the present invention. 3 is an example for describing a vanishing point-based block generation method according to an embodiment of the present invention.

블랙박스 기기는 기본적으로 초당 30 프레임 이상을 기록하므로, 특징 추출을 위한 계산은 녹화 시간에 따라 기하급수적으로 증가한다. 또한, 블랙박스 기기의 특성 중 하나로서 장치가 차량의 고정된 위치에 부착되어 있다는 특성이 있다. 따라서, 소실점은 모든 프레임에서 동일한 위치에 있으며, 객체가 프레임 사이를 이동하는 동안 객체의 기하학적 변화는 소실점과의 거리에 비례하므로, 객체의 기하학적 변화를 위치와 관련하여 계산할 수 있다. Since the black box device records more than 30 frames per second by default, the calculation for feature extraction increases exponentially with the recording time. In addition, one of the characteristics of the black box device is that the device is attached to a fixed position of the vehicle. Therefore, the vanishing point is at the same position in every frame, and since the geometric change of the object is proportional to the distance from the vanishing point while the object moves between frames, the geometric change of the object can be calculated with respect to the position.

이에, 도 2에서와 같이, 프로세서(130)는 영상 프레임을 고정된 크기의 작은 조각인 셀(cell)들로 나눈다. 이러한 셀은 계산 처리에서 각 벡터의 최소 단위로 사용된다. 그리고 프로세서(130)는 소실점의 특성(characteristics)을 적용하기 위해 임의의 프레임으로부터 소실점을 추출한다. 그리고 프로세서(130)는 소실점에 기반하여 블록을 생성한 후 각 블록의 특성을 추출한다.Thus, as shown in FIG. 2, the processor 130 divides the image frame into cells, which are small pieces of a fixed size. These cells are used as the minimum unit of each vector in the calculation process. The processor 130 extracts the vanishing point from any frame in order to apply the characteristics of the vanishing point. The processor 130 generates blocks based on the vanishing points and then extracts the characteristics of each block.

구체적으로, 도 3을 참조하면, (a)에서와 같은 원본 이미지(raw image)로서의 영상 프레임이 입력되면, (b)에서와 같이 해당 영상 프레임을 동일한 크기를 갖되 서로 연결된 복수의 셀들로 분할한다. 그리고 (c)에서와 같이 해당 영상 프레임으로부터 소실점을 추출한 후, (d)에서와 같이 소실점에 기반하여 블록들을 생성한다.Specifically, referring to FIG. 3, when an image frame as a raw image is input as in (a), the image frame is divided into a plurality of cells having the same size but connected to each other as in (b). . As shown in (c), a vanishing point is extracted from the corresponding image frame, and then blocks are generated based on the vanishing point as shown in (d).

블랙박스 기기와 같이 VEDR이 고정된 위치에 장착된 경우 하나의 소실점이 모든 프레임에 적용된다. 따라서, 소실점으로부터의 거리(DV)에 관계없이 객체의 절대적인 움직임을 반영하기 위해, 프로세서(130)는 소실점을 기반으로 역 투시 변환을 수행한다. 이때, 프로세서(130)는 계산된 영역을 일정 높이(height)인 Ph와 일정 폭(width)인 Pw를 갖는 그리드들(grids)로 나눈 다음 원본 영역으로 반사시킨 후 각 그리드에 포함된 셀들(NC)을 묶어 블록을 생성한다.If the VEDR is mounted in a fixed position, such as a black box device, one vanishing point applies to all frames. Thus, in order to reflect the absolute movement of the object irrespective of the distance D V from the vanishing point, the processor 130 performs inverse perspective transformation based on the vanishing point. In this case, the processor 130 divides the calculated area into grids having a height P h and a width P w and then reflects the original area to the original area, and then includes cells included in each grid. Create a block by enclosing (N C ).

앞서 설명한 바와 같이, 색채 특성은 프레임 이미지를 나타내는 가장 기본적인 특성이지만 비슷한 이미지와 차이를 뚜렷하게 구분하지 못하는 단점이 있으므로, 프로세서(130)는 기하 특성(즉, 가장자리 선 정보 및 모서리 정보 등)을 함께 사용하여 이미지 영역 내 물체를 정확하게 인식한다. 도 2에 도시한 바와 같이, 프로세서(130)가 추출하는 특성은 글로벌 특성인 색채 히스토그램과 로컬 특성인 모서리 정보일 수 있다.As described above, the color characteristic is the most basic characteristic representing the frame image, but the disadvantage of not distinguishing the difference from the similar image is distinct, so that the processor 130 uses the geometric characteristics (ie, edge line information and edge information, etc.) together. To accurately recognize objects in the image area. As shown in FIG. 2, the feature extracted by the processor 130 may be a color histogram that is a global feature and edge information that is a local feature.

이때, 색채 히스토그램(color histogram)은 각 블록의 모든 픽셀에 대해 구성되어 있으나, 그 계산량은 컬러 채널의 수

Figure 112018078007285-pat00002
에 따라 기하 급수적으로 증가한다. 따라서, 히스토그램은 먼저 색상(color)를 빈(bin)의 수 Nb로 이산화하여 생성된다. 히스토그램의 크기(Nh)는 다음의 수학식 2와 같이 계산될 수 있다.In this case, the color histogram is configured for all pixels of each block, but the amount of calculation is the number of color channels.
Figure 112018078007285-pat00002
Accordingly increases exponentially. Thus, the histogram is produced by first discretizing the color by the number N b of bins. The size N h of the histogram may be calculated as in Equation 2 below.

<수학식 2><Equation 2>

Figure 112018078007285-pat00003
Figure 112018078007285-pat00003

또한, 프로세서(130)는 전체 이미지(즉, 전체 프레임)에 대해 FAST 코너 검출 기법을 적용하여 모서리 정보(corner information)를 획득한다. 모서리 정보는 각 이미지에서 동일한 물체가 감지되는지 여부를 결정하기 위해 사용되므로, 블록 단위로 저장된 로컬 특성과 다른 프레임 단위로 구성된다.In addition, the processor 130 obtains corner information by applying a FAST corner detection technique to the entire image (ie, the entire frame). The edge information is used to determine whether the same object is detected in each image, and thus is composed of a frame unit different from a local property stored in blocks.

그리고 프로세서(130)는 각 블록의 색채 히스토그램과 프레임의 모서리 정보가 각 프레임에 대한 다차원 특성 벡터(feature vector)를 형성하도록 정렬한다. 이러한 각 프레임의 특성 벡터는 j개의 특성을 갖는 i개의 블록을 포함하며, 이는 아래의 수학식 3과 같이 나타낼 수 있다.The processor 130 arranges the color histogram of each block and the edge information of the frame to form a multidimensional feature vector for each frame. The feature vector of each frame includes i blocks having j properties, which can be expressed by Equation 3 below.

<수학식 3><Equation 3>

Figure 112018078007285-pat00004
Figure 112018078007285-pat00004

다음으로, 프로세서(130)는 특성 추출을 처리한 결과에 기반하여 시각화(visualization) 과정을 처리한다.Next, the processor 130 processes a visualization process based on the result of processing the feature extraction.

위에서 설명한 특성 추출 단계에서 생성된 다차원 벡터는 각 프레임 간의 관계 자체를 표시하지는 않는다. 따라서 지각적으로 의미있는 결과를 얻기 위해, 프로세서(130)는 프레임의 시각화를 위한 차원 축소 처리를 수행한다. 즉, 영상 프레임 간의 관계를 유지하면서 시각적으로 의미있는 결과를 제공하기 위해, 차원 축소 기술을 사용하여 특성 벡터를 시각화한다. The multidimensional vector generated in the feature extraction step described above does not represent the relationship itself between frames. Therefore, in order to obtain a perceptually meaningful result, the processor 130 performs a dimension reduction process for visualizing the frame. In other words, in order to provide visually meaningful results while maintaining the relationship between the image frames, feature vectors are visualized using dimensional reduction techniques.

참고로, 수많은 차원 축소 기술이 있으며 그 각각의 특징이 상이한 바, VEDR 영상 데이터의 특성을 고려한 차원 축소 기법을 사용해야 한다. 영상 데이터는 이산 프레임의 합이므로 비선형 구조를 가지나 연속적인 맥락(continuous context)을 갖는다. 즉, 이전 및 이후의 프레임에는 유사한 이미지 정보가 포함되어 있다. 또한, 블랙박스 영상과 같은 VEDR 영상 데이터는, 차량이 정지 상태에 있을 때 기록된 이미지가 그 기간 동안 거의 동일하므로 프레임 간의 차이를 찾기 어려운 크라우드 문제(crowd problem)가 존재한다. 따라서, 프로세서(130)는 VEDR 영상 데이터의 특성을 고려하여, t-SNE(t-distributed Stochastic Neighbor Embedding) 기법을 사용하여 차원 축소를 처리한다.For reference, there are a number of dimensional reduction techniques and their respective characteristics are different. Therefore, a dimensional reduction technique considering characteristics of VEDR image data should be used. Since image data is a sum of discrete frames, it has a nonlinear structure but has a continuous context. That is, before and after frames contain similar image information. In addition, VEDR image data, such as a black box image, has a crowd problem that makes it difficult to find a difference between frames since the recorded image is almost the same during the period when the vehicle is stationary. Accordingly, the processor 130 processes dimension reduction using a t-distributed Stochastic Neighbor Embedding (t-SNE) technique in consideration of the characteristics of the VEDR image data.

구체적으로, 프로세서(130)는 생성된 다차원 특성 벡터들을 2차원 공간으로 매핑(mapping)한다. 각 특성 벡터들은 해당 프레임의 모든 이미지 특성을 포함하고 있기 때문에 높은 차원으로 구성된다. 따라서, 특성 벡터 간의 유사도 측정은 가능하나, 프레임의 순서를 파악하는데 어려움이 존재한다. 이에, 프로세서(130)는 t-SNE기법을 통해 특성 벡터에 대한 차원 축소(dimension reduction) 처리 및 분포 측정 처리를 수행하여 2차원 벡터로 변환한다. In detail, the processor 130 maps the generated multi-dimensional feature vectors into a two-dimensional space. Each feature vector is composed of high dimensions because it contains all the image features of the frame. Therefore, similarity measurement between the feature vectors is possible, but there is a difficulty in determining the order of the frames. Accordingly, the processor 130 performs a dimension reduction process and a distribution measurement process on the feature vector through the t-SNE method and converts it into a 2D vector.

참고로, t-SNE 기법은 SNE 기법의 단점을 보완한 기법으로서, 우선 SNE 기법에 대해 설명하도록 한다.For reference, the t-SNE technique is a technique to compensate for the shortcomings of the SNE technique. First, the SNE technique will be described.

SNE 기법에 의한 고차원 특성을 저차원으로 매핑하는 과정은 아래 수학식 4와 같이 표현할 수 있다.The process of mapping the high dimensional characteristic by the SNE technique to the low dimensional can be expressed as Equation 4 below.

<수학식 4> <Equation 4>

Figure 112018078007285-pat00005
Figure 112018078007285-pat00005

수학식 4에서, p는 고차원 공간에 존재하는 i번째 특성 αi가 주어졌을 때 j번째 이웃인 αj가 선택될 확률을 의미하고, q는 저차원에 매핑된 i번째 개체 yi가 주어졌을 때 j번째 이웃인 yj가 선택될 확률을 의미한다. 참고로, 차원 축소가 정상적으로 이루어졌다면 고차원 공간에서 이웃으로 선택될 확률과 저차원 공간에서 이웃으로 선택될 확률이 유사하므로, SNE의 목적은 p와 q의 분포 차이가 최소가 되게 하는 것이다. 이러한 두 확률분포가 얼마나 비슷한지 측정하는 지표로서 쿨백라이블러 발산(Kullback-Leibler divergence)을 사용할 수 있다. 쿨백라이블러 발산 계산에 따르면 고차원 및 저차원의 두 특성 분포가 완전히 다르면 '1'의 값을 갖고 두 특성 분포가 동일하면 '0'의 값을 갖게 된다. 이를 사용하여, SNE에서는 아래 수학식 3의 비용 함수를 최소화하는 방향으로 차원 축소를 진행한다.In Equation 4, p denotes the probability that the j th neighbor α j is selected when the i th characteristic α i existing in the high dimension space is given, and q is the i th entity y i mapped to the low dimension. The probability that the j th neighbor y j is selected. For reference, if the dimension reduction is normally performed, the probability of being selected as the neighbor in the high-dimensional space and the probability of being selected as the neighbor in the low-dimensional space is similar, so the purpose of the SNE is to minimize the distribution difference between p and q. The Kullback-Leibler divergence can be used as an indicator of how similar these two probability distributions are. According to the Coolback Librarian divergence calculation, if the two characteristic distributions of the high and low dimensions are completely different, the value is '1' and if the two characteristic distributions are the same, the value is '0'. Using this, the SNE proceeds with the dimension reduction to minimize the cost function of Equation 3 below.

<수학식 3><Equation 3>

Figure 112018078007285-pat00006
Figure 112018078007285-pat00006

한편, t-SNE 기법은 비선형 데이터를 위한 차원 축소 기술로서, 저차원 표현에서 데이터 매니폴드(data manifold)의 로컬 속성(local properties )을 보존하고, 프레임의 연속적인 맥락을 반영한다. 또한, t-SNE 기법은 t-분포(student t-distribution)를 사용함으로써 크라우드 문제에 강인하다. 즉, t-SNE 기법의 경우, 앞서 설명한 SNE 기법에서 나타나는 크라우드 문제(crowd problem)을 해결하기 위하여 기존의 SNE에서 사용되는 가우시안 분포가 아닌 t-분포를 사용한다.The t-SNE technique, on the other hand, is a dimension reduction technique for nonlinear data, which preserves the local properties of the data manifold in the low dimensional representation and reflects the continuous context of the frame. The t-SNE technique is also robust to crowd problems by using student t-distribution. That is, the t-SNE technique uses a t-distribution rather than a Gaussian distribution used in the existing SNE to solve the crowd problem in the SNE technique described above.

도 4는 본 발명의 일 실시예에 따른 영상 프레임의 특성 벡터를 2차원 분산 점(scattered points)에 투영시켜 시각화한 결과의 일례이다.FIG. 4 is an example of a result of visualizing a feature vector of an image frame by projecting on two-dimensional scattered points according to an embodiment of the present invention.

도 4에서와 같이, 고차원 특성 벡터는 2차원으로 축소되어 산점도 그래프(scatter plot graph)로 시각화된다. 도 4의 2차원 그래프는 고차원 공간으로부터 고차원 특성들이 2차원 공간으로 매핑되어 나타나는 그래프이다. 여기서, X축(즉, 수평축)과 Y축(즉, 수직축)은 t-SNE 기법에서 p와 q의 확률분포에 나타난 x와 y값 데이터들이 나타낼 수 있는 값을 의미한다. x는 고차원 특성값이고, y는 고차원 요소가 매핑되어 나타날 수 있는 저차원 특성값을 의미하므로, 유사한 프레임일수록 t-SNE기법에 의해 계산된 확률분포가 비슷하게되어 2차원 그래프에서 비슷한 위치에 나타난다. 즉, 도 4에서 각 포인트는 영상 파일의 각 프레임에 해당하고, 유사한 프레임들은 함께 닫힌 상태(closed)로 배치된다. 이에 따라, 직관적으로 영상 프레임의 순서를 인식할 수 있으며, 개별 영상을 포인트 클라우드(point cloud)의 곡선 선형 모양(curve-linear shape)으로 분류할 수 있다.As shown in FIG. 4, the high-dimensional feature vector is reduced in two dimensions and visualized in a scatter plot graph. The two-dimensional graph of FIG. 4 is a graph in which high-dimensional characteristics are mapped to the two-dimensional space from the high-dimensional space. Here, the X-axis (ie, the horizontal axis) and the Y-axis (ie, the vertical axis) mean values that can be represented by the x and y value data shown in the probability distribution of p and q in the t-SNE technique. Since x is a high dimensional characteristic value and y is a low dimensional characteristic value to which a high dimensional element is mapped, the probability distribution calculated by the t-SNE technique becomes similar in the same frame and appears in a similar position on the 2D graph. That is, in FIG. 4, each point corresponds to each frame of the image file, and similar frames are disposed together in a closed state. Accordingly, the order of image frames can be intuitively recognized, and individual images can be classified into a curve-linear shape of a point cloud.

다음으로, 프로세서(130)는 시각화 과정을 처리한 결과에 기반하여 프레임 순서 복원(frame sequence reconstruction) 과정을 처리한다.Next, the processor 130 processes a frame sequence reconstruction process based on a result of processing the visualization process.

프로세서(130)는 위와 같이 차원 축소되어 저차원에 매핑된 특성 벡터를 이용하여 프레임 순서를 재구성하여 원본 비디오 파일을 복구한다. 이때, 프로세서(130)는 2차원으로 축소된 특성 벡터들을 커브 피팅(curve-fitting) 기법을 사용하여 하나의 모델 그래프(model graph)로 구성할 수 있다.The processor 130 reconstructs the original video file by reconstructing the frame order using the feature vectors that are dimensionally reduced and mapped to the lower dimension as described above. In this case, the processor 130 may configure the feature vectors reduced in two dimensions into a model graph by using a curve-fitting technique.

앞서 설명한 바와 같이, 저차원 영역의 특성 벡터는 VEDR 영상의 연속적인 맥락으로 인하여 더 높은 차원에서 점차 변화하는 모양을 유지한다. 이에 따라, 2차원 그래프의 시각화된 결과는 곡선형 분포(curved-shaped distribution)를 갖는다. 이는 프레임의 특성 벡터가 점진적으로 변화하고 있음을 의미하며, 즉 영상의 흐름을 의미한다. As described above, the feature vector of the low dimensional region maintains a gradually changing shape at higher dimensions due to the continuous context of the VEDR image. Accordingly, the visualized result of the two-dimensional graph has a curved-shaped distribution. This means that the feature vector of the frame is gradually changing, that is, the flow of the image.

따라서, 프로세서(130)는 시각화된 곡선형 분포에 적합한 대표 모델을 찾음으로써, 영상의 적절한 순서를 구성할 수 있다. 주 곡선(principal curve) 기법은 VEDR 영상의 특성 벡터의 분포에 적합한 비선형 커브 피팅 기법 중 하나이다. 주 곡선 기법은 데이터 클라우드의 중간을 통과하는 자가완성형(self-consistent)의 부드러운 커브들로서 정의된다.Accordingly, the processor 130 may construct an appropriate sequence of images by finding a representative model suitable for the visualized curved distribution. Principal curve technique is one of nonlinear curve fitting techniques suitable for the distribution of feature vectors in VEDR images. The main curve technique is defined as self-consistent smooth curves that pass through the middle of the data cloud.

도 5는 본 발명의 일 실시예에 따른 2차원 특성 벡터를 커브-피팅 기법을 통해 시각화한 결과의 일례이다.5 is an example of a result of visualizing a two-dimensional feature vector according to an embodiment of the present invention through a curve-fitting technique.

도 5를 참조하면, 커브 피팅 기법을 사용함으로써 2차원 특성 벡터의 분포를 영상 시퀀스의 표준 모델에 피팅시킬 수 있다. 이때, 주어진 커브 피팅 모델을 사용하면, 시퀀스를 재구성하기 위해 곡선의 처음부터 마지막까지 이동하고 가장 가까운 프레임을 계산하여 순서를 재구성할 수 있다. Referring to FIG. 5, the distribution of the two-dimensional feature vector may be fitted to a standard model of an image sequence by using a curve fitting technique. In this case, using the given curve fitting model, the sequence may be reconstructed by moving from the beginning to the end of the curve and calculating the nearest frame to reconstruct the sequence.

이때, 프로세서(130)는 각 특성 벡터들과 모델 그래프의 직교하는 위치를 계산하여, 해당 지점이 전체 영상의 순서에서 해당 벡터의 프레임이 위치하는 지점인 것으로 간주한다. 즉, 프로세서(130)는 각 이차원 벡터와 모델 그래프의 직교 위치를 기초로 전체 영상에서 해당 프레임이 갖는 순서를 추출할 수 있다.In this case, the processor 130 calculates orthogonal positions of the feature vectors and the model graph, and considers the point as the point where the frame of the vector is located in the order of the entire image. That is, the processor 130 may extract the order of the corresponding frame from the entire image based on the orthogonal positions of each two-dimensional vector and the model graph.

앞서 도 4에 도시된 바와 같이, 이차원 벡터들은 프레임의 시간 순서에 따라 방향성을 보인다. 이러한 방향성을 기초로 이차원 벡터들에 커브 피팅 기법을 적용함으로써, 주행 영상에 대한 모델 그래프를 생성할 수 있다. 즉, 도 5에 도시된 모델 그래프를 생성하고, 이를 통해 프레임의 순서를 탐지함으로써 완전한 영상을 복원할 수 있다.As shown in FIG. 4, the two-dimensional vectors show directionality according to the time order of the frames. By applying the curve fitting technique to the two-dimensional vectors based on the directionality, it is possible to generate a model graph for the driving image. That is, by generating the model graph shown in Figure 5, through this it is possible to restore the complete image by detecting the order of the frame.

다시 도 1로 돌아가서, 출력 모듈(140)은 이상에서 설명한 프로세서(130)의 각종 처리의 결과(즉, 프레임 순서가 복원된 영상)을 출력한다. 이때, 출력 모듈(140)은 연동된 외부 장치(즉, 블랙박스 기기 등)와 설정된 통신을 수행하여 데이터(즉, 복원된 영상)를 송신하는 통신 모듈의 기능을 포함할 수 있다. 또한, 출력 모듈(140)은 영상 복원 장치(100)에 자체적으로 포함된 출력장치(미도시)를 통해 복원된 영상을 출력할 수도 있다. 1 again, the output module 140 outputs a result (ie, an image in which the frame order is restored) of the various processes of the processor 130 described above. In this case, the output module 140 may include a function of a communication module that transmits data (ie, restored image) by performing communication with an external device (ie, a black box device, etc.) to which the interworking external device is connected. In addition, the output module 140 may output the restored image through an output device (not shown) included in the image restoration apparatus 100 itself.

한편, 본 발명의 다른 실시예에 따른 영상 복원 장치(100)의 프로세서(130)는 이상의 도 2 내지 도 5를 통해 설명한 과정을 통해 생성된 커프 피팅 모델을 사용하여, 영상 내 특정 이벤트를 감지할 수 있다.Meanwhile, the processor 130 of the image reconstruction device 100 according to another embodiment of the present invention detects a specific event in the image using the cuff fitting model generated through the process described with reference to FIGS. 2 to 5. Can be.

예를들어, 운전 중 자동차 사고 또는 급격한 턴(sharp turn)과 같은 특별한 사건이 발생될 수 있다. 이러한 이벤트는 프레임의 이미지 데이터에 갑작스런 변화를 일으킬 수 있으며, 이는 특성 벡터 간의 관계에 반영된다. 이때, 커브 피팅 모델을 사용하면, 각 프레임의 벡터 방향과 변화율을 계산할 수 있다. 이러한 계산 결과, 커브에서 2차 미분(second derivative)을 수행하면 갑작스런 변화가 발생된 지점 또는 의심스러운 이벤트 지점을 확인할 수 있다. 이때, 변화가 급속도인지 여부는 가변 이진화(adaptive thresholding) 계산을 통해 판단될 수 있다. 즉, 녹화된 영상의 상태는 도로의 특성이나 주변 차량의 흐름에 따라 달라지므로, 가변 이진화 값이 사용된다.For example, special events such as car accidents or sharp turns may occur while driving. Such an event may cause a sudden change in the image data of a frame, which is reflected in the relationship between the characteristic vectors. In this case, using the curve fitting model, the vector direction and the rate of change of each frame can be calculated. As a result of this calculation, performing a second derivative on the curve can identify the point where the abrupt change occurred or the suspect event point. In this case, whether or not the change is rapid may be determined by calculating adaptive thresholding. That is, since the state of the recorded image varies depending on the characteristics of the road or the flow of the surrounding vehicles, a variable binarization value is used.

이러한 경우, 프로세서(130)는 출력 모듈(140)을 통해 영상 내 감지된 특정 이벤트에 대한 정보 또는 해당 이벤트가 포함된 영상 프레임 부분을 개별적으로 출력하는 것도 가능하다. In this case, the processor 130 may separately output information about a specific event detected in the image or an image frame portion including the corresponding event through the output module 140.

이하, 도 6을 참조하여 영상 복원 장치(100)를 통한 영상 복원 방법에 대해서 설명하도록 한다.Hereinafter, an image restoration method through the image restoration apparatus 100 will be described with reference to FIG. 6.

도 6은 본 발명의 일 실시예에 따른 영상 복원 방법을 설명하기 위한 순서도이다.6 is a flowchart illustrating an image restoration method according to an embodiment of the present invention.

도 6에서와 같이, 먼저 입력 영상 파일에 대해 특성 추출(feature extraction) 과정을 처리한다(S610).As shown in FIG. 6, first, a feature extraction process is processed on an input image file (S610).

즉, 입력 영상 파일의 조각난 영상 프레임으로부터 이미지 특성(image Feature)들을 추출하며, 이때 각 이미지 특성들은 해당 프레임을 특정할 수 있도록 색채 히스토그램 및 기하학적 특성을 포함한다. 또한, 보다 효과적인 특성 추출을 위해 해당 프레임에서 추출된 소실점에 기반하여 프레임을 복수의 블록으로 구분한 다음 블록 단위로 특성을 추출할 수 있다. That is, image features are extracted from fragmented image frames of the input image file, wherein each image feature includes a color histogram and a geometric feature to specify the frame. In addition, for more effective feature extraction, a frame may be divided into a plurality of blocks based on a vanishing point extracted from a corresponding frame, and then the feature may be extracted in units of blocks.

이러한 특성 추출 과정은 위의 도 2 내지 도 3을 통해 설명한 처리 과정과 동일하므로 상세한 설명은 생략하도록 한다.Since the feature extraction process is the same as the process described with reference to FIGS. 2 to 3 above, a detailed description thereof will be omitted.

다음으로, 특성 추출 과정의 결과에 기반하여 시각화(Visualization) 과정을 처리한다(S620).Next, a visualization process is processed based on the result of the feature extraction process (S620).

앞서, 단계(S610)에서 생성된 특성 벡터를 이차원 공간으로 매핑한다. 이때, 각 특성 벡터는 해당 프레임의 모든 이미지 특성을 포함하고 있기 때문에 삼차원 이상의 다차원으로 구성되어 있다. 때문에 벡터 간의 유사도 측정은 가능하나, 이를 통해 프레임 순서를 파악하는 것은 용이하지 않으므로, 일예로 t-SNE(t-distributed Stochastic Neighbor Embedding) 기법을 사용하여 고차원 벡터인 특성 벡터에 대해 저차원 영역으로의 차원 축소(dimension reduction)를 수행한다. 이를 통해 고차원 특성 벡터는 이차원 벡터로 변환된다. First, the characteristic vector generated in step S610 is mapped to the two-dimensional space. At this time, since each feature vector includes all the image features of the frame, the feature vector is composed of three or more dimensions. Therefore, similarity between vectors can be measured, but it is not easy to determine the frame order. Perform dimension reduction. This transforms the high-dimensional feature vectors into two-dimensional vectors.

이러한 특성 벡터의 시각화 과정은 위의 도 4를 통해 설명한 처리 과정과 동일하므로 상세한 설명은 생략한다.Since the visualization process of the feature vector is the same as the process described with reference to FIG. 4 above, a detailed description thereof will be omitted.

다음으로, 프레임 특성을 시각화 처리한 결과에 기초하여 입력 영상 파일의 프레임 순서를 재구성한다(S630).Next, the frame order of the input image file is reconstructed based on the result of the visualization of the frame characteristics (S630).

앞서, 단계(S620)에서 변환된 이차원 벡터를 이용하여 프레임 순서를 복원한다. 예시적으로, 커브 피팅 기법을 사용하여 이차원 벡터들을 하나의 모델 그래프(model graph)로 구성한다. 이후, 각 벡터들과 모델 그래프의 직교하는 위치를 산출하고, 산출된 위치를 전체 영상에서 해당 프레임이 갖는 순서로 처리하여 각 프레임의 순서를 복원한다.  First, the frame order is restored using the transformed two-dimensional vector in step S620. As an example, the curve fitting technique is used to construct two-dimensional vectors into a model graph. Subsequently, orthogonal positions of the vectors and the model graph are calculated, and the calculated positions are processed in the order of the corresponding frames in the entire image to restore the order of each frame.

이러한 시각화된 영상 프레임을 이용한 영상 복원 과정은 위의 도 5를 통해 설명한 처리 과정과 동일하므로 상세한 설명은 생략한다.Since the image restoration process using the visualized image frame is the same as the process described with reference to FIG. 5 above, a detailed description thereof will be omitted.

그런 다음, 각 영상 프레임의 순서를 재구성하여 복원된 영상을 출력한다(S640).Then, the reconstructed order of each image frame is outputted (S640).

이와 같이, 본 발명의 일 실시예에 따른 영상 복원 방법은 해당 영상 파일의 인코딩 정보 또는 메타 데이터가 없는 상태에서도 프레임의 순서를 복원할 수 있다. As described above, the image restoration method according to an embodiment of the present invention may restore the order of frames even when there is no encoding information or metadata of the corresponding image file.

이상에서 설명한 본 발명의 실시예에 따른 영상 복원 방법은, 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 이러한 기록 매체는 컴퓨터 판독 가능 매체를 포함하며, 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함하며, 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The image restoration method according to the embodiment of the present invention described above may be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Such recording media include computer readable media, and computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, computer readable media includes computer storage media, which are volatile and nonvolatile implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. , Both removable and non-removable media.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 조사 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 특성은 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 특성들도 결합된 형태로 실시될 수 있다.The above description of the present invention is intended for illustration, and a person of ordinary skill in the art may understand that the present invention can be easily modified in other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. For example, each configuration characteristic described as a single type may be implemented in a distributed manner, and similarly, configuration characteristics described as distributed may be implemented in a combined form.

또한, 본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 특성 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수도 있다.In addition, while the methods and systems of the present invention have been described in connection with specific embodiments, some or all of their configuration characteristics or operations may be implemented using computer systems having a general purpose hardware architecture.

본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is shown by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. .

100: 영상 복원 장치
110: 입력 모듈
120: 메모리
130: 프로세서
140: 출력 모듈
100: image restoration device
110: input module
120: memory
130: processor
140: output module

Claims (13)

영상 복원 장치를 통한 영상 복원 방법에 있어서,
입력 영상 파일의 프레임 별로 기설정된 종류의 이미지 특성을 추출하여 특성 벡터를 생성하는 단계;
상기 특성 벡터를 차원 축소 처리를 통해 저차원 공간에 매핑하여 시각화하는 단계;
상기 시각화에 따른 특성 벡터들의 분포에 최적화된 모델 그래프를 생성하고, 상기 모델 그래프 및 상기 프레임 별 특성 벡터에 기초하여 상기 프레임들의 영상 내 순서를 재구성하는 단계; 및
상기 재구성된 프레임들의 순서에 기반하여 영상 파일을 복구하는 단계를 포함하되,
상기 특성 벡터를 생성하는 단계는,
상기 입력 영상 파일의 프레임을 각각 동일한 크기를 갖되 연속되는 복수의 셀들로 분할하는 단계;
상기 프레임의 소실점을 추출하는 단계;
상기 소실점에 기초하여 상기 분할된 복수의 셀들을 각각 임의의 크기를 갖는 복수의 블록들로 그룹화하는 단계;
상기 블록 별로 기설정된 종류의 이미지 특성을 추출하는 단계; 및
상기 추출된 이미지 특성을 벡터화하여 특성 벡터를 생성하는 단계를 포함하는 영상 복원 방법.
In the image restoration method through the image restoration apparatus,
Generating a characteristic vector by extracting a predetermined type of image characteristic for each frame of the input image file;
Visualizing the feature vector by mapping it to a low dimensional space through a dimension reduction process;
Generating a model graph optimized for the distribution of the feature vectors according to the visualization, and reconstructing the order of the frames in the image based on the model graph and the feature vector for each frame; And
Restoring an image file based on the order of the reconstructed frames;
Generating the feature vector,
Dividing a frame of the input image file into a plurality of cells each having the same size and being consecutive;
Extracting vanishing points of the frame;
Grouping the divided plurality of cells into a plurality of blocks each having an arbitrary size based on the vanishing point;
Extracting an image characteristic of a predetermined type for each block; And
Vectorizing the extracted image characteristic to generate a characteristic vector.
삭제delete 제 1 항에 있어서,
상기 이미지 특성은 색채 히스토그램(color histogram) 및 기하학적 특성(geometrical feature)을 포함하는 것인, 영상 복원 방법.
The method of claim 1,
Wherein the image characteristic comprises a color histogram and a geometrical feature.
제 1 항에 있어서,
상기 복수의 블록들로 그룹화하는 단계는,
상기 프레임에 포함된 적어도 하나의 객체에 기초하여 블록을 분할하되, 상기 객체와 상기 소실점과의 거리에 기초한 역 투시 변환(inverse perspective transformation) 처리를 통해 블록 별 높이 및 넓이를 계산하는, 영상 복원 방법.
The method of claim 1,
Grouping into the plurality of blocks,
Splitting a block based on at least one object included in the frame, the image reconstruction method for calculating the height and width for each block through an inverse perspective transformation process based on the distance between the object and the vanishing point .
제 1 항에 있어서,
상기 시각화하는 단계는,
t-SNE(t-distributed Stochastic Neighbor Embedding) 기법을 사용하여 상기 특성 벡터를 2차원 공간에 매핑하는 차원 축소 처리를 수행하는 단계; 및
상기 차원 축소 처리의 결과로서 생성된 2차원 벡터들에 의한 산점도 그래프(scatter plot graph)를 출력하는 단계를 포함하는, 영상 복원 방법.
The method of claim 1,
The visualizing step,
performing a dimension reduction process of mapping the characteristic vector to a two-dimensional space using a t-distributed Stochastic Neighbor Embedding (t-SNE) technique; And
And outputting a scatter plot graph of the two-dimensional vectors generated as a result of the dimension reduction process.
제 5 항에 있어서,
상기 프레임들의 순서를 재구성하는 단계는,
상기 2차원 벡터들을 커브 피팅(curve-fitting) 기법을 사용하여 하나의 모델 그래프(model graph)로 생성하는 단계;
상기 2차원 벡터들과 상기 모델 그래프의 직교하는 위치를 산출하고, 산출된 위치를 전체 영상에서 해당 프레임이 갖는 순서로 검출하는 단계; 및
상기 검출된 순서에 기초하여 상기 입력 영상 파일의 프레임 별로 순서를 재구성하는 단계를 포함하는, 영상 복원 방법.
The method of claim 5, wherein
Reconstructing the order of the frames,
Generating the two-dimensional vectors into a model graph using a curve-fitting technique;
Calculating orthogonal positions of the two-dimensional vectors and the model graph, and detecting the calculated positions in the order of the corresponding frames in the entire image; And
And reconstructing the order for each frame of the input image file based on the detected order.
영상 복원 장치에 있어서,
영상 복원 프로그램이 저장된 메모리; 및
상기 메모리에 저장된 프로그램을 실행하는 프로세서를 포함하며,
상기 프로세서는 상기 영상 복원 프로그램의 실행에 따라, 입력 영상 파일의 프레임 별로 기설정된 종류의 이미지 특성을 추출하여 특성 벡터를 생성하고, 상기 특성 벡터를 차원 축소 처리를 통해 저차원 공간에 매핑하여 시각화 하고, 상기 시각화에 따른 특성 벡터들의 분포에 최적화된 모델 그래프를 생성하고, 상기 모델 그래프 및 상기 프레임 별 특성 벡터에 기초하여 상기 프레임들의 영상 내 순서를 재구성하고, 상기 재구성된 프레임들의 순서에 기반하여 영상 파일을 복구하되,
상기 프로세서는,
상기 입력 영상 파일의 프레임을 각각 동일한 크기를 갖되 연속되는 복수의 셀들로 분할하고,
상기 프레임에서 추출된 소실점에 기초하여 상기 분할된 복수의 셀들을 각각 임의의 크기를 갖는 복수의 블록들로 그룹화하고,
상기 블록 별로 기설정된 종류의 이미지 특성을 추출하며,
상기 추출된 이미지 특성을 벡터화하여 특성 벡터를 생성하는, 영상 복원 장치.
In the image restoration apparatus,
A memory in which an image restoration program is stored; And
A processor for executing a program stored in the memory;
The processor extracts a predetermined type of image characteristic for each frame of the input image file according to the execution of the image reconstruction program, generates a characteristic vector, maps the characteristic vector to a low dimensional space through dimensional reduction processing, and visualizes it. Generating a model graph optimized for the distribution of the feature vectors according to the visualization, reconstructing the order within the images of the frames based on the model graph and the feature vector for each frame, and based on the reconstructed frames Recover the file,
The processor,
The frame of the input image file is divided into a plurality of consecutive cells having the same size, respectively,
Grouping the plurality of divided cells into a plurality of blocks each having an arbitrary size, based on a vanishing point extracted from the frame,
Extracting a predetermined kind of image characteristic for each block;
And reconstructing the extracted image characteristic to generate a characteristic vector.
삭제delete 제 7 항에 있어서,
상기 이미지 특성은 색채 히스토그램(color histogram) 및 기하학적 특성(geometrical feature)을 포함하는 것인, 영상 복원 장치.
The method of claim 7, wherein
Wherein the image characteristic comprises a color histogram and a geometrical feature.
제 7 항에 있어서,
상기 프로세서는,
상기 프레임에 포함된 적어도 하나의 객체에 기초하여 블록을 분할하되,
상기 객체와 상기 소실점과의 거리에 기초한 역 투시 변환(inverse perspective transformation) 처리를 통해 블록 별 높이 및 넓이를 계산하여, 상기 프레임을 상기 복수의 블록들로 그룹화하는, 영상 복원 장치.
The method of claim 7, wherein
The processor,
Partition the block based on at least one object included in the frame,
And calculating the height and width for each block through an inverse perspective transformation process based on the distance between the object and the vanishing point, and grouping the frame into the plurality of blocks.
제 7 항에 있어서,
상기 프로세서는,
t-SNE(t-distributed Stochastic Neighbor Embedding) 기법을 사용하여 상기 특성 벡터를 2차원 공간에 매핑하는 차원 축소 처리하고,
상기 차원 축소 처리의 결과로서 생성된 2차원 벡터들에 의한 산점도 그래프(scatter plot graph)를 출력하여 상기 프레임의 특성 벡터를 시각화하는, 영상 복원 장치.
The method of claim 7, wherein
The processor,
a dimension reduction process that maps the characteristic vector to two-dimensional space using a t-distributed Stochastic Neighbor Embedding (t-SNE) technique,
And a scatter plot graph of the two-dimensional vectors generated as a result of the dimension reduction process to visualize the characteristic vector of the frame.
제 11 항에 있어서,
상기 프로세서는,
상기 2차원 벡터들을 커브 피팅(curve-fitting) 기법을 사용하여 하나의 모델 그래프(model graph)로 생성하고,
상기 2차원 벡터들과 상기 모델 그래프의 직교하는 위치를 산출하고, 산출된 위치를 전체 영상에서 해당 프레임이 갖는 순서로서 검출하고,
상기 검출된 순서에 기초하여 상기 입력 영상 파일의 프레임 별로 순서를 재구성하는, 영상 복원 장치.
The method of claim 11,
The processor,
The two-dimensional vectors are generated as a model graph using a curve-fitting technique,
Calculating orthogonal positions of the two-dimensional vectors and the model graph, detecting the calculated positions as the order of the corresponding frames in the entire image,
And reconstruct the order for each frame of the input image file based on the detected order.
제 1 항, 제3항 내지 제 6 항 중 어느 한 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.A computer-readable recording medium having recorded thereon a program for implementing the method of claim 1.
KR1020180091925A 2017-09-26 2018-08-07 Method and apparatus for reconstructing of video KR102079378B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20170124465 2017-09-26
KR1020170124465 2017-09-26

Publications (2)

Publication Number Publication Date
KR20190035485A KR20190035485A (en) 2019-04-03
KR102079378B1 true KR102079378B1 (en) 2020-02-19

Family

ID=66165731

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180091925A KR102079378B1 (en) 2017-09-26 2018-08-07 Method and apparatus for reconstructing of video

Country Status (1)

Country Link
KR (1) KR102079378B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100530812B1 (en) * 1998-04-13 2005-11-28 네브엔지니어링 인코포레이티드 Wavelet-based facial motion capture for avatar animation
JP2007140718A (en) 2005-11-16 2007-06-07 Nippon Telegr & Teleph Corp <Ntt> Unique video detection device, unique video detection method and program
JP2009003940A (en) * 2007-06-20 2009-01-08 Sony United Kingdom Ltd Security device, security system, security camera, security system operating method, security monitoring method and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101348216B1 (en) 2012-01-19 2014-01-10 (주)엠텍정보기술 Driving video recorder and recording method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100530812B1 (en) * 1998-04-13 2005-11-28 네브엔지니어링 인코포레이티드 Wavelet-based facial motion capture for avatar animation
JP2007140718A (en) 2005-11-16 2007-06-07 Nippon Telegr & Teleph Corp <Ntt> Unique video detection device, unique video detection method and program
JP2009003940A (en) * 2007-06-20 2009-01-08 Sony United Kingdom Ltd Security device, security system, security camera, security system operating method, security monitoring method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Paulo E. Rauber ET AL:"Visualizing time-dependent data using dynamic t-SNE", Eurographics Conference on Visualization (EuroVis) 2016: Short Papers Pages 73-77, June 6-10, 2016(2016.06.06.) 1부.*

Also Published As

Publication number Publication date
KR20190035485A (en) 2019-04-03

Similar Documents

Publication Publication Date Title
US10217007B2 (en) Detecting method and device of obstacles based on disparity map and automobile driving assistance system
US9619691B2 (en) Multi-view 3D object recognition from a point cloud and change detection
US9683836B2 (en) Vehicle classification from laser scanners using fisher and profile signatures
US9984308B2 (en) Method and apparatus for extracting feature regions from point cloud
US8687001B2 (en) Apparatus and method extracting light and texture, and rendering apparatus using light and texture
Balali et al. Multi-class US traffic signs 3D recognition and localization via image-based point cloud model using color candidate extraction and texture-based recognition
EP2779025B1 (en) Method and system for detecting road edge
EP2742442B1 (en) A method for detecting a copy of a reference video, corresponding apparatus for extracting a spatio-temporal signature from video data and corresponding computer readable storage medium
CN106326810B (en) Road scene recognition method and equipment
US10255673B2 (en) Apparatus and method for detecting object in image, and apparatus and method for computer-aided diagnosis
US9405959B2 (en) System and method for classification of objects from 3D reconstruction
Holzer et al. Learning to efficiently detect repeatable interest points in depth data
US20100034459A1 (en) Method and apparatus for calculating features of image data
CN106157283A (en) The detection method of lane segmentation thing and device
CN104036277A (en) Method and equipment for extracting road characteristics
JPWO2015049826A1 (en) Object detection apparatus, object detection method, and learning apparatus
TW202004664A (en) Image processing apparatus, image processing method, and image processing program
KR101556598B1 (en) Apparatus and Method for object detection based on dominant pixel information
KR102079378B1 (en) Method and apparatus for reconstructing of video
US20200005467A1 (en) Image processing device, image recognition device, image processing program, and image recognition program
CN116051980B (en) Building identification method, system, electronic equipment and medium based on oblique photography
Coca et al. Normalized compression distance for SAR image change detection
CN109508217B (en) Data processing method, device, equipment and medium
WO2017042852A1 (en) Object recognition appratus, object recognition method and storage medium
KR101503606B1 (en) Picture Quality Improvement Apparatus and Method based on Detail Information

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant