KR102466998B1 - Method and apparatus for image fusion - Google Patents
Method and apparatus for image fusion Download PDFInfo
- Publication number
- KR102466998B1 KR102466998B1 KR1020180016451A KR20180016451A KR102466998B1 KR 102466998 B1 KR102466998 B1 KR 102466998B1 KR 1020180016451 A KR1020180016451 A KR 1020180016451A KR 20180016451 A KR20180016451 A KR 20180016451A KR 102466998 B1 KR102466998 B1 KR 102466998B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- image frame
- feature points
- detected
- frame
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 38
- 230000004927 fusion Effects 0.000 title claims description 31
- 238000007500 overflow downdraw method Methods 0.000 claims abstract description 37
- 230000001131 transforming effect Effects 0.000 claims abstract description 30
- 230000001815 facial effect Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 description 22
- 238000012545 processing Methods 0.000 description 16
- 239000011159 matrix material Substances 0.000 description 11
- 238000007499 fusion processing Methods 0.000 description 10
- 230000009466 transformation Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 7
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000012935 Averaging Methods 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G06T3/0093—
-
- G06T3/0056—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/10—Selection of transformation methods according to the characteristics of the input images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/14—Transformations for image registration, e.g. adjusting or mapping for alignment of images
- G06T3/153—Transformations for image registration, e.g. adjusting or mapping for alignment of images using elastic snapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Geometry (AREA)
Abstract
영상 융합 방법 및 장치가 개시된다. 영상 융합 방법은 제1 영상 프레임으로부터 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하는 단계, 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 제1 영상 프레임을 변형하는 단계, 제2 영상 프레임으로부터 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하는 단계, 검출된 제2 특징점들과 미리 정의된 기준점들에 기초하여 제2 영상 프레임을 변형하는 단계 및 변형된 제1 영상 프레임과 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 획득하는 단계를 포함한다.An image fusion method and apparatus are disclosed. The image fusion method includes: detecting first feature points of an object appearing in the first image frame from a first image frame; transforming the first image frame based on the detected first feature points and predefined reference points; Detecting second feature points of an object appearing in the second image frame from 2 image frames, transforming the second image frame based on the detected second feature points and predefined reference points, and deforming the first image frame and acquiring a combined image by combining the image frame and the deformed second image frame.
Description
아래의 설명은 영상 처리 기술에 관한 것이다.The description below relates to image processing techniques.
낮은 조도 환경에서 영상을 촬영하는 경우 촬영된 영상에서 객체를 명확히 인식하기가 어려울 수 있다. 이를 해결하기 위한 방법으로서, 카메라의 노출 시간(exposure time)을 늘려서 촬영하는 방법과 카메라에 의해 촬영된 영상에 대해 밝기 조절과 같은 영상 처리를 수행하는 방법이 있다. 두 방법들 모두 영상의 밝기를 보다 밝게 할 수 있으나, 전자의 경우에는 객체의 움직임으로 인하여 영상에 모션 블러(motion blur)가 발생할 수 있고, 후자의 경우에는 객체를 명확하게 하는데 한계가 있다.When an image is captured in a low-light environment, it may be difficult to clearly recognize an object in the captured image. As a method for solving this problem, there are a method of taking pictures by increasing the exposure time of a camera and a method of performing image processing such as brightness control on an image taken by a camera. Both methods can make the brightness of the image brighter, but in the former case, motion blur may occur in the image due to the movement of the object, and in the latter case, there is a limit to clarifying the object.
일 실시예에 따른 영상 융합 방법은, 제1 영상 프레임으로부터 상기 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하는 단계; 상기 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 상기 제1 영상 프레임을 변형하는 단계; 제2 영상 프레임으로부터 상기 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하는 단계; 상기 검출된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 영상 프레임을 변형하는 단계; 및 상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 획득하는 단계를 포함할 수 있다.An image fusion method according to an embodiment includes detecting first feature points of an object appearing in a first image frame from a first image frame; transforming the first image frame based on the detected first feature points and predefined reference points; detecting second feature points of an object appearing in the second image frame from a second image frame; transforming the second image frame based on the detected second feature points and the reference points; and obtaining a combined image by combining the transformed first image frame and the transformed second image frame.
상기 제1 영상 프레임을 변형하는 단계는, 상기 제1 특징점들이 상기 기준점들의 위치에 오도록 상기 제1 영상 프레임을 변형하고, 상기 제2 영상 프레임을 변형하는 단계는, 상기 제2 특징점들이 상기 기준점들의 위치에 오도록 상기 제2 영상 프레임을 변형할 수 있다.The transforming of the first image frame may include transforming the first image frame so that the first feature points come to the positions of the reference points, and the transforming of the second image frame may include transforming the second feature points to the positions of the reference points. The second image frame may be transformed to come into position.
상기 제1 영상 프레임을 변형하는 단계는, 상기 검출된 제1 특징점들에 기초하여 상기 제1 영상 프레임에서 제1 객체 영역을 검출하는 단계; 및 상기 검출된 제1 객체 영역에 포함된 제1 특징점들과 상기 기준점들에 기초하여 상기 제1 객체 영역에 영상 와핑을 수행하는 단계를 포함할 수 있다.The transforming of the first image frame may include: detecting a first object area in the first image frame based on the detected first feature points; and performing image warping on the first object area based on first feature points included in the detected first object area and the reference points.
상기 제2 영상 프레임을 변형하는 단계는, 상기 검출된 제2 특징점들에 기초하여 상기 제2 영상 프레임에서 제2 객체 영역을 검출하는 단계; 및 상기 검출된 제2 객체 영역에 포함된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 객체 영역에 영상 와핑을 수행하는 단계를 포함할 수 있다.The transforming of the second image frame may include: detecting a second object area in the second image frame based on the detected second feature points; and performing image warping on the second object area based on second feature points included in the detected second object area and the reference points.
상기 결합 영상을 획득하는 단계는, 상기 영상 와핑이 수행된 제1 객체 영역과 상기 영상 와핑이 수행된 제2 객체 영역을 결합시키는 단계를 포함할 수 있다.The acquiring of the combined image may include combining the first object region where the image warping is performed and the second object region where the image warping is performed.
상기 결합 영상을 획득하는 단계는, 상기 변형된 제1 영상 프레임의 제1 픽셀 값과 상기 변형된 제2 영상 프레임의 제2 픽셀 값을 결합시키는 것에 의해 상기 결합 영상을 생성하는 단계를 포함할 수 있다.The obtaining of the combined image may include generating the combined image by combining a first pixel value of the transformed first image frame and a second pixel value of the transformed second image frame. have.
일 실시예에 따른 영상 융합 방법은, 상기 제1 영상 프레임 또는 상기 변형된 제1 영상 프레임의 영상 품질을 측정하는 단계; 및 상기 측정된 영상 품질이 미리 설정된 조건을 만족시키는 경우에, 상기 제1 영상 프레임에서 상기 제1 특징점들을 검출하는 것으로 결정하거나 또는 상기 변형된 제1 영상 프레임에 기초하여 상기 결합 영상을 획득하는 것으로 결정하는 단계를 더 포함할 수 있다.An image fusion method according to an exemplary embodiment may include measuring image quality of the first image frame or the transformed first image frame; and determining to detect the first feature points in the first image frame or obtaining the combined image based on the modified first image frame when the measured image quality satisfies a preset condition. A determining step may be further included.
일 실시예에 따른 영상 융합 방법은, 제3 영상 프레임으로부터 상기 제3 영상 프레임에 나타난 객체의 제3 특징점들을 검출하는 단계; 상기 검출된 제3 특징점들과 상기 기준점들에 기초하여 상기 제3 영상 프레임을 변형하는 단계; 및 상기 획득된 결합 영상과 상기 변형된 제3 영상 프레임을 결합시키는 단계를 더 포함할 수 있다.An image fusion method according to an embodiment includes detecting third feature points of an object appearing in a third image frame from a third image frame; transforming the third image frame based on the detected third feature points and the reference points; and combining the obtained combined image and the modified third image frame.
일 실시예에 따른 프로세서를 포함하는 영상 융합 장치로서, 상기 프로세서는, 제1 영상 프레임으로부터 상기 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하고, 상기 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 상기 제1 영상 프레임을 변형하고, 제2 영상 프레임으로부터 상기 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하고, 상기 검출된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 영상 프레임을 변형하고, 상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 생성할 수 있다.An image fusion device including a processor according to an embodiment, wherein the processor detects first feature points of an object appearing in the first image frame from a first image frame, and determines the detected first feature points and a predefined first feature point. The first image frame is transformed based on reference points, and second feature points of an object appearing in the second image frame are detected from the second image frame, and based on the detected second feature points and the reference points, the second feature points are detected. A combined image may be generated by transforming the second image frame and combining the transformed first image frame and the transformed second image frame.
도 1은 일 실시예에 따른 영상 융합 장치의 전체적인 동작을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 영상 융합 방법의 동작을 설명하기 위한 흐름도이다.
도 3 및 도 4는 일 실시예에 따른 영상 융합 방법의 일례들을 설명하기 위한 흐름도들이다.
도 5는 일 실시예에 따른 영상 융합 방법이 얼굴 인증에 적용된 일례를 설명하기 위한 흐름도이다.
도 6 및 도 7은 일 실시예에 따른 복수의 영상 프레임들에 기반하여 영상 융합을 수행하는 일례들을 설명하기 위한 도면들이다.
도 8은 일 실시예에 따른 영상 융합 장치의 구성을 도시하는 도면이다.
도 9는 일 실시예에 따른 컴퓨팅 장치의 구성을 도시하는 도면이다.1 is a diagram for explaining overall operation of an image merging apparatus according to an exemplary embodiment.
2 is a flowchart illustrating an operation of an image fusion method according to an exemplary embodiment.
3 and 4 are flowcharts illustrating examples of an image fusion method according to an exemplary embodiment.
5 is a flowchart illustrating an example in which an image fusion method according to an exemplary embodiment is applied to face authentication.
6 and 7 are diagrams for explaining examples of performing image fusion based on a plurality of image frames according to an exemplary embodiment.
8 is a diagram illustrating a configuration of a video merging device according to an exemplary embodiment.
9 is a diagram illustrating a configuration of a computing device according to an exemplary embodiment.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be modified and implemented in various forms. Therefore, the embodiments are not limited to the specific disclosed form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.
제1 또는 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 또한, 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.Terms such as first or second may be used to describe various components, but such terms should only be interpreted for the purpose of distinguishing one component from another. In addition, it should be understood that when an element is referred to as being “connected” to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle.
단수의 표현은 달리 명시되지 않는 한 일반적으로 "하나 이상의"를 의미하는 것으로 해석되어야 한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Expressions in the singular should generally be interpreted to mean "one or more" unless otherwise specified. In this specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, but one or more other features or numbers, It should be understood that the presence or addition of steps, operations, components, parts, or combinations thereof is not precluded.
또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this specification, it should not be interpreted in an ideal or excessively formal meaning. don't
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, the same reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted.
도 1은 일 실시예에 따른 영상 융합 장치의 전체적인 동작을 설명하기 위한 도면이다.1 is a diagram for explaining overall operation of an image merging apparatus according to an exemplary embodiment.
도 1을 참조하면, 영상 융합 장치(100)는 프로세서를 이용하여 두 개 이상의 영상 프레임들(110)을 융합하여 결합 영상(122, 124, 126, 128)을 생성하는 장치이다. 영상 융합 장치(100)는, 예를 들어 현재 영상 프레임과 현재 영상 프레임에 시간적으로 인접한 n개(n은 자연수)의 이전 영상 프레임을 융합하여 결합 영상을 생성한다. 예를 들어, 현재 영상 프레임이 영상 프레임(116)이고, 영상 융합 장치(100)가 3개의 영상 프레임들에 기초하여 결합 영상을 생성한다고 가정하면, 영상 융합 장치(100)는 영상 프레임들(112, 114, 116)을 융합하여 결합 영상을 생성한다. 만약, 영상 융합 장치(100)가 2개의 영상 프레임들에 기초하여 결합 영상을 생성한다면, 영상 융합 장치(100)는 현재 영상 프레임인 영상 프레임(116)과 영상 프레임(116)의 이전 영상 프레임인 영상 프레임(114)을 융합하여 결합 영상을 생성한다.Referring to FIG. 1 , an
영상 프레임들(110)은, 예를 들어 시간상으로 카메라에 의해 연속적으로 촬영된 영상 프레임들(112, 114, 116, 118)을 포함할 수 있다. 본 명세서에서 '영상 프레임'의 용어는 '입력 영상' 또는 '영상'으로 대체될 수 있다. 저조도(low luminance)의 어두운 환경에서 촬영된 영상 프레임의 경우, 해당 영상 프레임에서 객체를 명확히 식별하는 것이 어려울 수 있다. 얼굴 인증(face verification)과 같이 객체의 식별이 중요한 응용 영역에서는, 어두운 환경에서 촬영된 영상 프레임이더라도 해당 영상 프레임에서 얼굴 영역을 명확히 식별하는 것이 중요하다. 얼굴 영역의 명확한 식별은 얼굴 인증의 정확도에 큰 영향을 끼치기 때문이다. 저조도 환경에서 촬영된 영상 프레임의 단점을 극복하기 위한 일반적인 솔루션으로서, 카메라의 노출 시간(exposure time)을 증가시켜 영상 프레임을 획득하는 방법이 있다. 하지만, 노출 시간이 늘어나면, 카메라 및/또는 객체의 움직임으로 인하여 영상 프레임에 모션 블러(motion blur)가 나타날 확률이 높아지고, 이는 또 다시 객체의 식별을 어렵게 하는 요인이 된다.The
일 실시예에서, 영상 융합 장치(100)는 저조도 환경에서 촬영된 영상 프레임들을 결합시키는 것에 의해 밝기가 개선되고 객체의 식별이 보다 용이해진 결합 영상을 생성할 수 있다. 이 때, 영상 융합 장치(100)는 영상 프레임들을 단순 결합시키는 것이 아니라, 각 영상 프레임들의 특징점들에 기반하여 영상 프레임들을 변형(transform)하고, 변형된 프레임들을 결합시킴으로써 모션 블러의 발생을 최소화할 수 있다. 예를 들어, 영상 융합 장치(100)는 영상 프레임들에서 객체의 형상 특징을 나타내는 특징점들을 추출하고, 추출된 특징점들의 위치가 기준점의 위치에 오도록 영상 프레임들을 변형한 후, 변형된 영상 프레임들을 결합시킴으로써 밝기가 개선되고 모션 블러가 최소화된 결합 영상을 생성할 수 있다. 이러한 영상 융합 장치(100)는 생체 정보를 이용하는 사용자 인증 시스템, 금융 거래 인증 시스템, 출입 통제 및 감시 시스템, 사물 인식 시스템 등에서 이용될 수 있다.In an embodiment, the
이하에서는 도면들을 참고하여 영상 융합 장치(100)의 동작을 보다 자세히 설명한다.Hereinafter, the operation of the
도 2는 일 실시예에 따른 영상 융합 방법의 동작을 설명하기 위한 흐름도이다.2 is a flowchart illustrating an operation of an image fusion method according to an exemplary embodiment.
도 2에 도시된 동작들은 도시된 바와 같이 순차적으로 수행되거나 또는 설명된 실시예들의 범위 및 기술적 사상으로부터 벗어나는 것 없이 일부의 동작이 수행되지 않거나 동작들의 순서가 변경될 수도 있다. 또한, 도 2에 도시된 동작들은 병렬적으로 또는 동시에 수행될 수도 있다. 예를 들어, 단계(210, 220)와 단계(230, 240)는 병렬적으로 수행될 수 있다.The operations shown in FIG. 2 may be performed sequentially as shown, or some operations may not be performed or the order of operations may be changed without departing from the scope and spirit of the described embodiments. Also, the operations shown in FIG. 2 may be performed in parallel or concurrently. For example,
단계(210)에서, 영상 융합 장치는 제1 영상 프레임으로부터 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출한다. 추출될 특징점들은 객체의 타입에 따라 달라질 수 있다. 예를 들어, 객체가 얼굴인 경우, 제1 영상 프레임으로부터 눈의 양 끝점, 눈 가운데, 코 끝점 및 입 양 끝점 등과 같은 얼굴의 랜드마크들(facial landmarks)이 추출될 수 있다. 객체가 사물(thing)인 경우, 제1 영상 프레임으로부터 해당 사물의 형상적인 특징을 나타낼 수 있는 특징점이 추출될 수도 있다. 예를 들어, 객체가 차량의 번호판인 경우, 사각형 번호판의 네 모서리가 특징점으로서 추출될 수 있다.In
단계(220)에서, 영상 융합 장치는 단계(210)에서 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 제1 영상 프레임을 변형한다. 여기서, 기준점들의 위치는 제1 영상 프레임에서 추출된 제1 특징점들의 위치와 관계 없이, 객체의 타입에 따라 미리 고정된 위치를 가질 수 있다. 예를 들어, 객체가 얼굴인 경우, 기준점들의 위치는 눈, 코, 입 등의 얼굴 부위에서 위치가 고정된 기준 위치들일 수 있다.In
영상 융합 장치는 영상 와핑(image warping) 등을 이용하여 제1 특징점들이 기준점들의 위치에 오도록 제1 영상 프레임을 변형할 수 있다. 예를 들어, 영상 융합 장치는 제1 특징점들의 위치 값과 기준점들의 위치 값에 기초하여 제1 특징점들과 기준점들 간의 대응 관계를 나타내는 아핀 변환 행렬(affine transform matrix)을 계산하고, 계산된 아핀 변환 행렬을 제1 영상 프레임의 각 픽셀의 위치 값에 적용하는 것에 의해 제1 영상 프레임을 변형할 수 있다. 다른 예로, 제1 영상 프레임을 변형하는 과정은, 제1 특징점들에 기초하여 제1 영상 프레임에서 제1 객체 영역(예, 얼굴 영역)을 검출하고, 검출된 제1 객체 영역에 포함된 제1 특징점들이 기준점들의 위치에 오도록 제1 객체 영역에 영상 와핑을 수행하는 과정을 포함할 수 있다.The image merging apparatus may deform the first image frame so that the first feature points come to the positions of the reference points by using image warping or the like. For example, the image merging apparatus calculates an affine transform matrix indicating a correspondence between the first feature points and the reference points based on the position values of the first feature points and the position values of the reference points, and the calculated affine transform The first image frame may be transformed by applying the matrix to the position value of each pixel of the first image frame. As another example, the process of transforming the first image frame may include detecting a first object region (eg, face region) in the first image frame based on the first feature points, and detecting a first object region included in the detected first object region. A process of performing image warping on the first object area so that the feature points come to the positions of the reference points may be included.
단계(230)에서, 영상 융합 장치는 단계(210)에서의 방식과 동일 또는 유사한 방식으로, 제2 영상 프레임으로부터 제2 영상 프레임에 나타난 객체의 제2 특징점들(예, 얼굴의 랜드마크들)을 검출한다.In
단계(240)에서, 영상 융합 장치는 단계(220)에서의 방식과 동일 또는 유사한 방식으로, 제2 특징점들과 기준점들에 기초하여 제2 영상 프레임을 변형한다. 예를 들어, 영상 융합 장치는 아핀 변환 행렬을 이용하여 제2 특징점들이 기준점들의 위치에 오도록 제2 영상 프레임을 변형할 수 있다. 다른 예로, 제2 영상 프레임을 변형하는 과정은, 검출된 제2 특징점들에 기초하여 제2 영상 프레임에서 제2 객체 영역을 검출하고, 검출된 제2 객체 영역에 포함된 제2 특징점들이 기준점들의 위치에 오도록 제2 객체 영역에 영상 와핑을 수행하는 과정을 포함할 수 있다. 여기서, 기준점들의 위치는 단계(220)에서 이용된 기준점들의 위치와 동일하다.In
단계(250)에서, 영상 융합 장치는 변형된 제1 영상 프레임과 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 획득한다. 이 과정은, 예를 들어 영상 와핑이 수행된 제1 영상 프레임의 제1 객체 영역과 영상 와핑이 수행된 제2 영상 프레임의 제2 객체 영역을 결합시키는 과정을 포함할 수 있다. 영상 융합 장치는 변형된 제1 영상 프레임의 제1 픽셀 값과 변형된 제2 영상 프레임의 제2 픽셀 값을 결합시키는 것에 의해 결합 영상을 생성할 수 있다. 제1 픽셀 값과 제2 픽셀 값 간의 결합은, 예를 들어 변형된 제1 영상 프레임과 변형된 제2 영상 프레임에서 서로 대응되는 위치의 제1 픽셀 값과 제2 픽셀 값 간의 합, 평균, 가중 합(weighted sum) 또는 가중 평균(weighted average) 등일 수 있으나, 실시예의 범위가 이에 한정되는 것으로 해석되어서는 안 된다.In
다른 실시예에 따르면, 영상 융합에 이용될 영상 프레임의 선택을 위해 영상 프레임들의 영상 품질이 고려될 수 있다. 영상 융합 장치는 입력된 제1 영상 프레임 또는 단계(220)에서 변형된 제1 영상 프레임의 영상 품질을 측정하고, 측정된 영상 품질이 미리 설정된 조건을 만족시키는 경우에, 제1 영상 프레임에서 제1 특징점들을 검출하는 것으로 결정하거나 또는 단계(220)에서 변형된 제1 영상 프레임에 기초하여 결합 영상을 획득하는 것으로 결정할 수 있다. 예를 들어, 영상 융합 장치는 제1 영상 프레임의 밝기를 측정하고, 측정된 밝기가 미리 설정된 임계 값보다 작은 경우에는 제1 영상 프레임에서 제1 특징점들을 검출하는 것으로 결정하거나 또는 단계(220)에서 변형된 제1 영상 프레임에 기초하여 결합 영상을 획득하는 것으로 결정할 수 있다. 제1 영상 프레임의 밝기가 임계 값 이상인 경우, 영상 융합 장치는 해당 제1 영상 프레임은 저조도 환경에서 촬영된 것이 아니라고 간주하고 제1 영상 프레임을 결합 영상을 획득하는데 이용하지 않을 수 있다. 이와 유사하게, 영상 융합 장치는 입력된 제2 영상 프레임 또는 단계(240)에서 변형된 제2 영상 프레임의 영상 품질(예, 밝기 등)을 측정하고, 측정된 영상 품질이 미리 설정된 조건을 만족시키는 경우에, 제2 영상 프레임에서 제2 특징점들을 검출하는 것으로 결정하거나 또는 단계(240)에서 변형된 제2 영상 프레임에 기초하여 결합 영상을 획득하는 것으로 결정할 수 있다. 예를 들어, 제2 영상 프레임의 밝기가 임계 값 이상인 경우, 영상 융합 장치는 해당 제2 영상 프레임을 결합 영상을 획득하는데 이용하지 않을 수 있다.According to another embodiment, image quality of image frames may be considered for selection of image frames to be used for image fusion. The video merging device measures the video quality of the input first video frame or the first video frame transformed in
단계(260)에서, 영상 융합 장치는 결합 영상을 변형할 수 있다. 실시예에 따라, 단계(260)의 과정은 선택적으로 수행될 수 있다. 영상 융합 장치는, 예를 들어 최근에 입력된 영상 프레임인 제2 영상 프레임의 제2 특징점들과 기준점들 간의 대응 관계에 기초하여 결합 영상을 변형할 수 있다. 제2 특징점들의 위치와 기준점들의 위치에 기초하여 아핀 변환 행렬이 결정되었고, 단계(240)에서 해당 아핀 변환 행렬에 의해 제2 영상 프레임이 변형되었다고 가정하면, 영상 융합 장치는 위 아핀 변환 행렬의 역 변환 행렬(inverse transform matrix)을 결합 영상에 적용하는 것에 의해 결합 영상에 나타난 객체의 형태를 원래의 형태로 복원시킬 수 있다. 이후에, 변형된 결합 영상은 목적에 맞게 이용될 수 있다. 예를 들어, 얼굴 인증에서는, 변형된 결합 영상으로부터 얼굴 인증을 위한 특징이 추출될 수 있다.In
일 실시예에 따르면, 제3 영상 프레임이 영상 융합 장치에 입력되는 경우, 영상 융합 장치는 제1 영상 프레임 및 제2 영상 프레임에 관하여 위에서 설명한 것과 동일하게, 제3 영상 프레임으로부터 제3 영상 프레임에 나타난 객체의 제3 특징점들을 검출하고, 검출된 제3 특징점들과 기준점들에 기초하여 제3 영상 프레임을 변형할 수 있다. 결합 영상이 3개의 영상 프레임들에 기초하여 생성되는 것으로 가정하면, 영상 융합 장치는 단계(250)에서 획득된 결합 영상과 위 변형된 제3 영상 프레임을 결합시키는 것에 의해 새로운 결합 영상을 획득할 수 있다. 단계(250)의 결합 영상과 변형된 제3 영상 프레임 간의 결합은, 결합 영상과 제3 영상 프레임에서 서로 대응되는 위치의 픽셀 값들을 합, 평균, 가중 합 또는 가중 평균하는 것에 의해 이루어질 수 있다.According to an embodiment, when the third image frame is input to the image merging device, the image merging device converts the third image frame to the third image frame in the same manner as described above with respect to the first image frame and the second image frame. Third feature points of the displayed object may be detected, and the third image frame may be modified based on the detected third feature points and reference points. Assuming that the combined image is generated based on three image frames, the image merging device may acquire a new combined image by combining the combined image obtained in
위와 같이, 영상 융합 장치는 영상 프레임들의 특징점들이 기준점들의 고정된 위치로 오도록 영상 프레임들을 변형한 후 변형된 영상 프레임들을 융합시킴으로써 모션 블러와 노이즈가 저감되고 객체의 특징이 보다 잘 나타나는 결합 영상을 제공할 수 있다. 이와 같은 결합 영상이 객체의 특징을 정확하게 추출하는 것이 중요한 영상 기반의 인증 시스템에 이용되는 경우, 인식의 정확도는 개선될 수 있다.As described above, the image convergence device transforms the image frames so that the feature points of the image frames come to the fixed positions of the reference points, and then fuses the deformed image frames to provide a combined image in which motion blur and noise are reduced and features of the object are better displayed. can do. When such a combined image is used in an image-based authentication system in which it is important to accurately extract features of an object, recognition accuracy can be improved.
도 3은 일 실시예에 따른 영상 융합 방법의 일례를 설명하기 위한 흐름도이다.3 is a flowchart illustrating an example of an image fusion method according to an exemplary embodiment.
도 3을 참조하면, 단계(310)에서 영상 융합 장치는 n(n은 자연수)번째 영상 프레임을 수신한다. 단계(320)에서 영상 융합 장치는 수신한 영상 프레임의 영상 품질을 측정한다. 예를 들어, 영상 융합 장치는 영상 프레임의 밝기 또는 블러의 정도를 측정할 수 있다. 영상 프레임의 영상 품질은 해당 영상 프레임이 결합 영상을 생성하는데 이용될 필요가 있는지 여부를 결정하는데 이용된다.Referring to FIG. 3 , in
단계(330)에서, 영상 융합 장치는 측정된 영상 품질이 미리 설정된 조건을 만족시키는지 여부를 결정한다. 예를 들어, 영상 융합 장치는 영상 프레임의 밝기가 임계 값보다 작은지 여부를 결정할 수 있다. 영상 품질이 미리 설정된 조건을 만족시키는 경우에는 단계(340)가 수행되고, 영상 품질이 미리 설정된 조건을 만족시키지 않는 경우에는 단계(390)가 수행되어 다음 영상 프레임이 선택된다. 이를 통해 밝은 환경에서 촬영된 영상 프레임이 결합 영상에 이용되는 것을 방지할 수 있고, 영상 융합이 가능한 영상 프레임들이 연속적으로 수신되고 있는지가 판단될 수 있다. 밝은 환경에서 촬영되어 밝기가 객체의 특징을 정의하기에 충분한 영상 프레임에 대해서는 영상 융합이 수행될 필요가 없기 때문이다. 일 실시예에 따르면, 영상 품질이 미리 설정된 조건을 만족시키지 않는 경우가 발생하면, 지금까지의 영상 융합 과정은 종료되고, 다음 영상 프레임이 영상 융합 과정의 첫 번째 영상 프레임으로서 지정되어 영상 융합 과정이 재시작될 수 있다.In
단계(340)에서, 영상 융합 장치는 영상 프레임에서 목적하는 객체의 객체 영역과 특징점들을 검출한다. 단계(350)에서, 영상 융합 장치는 영상 프레임에서 검출된 특징점들의 위치가 대응되는 기준점의 고정된 위치로 오도록 영상 프레임에 대해 영상 변환(예, 영상 와핑)을 수행하여 변형된 영상 프레임을 생성한다. 일 실시예에서, 영상 융합 장치는 검출된 특징점들을 기반으로 영상 프레임에서 영상 변환을 수행할 영역을 추출하고, 추출된 영역에 포함된 특징점들의 위치와 기준점들의 위치 간의 변환 관계를 정의하기 위한 변환 행렬을 결정한 후, 결정된 변환 행렬을 영상 프레임 또는 해당 추출된 영역에 적용하는 것에 의해 변형된 영상 프레임을 생성할 수 있다.In
단계(360)에서, 영상 융합 장치는 영상 융합을 통해 결합 영상을 획득한다. 영상 융합 장치는 이전에 변형되어 저장된 영상 프레임과 현재 변형된 영상 프레임을 영상 융합하여 결합 영상을 획득할 수 있다. 여기서, 영상 융합은 변형된 영상 프레임들 사이에서 대응되는 위치의 픽셀 값 간의 합, 평균, 가중 합 또는 가중 평균 등을 통해 픽셀 값을 융합하는 과정을 포함한다.In
단계(370)에서, 영상 융합 장치는 결합 영상이 이용되는 목적에 따라 결합 영상에 특정한 영상 처리를 수행할 수 있다. 예를 들어, 영상 융합 장치는 결합 영상에 나타난 객체의 형태를 원래의 형태로 복원하기 위하여 결합 영상에 역 영상 와핑(inverse image warping)을 수행할 수 있다. 이 때, 결합 영상에 나타난 객체의 특징점들이 현재 영상 프레임에서 대응되는 특징점들의 위치에 오도록 하기 위한 역 영상 와핑이 수행될 수 있다.In
단계(380)에서, 영상 융합 장치는 다음 영상 프레임이 존재하는지 여부를 판단한다. 다음 영상 프레임이 존재하는 경우, 단계(390)에서 영상 융합 장치는 다음 영상 프레임을 선택하고, 선택된 다음 영상 프레임에 대해 위 단계(320) 내지 단계(380)의 과정을 다시 수행한다.In
도 4는 일 실시예에 따른 영상 융합 방법의 다른 예를 설명하기 위한 흐름도이다.4 is a flowchart illustrating another example of an image fusion method according to an exemplary embodiment.
도 4를 참조하면, 단계(410), 단계(420), 단계(430), 단계(440), 단계(450), 단계(460), 단계(470), 단계(480) 및 단계(490)은, 각각 도 3의 단계(310), 단계(340), 단계(350), 단계(320), 단계(330), 단계(360), 단계(370), 단계(380), 단계(390)에 대응되며, 각 단계의 설명에 도 3과 관련하여 기술된 설명이 적용될 수 있다.4,
다만, 도 4에 도시된 실시예는, 도 3에 도시된 실시예와 다르게 영상 품질을 측정하는 단계(440)와 측정된 영상 품질이 미리 설정된 조건을 만족시키는지 여부를 판단하는 단계(450)가 영상 변환이 수행되는 단계(430) 이후에 수행된다는 점에서 차이가 있다. 또한, 단계(420)에서는 영상 프레임에서 객체 영역이 검출되고, 단계(430)에서는 검출된 객체 영역에 대해 특징점들의 위치가 대응되는 기준점의 위치에 오도록 하는 영상 와핑 등의 영상 변환이 수행될 수 있다. 이후에, 단계(440)에서 영상 변환이 수행된 객체 영역의 영상 품질(예, 밝기 등)이 측정되고, 단계(450)에서 영상 품질이 미리 설정된 조건을 만족시키는지 여부가 판단된다. 관심 영역인 객체 영역의 영상 품질을 고려함으로써, 역광 환경에서 촬영된 영상 프레임과 같이, 전체적으로는 밝으나 객체 영역은 어두울 수 있는 영상 프레임에 대해서도 영상 융합이 적용되는 것이 가능해 진다.However, the embodiment shown in FIG. 4, unlike the embodiment shown in FIG. 3, measures image quality (440) and determines whether the measured image quality satisfies a preset condition (450). There is a difference in that is performed after
도 5는 일 실시예에 따른 영상 융합 방법이 얼굴 인증에 적용된 일례를 설명하기 위한 흐름도이다.5 is a flowchart illustrating an example in which an image fusion method according to an exemplary embodiment is applied to face authentication.
얼굴 인증은 사용자 인증을 위한 인증 방법 중 하나로서, 인증을 시도한 사용자의 얼굴 정보에 기초하여 해당 사용자가 유효한(valid) 사용자인지 여부를 판단하는 인증 방법이다. 본 명세서에서 설명한 영상 융합 방법은, 예를 들어 얼굴 인증 과정에서 저조도 환경에서 촬영된 영상에서 얼굴의 특징을 보다 명확하게 나타내는 영상을 제공하기 위해 이용될 수 있다. 얼굴 인증과 같은 영상 기반의 객체 인식 기술의 경우, 영상에 객체의 특징이 얼마나 잘 나타나 있는지 여부가 인식 정확도에 큰 영향을 미친다. 영상에 나타난 블러(blur)나 노이즈의 정도가 클수록, 해당 영상으로부터 객체의 특징을 정확하게 추출하는 것이 어려워지는 경향이 있다. 영상 융합 장치는 위에서 설명한 특징점 기반의 영상 융합 과정을 통해, 영상의 밝기는 개선하면서 블러 및 노이즈가 줄어든 영상을 생성하는 것을 가능하게 한다.Face authentication is one of authentication methods for user authentication, and is an authentication method for determining whether a corresponding user is a valid user based on face information of a user who has attempted authentication. The image fusion method described in this specification may be used, for example, to provide an image more clearly representing facial features in an image captured in a low-illuminance environment in a face authentication process. In the case of image-based object recognition technology such as face recognition, how well the features of an object are represented in an image has a great influence on recognition accuracy. As the degree of blur or noise in an image increases, it tends to be difficult to accurately extract features of an object from the image. The image convergence apparatus makes it possible to generate an image with reduced blur and noise while improving the brightness of the image through the feature point-based image convergence process described above.
도 5를 참조하면, 단계(505)에서 얼굴 인증 장치는 쿼리 얼굴 영상(query facial image)의 n(n은 자연수)번째 영상 프레임을 수신한다. 쿼리 얼굴 영상은 얼굴 인증의 대상이 되는 영상이다. 단계(510)에서, 얼굴 인증 장치는 영상 프레임에서 얼굴 영역을 검출하고, 검출된 얼굴 영역에서 얼굴의 랜드마크들을 검출한다. 얼굴 영역의 검출을 위해, Haar 기반의 캐스케이드 에이다부스트 분류기(Haar-based cascade adaboost classifier) 또는 Viola-Jones 검출기 등이 이용될 수 있으나, 실시예의 범위가 이에 한정되는 것은 아니다. 실시예에 따라, 영상 프레임에서 얼굴 영역에 대한 영상 크롭핑(image cropping), 영상 스케일링(image scaling) 등과 같은 영상 정규화 과정이 수행될 수도 있다.Referring to FIG. 5 , in
단계(515)에서, 얼굴 인증 장치는 얼굴 영역에 대해 영상 변환을 수행하고, 이에 따라 얼굴 영역의 형태가 변형된다. 예를 들어, 얼굴 인증 장치는 얼굴 영역에서 검출된 랜드마크들의 위치가 미리 정의된 얼굴 영역에서의 기준점들의 위치에 오도록 얼굴 영역에 대해 영상 와핑을 수행할 수 있다.In
얼굴 인증 장치는, 단계(520)에서 변형된 얼굴 영역의 영상 품질을 측정하고, 단계(525)에서 영상 품질이 미리 설정된 조건을 만족시키는지 여부를 판단한다. 예를 들어, 얼굴 인증 장치는 변형된 얼굴 영역의 밝기를 측정하고, 측정된 밝기가 임계 값보다 작은지 여부를 판단할 수 있다.The face authentication device measures the image quality of the deformed face region in
영상 품질이 미리 설정된 조건을 만족시키는 경우, 단계(530)에서 얼굴 인증 장치는 영상 융합을 통해, 이전 영상 프레임에서 변형된 얼굴 영역과 단계(515)에서 변형된 얼굴 영역을 결합하여 결합 영상을 획득할 수 있다. 이 과정은 변형된 얼굴 영역들에서 서로 대응되는 위치의 픽셀 값을 융합하는 과정을 포함한다. 실시예에 따라, 얼굴 인증 장치는 두 개의 영상 프레임들뿐만 아니라 세 개 이상의 영상 프레임들에서 변형된 얼굴 영역들을 결합하는 것에 의해 결합 영상을 획득할 수도 있다.When the image quality satisfies the preset condition, in
단계(535)에서, 얼굴 인증 장치는 단계(530)에서 획득된 결합 영상이 얼굴 인증에 보다 적합한 형태가 되도록 결합 영상에 영상 처리를 수행할 수 있다. 예를 들어, 얼굴 인증 장치는 결합 영상에 대해 역 역상 와핑을 수행하여 얼굴의 형태를 원래의 형태로 복원하는 과정, 결합 영상에 나타난 얼굴의 특징을 보다 선명하게 하기 위한 감마 보정(Gamma correction), 컬러 배리에이션(color variation)을 줄이기 위한 영상 처리 등을 수행할 수 있다.In
이후에, 단계(550)에서 얼굴 인증 장치는 단계(535)의 영상 처리가 수행된 결합 영상으로부터 특징을 추출한다. 얼굴 인증 장치는, 예를 들어 뉴럴 네트워크 기반의 특징 추출기를 이용하여 특징(또는, 특징 벡터)을 추출할 수 있다. 단계(525)에서 현재 영상 프레임에 포함된 얼굴 영역의 영상 품질이 미리 설정된 조건을 만족시키지 않는 것으로 판단된 경우(예, 검출된 얼굴 영역의 밝기가 임계 값 이상인 경우), 얼굴 인증 장치는 단계(530) 및 단계(535)를 수행하는 것 없이, 단계(550)에서 현재 영상 프레임으로부터 특징을 추출한다. 이 경우, 영상 융합 과정은 초기화되어 이전에 저장된 영상 프레임의 영상 변환 결과와 결합 영상은 메모리와 같은 저장소에서 제거될 수 있다.Afterwards, in
단계(555)에서, 얼굴 인증 장치는 단계(550)에서 추출된 특징에 기초하여 얼굴 인증의 성공 여부를 결정한다. 얼굴 인증 장치는 추출된 특징과 미리 등록된 특징 간의 유사도에 기반한 매칭 스코어를 계산하고, 계산한 매칭 스코어가 미리 설정된 조건을 만족시키는 경우(예, 매칭 스코어가 임계 값보다 큰 경우)에 얼굴 인증이 성공한 것으로 결정할 수 있다. 매칭 스코어는, 예를 들어 단계(550)에서 추출된 특징 벡터와 미리 등록된 특징 벡터 간의 유사도 내지 거리에 기초하여 결정될 수 있다.In
단계(560)에서, 얼굴 인증 장치는 얼굴 인증이 성공하였는지 여부를 판단한다. 얼굴 인증이 성공하지 못한 경우(실패한 경우), 단계(540)에서 얼굴 인증 장치는 다음 영상 프레임이 존재하는지 여부를 판단한다. 다음 영상 프레임이 존재하지 않은 경우, 얼굴 인증의 결과는 인증 실패한 것으로 결정된다. 다음 영상 프레임이 존재하는 경우, 단계(545)에서 얼굴 인증 장치는 다음 영상 프레임을 선택하고, 다음 영상 프레임에 대해 위 과정을 다시 반복하여 수행한다.In
위와 같은 과정을 통해, 저조도 환경에서 촬영된 얼굴 영상에 기반하여 얼굴 인증이 수행되더라도 특징점 기반의 영상 융합 과정을 수행하는 것에 의해 저조도 환경에서도 얼굴 인증을 보다 정확하게 수행하는 것이 가능해 진다.Through the above process, even if face authentication is performed based on a face image captured in a low-light environment, it is possible to more accurately perform face authentication even in a low-light environment by performing an image fusion process based on feature points.
도 6은 일 실시예에 따른 영상 융합 방법의 일례를 설명하기 위한 도면이다.6 is a diagram for explaining an example of an image fusion method according to an exemplary embodiment.
도 6을 참조하면, 영상 융합 방법의 일례로서 차량 번호판이 나타난 제1 영상 프레임(612)과 제2 영상 프레임(614)에 대해 영상 융합을 수행하는 일례가 도시되어 있다. 일 실시예에 따르면, 제1 영상 프레임(612)과 제2 영상 프레임(614)은 시간적으로 연속된 영상 프레임들이거나 또는 바로 연속되지는 않지만 시간적으로 인접한 영상 프레임들일 수 있다. 예를 들어, 제1 영상 프레임(612)과 제2 영상 프레임(614)은 각각 n-1(n은 자연수) 번째 영상 프레임 및 n 번째 영상 프레임이거나 또는 n-m(m은 2이상의 자연수) 번째 영상 프레임 및 n 번째 영상 프레임일 수 있다. Referring to FIG. 6 , as an example of an image fusion method, an example of performing image fusion on a
제1 영상 프레임(612)이 입력되면, 제1 영상 프레임(612)의 밝기가 측정된다. 측정된 밝기가 임계 값보다 작아 제1 영상 프레임(612)이 어두운 환경에서 촬영된 것으로 결정된 경우, 영상 융합 장치는 제1 영상 프레임(612)에서 특징점(622)들을 검출한다. 예를 들어, 차량 번호판의 네 모서리가 특징점(622)들로 검출될 수 있다. 검출된 특징점(622)들에 기초하여 제1 영상 프레임에서 차량 번호판의 영역이 검출될 수 있다. 이후에, 영상 융합 장치는 특징점(622)들의 위치가 미리 정의된 기준점들의 위치에 오도록 영상 와핑을 수행하여 변형된 제1 영상 프레임(632)을 생성할 수 있다.When the
제2 영상 프레임(614)에 대해서도 위와 동일한 과정이 수행된다. 제2 영상 프레임(614)이 입력되면, 제2 영상 프레임(614)의 밝기가 측정된다. 측정된 밝기가 임계 값보다 작은 경우, 영상 융합 장치는 제2 영상 프레임(614)에서 특징점(624)들을 검출한다. 검출된 특징점(624)들에 기초하여 제2 영상 프레임(614)에서 차량 번호판의 영역이 검출될 수 있다. 이후에, 영상 융합 장치는 특징점(624)들의 위치가 미리 정의된 기준점들의 위치에 오도록 영상 와핑을 수행하여 변형된 제2 영상 프레임(634)을 생성할 수 있다.The same process as above is performed for the
실시예에 따라, 영상 프레임에 대한 밝기의 측정은 영상 와핑이 수행된 이후에 수행될 수도 있다. 이 경우, 영상 프레임에 대해 측정된 밝기가 미리 설정된 임계 값보다 작아야 해당 영상 프레임에 기초한 영상 융합 과정이 계속적으로 수행될 수 있다. 만약, 측정된 밝기가 임계 값 이상인 경우, 영상 융합 과정이 종료되거나 초기화될 수 있다.Depending on embodiments, measurement of the brightness of an image frame may be performed after image warping is performed. In this case, the image fusion process based on the corresponding image frame may be continuously performed only when the brightness measured for the image frame is smaller than a preset threshold value. If the measured brightness is greater than or equal to the threshold value, the image fusion process may be terminated or initialized.
영상 융합 장치는 변형된 제1 영상 프레임(632)과 변형된 제2 영상 프레임(634)을 결합시키는 것에 의해 결합 영상(640)을 생성할 수 있다. 예를 들어, 영상 융합 장치는 변형된 제1 영상 프레임(632)의 픽셀 값과 변형된 제2 영상 프레임(634)의 픽셀 값을 융합하는 것에 의해 결합 영상(640)을 생성할 수 있다. 이후에, 영상 융합 장치는 결합 영상(640)에 나타난 차량 번호판의 형태를 영상 프레임에 나타난 원래의 형태로 복원하여 형태가 복원된 결합 영상(650)을 생성할 수 있다. 예를 들어, 영상 융합 장치는 위 영상 와핑에서 이용된 변환 행렬의 역 변환 행렬을 결합 영상(640)에 적용하는 것에 의해 차량 번호판의 형태를 복원할 수 있다.The image fusing device may generate a combined
도 7은 일 실시예에 따른 영상 융합 방법의 다른 예를 설명하기 위한 도면이다.7 is a diagram for explaining another example of an image fusion method according to an exemplary embodiment.
도 7을 참조하면, 영상 융합 방법의 다른 예로서 얼굴 영역이 나타난 제1 영상 프레임(712)과 제2 영상 프레임(714)에 대해 영상 융합을 수행하는 일례가 도시되어 있다. 일 실시예에 따르면, 제1 영상 프레임(712)과 제2 영상 프레임(714)은 시간적으로 연속된 영상 프레임들이거나 또는 바로 연속되지는 않지만 시간적으로 인접한 영상 프레임들일 수 있다. 예를 들어, 제1 영상 프레임(712)과 제2 영상 프레임(714)은 각각 n-1(n은 자연수) 번째 영상 프레임 및 n 번째 영상 프레임이거나 또는 n-m(m은 2 이상의 자연수) 번째 영상 프레임 및 n 번째 영상 프레임일 수 있다.Referring to FIG. 7 , as another example of the image fusion method, an example of performing image fusion on a
제1 영상 프레임(712)이 입력되면, 제1 영상 프레임(712)의 밝기가 측정된다. 측정된 밝기가 임계 값보다 작은 경우, 영상 융합 장치는 제1 영상 프레임(712)에서 특징점으로서 얼굴의 랜드마크(722)들을 검출한다. 예를 들어, 눈썹, 눈, 코, 입 등과 같은 주요 얼굴 부위들의 특징점들이 검출될 수 있다. 검출된 랜드마크(722)들에 기초하여 제1 영상 프레임(712)에서 얼굴 영역(732)이 검출될 수 있다. 검출된 얼굴 영역(732)은 영상 크롭핑을 통해 얼굴 영역(732)에 대응되는 얼굴 영상(742)으로서 추출될 수 있다. 이후에, 영상 융합 장치는 얼굴 영상(742)에 나타난 특징점들이 위치가 미리 정의된 기준점(750)들의 위치에 오도록 얼굴 영상(742)에 영상 와핑을 수행하여 변형된 얼굴 영상(762)을 생성할 수 있다. 예를 들어, 얼굴 영상(742)에 나타난 눈썹, 코, 입의 특징점의 위치가 각각 눈썹, 코, 입에 대응되는 기준점(750)의 위치에 오도록 영상 와핑이 수행된다.When the
제2 영상 프레임(714)에 대해서도 위와 동일한 과정이 수행된다. 제2 영상 프레임(714)이 입력되면, 제2 영상 프레임(714)의 밝기가 측정된다. 측정된 밝기가 임계 값보다 작은 경우, 영상 융합 장치는 제2 영상 프레임(714)에서 얼굴의 랜드마크(724)들을 검출한다. 검출된 랜드마크들(724)들에 기초하여 제2 영상 프레임(714)에서 얼굴 영역(734)이 검출될 수 있다. 검출된 얼굴 영역(734)은 영상 크롭핑을 통해 얼굴 영역(734)에 대응되는 얼굴 영상(744)으로서 추출될 수 있다. 이후에, 영상 융합 장치는 얼굴 영상(744)에 나타난 특징점들이 위치가 미리 정의된 기준점(750)들의 위치에 오도록 얼굴 영상(744)에 영상 와핑을 수행하여 변형된 얼굴 영상(764)을 생성할 수 있다. The same process as above is performed for the
실시예에 따라, 영상 프레임에 대한 밝기의 측정은 영상 와핑이 수행된 이후에 수행될 수도 있다. 이 경우, 영상 프레임에 대해 측정된 밝기가 미리 설정된 임계 값보다 작아야 해당 영상 프레임에 기초한 영상 융합 과정이 계속적으로 수행될 수 있다. 만약, 측정된 밝기가 임계 값 이상인 경우, 영상 융합 과정이 종료되거나 초기화될 수 있다.Depending on embodiments, measurement of the brightness of an image frame may be performed after image warping is performed. In this case, the image fusion process based on the corresponding image frame may be continuously performed only when the brightness measured for the image frame is smaller than a preset threshold value. If the measured brightness is equal to or greater than the threshold value, the image fusion process may be terminated or initialized.
영상 융합 장치는 변형된 얼굴 영상(762)과 변형된 얼굴 영상(764)을 결합시키는 것에 의해 결합 영상(770)을 생성할 수 있다. 예를 들어, 영상 융합 장치는 변형된 얼굴 영상(762)의 픽셀 값과 변형된 얼굴 영상(764)의 픽셀 값을 합, 평균, 가중 합 또는 가중 평균하는 것에 의해 결합 영상(770)을 생성할 수 있다. 이후에, 영상 융합 장치는 결합 영상(770)에 나타난 얼굴의 형태를 영상 프레임에 나타난 원래의 형태로 복원하여 형태가 복원된 결합 영상(775)을 생성할 수 있다. 이렇게 복원된 결합 영상(775)은 제2 영상 프레임(714)에 적용될 수 있다. 이러한 과정을 통해 얼굴 영역에서 밝기가 개선되고, 모션 블러와 노이즈가 저감된 결과 영상이 획득될 수 있다. 따라서, 해당 결과 영상을 이용하여 얼굴 인증이 수행되는 경우, 얼굴의 특징이 보다 정확하게 추출되어 얼굴 인증의 정확도가 개선될 수 있다.The image fusion device may generate a combined
도 6 및 도 7의 실시예들에서는 두 개의 영상 프레임들에 기반하여 영상 융합이 수행되는 것을 설명하였으나, 실시예의 범위가 이에 한정되는 것은 아니고, 세 개 이상의 영상 프레임들에 대해 영상 융합이 수행되는 것도 가능하다.In the embodiments of FIGS. 6 and 7 , it has been described that image fusion is performed based on two image frames, but the scope of the embodiment is not limited thereto, and image fusion is performed on three or more image frames. It is also possible.
도 8은 일 실시예에 따른 영상 융합 장치의 구성을 도시하는 도면이다.8 is a diagram illustrating a configuration of a video merging device according to an exemplary embodiment.
도 8을 참조하면, 영상 융합 장치(800)는 일련의 영상 프레임들을 수신한다. 영상 융합 장치(800)는 영상 프레임들에서 객체의 특징점들을 검출하고, 검출된 특징점들에 기초하여 영상 프레임들 간의 영상 융합을 수행할 수 있다. 이 때, 영상 융합 장치(800)는 밝기와 같은 영상 프레임들의 영상 품질을 고려하여 영상 융합을 수행할지 여부를 결정할 수 있다. 영상 융합 장치(800)는 영상 융합 방법과 관련하여 본 명세서에 기술되거나 또는 도시된 하나 이상의 동작을 수행할 수 있고, 얼굴 인증의 결과를 사용자에게 제공할 수 있다. Referring to FIG. 8 , the
영상 융합 장치(800)는 하나 이상의 프로세서(810) 및 메모리(820)를 포함할 수 있다. 프로세서(810)는 도 1 내지 도 4, 도 6 및 도 7을 참조하여 설명된 하나 이상의 동작을 실행하기 위한 인스트럭션들을 실행할 수 있다. 예를 들어, 프로세서(810)는 제1 영상 프레임으로부터 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하고, 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 제1 영상 프레임을 변형할 수 있다. 예를 들어, 프로세서(810)는 제1 특징점들이 기준점들의 위치에 오도록 영상 와핑을 수행하여 제1 영상 프레임을 변형할 수 있다. 다른 예로, 프로세서(810)는 검출된 제1 특징점들에 기초하여 제1 영상 프레임에서 제1 객체 영역을 검출하고, 검출된 제1 객체 영역에 포함된 제1 특징점들과 기준점들에 기초하여 제1 객체 영역에 영상 와핑을 수행할 수도 있다.The
또한, 프로세서(810)는 제2 영상 프레임으로부터 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하고, 검출된 제2 특징점들과 기준점들에 기초하여 상기 제2 영상 프레임을 변형할 수 있다. 예를 들어, 프로세서(810)는 제2 특징점들이 기준점들의 위치에 오도록 영상 와핑을 수행하여 제2 영상 프레임을 변형할 수 있다. 다른 예로, 프로세서(810)는 검출된 제2 특징점들에 기초하여 제2 영상 프레임에서 제2 객체 영역을 검출하고, 검출된 제2 객체 영역에 포함된 제2 특징점들과 기준점들에 기초하여 제2 객체 영역에 영상 와핑을 수행할 수도 있다.Also, the
프로세서(810)는 위와 같이 변형된 제1 영상 프레임과 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 생성할 수 있다. 프로세서(810)는 변형된 제1 영상 프레임의 각 픽셀들의 픽셀 값과 변형된 제2 영상 프레임의 각 픽셀들의 픽셀 값을 결합(예, 합, 평균, 가중 합 또는 가중 평균 등)시키는 것에 의해 결합 영상을 생성할 수 있다. 프로세서(810)는 제2 영상 프레임의 제2 특징점들과 기준점들 간의 대응 관계에 기초하여 결합 영상을 변형할 수 있다. 이는 영상 융합 과정에서 변형된 객체의 형태를 제2 영상 프레임에 나타난 특징점들의 위치에 기초하여 원래의 형태로 복원하는 과정을 포함한다.The
메모리(820)는 프로세서(810)에 연결되고, 프로세서(810)에 의해 실행가능한 인스트럭션들 및 프로세서(810)가 연산할 데이터 또는 프로세서(810)에 의해 처리된 데이터를 저장할 수 있다. 메모리(820)는 비일시적인 컴퓨터 판독가능 매체, 예컨대 고속 랜덤 액세스 메모리 및/또는 비휘발성 컴퓨터 판독가능 저장 매체를 포함할 수 있다.The
도 9는 일 실시예에 따른 컴퓨팅 장치의 구성을 도시하는 도면이다.9 is a diagram illustrating a configuration of a computing device according to an exemplary embodiment.
도 9를 참조하면, 컴퓨팅 장치(900)는 위에서 설명한 영상 융합 방법을 이용하여 응용 영역을 수행하는 장치이다. 일 실시예에서, 컴퓨팅 장치(900)는 도 5에서 설명된 얼굴 인증 장치에 대응할 수 있다. 컴퓨팅 장치(120)는, 예를 들어 영상 처리 장치, 스마트폰, 웨어러블 기기(wearable device), 태블릿 컴퓨터, 넷북, 랩탑, 데스크탑, PDA(personal digital assistant), 셋탑 박스, 가전 기기, 생체 도어락, 보안 장치 또는 차량 시동 장치일 수 있다. 컴퓨팅 장치(900)는 도 8의 영상 융합 장치(800)의 기능을 그대로 포함할 수 있다.Referring to FIG. 9 , a
도 9를 참조하면, 컴퓨팅 장치(900)는 프로세서(910), 저장 장치(920), 카메라(930), 입력 장치(940), 출력 장치(950) 및 네트워크 인터페이스(960)를 포함할 수 있다. 프로세서(910), 저장 장치(920), 카메라(930), 입력 장치(940), 출력 장치(950) 및 네트워크 인터페이스(960)는 통신 버스(970)를 통해 서로 통신할 수 있다.Referring to FIG. 9 , a
프로세서(910)는 컴퓨팅 장치(900) 내에서 실행하기 위한 기능 및 인스트럭션들을 실행한다. 예를 들어, 프로세서(910)는 저장 장치(940)에 저장된 인스트럭션들을 처리할 수 있다. 프로세서(910)는 도 1 내지 도 8을 통하여 전술한 하나 이상의 동작을 수행할 수 있다.
저장 장치(920)는 프로세서의 실행에 필요한 정보 내지 데이터를 저장한다. 저장 장치(920)는 컴퓨터 판독가능한 저장 매체 또는 컴퓨터 판독가능한 저장 장치를 포함할 수 있다. 저장 장치(920)는 프로세서(910)에 의해 실행하기 위한 인스트럭션들을 저장할 수 있고, 컴퓨팅 장치(900)에 의해 소프트웨어 또는 애플리케이션이 실행되는 동안 관련 정보를 저장할 수 있다. The
카메라(930)는 복수의 영상 프레임들로 구성되는 영상을 캡쳐할 수 있다. 예를 들어, 카메라(930)는 얼굴 인증을 시도하는 사용자를 캡쳐하여 복수의 영상 프레임들로 구성되는 쿼리 얼굴 영상을 획득할 수 있다. The
입력 장치(940)는 촉각, 비디오, 오디오 또는 터치 입력을 통해 사용자로부터 입력을 수신할 수 있다. 예를 들어, 입력 장치(940)는 키보드, 마우스, 터치 스크린, 마이크로폰, 또는 사용자로부터 입력을 검출하고, 검출된 입력을 컴퓨팅 장치(900)에 전달할 수 있는 임의의 다른 장치를 포함할 수 있다.The
출력 장치(950)는 시각적, 청각적 또는 촉각적인 채널을 통해 사용자에게 컴퓨팅 장치(900)의 출력을 제공할 수 있다. 출력 장치(950)는 예를 들어, 디스플레이, 터치 스크린, 스피커, 진동 발생 장치 또는 사용자에게 출력을 제공할 수 있는 임의의 다른 장치를 포함할 수 있다. 네트워크 인터페이스(960)는 유선 또는 무선 네트워크를 통해 외부 장치와 통신할 수 있다.The
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. Computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on a computer readable medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.
Claims (20)
제1 영상 프레임으로부터 상기 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하는 단계;
상기 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 상기 제1 영상 프레임을 변형(transform)하는 단계;
제2 영상 프레임으로부터 상기 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하는 단계;
상기 검출된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 영상 프레임을 변형하는 단계; 및
상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 획득하는 단계
를 포함하고,
상기 영상 융합 방법은,
상기 제1 영상 프레임 또는 상기 변형된 제1 영상 프레임의 영상 품질을 측정하는 단계; 및
상기 측정된 영상 품질이 미리 설정된 조건을 만족시키는 경우에, 상기 제1 영상 프레임에서 상기 제1 특징점들을 검출하는 것으로 결정하거나 또는 상기 변형된 제1 영상 프레임에 기초하여 상기 결합 영상을 획득하는 것으로 결정하는 단계
를 더 포함하는
영상 융합 방법.
In the image fusion method,
detecting first feature points of an object appearing in the first image frame from a first image frame;
transforming the first image frame based on the detected first feature points and predefined reference points;
detecting second feature points of an object appearing in the second image frame from a second image frame;
transforming the second image frame based on the detected second feature points and the reference points; and
Obtaining a combined image by combining the transformed first image frame and the transformed second image frame
including,
The image fusion method,
measuring an image quality of the first image frame or the transformed first image frame; and
When the measured image quality satisfies a preset condition, it is determined to detect the first feature points in the first image frame or to obtain the combined image based on the modified first image frame. step to do
more containing
Video fusion method.
상기 제1 영상 프레임을 변형하는 단계는,
상기 제1 특징점들이 상기 기준점들의 위치에 오도록 상기 제1 영상 프레임을 변형하고,
상기 제2 영상 프레임을 변형하는 단계는,
상기 제2 특징점들이 상기 기준점들의 위치에 오도록 상기 제2 영상 프레임을 변형하는, 영상 융합 방법.
According to claim 1,
Transforming the first image frame,
Transforming the first image frame so that the first feature points come to the positions of the reference points;
Transforming the second image frame,
The image fusion method of transforming the second image frame so that the second feature points come to the locations of the reference points.
제1 영상 프레임으로부터 상기 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하는 단계;
상기 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 상기 제1 영상 프레임을 변형(transform)하는 단계;
제2 영상 프레임으로부터 상기 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하는 단계;
상기 검출된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 영상 프레임을 변형하는 단계; 및
상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 획득하는 단계
를 포함하고,
상기 제1 영상 프레임을 변형하는 단계는,
상기 검출된 제1 특징점들에 기초하여 상기 제1 영상 프레임에서 제1 객체 영역을 검출하는 단계; 및
상기 검출된 제1 객체 영역에 포함된 제1 특징점들과 상기 기준점들에 기초하여 상기 제1 객체 영역에 영상 와핑(image warping)을 수행하는 단계를 포함하고,
상기 제2 영상 프레임을 변형하는 단계는,
상기 검출된 제2 특징점들에 기초하여 상기 제2 영상 프레임에서 제2 객체 영역을 검출하는 단계; 및
상기 검출된 제2 객체 영역에 포함된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 객체 영역에 영상 와핑을 수행하는 단계
를 포함하는 영상 융합 방법.
In the image fusion method,
detecting first feature points of an object appearing in the first image frame from a first image frame;
transforming the first image frame based on the detected first feature points and predefined reference points;
detecting second feature points of an object appearing in the second image frame from a second image frame;
transforming the second image frame based on the detected second feature points and the reference points; and
Obtaining a combined image by combining the transformed first image frame and the transformed second image frame
including,
Transforming the first image frame,
detecting a first object region in the first image frame based on the detected first feature points; and
Performing image warping on the first object area based on first feature points included in the detected first object area and the reference points;
Transforming the second image frame,
detecting a second object area in the second image frame based on the detected second feature points; and
performing image warping on the second object area based on second feature points included in the detected second object area and the reference points;
Image fusion method comprising a.
상기 결합 영상을 획득하는 단계는,
상기 영상 와핑이 수행된 제1 객체 영역과 상기 영상 와핑이 수행된 제2 객체 영역을 결합시키는 단계
를 포함하는 영상 융합 방법.
According to claim 3,
Acquiring the combined image,
Combining the first object region where the image warping is performed and the second object region where the image warping is performed
Image fusion method comprising a.
상기 결합 영상을 획득하는 단계는,
상기 변형된 제1 영상 프레임의 제1 픽셀 값과 상기 변형된 제2 영상 프레임의 제2 픽셀 값을 결합시키는 것에 의해 상기 결합 영상을 생성하는 단계
를 포함하는 영상 융합 방법.
According to claim 1,
Acquiring the combined image,
generating the combined image by combining a first pixel value of the transformed first image frame and a second pixel value of the transformed second image frame;
Image fusion method comprising a.
상기 제1 픽셀 값과 상기 제2 픽셀 값 간의 결합은,
상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임에서, 서로 대응되는 위치의 제1 픽셀 값과 제2 픽셀 값 간의 합, 평균, 가중 합(weighted sum) 또는 가중 평균(weighted average) 중 어느 하나인, 영상 융합 방법.
According to claim 5,
The combination between the first pixel value and the second pixel value is
Among the sum, average, weighted sum, or weighted average of first pixel values and second pixel values at corresponding positions in the transformed first image frame and the transformed second image frame Any one, video fusion method.
상기 영상 품질을 측정하는 단계는,
상기 제1 영상 프레임의 밝기를 측정하는 단계를 포함하고,
상기 결정하는 단계는,
상기 제1 영상 프레임의 밝기가 미리 설정된 임계 값보다 작은 경우, 상기 제1 영상 프레임에서 상기 제1 특징점들을 검출하는 것으로 결정하거나 또는 상기 변형된 제1 영상 프레임에 기초하여 상기 결합 영상을 획득하는 것으로 결정하는, 영상 융합 방법.
According to claim 1,
The step of measuring the image quality,
Measuring the brightness of the first image frame;
The determining step is
When the brightness of the first image frame is less than a preset threshold, determining to detect the first feature points in the first image frame or acquiring the combined image based on the modified first image frame To determine, the video fusion method.
제1 영상 프레임으로부터 상기 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하는 단계;
상기 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 상기 제1 영상 프레임을 변형(transform)하는 단계;
제2 영상 프레임으로부터 상기 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하는 단계;
상기 검출된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 영상 프레임을 변형하는 단계; 및
상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 획득하는 단계
를 포함하고,
상기 영상 융합 방법은,
상기 제2 영상 프레임 또는 상기 변형된 제2 영상 프레임의 영상 품질을 측정하는 단계; 및
상기 측정된 영상 품질이 미리 설정된 조건을 만족시키는 경우에, 상기 제2 영상 프레임에서 상기 제2 특징점들을 검출하는 것으로 결정하거나 또는 상기 변형된 제2 영상 프레임에 기초하여 상기 결합 영상을 획득하는 것으로 결정하는 단계
를 더 포함하는 영상 융합 방법.
In the image fusion method,
detecting first feature points of an object appearing in the first image frame from a first image frame;
transforming the first image frame based on the detected first feature points and predefined reference points;
detecting second feature points of an object appearing in the second image frame from a second image frame;
transforming the second image frame based on the detected second feature points and the reference points; and
Obtaining a combined image by combining the transformed first image frame and the transformed second image frame
including,
The image fusion method,
measuring an image quality of the second image frame or the modified second image frame; and
When the measured image quality satisfies a preset condition, it is determined to detect the second feature points in the second image frame or to obtain the combined image based on the modified second image frame. step to do
Image fusion method further comprising a.
상기 영상 융합 방법은,
제3 영상 프레임으로부터 상기 제3 영상 프레임에 나타난 객체의 제3 특징점들을 검출하는 단계;
상기 검출된 제3 특징점들과 상기 기준점들에 기초하여 상기 제3 영상 프레임을 변형하는 단계; 및
상기 획득된 결합 영상과 상기 변형된 제3 영상 프레임을 결합시키는 단계
를 더 포함하는 영상 융합 방법.
According to claim 1,
The image fusion method,
detecting, from a third image frame, third feature points of an object appearing in the third image frame;
transforming the third image frame based on the detected third feature points and the reference points; and
Combining the obtained combined image and the modified third image frame
Image fusion method further comprising a.
상기 제1 특징점들을 검출하는 단계는,
상기 제1 영상 프레임에서 얼굴의 랜드마크들을 검출하고,
상기 제2 특징점들을 검출하는 단계는,
상기 제2 영상 프레임에서 얼굴의 랜드마크들을 검출하는, 영상 융합 방법.
According to claim 1,
The step of detecting the first feature points,
Detect facial landmarks in the first image frame;
The step of detecting the second feature points,
The image fusion method of detecting facial landmarks in the second image frame.
상기 영상 융합 방법은,
상기 제2 특징점들과 상기 기준점들 간의 대응 관계에 기초하여 상기 결합 영상을 변형하는 단계
를 더 포함하는 영상 융합 방법.
According to claim 1,
The image fusion method,
Transforming the combined image based on the correspondence between the second feature points and the reference points
Image fusion method further comprising a.
상기 변형된 결합 영상으로부터 얼굴 인증을 위한 특징이 추출되는, 영상 융합 방법.
According to claim 12,
An image fusion method in which a feature for face authentication is extracted from the deformed combined image.
A computer-readable storage medium storing instructions for executing the method of any one of claims 1 to 6 and 8 to 13.
상기 프로세서는,
제1 영상 프레임으로부터 상기 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하고,
상기 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 상기 제1 영상 프레임을 변형하고,
제2 영상 프레임으로부터 상기 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하고,
상기 검출된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 영상 프레임을 변형하고,
상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 생성하고
상기 프로세서는,
상기 제1 영상 프레임 또는 상기 변형된 제1 영상 프레임의 영상 품질을 측정하고, 상기 측정된 영상 품질이 미리 설정된 조건을 만족시키는 경우에, 상기 제1 영상 프레임에서 상기 제1 특징점들을 검출하는 것으로 결정하거나 또는 상기 변형된 제1 영상 프레임에 기초하여 상기 결합 영상을 획득하는 것으로 결정하는,
영상 융합 장치.
An image fusion device including a processor,
the processor,
Detecting first feature points of an object appearing in the first image frame from a first image frame;
Modifying the first image frame based on the detected first feature points and predefined reference points;
Detecting second feature points of an object appearing in the second image frame from a second image frame;
Modifying the second image frame based on the detected second feature points and the reference points;
generating a combined image by combining the deformed first image frame and the deformed second image frame;
the processor,
The image quality of the first image frame or the modified first image frame is measured, and when the measured image quality satisfies a preset condition, it is determined to detect the first feature points in the first image frame. or determining to obtain the combined image based on the transformed first image frame;
video convergence device.
상기 프로세서는,
상기 제1 특징점들이 상기 기준점들의 위치에 오도록 상기 제1 영상 프레임을 변형하는 것에 의해 상기 변형된 제1 영상 프레임을 생성하고,
상기 제2 특징점들이 상기 기준점들의 위치에 오도록 상기 제2 영상 프레임을 변형하는 것에 의해 상기 변형된 제2 영상 프레임을 생성하는, 영상 융합 장치.
According to claim 15,
the processor,
generating the transformed first image frame by transforming the first image frame so that the first feature points come to positions of the reference points;
The video merging device of claim 1 , wherein the deformed second image frame is generated by transforming the second image frame so that the second feature points come to positions of the reference points.
상기 프로세서는,
제1 영상 프레임으로부터 상기 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하고,
상기 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 상기 제1 영상 프레임을 변형하고,
제2 영상 프레임으로부터 상기 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하고,
상기 검출된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 영상 프레임을 변형하고,
상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 생성하고
상기 프로세서는,
상기 검출된 제1 특징점들에 기초하여 상기 제1 영상 프레임에서 제1 객체 영역을 검출하고, 상기 검출된 제1 객체 영역에 포함된 제1 특징점들과 상기 기준점들에 기초하여 상기 제1 객체 영역에 영상 와핑을 수행하고,
상기 검출된 제2 특징점들에 기초하여 상기 제2 영상 프레임에서 제2 객체 영역을 검출하고, 상기 검출된 제2 객체 영역에 포함된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 객체 영역에 영상 와핑을 수행하는, 영상 융합 장치.
An image fusion device including a processor,
the processor,
Detecting first feature points of an object appearing in the first image frame from a first image frame;
Modifying the first image frame based on the detected first feature points and predefined reference points;
Detecting second feature points of an object appearing in the second image frame from a second image frame;
Modifying the second image frame based on the detected second feature points and the reference points;
generating a combined image by combining the deformed first image frame and the deformed second image frame;
the processor,
A first object region is detected in the first image frame based on the detected first feature points, and the first object region is detected based on the first feature points included in the detected first object region and the reference points. Perform image warping on
A second object area is detected in the second image frame based on the detected second feature points, and the second object area is detected based on the second feature points included in the detected second object area and the reference points. An image fusion device that performs image warping on
상기 프로세서는,
제1 영상 프레임으로부터 상기 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하고,
상기 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 상기 제1 영상 프레임을 변형하고,
제2 영상 프레임으로부터 상기 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하고,
상기 검출된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 영상 프레임을 변형하고,
상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 생성하고
상기 프로세서는,
상기 변형된 제1 영상 프레임의 제1 픽셀 값과 상기 변형된 제2 영상 프레임의 제2 픽셀 값을 결합시키는 것에 의해 상기 결합 영상을 생성하는, 영상 융합 장치.
An image fusion device including a processor,
the processor,
Detecting first feature points of an object appearing in the first image frame from a first image frame;
Modifying the first image frame based on the detected first feature points and predefined reference points;
Detecting second feature points of an object appearing in the second image frame from a second image frame;
Modifying the second image frame based on the detected second feature points and the reference points;
generating a combined image by combining the deformed first image frame and the deformed second image frame;
the processor,
The image merging device of claim 1 , wherein the combined image is generated by combining a first pixel value of the transformed first image frame and a second pixel value of the transformed second image frame.
상기 제1 픽셀 값과 상기 제2 픽셀 값 간의 결합은,
상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임에서, 서로 대응되는 위치의 제1 픽셀 값과 제2 픽셀 값 간의 합, 평균, 가중 합 또는 가중 평균 중 어느 하나인, 영상 융합 장치.
According to claim 18,
The combination between the first pixel value and the second pixel value is
The image merging device of claim 1 , wherein the deformed first image frame and the deformed second image frame are any one of a sum, an average, a weighted sum, or a weighted average between first pixel values and second pixel values at corresponding positions.
상기 프로세서는,
상기 제2 특징점들과 상기 기준점들 간의 대응 관계에 기초하여 상기 결합 영상을 변형하는, 영상 융합 장치According to claim 15,
the processor,
An image fusion device that transforms the combined image based on the correspondence between the second feature points and the reference points
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180016451A KR102466998B1 (en) | 2018-02-09 | 2018-02-09 | Method and apparatus for image fusion |
CN201811351115.XA CN110136224A (en) | 2018-02-09 | 2018-11-14 | Image interfusion method and equipment |
US16/223,382 US11449971B2 (en) | 2018-02-09 | 2018-12-18 | Method and apparatus with image fusion |
EP19152305.9A EP3525165B1 (en) | 2018-02-09 | 2019-01-17 | Method and apparatus with image fusion |
US17/947,366 US20230015107A1 (en) | 2018-02-09 | 2022-09-19 | Method and apparatus with image fusion |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180016451A KR102466998B1 (en) | 2018-02-09 | 2018-02-09 | Method and apparatus for image fusion |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190096703A KR20190096703A (en) | 2019-08-20 |
KR102466998B1 true KR102466998B1 (en) | 2022-11-14 |
Family
ID=65036679
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180016451A KR102466998B1 (en) | 2018-02-09 | 2018-02-09 | Method and apparatus for image fusion |
Country Status (4)
Country | Link |
---|---|
US (2) | US11449971B2 (en) |
EP (1) | EP3525165B1 (en) |
KR (1) | KR102466998B1 (en) |
CN (1) | CN110136224A (en) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017212339A1 (en) * | 2017-07-19 | 2019-01-24 | Robert Bosch Gmbh | Method and device for evaluating image sections for correspondence formation |
KR102466998B1 (en) * | 2018-02-09 | 2022-11-14 | 삼성전자주식회사 | Method and apparatus for image fusion |
US11495041B2 (en) * | 2019-03-29 | 2022-11-08 | Jumio Corporation | Biometric identification using composite hand images |
CN114245987B (en) * | 2019-08-07 | 2025-01-07 | 谷歌有限责任公司 | A method, system and medium for rendering interpolated faces from a set of video frames |
KR102391087B1 (en) * | 2019-09-30 | 2022-04-27 | 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 | Image processing methods, devices and electronic devices |
CN110728620A (en) * | 2019-09-30 | 2020-01-24 | 北京市商汤科技开发有限公司 | Image processing method and device and electronic equipment |
CN112785533B (en) * | 2019-11-07 | 2023-06-16 | RealMe重庆移动通信有限公司 | Image fusion method, image fusion device, electronic equipment and storage medium |
JP2021114111A (en) * | 2020-01-17 | 2021-08-05 | Necソリューションイノベータ株式会社 | Imaging support device, imaging support method, and program |
US11790521B2 (en) * | 2020-04-10 | 2023-10-17 | Hughes Network Systems, Llc | System and method to use machine learning to ensure proper installation and/or repair by technicians |
EP3961498A4 (en) * | 2020-06-29 | 2023-05-24 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Dangerous driving behavior recognition method and apparatus, and electronic device and storage medium |
CN111882583B (en) * | 2020-07-29 | 2023-11-14 | 成都英飞睿技术有限公司 | Moving object detection method, device, equipment and medium |
CN111863539B (en) * | 2020-08-05 | 2022-04-12 | 沈阳铁路信号有限责任公司 | Contact surface component superposition and fusion method of electromagnetic relay |
US11334961B2 (en) * | 2020-08-06 | 2022-05-17 | Apple Inc. | Multi-scale warping circuit for image fusion architecture |
US20220076377A1 (en) * | 2020-09-04 | 2022-03-10 | Faceful Prints LLC | System and Method of Stitching Partial Facial Images for Custom Printed Facemasks |
KR20220111526A (en) * | 2021-02-02 | 2022-08-09 | 자이메드 주식회사 | Apparatus and method for identifying real-time biometric image |
KR20220126546A (en) * | 2021-03-09 | 2022-09-16 | 삼성전자주식회사 | Electronic device and face recognition method thereof |
CN113269054B (en) * | 2021-04-30 | 2022-06-10 | 重庆邮电大学 | Aerial video analysis method based on space-time 2D convolutional neural network |
CN114187695B (en) * | 2021-12-08 | 2023-12-08 | 上海世茂物联网科技有限公司 | Barrier gate control method, device, system, equipment and medium for garage |
CN114972009A (en) * | 2022-03-28 | 2022-08-30 | 北京达佳互联信息技术有限公司 | Image processing method and device, electronic equipment and storage medium |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7142723B2 (en) * | 2003-07-18 | 2006-11-28 | Microsoft Corporation | System and process for generating high dynamic range images from multiple exposures of a moving scene |
KR100858087B1 (en) | 2007-02-14 | 2008-09-10 | 삼성전자주식회사 | Object Pose Normalization Method and Apparatus and Object Recognition Method |
JP4629740B2 (en) | 2008-01-16 | 2011-02-09 | 富士フイルム株式会社 | Imaging apparatus and method, and program |
JP4483963B2 (en) * | 2008-03-25 | 2010-06-16 | ソニー株式会社 | Imaging apparatus and imaging method |
JP2010244251A (en) | 2009-04-03 | 2010-10-28 | Seiko Epson Corp | Image processor for detecting coordinate position for characteristic site of face |
KR101089287B1 (en) | 2010-06-09 | 2011-12-05 | 한국과학기술원 | Automatic face recognition apparatus and method based on multiple face information fusion |
CN103295211B (en) * | 2012-03-01 | 2016-01-27 | 汉王科技股份有限公司 | Infant image composition method and device |
RU2014140480A (en) * | 2012-03-08 | 2016-04-27 | Конинклейке Филипс Н.В. | INTELLECTUAL CHOICE OF GUIDELINES FOR INCREASING THE ACCURACY OF THE COMBINATION WHEN MERGING IMAGES RECEIVED BY VARIOUS DEVICES |
TWI501131B (en) * | 2013-02-04 | 2015-09-21 | Pixart Imaging Inc | Optical processing apparatus, light source luminance adjustment method, and computer program product thereof |
US10120879B2 (en) * | 2013-11-29 | 2018-11-06 | Canon Kabushiki Kaisha | Scalable attribute-driven image retrieval and re-ranking |
GB2536430B (en) * | 2015-03-13 | 2019-07-17 | Imagination Tech Ltd | Image noise reduction |
KR102477190B1 (en) | 2015-08-10 | 2022-12-13 | 삼성전자주식회사 | Method and apparatus for face recognition |
CN105915796A (en) * | 2016-05-31 | 2016-08-31 | 努比亚技术有限公司 | Electronic aperture shooting method and terminal |
CN106469442A (en) | 2016-09-23 | 2017-03-01 | 邹建成 | A kind of enhancement method of low-illumination image based on array image |
US11010595B2 (en) * | 2017-03-23 | 2021-05-18 | Samsung Electronics Co., Ltd. | Facial verification method and apparatus |
CN107154030B (en) * | 2017-05-17 | 2023-06-09 | 腾讯科技(上海)有限公司 | Image processing method and device, electronic equipment and storage medium |
CN107301620B (en) * | 2017-06-02 | 2019-08-13 | 西安电子科技大学 | Method for panoramic imaging based on camera array |
CN107231526B (en) * | 2017-06-09 | 2020-02-21 | 联想(北京)有限公司 | Image processing method and electronic device |
CN107507160B (en) * | 2017-08-22 | 2021-04-23 | 努比亚技术有限公司 | Image fusion method, terminal and computer readable storage medium |
KR102466998B1 (en) * | 2018-02-09 | 2022-11-14 | 삼성전자주식회사 | Method and apparatus for image fusion |
KR102383669B1 (en) * | 2018-10-23 | 2022-04-06 | 한국전자통신연구원 | Parallax minimized stitching using HLBP descriptor |
-
2018
- 2018-02-09 KR KR1020180016451A patent/KR102466998B1/en active IP Right Grant
- 2018-11-14 CN CN201811351115.XA patent/CN110136224A/en active Pending
- 2018-12-18 US US16/223,382 patent/US11449971B2/en active Active
-
2019
- 2019-01-17 EP EP19152305.9A patent/EP3525165B1/en active Active
-
2022
- 2022-09-19 US US17/947,366 patent/US20230015107A1/en active Pending
Non-Patent Citations (2)
Title |
---|
Marius Tico et al., ‘Low-light imaging solutions for mobile devices’, 2009 Conference Record of the Forty-Third Asilomar Conference on Signals, Systems and Computers, November 2009.* |
Ziwei Liu et al., ‘Fast Burst Images Denoising’, ACM Transactions on Graphics, Vol.33, No.6, Article 232, November 2014.* |
Also Published As
Publication number | Publication date |
---|---|
US20230015107A1 (en) | 2023-01-19 |
KR20190096703A (en) | 2019-08-20 |
CN110136224A (en) | 2019-08-16 |
EP3525165A1 (en) | 2019-08-14 |
EP3525165B1 (en) | 2021-08-25 |
US20190251684A1 (en) | 2019-08-15 |
US11449971B2 (en) | 2022-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102466998B1 (en) | Method and apparatus for image fusion | |
JP7365445B2 (en) | Computing apparatus and method | |
KR102415509B1 (en) | Face verifying method and apparatus | |
KR102299847B1 (en) | Face verifying method and apparatus | |
KR102370063B1 (en) | Method and apparatus for verifying face | |
KR102359558B1 (en) | Face verifying method and apparatus | |
US9098760B2 (en) | Face recognizing apparatus and face recognizing method | |
KR102655949B1 (en) | Face verifying method and apparatus based on 3d image | |
KR101494874B1 (en) | User authentication method, system performing the same and storage medium storing the same | |
KR101956071B1 (en) | Method and apparatus for verifying a user | |
KR20180043937A (en) | Method and apparatus for recognizing facial expression | |
US20160004935A1 (en) | Image processing apparatus and image processing method which learn dictionary | |
TW201701187A (en) | Method and system of gesture detection and recognition | |
EP2782047A2 (en) | Line-of-sight detection apparatus and image capturing apparatus | |
KR102380426B1 (en) | Method and apparatus for verifying face | |
US10140503B2 (en) | Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus | |
WO2018159037A1 (en) | Facial detection device, and control method and program for same | |
KR20200034018A (en) | Face recognition method based on infrared image and learning method for the same | |
US10943094B2 (en) | Information processing apparatus for estimating age and method thereof | |
KR20210050649A (en) | Face verifying method of mobile device | |
KR102665968B1 (en) | Method and apparatus for blur estimation | |
KR101802061B1 (en) | Method and system for automatic biometric authentication based on facial spatio-temporal features | |
KR20210050650A (en) | Method of unlocking with face authentication on mobile device | |
JP7524980B2 (en) | Determination method, determination program, and information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |