KR102466998B1 - 영상 융합 방법 및 장치 - Google Patents

영상 융합 방법 및 장치 Download PDF

Info

Publication number
KR102466998B1
KR102466998B1 KR1020180016451A KR20180016451A KR102466998B1 KR 102466998 B1 KR102466998 B1 KR 102466998B1 KR 1020180016451 A KR1020180016451 A KR 1020180016451A KR 20180016451 A KR20180016451 A KR 20180016451A KR 102466998 B1 KR102466998 B1 KR 102466998B1
Authority
KR
South Korea
Prior art keywords
image
image frame
feature points
detected
frame
Prior art date
Application number
KR1020180016451A
Other languages
English (en)
Other versions
KR20190096703A (ko
Inventor
고민수
한승주
한재준
김지혜
박성언
최창규
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180016451A priority Critical patent/KR102466998B1/ko
Priority to CN201811351115.XA priority patent/CN110136224A/zh
Priority to US16/223,382 priority patent/US11449971B2/en
Priority to EP19152305.9A priority patent/EP3525165B1/en
Publication of KR20190096703A publication Critical patent/KR20190096703A/ko
Priority to US17/947,366 priority patent/US20230015107A1/en
Application granted granted Critical
Publication of KR102466998B1 publication Critical patent/KR102466998B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/0093Geometric image transformation in the plane of the image for image warping, i.e. transforming by individually repositioning each pixel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/0056Geometric image transformation in the plane of the image the transformation method being selected according to the characteristics of the input image
    • G06T3/10
    • G06T3/153
    • G06T3/18
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/73
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Geometry (AREA)

Abstract

영상 융합 방법 및 장치가 개시된다. 영상 융합 방법은 제1 영상 프레임으로부터 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하는 단계, 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 제1 영상 프레임을 변형하는 단계, 제2 영상 프레임으로부터 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하는 단계, 검출된 제2 특징점들과 미리 정의된 기준점들에 기초하여 제2 영상 프레임을 변형하는 단계 및 변형된 제1 영상 프레임과 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 획득하는 단계를 포함한다.

Description

영상 융합 방법 및 장치{METHOD AND APPARATUS FOR IMAGE FUSION}
아래의 설명은 영상 처리 기술에 관한 것이다.
낮은 조도 환경에서 영상을 촬영하는 경우 촬영된 영상에서 객체를 명확히 인식하기가 어려울 수 있다. 이를 해결하기 위한 방법으로서, 카메라의 노출 시간(exposure time)을 늘려서 촬영하는 방법과 카메라에 의해 촬영된 영상에 대해 밝기 조절과 같은 영상 처리를 수행하는 방법이 있다. 두 방법들 모두 영상의 밝기를 보다 밝게 할 수 있으나, 전자의 경우에는 객체의 움직임으로 인하여 영상에 모션 블러(motion blur)가 발생할 수 있고, 후자의 경우에는 객체를 명확하게 하는데 한계가 있다.
일 실시예에 따른 영상 융합 방법은, 제1 영상 프레임으로부터 상기 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하는 단계; 상기 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 상기 제1 영상 프레임을 변형하는 단계; 제2 영상 프레임으로부터 상기 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하는 단계; 상기 검출된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 영상 프레임을 변형하는 단계; 및 상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 획득하는 단계를 포함할 수 있다.
상기 제1 영상 프레임을 변형하는 단계는, 상기 제1 특징점들이 상기 기준점들의 위치에 오도록 상기 제1 영상 프레임을 변형하고, 상기 제2 영상 프레임을 변형하는 단계는, 상기 제2 특징점들이 상기 기준점들의 위치에 오도록 상기 제2 영상 프레임을 변형할 수 있다.
상기 제1 영상 프레임을 변형하는 단계는, 상기 검출된 제1 특징점들에 기초하여 상기 제1 영상 프레임에서 제1 객체 영역을 검출하는 단계; 및 상기 검출된 제1 객체 영역에 포함된 제1 특징점들과 상기 기준점들에 기초하여 상기 제1 객체 영역에 영상 와핑을 수행하는 단계를 포함할 수 있다.
상기 제2 영상 프레임을 변형하는 단계는, 상기 검출된 제2 특징점들에 기초하여 상기 제2 영상 프레임에서 제2 객체 영역을 검출하는 단계; 및 상기 검출된 제2 객체 영역에 포함된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 객체 영역에 영상 와핑을 수행하는 단계를 포함할 수 있다.
상기 결합 영상을 획득하는 단계는, 상기 영상 와핑이 수행된 제1 객체 영역과 상기 영상 와핑이 수행된 제2 객체 영역을 결합시키는 단계를 포함할 수 있다.
상기 결합 영상을 획득하는 단계는, 상기 변형된 제1 영상 프레임의 제1 픽셀 값과 상기 변형된 제2 영상 프레임의 제2 픽셀 값을 결합시키는 것에 의해 상기 결합 영상을 생성하는 단계를 포함할 수 있다.
일 실시예에 따른 영상 융합 방법은, 상기 제1 영상 프레임 또는 상기 변형된 제1 영상 프레임의 영상 품질을 측정하는 단계; 및 상기 측정된 영상 품질이 미리 설정된 조건을 만족시키는 경우에, 상기 제1 영상 프레임에서 상기 제1 특징점들을 검출하는 것으로 결정하거나 또는 상기 변형된 제1 영상 프레임에 기초하여 상기 결합 영상을 획득하는 것으로 결정하는 단계를 더 포함할 수 있다.
일 실시예에 따른 영상 융합 방법은, 제3 영상 프레임으로부터 상기 제3 영상 프레임에 나타난 객체의 제3 특징점들을 검출하는 단계; 상기 검출된 제3 특징점들과 상기 기준점들에 기초하여 상기 제3 영상 프레임을 변형하는 단계; 및 상기 획득된 결합 영상과 상기 변형된 제3 영상 프레임을 결합시키는 단계를 더 포함할 수 있다.
일 실시예에 따른 프로세서를 포함하는 영상 융합 장치로서, 상기 프로세서는, 제1 영상 프레임으로부터 상기 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하고, 상기 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 상기 제1 영상 프레임을 변형하고, 제2 영상 프레임으로부터 상기 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하고, 상기 검출된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 영상 프레임을 변형하고, 상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 생성할 수 있다.
도 1은 일 실시예에 따른 영상 융합 장치의 전체적인 동작을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 영상 융합 방법의 동작을 설명하기 위한 흐름도이다.
도 3 및 도 4는 일 실시예에 따른 영상 융합 방법의 일례들을 설명하기 위한 흐름도들이다.
도 5는 일 실시예에 따른 영상 융합 방법이 얼굴 인증에 적용된 일례를 설명하기 위한 흐름도이다.
도 6 및 도 7은 일 실시예에 따른 복수의 영상 프레임들에 기반하여 영상 융합을 수행하는 일례들을 설명하기 위한 도면들이다.
도 8은 일 실시예에 따른 영상 융합 장치의 구성을 도시하는 도면이다.
도 9는 일 실시예에 따른 컴퓨팅 장치의 구성을 도시하는 도면이다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 또한, 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 달리 명시되지 않는 한 일반적으로 "하나 이상의"를 의미하는 것으로 해석되어야 한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 일 실시예에 따른 영상 융합 장치의 전체적인 동작을 설명하기 위한 도면이다.
도 1을 참조하면, 영상 융합 장치(100)는 프로세서를 이용하여 두 개 이상의 영상 프레임들(110)을 융합하여 결합 영상(122, 124, 126, 128)을 생성하는 장치이다. 영상 융합 장치(100)는, 예를 들어 현재 영상 프레임과 현재 영상 프레임에 시간적으로 인접한 n개(n은 자연수)의 이전 영상 프레임을 융합하여 결합 영상을 생성한다. 예를 들어, 현재 영상 프레임이 영상 프레임(116)이고, 영상 융합 장치(100)가 3개의 영상 프레임들에 기초하여 결합 영상을 생성한다고 가정하면, 영상 융합 장치(100)는 영상 프레임들(112, 114, 116)을 융합하여 결합 영상을 생성한다. 만약, 영상 융합 장치(100)가 2개의 영상 프레임들에 기초하여 결합 영상을 생성한다면, 영상 융합 장치(100)는 현재 영상 프레임인 영상 프레임(116)과 영상 프레임(116)의 이전 영상 프레임인 영상 프레임(114)을 융합하여 결합 영상을 생성한다.
영상 프레임들(110)은, 예를 들어 시간상으로 카메라에 의해 연속적으로 촬영된 영상 프레임들(112, 114, 116, 118)을 포함할 수 있다. 본 명세서에서 '영상 프레임'의 용어는 '입력 영상' 또는 '영상'으로 대체될 수 있다. 저조도(low luminance)의 어두운 환경에서 촬영된 영상 프레임의 경우, 해당 영상 프레임에서 객체를 명확히 식별하는 것이 어려울 수 있다. 얼굴 인증(face verification)과 같이 객체의 식별이 중요한 응용 영역에서는, 어두운 환경에서 촬영된 영상 프레임이더라도 해당 영상 프레임에서 얼굴 영역을 명확히 식별하는 것이 중요하다. 얼굴 영역의 명확한 식별은 얼굴 인증의 정확도에 큰 영향을 끼치기 때문이다. 저조도 환경에서 촬영된 영상 프레임의 단점을 극복하기 위한 일반적인 솔루션으로서, 카메라의 노출 시간(exposure time)을 증가시켜 영상 프레임을 획득하는 방법이 있다. 하지만, 노출 시간이 늘어나면, 카메라 및/또는 객체의 움직임으로 인하여 영상 프레임에 모션 블러(motion blur)가 나타날 확률이 높아지고, 이는 또 다시 객체의 식별을 어렵게 하는 요인이 된다.
일 실시예에서, 영상 융합 장치(100)는 저조도 환경에서 촬영된 영상 프레임들을 결합시키는 것에 의해 밝기가 개선되고 객체의 식별이 보다 용이해진 결합 영상을 생성할 수 있다. 이 때, 영상 융합 장치(100)는 영상 프레임들을 단순 결합시키는 것이 아니라, 각 영상 프레임들의 특징점들에 기반하여 영상 프레임들을 변형(transform)하고, 변형된 프레임들을 결합시킴으로써 모션 블러의 발생을 최소화할 수 있다. 예를 들어, 영상 융합 장치(100)는 영상 프레임들에서 객체의 형상 특징을 나타내는 특징점들을 추출하고, 추출된 특징점들의 위치가 기준점의 위치에 오도록 영상 프레임들을 변형한 후, 변형된 영상 프레임들을 결합시킴으로써 밝기가 개선되고 모션 블러가 최소화된 결합 영상을 생성할 수 있다. 이러한 영상 융합 장치(100)는 생체 정보를 이용하는 사용자 인증 시스템, 금융 거래 인증 시스템, 출입 통제 및 감시 시스템, 사물 인식 시스템 등에서 이용될 수 있다.
이하에서는 도면들을 참고하여 영상 융합 장치(100)의 동작을 보다 자세히 설명한다.
도 2는 일 실시예에 따른 영상 융합 방법의 동작을 설명하기 위한 흐름도이다.
도 2에 도시된 동작들은 도시된 바와 같이 순차적으로 수행되거나 또는 설명된 실시예들의 범위 및 기술적 사상으로부터 벗어나는 것 없이 일부의 동작이 수행되지 않거나 동작들의 순서가 변경될 수도 있다. 또한, 도 2에 도시된 동작들은 병렬적으로 또는 동시에 수행될 수도 있다. 예를 들어, 단계(210, 220)와 단계(230, 240)는 병렬적으로 수행될 수 있다.
단계(210)에서, 영상 융합 장치는 제1 영상 프레임으로부터 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출한다. 추출될 특징점들은 객체의 타입에 따라 달라질 수 있다. 예를 들어, 객체가 얼굴인 경우, 제1 영상 프레임으로부터 눈의 양 끝점, 눈 가운데, 코 끝점 및 입 양 끝점 등과 같은 얼굴의 랜드마크들(facial landmarks)이 추출될 수 있다. 객체가 사물(thing)인 경우, 제1 영상 프레임으로부터 해당 사물의 형상적인 특징을 나타낼 수 있는 특징점이 추출될 수도 있다. 예를 들어, 객체가 차량의 번호판인 경우, 사각형 번호판의 네 모서리가 특징점으로서 추출될 수 있다.
단계(220)에서, 영상 융합 장치는 단계(210)에서 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 제1 영상 프레임을 변형한다. 여기서, 기준점들의 위치는 제1 영상 프레임에서 추출된 제1 특징점들의 위치와 관계 없이, 객체의 타입에 따라 미리 고정된 위치를 가질 수 있다. 예를 들어, 객체가 얼굴인 경우, 기준점들의 위치는 눈, 코, 입 등의 얼굴 부위에서 위치가 고정된 기준 위치들일 수 있다.
영상 융합 장치는 영상 와핑(image warping) 등을 이용하여 제1 특징점들이 기준점들의 위치에 오도록 제1 영상 프레임을 변형할 수 있다. 예를 들어, 영상 융합 장치는 제1 특징점들의 위치 값과 기준점들의 위치 값에 기초하여 제1 특징점들과 기준점들 간의 대응 관계를 나타내는 아핀 변환 행렬(affine transform matrix)을 계산하고, 계산된 아핀 변환 행렬을 제1 영상 프레임의 각 픽셀의 위치 값에 적용하는 것에 의해 제1 영상 프레임을 변형할 수 있다. 다른 예로, 제1 영상 프레임을 변형하는 과정은, 제1 특징점들에 기초하여 제1 영상 프레임에서 제1 객체 영역(예, 얼굴 영역)을 검출하고, 검출된 제1 객체 영역에 포함된 제1 특징점들이 기준점들의 위치에 오도록 제1 객체 영역에 영상 와핑을 수행하는 과정을 포함할 수 있다.
단계(230)에서, 영상 융합 장치는 단계(210)에서의 방식과 동일 또는 유사한 방식으로, 제2 영상 프레임으로부터 제2 영상 프레임에 나타난 객체의 제2 특징점들(예, 얼굴의 랜드마크들)을 검출한다.
단계(240)에서, 영상 융합 장치는 단계(220)에서의 방식과 동일 또는 유사한 방식으로, 제2 특징점들과 기준점들에 기초하여 제2 영상 프레임을 변형한다. 예를 들어, 영상 융합 장치는 아핀 변환 행렬을 이용하여 제2 특징점들이 기준점들의 위치에 오도록 제2 영상 프레임을 변형할 수 있다. 다른 예로, 제2 영상 프레임을 변형하는 과정은, 검출된 제2 특징점들에 기초하여 제2 영상 프레임에서 제2 객체 영역을 검출하고, 검출된 제2 객체 영역에 포함된 제2 특징점들이 기준점들의 위치에 오도록 제2 객체 영역에 영상 와핑을 수행하는 과정을 포함할 수 있다. 여기서, 기준점들의 위치는 단계(220)에서 이용된 기준점들의 위치와 동일하다.
단계(250)에서, 영상 융합 장치는 변형된 제1 영상 프레임과 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 획득한다. 이 과정은, 예를 들어 영상 와핑이 수행된 제1 영상 프레임의 제1 객체 영역과 영상 와핑이 수행된 제2 영상 프레임의 제2 객체 영역을 결합시키는 과정을 포함할 수 있다. 영상 융합 장치는 변형된 제1 영상 프레임의 제1 픽셀 값과 변형된 제2 영상 프레임의 제2 픽셀 값을 결합시키는 것에 의해 결합 영상을 생성할 수 있다. 제1 픽셀 값과 제2 픽셀 값 간의 결합은, 예를 들어 변형된 제1 영상 프레임과 변형된 제2 영상 프레임에서 서로 대응되는 위치의 제1 픽셀 값과 제2 픽셀 값 간의 합, 평균, 가중 합(weighted sum) 또는 가중 평균(weighted average) 등일 수 있으나, 실시예의 범위가 이에 한정되는 것으로 해석되어서는 안 된다.
다른 실시예에 따르면, 영상 융합에 이용될 영상 프레임의 선택을 위해 영상 프레임들의 영상 품질이 고려될 수 있다. 영상 융합 장치는 입력된 제1 영상 프레임 또는 단계(220)에서 변형된 제1 영상 프레임의 영상 품질을 측정하고, 측정된 영상 품질이 미리 설정된 조건을 만족시키는 경우에, 제1 영상 프레임에서 제1 특징점들을 검출하는 것으로 결정하거나 또는 단계(220)에서 변형된 제1 영상 프레임에 기초하여 결합 영상을 획득하는 것으로 결정할 수 있다. 예를 들어, 영상 융합 장치는 제1 영상 프레임의 밝기를 측정하고, 측정된 밝기가 미리 설정된 임계 값보다 작은 경우에는 제1 영상 프레임에서 제1 특징점들을 검출하는 것으로 결정하거나 또는 단계(220)에서 변형된 제1 영상 프레임에 기초하여 결합 영상을 획득하는 것으로 결정할 수 있다. 제1 영상 프레임의 밝기가 임계 값 이상인 경우, 영상 융합 장치는 해당 제1 영상 프레임은 저조도 환경에서 촬영된 것이 아니라고 간주하고 제1 영상 프레임을 결합 영상을 획득하는데 이용하지 않을 수 있다. 이와 유사하게, 영상 융합 장치는 입력된 제2 영상 프레임 또는 단계(240)에서 변형된 제2 영상 프레임의 영상 품질(예, 밝기 등)을 측정하고, 측정된 영상 품질이 미리 설정된 조건을 만족시키는 경우에, 제2 영상 프레임에서 제2 특징점들을 검출하는 것으로 결정하거나 또는 단계(240)에서 변형된 제2 영상 프레임에 기초하여 결합 영상을 획득하는 것으로 결정할 수 있다. 예를 들어, 제2 영상 프레임의 밝기가 임계 값 이상인 경우, 영상 융합 장치는 해당 제2 영상 프레임을 결합 영상을 획득하는데 이용하지 않을 수 있다.
단계(260)에서, 영상 융합 장치는 결합 영상을 변형할 수 있다. 실시예에 따라, 단계(260)의 과정은 선택적으로 수행될 수 있다. 영상 융합 장치는, 예를 들어 최근에 입력된 영상 프레임인 제2 영상 프레임의 제2 특징점들과 기준점들 간의 대응 관계에 기초하여 결합 영상을 변형할 수 있다. 제2 특징점들의 위치와 기준점들의 위치에 기초하여 아핀 변환 행렬이 결정되었고, 단계(240)에서 해당 아핀 변환 행렬에 의해 제2 영상 프레임이 변형되었다고 가정하면, 영상 융합 장치는 위 아핀 변환 행렬의 역 변환 행렬(inverse transform matrix)을 결합 영상에 적용하는 것에 의해 결합 영상에 나타난 객체의 형태를 원래의 형태로 복원시킬 수 있다. 이후에, 변형된 결합 영상은 목적에 맞게 이용될 수 있다. 예를 들어, 얼굴 인증에서는, 변형된 결합 영상으로부터 얼굴 인증을 위한 특징이 추출될 수 있다.
일 실시예에 따르면, 제3 영상 프레임이 영상 융합 장치에 입력되는 경우, 영상 융합 장치는 제1 영상 프레임 및 제2 영상 프레임에 관하여 위에서 설명한 것과 동일하게, 제3 영상 프레임으로부터 제3 영상 프레임에 나타난 객체의 제3 특징점들을 검출하고, 검출된 제3 특징점들과 기준점들에 기초하여 제3 영상 프레임을 변형할 수 있다. 결합 영상이 3개의 영상 프레임들에 기초하여 생성되는 것으로 가정하면, 영상 융합 장치는 단계(250)에서 획득된 결합 영상과 위 변형된 제3 영상 프레임을 결합시키는 것에 의해 새로운 결합 영상을 획득할 수 있다. 단계(250)의 결합 영상과 변형된 제3 영상 프레임 간의 결합은, 결합 영상과 제3 영상 프레임에서 서로 대응되는 위치의 픽셀 값들을 합, 평균, 가중 합 또는 가중 평균하는 것에 의해 이루어질 수 있다.
위와 같이, 영상 융합 장치는 영상 프레임들의 특징점들이 기준점들의 고정된 위치로 오도록 영상 프레임들을 변형한 후 변형된 영상 프레임들을 융합시킴으로써 모션 블러와 노이즈가 저감되고 객체의 특징이 보다 잘 나타나는 결합 영상을 제공할 수 있다. 이와 같은 결합 영상이 객체의 특징을 정확하게 추출하는 것이 중요한 영상 기반의 인증 시스템에 이용되는 경우, 인식의 정확도는 개선될 수 있다.
도 3은 일 실시예에 따른 영상 융합 방법의 일례를 설명하기 위한 흐름도이다.
도 3을 참조하면, 단계(310)에서 영상 융합 장치는 n(n은 자연수)번째 영상 프레임을 수신한다. 단계(320)에서 영상 융합 장치는 수신한 영상 프레임의 영상 품질을 측정한다. 예를 들어, 영상 융합 장치는 영상 프레임의 밝기 또는 블러의 정도를 측정할 수 있다. 영상 프레임의 영상 품질은 해당 영상 프레임이 결합 영상을 생성하는데 이용될 필요가 있는지 여부를 결정하는데 이용된다.
단계(330)에서, 영상 융합 장치는 측정된 영상 품질이 미리 설정된 조건을 만족시키는지 여부를 결정한다. 예를 들어, 영상 융합 장치는 영상 프레임의 밝기가 임계 값보다 작은지 여부를 결정할 수 있다. 영상 품질이 미리 설정된 조건을 만족시키는 경우에는 단계(340)가 수행되고, 영상 품질이 미리 설정된 조건을 만족시키지 않는 경우에는 단계(390)가 수행되어 다음 영상 프레임이 선택된다. 이를 통해 밝은 환경에서 촬영된 영상 프레임이 결합 영상에 이용되는 것을 방지할 수 있고, 영상 융합이 가능한 영상 프레임들이 연속적으로 수신되고 있는지가 판단될 수 있다. 밝은 환경에서 촬영되어 밝기가 객체의 특징을 정의하기에 충분한 영상 프레임에 대해서는 영상 융합이 수행될 필요가 없기 때문이다. 일 실시예에 따르면, 영상 품질이 미리 설정된 조건을 만족시키지 않는 경우가 발생하면, 지금까지의 영상 융합 과정은 종료되고, 다음 영상 프레임이 영상 융합 과정의 첫 번째 영상 프레임으로서 지정되어 영상 융합 과정이 재시작될 수 있다.
단계(340)에서, 영상 융합 장치는 영상 프레임에서 목적하는 객체의 객체 영역과 특징점들을 검출한다. 단계(350)에서, 영상 융합 장치는 영상 프레임에서 검출된 특징점들의 위치가 대응되는 기준점의 고정된 위치로 오도록 영상 프레임에 대해 영상 변환(예, 영상 와핑)을 수행하여 변형된 영상 프레임을 생성한다. 일 실시예에서, 영상 융합 장치는 검출된 특징점들을 기반으로 영상 프레임에서 영상 변환을 수행할 영역을 추출하고, 추출된 영역에 포함된 특징점들의 위치와 기준점들의 위치 간의 변환 관계를 정의하기 위한 변환 행렬을 결정한 후, 결정된 변환 행렬을 영상 프레임 또는 해당 추출된 영역에 적용하는 것에 의해 변형된 영상 프레임을 생성할 수 있다.
단계(360)에서, 영상 융합 장치는 영상 융합을 통해 결합 영상을 획득한다. 영상 융합 장치는 이전에 변형되어 저장된 영상 프레임과 현재 변형된 영상 프레임을 영상 융합하여 결합 영상을 획득할 수 있다. 여기서, 영상 융합은 변형된 영상 프레임들 사이에서 대응되는 위치의 픽셀 값 간의 합, 평균, 가중 합 또는 가중 평균 등을 통해 픽셀 값을 융합하는 과정을 포함한다.
단계(370)에서, 영상 융합 장치는 결합 영상이 이용되는 목적에 따라 결합 영상에 특정한 영상 처리를 수행할 수 있다. 예를 들어, 영상 융합 장치는 결합 영상에 나타난 객체의 형태를 원래의 형태로 복원하기 위하여 결합 영상에 역 영상 와핑(inverse image warping)을 수행할 수 있다. 이 때, 결합 영상에 나타난 객체의 특징점들이 현재 영상 프레임에서 대응되는 특징점들의 위치에 오도록 하기 위한 역 영상 와핑이 수행될 수 있다.
단계(380)에서, 영상 융합 장치는 다음 영상 프레임이 존재하는지 여부를 판단한다. 다음 영상 프레임이 존재하는 경우, 단계(390)에서 영상 융합 장치는 다음 영상 프레임을 선택하고, 선택된 다음 영상 프레임에 대해 위 단계(320) 내지 단계(380)의 과정을 다시 수행한다.
도 4는 일 실시예에 따른 영상 융합 방법의 다른 예를 설명하기 위한 흐름도이다.
도 4를 참조하면, 단계(410), 단계(420), 단계(430), 단계(440), 단계(450), 단계(460), 단계(470), 단계(480) 및 단계(490)은, 각각 도 3의 단계(310), 단계(340), 단계(350), 단계(320), 단계(330), 단계(360), 단계(370), 단계(380), 단계(390)에 대응되며, 각 단계의 설명에 도 3과 관련하여 기술된 설명이 적용될 수 있다.
다만, 도 4에 도시된 실시예는, 도 3에 도시된 실시예와 다르게 영상 품질을 측정하는 단계(440)와 측정된 영상 품질이 미리 설정된 조건을 만족시키는지 여부를 판단하는 단계(450)가 영상 변환이 수행되는 단계(430) 이후에 수행된다는 점에서 차이가 있다. 또한, 단계(420)에서는 영상 프레임에서 객체 영역이 검출되고, 단계(430)에서는 검출된 객체 영역에 대해 특징점들의 위치가 대응되는 기준점의 위치에 오도록 하는 영상 와핑 등의 영상 변환이 수행될 수 있다. 이후에, 단계(440)에서 영상 변환이 수행된 객체 영역의 영상 품질(예, 밝기 등)이 측정되고, 단계(450)에서 영상 품질이 미리 설정된 조건을 만족시키는지 여부가 판단된다. 관심 영역인 객체 영역의 영상 품질을 고려함으로써, 역광 환경에서 촬영된 영상 프레임과 같이, 전체적으로는 밝으나 객체 영역은 어두울 수 있는 영상 프레임에 대해서도 영상 융합이 적용되는 것이 가능해 진다.
도 5는 일 실시예에 따른 영상 융합 방법이 얼굴 인증에 적용된 일례를 설명하기 위한 흐름도이다.
얼굴 인증은 사용자 인증을 위한 인증 방법 중 하나로서, 인증을 시도한 사용자의 얼굴 정보에 기초하여 해당 사용자가 유효한(valid) 사용자인지 여부를 판단하는 인증 방법이다. 본 명세서에서 설명한 영상 융합 방법은, 예를 들어 얼굴 인증 과정에서 저조도 환경에서 촬영된 영상에서 얼굴의 특징을 보다 명확하게 나타내는 영상을 제공하기 위해 이용될 수 있다. 얼굴 인증과 같은 영상 기반의 객체 인식 기술의 경우, 영상에 객체의 특징이 얼마나 잘 나타나 있는지 여부가 인식 정확도에 큰 영향을 미친다. 영상에 나타난 블러(blur)나 노이즈의 정도가 클수록, 해당 영상으로부터 객체의 특징을 정확하게 추출하는 것이 어려워지는 경향이 있다. 영상 융합 장치는 위에서 설명한 특징점 기반의 영상 융합 과정을 통해, 영상의 밝기는 개선하면서 블러 및 노이즈가 줄어든 영상을 생성하는 것을 가능하게 한다.
도 5를 참조하면, 단계(505)에서 얼굴 인증 장치는 쿼리 얼굴 영상(query facial image)의 n(n은 자연수)번째 영상 프레임을 수신한다. 쿼리 얼굴 영상은 얼굴 인증의 대상이 되는 영상이다. 단계(510)에서, 얼굴 인증 장치는 영상 프레임에서 얼굴 영역을 검출하고, 검출된 얼굴 영역에서 얼굴의 랜드마크들을 검출한다. 얼굴 영역의 검출을 위해, Haar 기반의 캐스케이드 에이다부스트 분류기(Haar-based cascade adaboost classifier) 또는 Viola-Jones 검출기 등이 이용될 수 있으나, 실시예의 범위가 이에 한정되는 것은 아니다. 실시예에 따라, 영상 프레임에서 얼굴 영역에 대한 영상 크롭핑(image cropping), 영상 스케일링(image scaling) 등과 같은 영상 정규화 과정이 수행될 수도 있다.
단계(515)에서, 얼굴 인증 장치는 얼굴 영역에 대해 영상 변환을 수행하고, 이에 따라 얼굴 영역의 형태가 변형된다. 예를 들어, 얼굴 인증 장치는 얼굴 영역에서 검출된 랜드마크들의 위치가 미리 정의된 얼굴 영역에서의 기준점들의 위치에 오도록 얼굴 영역에 대해 영상 와핑을 수행할 수 있다.
얼굴 인증 장치는, 단계(520)에서 변형된 얼굴 영역의 영상 품질을 측정하고, 단계(525)에서 영상 품질이 미리 설정된 조건을 만족시키는지 여부를 판단한다. 예를 들어, 얼굴 인증 장치는 변형된 얼굴 영역의 밝기를 측정하고, 측정된 밝기가 임계 값보다 작은지 여부를 판단할 수 있다.
영상 품질이 미리 설정된 조건을 만족시키는 경우, 단계(530)에서 얼굴 인증 장치는 영상 융합을 통해, 이전 영상 프레임에서 변형된 얼굴 영역과 단계(515)에서 변형된 얼굴 영역을 결합하여 결합 영상을 획득할 수 있다. 이 과정은 변형된 얼굴 영역들에서 서로 대응되는 위치의 픽셀 값을 융합하는 과정을 포함한다. 실시예에 따라, 얼굴 인증 장치는 두 개의 영상 프레임들뿐만 아니라 세 개 이상의 영상 프레임들에서 변형된 얼굴 영역들을 결합하는 것에 의해 결합 영상을 획득할 수도 있다.
단계(535)에서, 얼굴 인증 장치는 단계(530)에서 획득된 결합 영상이 얼굴 인증에 보다 적합한 형태가 되도록 결합 영상에 영상 처리를 수행할 수 있다. 예를 들어, 얼굴 인증 장치는 결합 영상에 대해 역 역상 와핑을 수행하여 얼굴의 형태를 원래의 형태로 복원하는 과정, 결합 영상에 나타난 얼굴의 특징을 보다 선명하게 하기 위한 감마 보정(Gamma correction), 컬러 배리에이션(color variation)을 줄이기 위한 영상 처리 등을 수행할 수 있다.
이후에, 단계(550)에서 얼굴 인증 장치는 단계(535)의 영상 처리가 수행된 결합 영상으로부터 특징을 추출한다. 얼굴 인증 장치는, 예를 들어 뉴럴 네트워크 기반의 특징 추출기를 이용하여 특징(또는, 특징 벡터)을 추출할 수 있다. 단계(525)에서 현재 영상 프레임에 포함된 얼굴 영역의 영상 품질이 미리 설정된 조건을 만족시키지 않는 것으로 판단된 경우(예, 검출된 얼굴 영역의 밝기가 임계 값 이상인 경우), 얼굴 인증 장치는 단계(530) 및 단계(535)를 수행하는 것 없이, 단계(550)에서 현재 영상 프레임으로부터 특징을 추출한다. 이 경우, 영상 융합 과정은 초기화되어 이전에 저장된 영상 프레임의 영상 변환 결과와 결합 영상은 메모리와 같은 저장소에서 제거될 수 있다.
단계(555)에서, 얼굴 인증 장치는 단계(550)에서 추출된 특징에 기초하여 얼굴 인증의 성공 여부를 결정한다. 얼굴 인증 장치는 추출된 특징과 미리 등록된 특징 간의 유사도에 기반한 매칭 스코어를 계산하고, 계산한 매칭 스코어가 미리 설정된 조건을 만족시키는 경우(예, 매칭 스코어가 임계 값보다 큰 경우)에 얼굴 인증이 성공한 것으로 결정할 수 있다. 매칭 스코어는, 예를 들어 단계(550)에서 추출된 특징 벡터와 미리 등록된 특징 벡터 간의 유사도 내지 거리에 기초하여 결정될 수 있다.
단계(560)에서, 얼굴 인증 장치는 얼굴 인증이 성공하였는지 여부를 판단한다. 얼굴 인증이 성공하지 못한 경우(실패한 경우), 단계(540)에서 얼굴 인증 장치는 다음 영상 프레임이 존재하는지 여부를 판단한다. 다음 영상 프레임이 존재하지 않은 경우, 얼굴 인증의 결과는 인증 실패한 것으로 결정된다. 다음 영상 프레임이 존재하는 경우, 단계(545)에서 얼굴 인증 장치는 다음 영상 프레임을 선택하고, 다음 영상 프레임에 대해 위 과정을 다시 반복하여 수행한다.
위와 같은 과정을 통해, 저조도 환경에서 촬영된 얼굴 영상에 기반하여 얼굴 인증이 수행되더라도 특징점 기반의 영상 융합 과정을 수행하는 것에 의해 저조도 환경에서도 얼굴 인증을 보다 정확하게 수행하는 것이 가능해 진다.
도 6은 일 실시예에 따른 영상 융합 방법의 일례를 설명하기 위한 도면이다.
도 6을 참조하면, 영상 융합 방법의 일례로서 차량 번호판이 나타난 제1 영상 프레임(612)과 제2 영상 프레임(614)에 대해 영상 융합을 수행하는 일례가 도시되어 있다. 일 실시예에 따르면, 제1 영상 프레임(612)과 제2 영상 프레임(614)은 시간적으로 연속된 영상 프레임들이거나 또는 바로 연속되지는 않지만 시간적으로 인접한 영상 프레임들일 수 있다. 예를 들어, 제1 영상 프레임(612)과 제2 영상 프레임(614)은 각각 n-1(n은 자연수) 번째 영상 프레임 및 n 번째 영상 프레임이거나 또는 n-m(m은 2이상의 자연수) 번째 영상 프레임 및 n 번째 영상 프레임일 수 있다.
제1 영상 프레임(612)이 입력되면, 제1 영상 프레임(612)의 밝기가 측정된다. 측정된 밝기가 임계 값보다 작아 제1 영상 프레임(612)이 어두운 환경에서 촬영된 것으로 결정된 경우, 영상 융합 장치는 제1 영상 프레임(612)에서 특징점(622)들을 검출한다. 예를 들어, 차량 번호판의 네 모서리가 특징점(622)들로 검출될 수 있다. 검출된 특징점(622)들에 기초하여 제1 영상 프레임에서 차량 번호판의 영역이 검출될 수 있다. 이후에, 영상 융합 장치는 특징점(622)들의 위치가 미리 정의된 기준점들의 위치에 오도록 영상 와핑을 수행하여 변형된 제1 영상 프레임(632)을 생성할 수 있다.
제2 영상 프레임(614)에 대해서도 위와 동일한 과정이 수행된다. 제2 영상 프레임(614)이 입력되면, 제2 영상 프레임(614)의 밝기가 측정된다. 측정된 밝기가 임계 값보다 작은 경우, 영상 융합 장치는 제2 영상 프레임(614)에서 특징점(624)들을 검출한다. 검출된 특징점(624)들에 기초하여 제2 영상 프레임(614)에서 차량 번호판의 영역이 검출될 수 있다. 이후에, 영상 융합 장치는 특징점(624)들의 위치가 미리 정의된 기준점들의 위치에 오도록 영상 와핑을 수행하여 변형된 제2 영상 프레임(634)을 생성할 수 있다.
실시예에 따라, 영상 프레임에 대한 밝기의 측정은 영상 와핑이 수행된 이후에 수행될 수도 있다. 이 경우, 영상 프레임에 대해 측정된 밝기가 미리 설정된 임계 값보다 작아야 해당 영상 프레임에 기초한 영상 융합 과정이 계속적으로 수행될 수 있다. 만약, 측정된 밝기가 임계 값 이상인 경우, 영상 융합 과정이 종료되거나 초기화될 수 있다.
영상 융합 장치는 변형된 제1 영상 프레임(632)과 변형된 제2 영상 프레임(634)을 결합시키는 것에 의해 결합 영상(640)을 생성할 수 있다. 예를 들어, 영상 융합 장치는 변형된 제1 영상 프레임(632)의 픽셀 값과 변형된 제2 영상 프레임(634)의 픽셀 값을 융합하는 것에 의해 결합 영상(640)을 생성할 수 있다. 이후에, 영상 융합 장치는 결합 영상(640)에 나타난 차량 번호판의 형태를 영상 프레임에 나타난 원래의 형태로 복원하여 형태가 복원된 결합 영상(650)을 생성할 수 있다. 예를 들어, 영상 융합 장치는 위 영상 와핑에서 이용된 변환 행렬의 역 변환 행렬을 결합 영상(640)에 적용하는 것에 의해 차량 번호판의 형태를 복원할 수 있다.
도 7은 일 실시예에 따른 영상 융합 방법의 다른 예를 설명하기 위한 도면이다.
도 7을 참조하면, 영상 융합 방법의 다른 예로서 얼굴 영역이 나타난 제1 영상 프레임(712)과 제2 영상 프레임(714)에 대해 영상 융합을 수행하는 일례가 도시되어 있다. 일 실시예에 따르면, 제1 영상 프레임(712)과 제2 영상 프레임(714)은 시간적으로 연속된 영상 프레임들이거나 또는 바로 연속되지는 않지만 시간적으로 인접한 영상 프레임들일 수 있다. 예를 들어, 제1 영상 프레임(712)과 제2 영상 프레임(714)은 각각 n-1(n은 자연수) 번째 영상 프레임 및 n 번째 영상 프레임이거나 또는 n-m(m은 2 이상의 자연수) 번째 영상 프레임 및 n 번째 영상 프레임일 수 있다.
제1 영상 프레임(712)이 입력되면, 제1 영상 프레임(712)의 밝기가 측정된다. 측정된 밝기가 임계 값보다 작은 경우, 영상 융합 장치는 제1 영상 프레임(712)에서 특징점으로서 얼굴의 랜드마크(722)들을 검출한다. 예를 들어, 눈썹, 눈, 코, 입 등과 같은 주요 얼굴 부위들의 특징점들이 검출될 수 있다. 검출된 랜드마크(722)들에 기초하여 제1 영상 프레임(712)에서 얼굴 영역(732)이 검출될 수 있다. 검출된 얼굴 영역(732)은 영상 크롭핑을 통해 얼굴 영역(732)에 대응되는 얼굴 영상(742)으로서 추출될 수 있다. 이후에, 영상 융합 장치는 얼굴 영상(742)에 나타난 특징점들이 위치가 미리 정의된 기준점(750)들의 위치에 오도록 얼굴 영상(742)에 영상 와핑을 수행하여 변형된 얼굴 영상(762)을 생성할 수 있다. 예를 들어, 얼굴 영상(742)에 나타난 눈썹, 코, 입의 특징점의 위치가 각각 눈썹, 코, 입에 대응되는 기준점(750)의 위치에 오도록 영상 와핑이 수행된다.
제2 영상 프레임(714)에 대해서도 위와 동일한 과정이 수행된다. 제2 영상 프레임(714)이 입력되면, 제2 영상 프레임(714)의 밝기가 측정된다. 측정된 밝기가 임계 값보다 작은 경우, 영상 융합 장치는 제2 영상 프레임(714)에서 얼굴의 랜드마크(724)들을 검출한다. 검출된 랜드마크들(724)들에 기초하여 제2 영상 프레임(714)에서 얼굴 영역(734)이 검출될 수 있다. 검출된 얼굴 영역(734)은 영상 크롭핑을 통해 얼굴 영역(734)에 대응되는 얼굴 영상(744)으로서 추출될 수 있다. 이후에, 영상 융합 장치는 얼굴 영상(744)에 나타난 특징점들이 위치가 미리 정의된 기준점(750)들의 위치에 오도록 얼굴 영상(744)에 영상 와핑을 수행하여 변형된 얼굴 영상(764)을 생성할 수 있다.
실시예에 따라, 영상 프레임에 대한 밝기의 측정은 영상 와핑이 수행된 이후에 수행될 수도 있다. 이 경우, 영상 프레임에 대해 측정된 밝기가 미리 설정된 임계 값보다 작아야 해당 영상 프레임에 기초한 영상 융합 과정이 계속적으로 수행될 수 있다. 만약, 측정된 밝기가 임계 값 이상인 경우, 영상 융합 과정이 종료되거나 초기화될 수 있다.
영상 융합 장치는 변형된 얼굴 영상(762)과 변형된 얼굴 영상(764)을 결합시키는 것에 의해 결합 영상(770)을 생성할 수 있다. 예를 들어, 영상 융합 장치는 변형된 얼굴 영상(762)의 픽셀 값과 변형된 얼굴 영상(764)의 픽셀 값을 합, 평균, 가중 합 또는 가중 평균하는 것에 의해 결합 영상(770)을 생성할 수 있다. 이후에, 영상 융합 장치는 결합 영상(770)에 나타난 얼굴의 형태를 영상 프레임에 나타난 원래의 형태로 복원하여 형태가 복원된 결합 영상(775)을 생성할 수 있다. 이렇게 복원된 결합 영상(775)은 제2 영상 프레임(714)에 적용될 수 있다. 이러한 과정을 통해 얼굴 영역에서 밝기가 개선되고, 모션 블러와 노이즈가 저감된 결과 영상이 획득될 수 있다. 따라서, 해당 결과 영상을 이용하여 얼굴 인증이 수행되는 경우, 얼굴의 특징이 보다 정확하게 추출되어 얼굴 인증의 정확도가 개선될 수 있다.
도 6 및 도 7의 실시예들에서는 두 개의 영상 프레임들에 기반하여 영상 융합이 수행되는 것을 설명하였으나, 실시예의 범위가 이에 한정되는 것은 아니고, 세 개 이상의 영상 프레임들에 대해 영상 융합이 수행되는 것도 가능하다.
도 8은 일 실시예에 따른 영상 융합 장치의 구성을 도시하는 도면이다.
도 8을 참조하면, 영상 융합 장치(800)는 일련의 영상 프레임들을 수신한다. 영상 융합 장치(800)는 영상 프레임들에서 객체의 특징점들을 검출하고, 검출된 특징점들에 기초하여 영상 프레임들 간의 영상 융합을 수행할 수 있다. 이 때, 영상 융합 장치(800)는 밝기와 같은 영상 프레임들의 영상 품질을 고려하여 영상 융합을 수행할지 여부를 결정할 수 있다. 영상 융합 장치(800)는 영상 융합 방법과 관련하여 본 명세서에 기술되거나 또는 도시된 하나 이상의 동작을 수행할 수 있고, 얼굴 인증의 결과를 사용자에게 제공할 수 있다.
영상 융합 장치(800)는 하나 이상의 프로세서(810) 및 메모리(820)를 포함할 수 있다. 프로세서(810)는 도 1 내지 도 4, 도 6 및 도 7을 참조하여 설명된 하나 이상의 동작을 실행하기 위한 인스트럭션들을 실행할 수 있다. 예를 들어, 프로세서(810)는 제1 영상 프레임으로부터 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하고, 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 제1 영상 프레임을 변형할 수 있다. 예를 들어, 프로세서(810)는 제1 특징점들이 기준점들의 위치에 오도록 영상 와핑을 수행하여 제1 영상 프레임을 변형할 수 있다. 다른 예로, 프로세서(810)는 검출된 제1 특징점들에 기초하여 제1 영상 프레임에서 제1 객체 영역을 검출하고, 검출된 제1 객체 영역에 포함된 제1 특징점들과 기준점들에 기초하여 제1 객체 영역에 영상 와핑을 수행할 수도 있다.
또한, 프로세서(810)는 제2 영상 프레임으로부터 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하고, 검출된 제2 특징점들과 기준점들에 기초하여 상기 제2 영상 프레임을 변형할 수 있다. 예를 들어, 프로세서(810)는 제2 특징점들이 기준점들의 위치에 오도록 영상 와핑을 수행하여 제2 영상 프레임을 변형할 수 있다. 다른 예로, 프로세서(810)는 검출된 제2 특징점들에 기초하여 제2 영상 프레임에서 제2 객체 영역을 검출하고, 검출된 제2 객체 영역에 포함된 제2 특징점들과 기준점들에 기초하여 제2 객체 영역에 영상 와핑을 수행할 수도 있다.
프로세서(810)는 위와 같이 변형된 제1 영상 프레임과 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 생성할 수 있다. 프로세서(810)는 변형된 제1 영상 프레임의 각 픽셀들의 픽셀 값과 변형된 제2 영상 프레임의 각 픽셀들의 픽셀 값을 결합(예, 합, 평균, 가중 합 또는 가중 평균 등)시키는 것에 의해 결합 영상을 생성할 수 있다. 프로세서(810)는 제2 영상 프레임의 제2 특징점들과 기준점들 간의 대응 관계에 기초하여 결합 영상을 변형할 수 있다. 이는 영상 융합 과정에서 변형된 객체의 형태를 제2 영상 프레임에 나타난 특징점들의 위치에 기초하여 원래의 형태로 복원하는 과정을 포함한다.
메모리(820)는 프로세서(810)에 연결되고, 프로세서(810)에 의해 실행가능한 인스트럭션들 및 프로세서(810)가 연산할 데이터 또는 프로세서(810)에 의해 처리된 데이터를 저장할 수 있다. 메모리(820)는 비일시적인 컴퓨터 판독가능 매체, 예컨대 고속 랜덤 액세스 메모리 및/또는 비휘발성 컴퓨터 판독가능 저장 매체를 포함할 수 있다.
도 9는 일 실시예에 따른 컴퓨팅 장치의 구성을 도시하는 도면이다.
도 9를 참조하면, 컴퓨팅 장치(900)는 위에서 설명한 영상 융합 방법을 이용하여 응용 영역을 수행하는 장치이다. 일 실시예에서, 컴퓨팅 장치(900)는 도 5에서 설명된 얼굴 인증 장치에 대응할 수 있다. 컴퓨팅 장치(120)는, 예를 들어 영상 처리 장치, 스마트폰, 웨어러블 기기(wearable device), 태블릿 컴퓨터, 넷북, 랩탑, 데스크탑, PDA(personal digital assistant), 셋탑 박스, 가전 기기, 생체 도어락, 보안 장치 또는 차량 시동 장치일 수 있다. 컴퓨팅 장치(900)는 도 8의 영상 융합 장치(800)의 기능을 그대로 포함할 수 있다.
도 9를 참조하면, 컴퓨팅 장치(900)는 프로세서(910), 저장 장치(920), 카메라(930), 입력 장치(940), 출력 장치(950) 및 네트워크 인터페이스(960)를 포함할 수 있다. 프로세서(910), 저장 장치(920), 카메라(930), 입력 장치(940), 출력 장치(950) 및 네트워크 인터페이스(960)는 통신 버스(970)를 통해 서로 통신할 수 있다.
프로세서(910)는 컴퓨팅 장치(900) 내에서 실행하기 위한 기능 및 인스트럭션들을 실행한다. 예를 들어, 프로세서(910)는 저장 장치(940)에 저장된 인스트럭션들을 처리할 수 있다. 프로세서(910)는 도 1 내지 도 8을 통하여 전술한 하나 이상의 동작을 수행할 수 있다.
저장 장치(920)는 프로세서의 실행에 필요한 정보 내지 데이터를 저장한다. 저장 장치(920)는 컴퓨터 판독가능한 저장 매체 또는 컴퓨터 판독가능한 저장 장치를 포함할 수 있다. 저장 장치(920)는 프로세서(910)에 의해 실행하기 위한 인스트럭션들을 저장할 수 있고, 컴퓨팅 장치(900)에 의해 소프트웨어 또는 애플리케이션이 실행되는 동안 관련 정보를 저장할 수 있다.
카메라(930)는 복수의 영상 프레임들로 구성되는 영상을 캡쳐할 수 있다. 예를 들어, 카메라(930)는 얼굴 인증을 시도하는 사용자를 캡쳐하여 복수의 영상 프레임들로 구성되는 쿼리 얼굴 영상을 획득할 수 있다.
입력 장치(940)는 촉각, 비디오, 오디오 또는 터치 입력을 통해 사용자로부터 입력을 수신할 수 있다. 예를 들어, 입력 장치(940)는 키보드, 마우스, 터치 스크린, 마이크로폰, 또는 사용자로부터 입력을 검출하고, 검출된 입력을 컴퓨팅 장치(900)에 전달할 수 있는 임의의 다른 장치를 포함할 수 있다.
출력 장치(950)는 시각적, 청각적 또는 촉각적인 채널을 통해 사용자에게 컴퓨팅 장치(900)의 출력을 제공할 수 있다. 출력 장치(950)는 예를 들어, 디스플레이, 터치 스크린, 스피커, 진동 발생 장치 또는 사용자에게 출력을 제공할 수 있는 임의의 다른 장치를 포함할 수 있다. 네트워크 인터페이스(960)는 유선 또는 무선 네트워크를 통해 외부 장치와 통신할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.

Claims (20)

  1. 영상 융합 방법에 있어서,
    제1 영상 프레임으로부터 상기 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하는 단계;
    상기 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 상기 제1 영상 프레임을 변형(transform)하는 단계;
    제2 영상 프레임으로부터 상기 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하는 단계;
    상기 검출된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 영상 프레임을 변형하는 단계; 및
    상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 획득하는 단계
    를 포함하고,
    상기 영상 융합 방법은,
    상기 제1 영상 프레임 또는 상기 변형된 제1 영상 프레임의 영상 품질을 측정하는 단계; 및
    상기 측정된 영상 품질이 미리 설정된 조건을 만족시키는 경우에, 상기 제1 영상 프레임에서 상기 제1 특징점들을 검출하는 것으로 결정하거나 또는 상기 변형된 제1 영상 프레임에 기초하여 상기 결합 영상을 획득하는 것으로 결정하는 단계
    를 더 포함하는
    영상 융합 방법.
  2. 제1항에 있어서,
    상기 제1 영상 프레임을 변형하는 단계는,
    상기 제1 특징점들이 상기 기준점들의 위치에 오도록 상기 제1 영상 프레임을 변형하고,
    상기 제2 영상 프레임을 변형하는 단계는,
    상기 제2 특징점들이 상기 기준점들의 위치에 오도록 상기 제2 영상 프레임을 변형하는, 영상 융합 방법.
  3. 영상 융합 방법에 있어서,
    제1 영상 프레임으로부터 상기 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하는 단계;
    상기 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 상기 제1 영상 프레임을 변형(transform)하는 단계;
    제2 영상 프레임으로부터 상기 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하는 단계;
    상기 검출된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 영상 프레임을 변형하는 단계; 및
    상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 획득하는 단계
    를 포함하고,
    상기 제1 영상 프레임을 변형하는 단계는,
    상기 검출된 제1 특징점들에 기초하여 상기 제1 영상 프레임에서 제1 객체 영역을 검출하는 단계; 및
    상기 검출된 제1 객체 영역에 포함된 제1 특징점들과 상기 기준점들에 기초하여 상기 제1 객체 영역에 영상 와핑(image warping)을 수행하는 단계를 포함하고,
    상기 제2 영상 프레임을 변형하는 단계는,
    상기 검출된 제2 특징점들에 기초하여 상기 제2 영상 프레임에서 제2 객체 영역을 검출하는 단계; 및
    상기 검출된 제2 객체 영역에 포함된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 객체 영역에 영상 와핑을 수행하는 단계
    를 포함하는 영상 융합 방법.
  4. 제3항에 있어서,
    상기 결합 영상을 획득하는 단계는,
    상기 영상 와핑이 수행된 제1 객체 영역과 상기 영상 와핑이 수행된 제2 객체 영역을 결합시키는 단계
    를 포함하는 영상 융합 방법.
  5. 제1항에 있어서,
    상기 결합 영상을 획득하는 단계는,
    상기 변형된 제1 영상 프레임의 제1 픽셀 값과 상기 변형된 제2 영상 프레임의 제2 픽셀 값을 결합시키는 것에 의해 상기 결합 영상을 생성하는 단계
    를 포함하는 영상 융합 방법.
  6. 제5항에 있어서,
    상기 제1 픽셀 값과 상기 제2 픽셀 값 간의 결합은,
    상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임에서, 서로 대응되는 위치의 제1 픽셀 값과 제2 픽셀 값 간의 합, 평균, 가중 합(weighted sum) 또는 가중 평균(weighted average) 중 어느 하나인, 영상 융합 방법.
  7. 삭제
  8. 제1항에 있어서,
    상기 영상 품질을 측정하는 단계는,
    상기 제1 영상 프레임의 밝기를 측정하는 단계를 포함하고,
    상기 결정하는 단계는,
    상기 제1 영상 프레임의 밝기가 미리 설정된 임계 값보다 작은 경우, 상기 제1 영상 프레임에서 상기 제1 특징점들을 검출하는 것으로 결정하거나 또는 상기 변형된 제1 영상 프레임에 기초하여 상기 결합 영상을 획득하는 것으로 결정하는, 영상 융합 방법.
  9. 영상 융합 방법에 있어서,
    제1 영상 프레임으로부터 상기 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하는 단계;
    상기 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 상기 제1 영상 프레임을 변형(transform)하는 단계;
    제2 영상 프레임으로부터 상기 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하는 단계;
    상기 검출된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 영상 프레임을 변형하는 단계; 및
    상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 획득하는 단계
    를 포함하고,
    상기 영상 융합 방법은,
    상기 제2 영상 프레임 또는 상기 변형된 제2 영상 프레임의 영상 품질을 측정하는 단계; 및
    상기 측정된 영상 품질이 미리 설정된 조건을 만족시키는 경우에, 상기 제2 영상 프레임에서 상기 제2 특징점들을 검출하는 것으로 결정하거나 또는 상기 변형된 제2 영상 프레임에 기초하여 상기 결합 영상을 획득하는 것으로 결정하는 단계
    를 더 포함하는 영상 융합 방법.
  10. 제1항에 있어서,
    상기 영상 융합 방법은,
    제3 영상 프레임으로부터 상기 제3 영상 프레임에 나타난 객체의 제3 특징점들을 검출하는 단계;
    상기 검출된 제3 특징점들과 상기 기준점들에 기초하여 상기 제3 영상 프레임을 변형하는 단계; 및
    상기 획득된 결합 영상과 상기 변형된 제3 영상 프레임을 결합시키는 단계
    를 더 포함하는 영상 융합 방법.
  11. 제1항에 있어서,
    상기 제1 특징점들을 검출하는 단계는,
    상기 제1 영상 프레임에서 얼굴의 랜드마크들을 검출하고,
    상기 제2 특징점들을 검출하는 단계는,
    상기 제2 영상 프레임에서 얼굴의 랜드마크들을 검출하는, 영상 융합 방법.
  12. 제1항에 있어서,
    상기 영상 융합 방법은,
    상기 제2 특징점들과 상기 기준점들 간의 대응 관계에 기초하여 상기 결합 영상을 변형하는 단계
    를 더 포함하는 영상 융합 방법.
  13. 제12항에 있어서,
    상기 변형된 결합 영상으로부터 얼굴 인증을 위한 특징이 추출되는, 영상 융합 방법.
  14. 제1항 내지 제6항 및 제8항 내지 제13항 중 어느 하나의 항의 방법을 실행하기 위한 인스트럭션들을 저장하는 컴퓨터 판독 가능한 저장 매체.
  15. 프로세서를 포함하는 영상 융합 장치로서,
    상기 프로세서는,
    제1 영상 프레임으로부터 상기 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하고,
    상기 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 상기 제1 영상 프레임을 변형하고,
    제2 영상 프레임으로부터 상기 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하고,
    상기 검출된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 영상 프레임을 변형하고,
    상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 생성하고
    상기 프로세서는,
    상기 제1 영상 프레임 또는 상기 변형된 제1 영상 프레임의 영상 품질을 측정하고, 상기 측정된 영상 품질이 미리 설정된 조건을 만족시키는 경우에, 상기 제1 영상 프레임에서 상기 제1 특징점들을 검출하는 것으로 결정하거나 또는 상기 변형된 제1 영상 프레임에 기초하여 상기 결합 영상을 획득하는 것으로 결정하는,
    영상 융합 장치.
  16. 제15항에 있어서,
    상기 프로세서는,
    상기 제1 특징점들이 상기 기준점들의 위치에 오도록 상기 제1 영상 프레임을 변형하는 것에 의해 상기 변형된 제1 영상 프레임을 생성하고,
    상기 제2 특징점들이 상기 기준점들의 위치에 오도록 상기 제2 영상 프레임을 변형하는 것에 의해 상기 변형된 제2 영상 프레임을 생성하는, 영상 융합 장치.
  17. 프로세서를 포함하는 영상 융합 장치로서,
    상기 프로세서는,
    제1 영상 프레임으로부터 상기 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하고,
    상기 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 상기 제1 영상 프레임을 변형하고,
    제2 영상 프레임으로부터 상기 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하고,
    상기 검출된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 영상 프레임을 변형하고,
    상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 생성하고
    상기 프로세서는,
    상기 검출된 제1 특징점들에 기초하여 상기 제1 영상 프레임에서 제1 객체 영역을 검출하고, 상기 검출된 제1 객체 영역에 포함된 제1 특징점들과 상기 기준점들에 기초하여 상기 제1 객체 영역에 영상 와핑을 수행하고,
    상기 검출된 제2 특징점들에 기초하여 상기 제2 영상 프레임에서 제2 객체 영역을 검출하고, 상기 검출된 제2 객체 영역에 포함된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 객체 영역에 영상 와핑을 수행하는, 영상 융합 장치.
  18. 프로세서를 포함하는 영상 융합 장치로서,
    상기 프로세서는,
    제1 영상 프레임으로부터 상기 제1 영상 프레임에 나타난 객체의 제1 특징점들을 검출하고,
    상기 검출된 제1 특징점들과 미리 정의된 기준점들에 기초하여 상기 제1 영상 프레임을 변형하고,
    제2 영상 프레임으로부터 상기 제2 영상 프레임에 나타난 객체의 제2 특징점들을 검출하고,
    상기 검출된 제2 특징점들과 상기 기준점들에 기초하여 상기 제2 영상 프레임을 변형하고,
    상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임을 결합시키는 것에 의해 결합 영상을 생성하고
    상기 프로세서는,
    상기 변형된 제1 영상 프레임의 제1 픽셀 값과 상기 변형된 제2 영상 프레임의 제2 픽셀 값을 결합시키는 것에 의해 상기 결합 영상을 생성하는, 영상 융합 장치.
  19. 제18항에 있어서,
    상기 제1 픽셀 값과 상기 제2 픽셀 값 간의 결합은,
    상기 변형된 제1 영상 프레임과 상기 변형된 제2 영상 프레임에서, 서로 대응되는 위치의 제1 픽셀 값과 제2 픽셀 값 간의 합, 평균, 가중 합 또는 가중 평균 중 어느 하나인, 영상 융합 장치.
  20. 제15항에 있어서,
    상기 프로세서는,
    상기 제2 특징점들과 상기 기준점들 간의 대응 관계에 기초하여 상기 결합 영상을 변형하는, 영상 융합 장치
KR1020180016451A 2018-02-09 2018-02-09 영상 융합 방법 및 장치 KR102466998B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020180016451A KR102466998B1 (ko) 2018-02-09 2018-02-09 영상 융합 방법 및 장치
CN201811351115.XA CN110136224A (zh) 2018-02-09 2018-11-14 图像融合方法和设备
US16/223,382 US11449971B2 (en) 2018-02-09 2018-12-18 Method and apparatus with image fusion
EP19152305.9A EP3525165B1 (en) 2018-02-09 2019-01-17 Method and apparatus with image fusion
US17/947,366 US20230015107A1 (en) 2018-02-09 2022-09-19 Method and apparatus with image fusion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180016451A KR102466998B1 (ko) 2018-02-09 2018-02-09 영상 융합 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20190096703A KR20190096703A (ko) 2019-08-20
KR102466998B1 true KR102466998B1 (ko) 2022-11-14

Family

ID=65036679

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180016451A KR102466998B1 (ko) 2018-02-09 2018-02-09 영상 융합 방법 및 장치

Country Status (4)

Country Link
US (2) US11449971B2 (ko)
EP (1) EP3525165B1 (ko)
KR (1) KR102466998B1 (ko)
CN (1) CN110136224A (ko)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017212339A1 (de) * 2017-07-19 2019-01-24 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bewertung von Bildausschnitten für eine Korrespondenzbildung
US20210209393A1 (en) * 2018-07-06 2021-07-08 Rakuten, Inc. Image processing system, image processing method, and program
US11495041B2 (en) * 2019-03-29 2022-11-08 Jumio Corporation Biometric identification using composite hand images
CN114245987A (zh) * 2019-08-07 2022-03-25 谷歌有限责任公司 用于视频通话的基于面部的帧速率上采样
CN110728620A (zh) * 2019-09-30 2020-01-24 北京市商汤科技开发有限公司 一种图像处理方法、装置和电子设备
EP3971820A4 (en) 2019-09-30 2022-08-10 Beijing Sensetime Technology Development Co., Ltd. IMAGE PROCESSING METHOD, DEVICE AND ELECTRONIC DEVICE
CN112785533B (zh) * 2019-11-07 2023-06-16 RealMe重庆移动通信有限公司 图像融合方法、图像融合装置、电子设备与存储介质
US11790521B2 (en) * 2020-04-10 2023-10-17 Hughes Network Systems, Llc System and method to use machine learning to ensure proper installation and/or repair by technicians
KR20210128491A (ko) * 2020-06-29 2021-10-26 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 위험 주행 행위 식별 방법, 장치, 전자 설비 및 저장매체
CN111882583B (zh) * 2020-07-29 2023-11-14 成都英飞睿技术有限公司 一种运动目标检测方法、装置、设备及介质
CN111863539B (zh) * 2020-08-05 2022-04-12 沈阳铁路信号有限责任公司 一种电磁继电器的触头表面成分叠加融合方法
US11334961B2 (en) * 2020-08-06 2022-05-17 Apple Inc. Multi-scale warping circuit for image fusion architecture
US20220076377A1 (en) * 2020-09-04 2022-03-10 Faceful Prints LLC System and Method of Stitching Partial Facial Images for Custom Printed Facemasks
KR20220111526A (ko) * 2021-02-02 2022-08-09 자이메드 주식회사 실시간 생체 이미지 인식 방법 및 장치
KR20220126546A (ko) * 2021-03-09 2022-09-16 삼성전자주식회사 전자 장치 및 그의 얼굴 인식 방법
CN113269054B (zh) * 2021-04-30 2022-06-10 重庆邮电大学 一种基于时空2d卷积神经网络的航拍视频分析方法
CN114187695B (zh) * 2021-12-08 2023-12-08 上海世茂物联网科技有限公司 一种用于车库的道闸控制方法、装置、系统、设备及介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7142723B2 (en) * 2003-07-18 2006-11-28 Microsoft Corporation System and process for generating high dynamic range images from multiple exposures of a moving scene
KR100858087B1 (ko) 2007-02-14 2008-09-10 삼성전자주식회사 객체 포즈 정규화 방법과 장치 및 객체 인식 방법
JP4629740B2 (ja) 2008-01-16 2011-02-09 富士フイルム株式会社 撮像装置および方法並びにプログラム
JP4483963B2 (ja) * 2008-03-25 2010-06-16 ソニー株式会社 撮像装置、撮像方法
JP2010244251A (ja) 2009-04-03 2010-10-28 Seiko Epson Corp 顔の特徴部位の座標位置を検出する画像処理装置
KR101089287B1 (ko) 2010-06-09 2011-12-05 한국과학기술원 다중 얼굴 특징 정보 융합 기반 자동 얼굴 인식 장치 및 방법
CN103295211B (zh) * 2012-03-01 2016-01-27 汉王科技股份有限公司 婴儿图像合成方法及装置
WO2013132402A2 (en) * 2012-03-08 2013-09-12 Koninklijke Philips N.V. Intelligent landmark selection to improve registration accuracy in multimodal image fusion
TWI501131B (zh) * 2013-02-04 2015-09-21 Pixart Imaging Inc 光學處理裝置、光源亮度設定方法及其電腦程式產品
US10120879B2 (en) * 2013-11-29 2018-11-06 Canon Kabushiki Kaisha Scalable attribute-driven image retrieval and re-ranking
GB2536430B (en) * 2015-03-13 2019-07-17 Imagination Tech Ltd Image noise reduction
KR102477190B1 (ko) 2015-08-10 2022-12-13 삼성전자주식회사 얼굴 인식 방법 및 장치
CN105915796A (zh) * 2016-05-31 2016-08-31 努比亚技术有限公司 一种电子光圈拍摄方法及终端
CN106469442A (zh) 2016-09-23 2017-03-01 邹建成 一种基于阵列图像的低照度图像增强方法
CN107154030B (zh) * 2017-05-17 2023-06-09 腾讯科技(上海)有限公司 图像处理方法及装置、电子设备及存储介质
CN107301620B (zh) * 2017-06-02 2019-08-13 西安电子科技大学 基于相机阵列的全景成像方法
CN107231526B (zh) * 2017-06-09 2020-02-21 联想(北京)有限公司 图像处理方法以及电子设备
CN107507160B (zh) * 2017-08-22 2021-04-23 努比亚技术有限公司 一种图像融合方法、终端及计算机可读存储介质
KR102383669B1 (ko) * 2018-10-23 2022-04-06 한국전자통신연구원 Hlbp 디스크립터 정보를 이용한 시차 최소화 스티칭 장치 및 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Marius Tico et al., ‘Low-light imaging solutions for mobile devices’, 2009 Conference Record of the Forty-Third Asilomar Conference on Signals, Systems and Computers, November 2009.*
Ziwei Liu et al., ‘Fast Burst Images Denoising’, ACM Transactions on Graphics, Vol.33, No.6, Article 232, November 2014.*

Also Published As

Publication number Publication date
EP3525165B1 (en) 2021-08-25
US11449971B2 (en) 2022-09-20
US20190251684A1 (en) 2019-08-15
KR20190096703A (ko) 2019-08-20
CN110136224A (zh) 2019-08-16
US20230015107A1 (en) 2023-01-19
EP3525165A1 (en) 2019-08-14

Similar Documents

Publication Publication Date Title
KR102466998B1 (ko) 영상 융합 방법 및 장치
JP7365445B2 (ja) コンピューティング装置及び方法
KR102415509B1 (ko) 얼굴 인증 방법 및 장치
KR102299847B1 (ko) 얼굴 인증 방법 및 장치
KR102370063B1 (ko) 얼굴 인증 방법 및 장치
KR102359558B1 (ko) 얼굴 인증 방법 및 장치
US9098760B2 (en) Face recognizing apparatus and face recognizing method
KR101494874B1 (ko) 사용자 인증 방법, 이를 실행하는 장치 및 이를 저장한 기록 매체
KR101956071B1 (ko) 사용자 인증 방법 및 장치
KR102655949B1 (ko) 3d 영상 기반의 얼굴 인증 방법 및 장치
US9773322B2 (en) Image processing apparatus and image processing method which learn dictionary
KR20180043937A (ko) 표정 인식 방법 및 장치
TW201701187A (zh) 手勢檢測識別方法及系統
EP2782047A2 (en) Line-of-sight detection apparatus and image capturing apparatus
US10140503B2 (en) Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus
WO2018159037A1 (ja) 顔検出装置およびその制御方法、並びにプログラム
KR102380426B1 (ko) 얼굴 인증 방법 및 장치
KR101802061B1 (ko) 얼굴 시공간 특징에 기반한 자동 생체 인증 방법 및 시스템
KR102665968B1 (ko) 블러 추정 방법 및 장치
KR20210050650A (ko) 모바일 기기의 페이스 인증을 통한 잠금 해제 방법
KR20200034018A (ko) 적외선 영상 기반 얼굴 인식 방법 및 이를 위한 학습 방법
US10943094B2 (en) Information processing apparatus for estimating age and method thereof
KR20210050649A (ko) 모바일 기기의 페이스 인증 방법
KR20210001270A (ko) 블러 추정 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant