KR20180040469A - 이미지 정합 방법 및 장치 - Google Patents

이미지 정합 방법 및 장치 Download PDF

Info

Publication number
KR20180040469A
KR20180040469A KR1020160165384A KR20160165384A KR20180040469A KR 20180040469 A KR20180040469 A KR 20180040469A KR 1020160165384 A KR1020160165384 A KR 1020160165384A KR 20160165384 A KR20160165384 A KR 20160165384A KR 20180040469 A KR20180040469 A KR 20180040469A
Authority
KR
South Korea
Prior art keywords
image
region
images
area
brightness
Prior art date
Application number
KR1020160165384A
Other languages
English (en)
Inventor
김동균
임성현
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to EP17861083.8A priority Critical patent/EP3528492A4/en
Priority to PCT/KR2017/011240 priority patent/WO2018070799A1/ko
Priority to CN201780068474.1A priority patent/CN109906602B/zh
Priority to US16/341,336 priority patent/US11017508B2/en
Publication of KR20180040469A publication Critical patent/KR20180040469A/ko

Links

Images

Classifications

    • G06T5/94
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/0012Context preserving transformation, e.g. by using an importance map
    • G06T3/04
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • H04N5/2258
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

이미지 정합 방법 및 장치가 개시된다. 본 실시예에 따른 방법은, 소스 이미지를 획득하는 단계; 소스 이미지의 표시 모드를 탑 뷰로 변환하고 AE(auto exposure)를 통하여 밝기를 조절하여 변환 이미지를 확득하는 단계; 이미지 정보를 획득하는 단계; 이미지 정보에 기초하여 보정된 변환 이미지의 픽셀이 배치되는 중첩영역 내의 제1 영역 및 제2 영역을 포함하는 타겟 이미지를 생성하는 단계를 포함하되, 보정은 제1 영역에 배치된 이미지의 픽셀과 제2 영역에 이미지의 픽셀에 대한 그라데이션 보정을 포함한다.

Description

이미지 정합 방법 및 장치{METHOD AND APPARATUS FOR STITCHING IMAGE}
본 발명은 이미지 처리(image processing)에 관한 방법 및 장치에 관한 것으로, 더욱 상세하게는 어라운드 뷰 모니터링(around view monitoring, AVM)을 위해 소스 이미지를 이용하여 정합된 어라운드 뷰(around view) 이미지를 생성하는 방법 및 장치에 관한 것이다.
자동차 및 교통량의 증가로 인하여 교통사고 급증이 사회 문제화 되면서 사고를 미연에 방지할 수 있는 운전자 보조 시스템에 대한 연구가 활발하게 이루어지고 있다. 운전자 보조 시스템은 운전자의 안전한 운전을 위해 주행 또는 주차 중에 운전자에게 도움을 주는 시스템이다.
운전자 보조 시스템은 운전자가 운전석에 앉은 상태에서 차량 외부의 상황을 파악할 수 있도록 영상 정보를 제공하는 장치를 필수적으로 포함한다. 그리고 영상 정보를 제공하는 장치는 카메라를 포함한다.
상기 영상 정보를 운전자에게 제공하기 위하여 차량 외부에는 여러 방향을 향하는 복수의 카메라들이 설치될 수 있다. 그리고 각 카메라에서 획득된 영상이 운전자에게 제공됨에 있어서, 획득된 영상들은 여러 가지 뷰 모드에 따라 다르게 변환되어서 운전자에게 제공될 수 있다.
그런데 기존의 기술에 해당되는 알파 블렌딩(alpha blending) 방법에 의해 상기 제공되는 영상들에 밝기의 차이로 인한 단차가 발생하거나 이미지 합성 과정에서 고스트 현상이 발생될 수 있어 문제점으로 지적되고 있다. 이러한 문제점은 어라운드 뷰 모니터링(around view monitoring, AVM) 시스템을 위한 영상에서 특히 지적되고 있다.
어라운드 뷰 모니터링 시스템은 여러 대의 카메라를 장착하여 차량 주변 상황을 운전자에게 영상으로 제공하기 위해 최근 활발히 연구되고 있는 시스템이다. 국내뿐만 아니라 독일과 일본의 여러 자동차 회사들은 이미 어라운드 뷰 모니터링 시스템을 제품으로 개발하여 출시하고 있다. 최근에는 여러 대의 카메라를 장착하여 운전자에게 하늘 위에서 보는 것 같은 조감도(Bird's Eye View)를 제공하는 시스템들이 주류를 이루고 있다.
어라운드 뷰 모니터링 시스템은 영상 정보를 제공하는 장치를 통해 제한된 수의 카메라에서 획득되는 이미지를 이용하여 주변을, 예를 들면 자동차 주위를 360도의 시야 각으로 표시하는 이미지를 생성할 수 있다. 이때 카메라에 장착되는 렌즈는 넓은 시야각을 얻기 위해 어안렌즈 또는 비슷한 유형의 광각 렌즈가 사용될 수 있다. 그런데, 상기 렌즈에 의해 획득된 이미지들은 사람의 시각에 기초하는 이미지들과 다르게 표시되고, 자동차에 설치되는 카메라 렌즈의 방향과는 다르게 최종 출력될 이미지가 탑 뷰(top view) 형태의 이미지이기 때문에 복수의 카메라들에서 획득된 이미지들은 각종 영상 신호 처리를 거쳐야 한다.
이러한 일련의 과정이 필요한 이유는 자동차의 지붕이 정면으로 촬영되도록 자동차에 카메라가 설치될 수 없기 때문이다.
도 1a 내지 도 1c는 기존의 기술에 따라 출력된 영상을 나타내다.
도 1a 내지 도 1c 를 참조하면, 알파 블렌딩이라는 보정 방법에 따른 밝기의 단차 현상이 도 1b에 나타나 있다. 또한 알파 블렌딩이라는 보정 방법에 따른 고스트 현상이 도 1c에 나타나 있다. 고스트(ghost) 현상이란 어느 영역에 존재하지 않는 물체가 마치 유령처럼 존재하는 것처럼 보이는 현상으로, 주변의 픽셀을 이용하여 해당 영역의 픽셀을 보정하는 알파 블렌딩에 의해 발생될 수 있다.
본 발명은 복수의 이미지를 정합하는 과정에서 이미지 정보를 각각 추출하고, 추출된 값을 바탕으로 보정값을 결정한 뒤, 결정된 보정값을 기준으로 중첩 영역에 점진적 보정을 수행한 후, 보정된 이미지를 정합하는 방법을 통하여, 복수의 이미지를 정합하는 과정에서 발생할 수 있는 밝기의 단차 및 고스트 현상을 방지하거나 줄일 수 있는 이미지 정합 방법 및 이미지 정합 장치를 제공하는 것이다.
또한, 본 발명은 복수의 이미지를 정합하는 과정에서 적어도 두 이미지 내 중첩되는 영역에서의 이미지 정보만을 이용하여 보정값을 결정함으로써, 복수의 이미지를 정합하는 과정에서 중첩 영역에 노이즈를 줄일 수 있는 이미지 정합 방법 및 이미지 정합 장치를 제공할 수 있다.
또한, 본 발명은 복수의 이미지를 정합하는 과정에서 적어도 두 이미지가 가지는 정보의 차이값을 결정하고, 복수의 이미지에 정합되는 중첩되는 영역에 결정된 차이값을 점진적으로 반영하여 보정함으로써, 밝기의 단차 및 고스트 현상을 방지하거나 줄일 수 있는 이미지 정합 방법 및 이미지 정합 장치를 제공할 수 있다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 따른 이미지 정합 방법은 차량에 탑재된 카메라 장치를 통해 획득된 서로 다른 복수의 이미지 각각에서 이미지 정보를 추출하는 단계; 및 추출된 복수의 상기 이미지 정보를 바탕으로 보정 기준에 따른 단계적 차이(gradation)로 적용시켜 상기 복수의 이미지를 보정 및 정합하여 타겟 이미지를 출력하는 단계를 포함할 수 있다.
또한, 상기 이미지 정보는 밝기(brightness) 정보 및 명암대비(contrast) 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 타겟 이이지를 출력하는 단계는 추출된 상기 이미지 정보를 바탕으로 보정 기준값을 결정하는 단계; 상기 보정 기준값을 단계적 차이(gradation)로 적용시켜 상기 복수의 이미지 각각을 보정하는 단계; 및 보정된 상기 복수의 이미지를 정합하여 타겟 이미지를 출력하는 단계를 포함할 수 있다.
또한, 상기 서로 다른 복수의 이미지는 복수의 카메라 장치에서 획득된 이미지를 탑뷰(top view) 형태로 변환된 이미지일 수 있다.
또한, 상기 보정 기준값은 복수의 상기 이미지 정보에 대한 평균값(average), 중앙값(median), 최빈값(mode), 및 표준편차(standard deviation) 중 적어도 하나로 결정될 수 있다.
또한, 이미지 정합 방법은 상기 이미지 내 비중첩 영역과 중첩 영역을 설정하는 단계를 더 포함할 수 있다.
또한, 상기 이미지 정보는 상기 복수의 이미지 각각의 전체가 아닌 상기 복수의 이미지 각각에 포함된 상기 중첩 영역에서 추출될 수 있다.
또한, 상기 단계적 차이는 상기 중첩 영역의 중심에서 상기 비중첩 영역의 경계의 직선 방향으로 적용되는 선형 단계적 차이를 포함할 수 있다.
또한, 상기 단계적 차이는 상기 비중첩 영역과 상기 중첩 영역의 경계에서 상기 이미지의 끝(edge)의 직선 방향으로 적용되는 선형 단계적 차이를 포함할 수 있다.
또한, 상기 단계적 차이는 상기 비중첩 영역의 중심에서 상기 이미지의 끝(edge)의 방사형 방향으로 적용되는 비선형 단계적 차이를 포함할 수 있다.
또한, 상기 타겟 이미지를 출력하는 단계는 보정된 이미지 내 상기 타겟 이미지에 삽입될 영역에 대응하는 영역의 데이터를 추출하는 단계; 및 추출된 상기 데이터를 타겟 이미지 내 기 설정된 영역에 배치시키는 단계를 포함할 수 있다.
또한, 상기 이미지 정보를 추출하는 단계는 상기 복수의 이미지를 상기 타겟 이미지에 삽입될 영역에 대응하는 영역의 데이터를 추출하는 단계; 및 추출된 상기 데이터에서 상기 이미지 정보를 추출하는 단계를 포함할 수 있다.
또한, 상기 타겟 이미지를 출력하는 단계에서, 상기 단계적 차이는 상기 중첩 영역의 중심에서 상기 비중첩 영역의 경계의 직선 방향으로 적용되는 선형 단계적 차이를 포함할 수 있다.
또한, 상기 타겟 이미지를 출력하는 단계에서, 상기 단계적 차이는 상기 추출된 이미지의 중심에서 끝(edge)의 직선 방향으로 적용되는 선형 단계적 차이를 포함할 수 있다.
또한, 상기 타겟 이미지를 출력하는 단계에서, 상기 단계적 차이는 상기 추출된 이미지의 중심에서 끝(edge)의 방사형 방향으로 적용되는 비선형 단계적 차이를 포함할 수 있다.
본 발명의 다른 실시예에 따른 컴퓨터 판독 가능한 기록매체는, 프로세서에 의해 실행되는 것을 통하여, 전술한 이미지 정합 방법을 실현하는 것을 특징으로 하는 응용 프로그램이 기록될 수 있다.
본 발명의 또 다른 실시예에 따른 이미지 정합 장치는 적어도 하나의 프로세서와 컴퓨터 프로그램이 저장된 적어도 하나의 메모리 장치를 포함하는 프로세싱 시스템을 포함하고, 상기 프로세싱 시스템은 상기 이미지 정합 장치가 서로 다른 복수의 이미지 각각에서 이미지 정보를 추출하는 단계; 및 추출된 복수의 상기 이미지 정보를 바탕으로 보정 기준에 따른 단계적 차이(gradation)로 적용시켜 상기 복수의 이미지를 보정 및 정합하여 타겟 이미지를 출력하는 단계를 수행하도록 하고, 상기 서로 다른 복수의 이미지는 복수의 카메라 장치에서 획득된 이미지를 탑뷰(top view) 형태로 변환된 이미지일 수 있다.
또한, 상기 타겟 이이미를 출력하는 단계는 추출된 상기 이미지 정보를 바탕으로 보정 기준값을 결정하는 단계; 상기 보정 기준값을 단계적 차이(gradation)로 적용시켜 상기 복수의 이미지 각각을 보정하는 단계; 및 보정된 상기 복수의 이미지를 정합하여 타겟 이미지를 출력하는 단계를 포함할 수 있다.
또한, 상기 프로세싱 시스템은 상기 이미지 정합 장치가 상기 복수의 이미지 내 비중첩 영역과 중첩 영역을 설정하는 단계를 더 수행하도록 할 수 있다.
또한, 상기 이미지 정보는 상기 복수의 이미지 각각의 전체가 아닌 상기 복수의 이미지 각각에 포함된 상기 중첩 영역에서 추출될 수 있다.
또한, 상기 프로세싱 시스템은 상기 이미지 정합 장치가 상기 이미지 정보를 추출하기 전, 상기 복수의 이미지 내 상기 타겟 이미지에 삽입될 영역에 대응하는 영역의 데이터를 추출하는 단계를 더 수행하도록 할 수 있다.
또한, 상기 프로세싱 시스템은 상기 이미지 정합 장치가 상기 복수의 이미지를 보정한 후, 상기 복수의 이미지 내 상기 타겟 이미지에 삽입될 영역에 대응하는 영역의 데이터를 추출하는 단계를 더 수행하도록 할 수 있다.
또한, 상기 타겟 이미지를 출력하는 단계는 추출된 상기 데이터를 타겟 이미지 내 기 설정된 영역에 배치시키는 단계를 포함할 수 있다.
또한, 상기 이미지 정보는 밝기(brightness) 정보 및 명암대비(contrast) 정보 중 적어도 하나를 포함하고, 상기 보정 기준값은 복수의 상기 이미지 정보에 대한 평균값(average), 중앙값(median), 최빈값(mode), 및 표준편차(standard deviation) 중 적어도 하나로 결정될 수 있다.
본 발명의 또 다른 실시예에 따른 이미지 정합 장치는 서로 다른 두 이미지에 중첩 영역과 비중첩 영역을 설정하는 설정부; 상기 두 이미지 각각에서 상기 중첩 영역에 대한 이미지 정보를 추출하는 추출부; 추출된 상기 이미지 정보를 바탕으로 보정 기준값을 결정하는 결정부; 상기 두 이미지의 상기 중첩 영역에 상기 보정 기준값을 단계적 차이(gradation)로 적용시켜 보정하는 보정부; 및 상기 두 이미지를 보정된 상기 중접 영역을 기준으로 정합하는 정합부를 포함할 수 있다.
또한, 상기 이미지 정보는 밝기(brightness) 정보 및 명암대비(contrast) 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 보정 기준값은 복수의 상기 이미지 정보에 대한 평균값(average), 중앙값(median), 최빈값(mode), 및 표준편차(standard deviation) 중 적어도 하나로 결정될 수 있다.
또한, 상기 단계적 차이는 상기 중첩 영역의 중심에서 상기 비중첩 영역의 경계의 직선 방향으로 적용되는 선형 단계적 차이를 포함할 수 있다.
또한, 상기 단계적 차이는 상기 비중첩 영역과 상기 중첩 영역의 경계에서 상기 이미지의 끝(edge)의 직선 방향으로 적용되는 선형 단계적 차이를 포함할 수 있다.
또한, 상기 단계적 차이는 상기 비중첩 영역의 중심에서 상기 이미지의 끝(edge)의 방사형 방향으로 적용되는 비선형 단계적 차이를 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 이미지 정합 방법은 복수의 소스 이미지들(source images)을 서로 정합하여 타겟 이미지(target image)를 생성하는 방법으로서, 제1 카메라를 통해 제1 촬상영역을 촬영하여 제1 소스 이미지를 획득하고, 제2 카메라를 통해 제1 촬상영역의 일부와 중첩되는 중첩영역을 포함하는 제2 촬상영역을 촬영하여, 상기 제1 소스 이미지의 일부와 중첩되는 중첩영역을 포함하는 제2 소스 이미지를 획득하는 단계; 상기 제1 소스 이미지와 제2 소스 이미지를 탑 뷰(top view)로 변환하고 AE(auto exposure)를 통하여 밝기를 조절하여 제1 변환 이미지 및 제2 변환 이미지를 획득하는 단계; 상기 제1 변환 이미지의 상기 중첩영역에 대한 제1 이미지 정보 및 상기 제2 변환 이미지의 상기 중첩영역에 대한 제2 이미지 정보를 획득하는 단계; 상기 제1 이미지 정보 및 상기 제2 이미지 정보에 기초하여 보정된 상기 제1 변환 이미지의 적어도 일부가 배치되는 상기 중첩영역 내의 제1 영역; 및 상기 제1 이미지 정보 및 상기 제2 이미지 정보에 기초하여 보정된 상기 제2 변환 이미지의 적어도 일부가 배치되고, 상기 제1 영역과 중첩되지 않는 상기 중첩영역 내의 제2 영역을 포함하는 타겟 이미지를 생성하는 단계를 포함하되, 상기 보정은 상기 제1 영역에 배치된 제1 변환 이미지와 상기 제2 영역에 배치된 제2 변환이미지에 대한 그라데이션 보정을 포함할 수 있다.
상기 본 발명의 양태들은 본 발명의 바람직한 실시예들 중 일부에 불과하며, 본원 발명의 기술적 특징들이 반영된 다양한 실시예들이 당해 기술분야의 통상적인 지식을 가진 자에 의해 이하 상술할 본 발명의 상세한 설명을 기반으로 도출되고 이해될 수 있다.
본 발명에 따른 장치에 대한 효과에 대해 설명하면 다음과 같다.
본 발명은 복수의 소스 이미지 사이의 밝기 차이로 인한 정합된 타겟 이미지의 밝기 단차를 감소시킬 수 있다.
또한, 복수의 이미지를 정합한 타겟 이미지에서 중첩된 영역에서 발생할 수 있는 고스트 현상을 감소시킬 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
이하에 첨부되는 도면들은 본 발명에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 본 발명에 대한 실시예들을 제공한다. 다만, 본 발명의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시예로 구성될 수 있다.
도 1a 내지 도 1c는 기존의 기술에 따라 출력된 영상을 나타낸다.
도 2는 이미지 정합 장치의 블록도이다.
도 3은 이미지 정합 방법을 설명한다.
도 4는 이미지 정보 추출 방법의 제1예를 설명한다.
도 5는 이미지 정보 추출 방법의 제2예를 설명한다.
도 6은 이미지 정합 방법의 흐름도이다.
도 7은 도 6의 S340에 포함되는 단계들에 관한 흐름도이다.
도 8은 본 발명에서 사용되는 용어를 설명하기 위한 타겟 이미지의 개략도이다.
도 9a 내지 9c는 파라미터 C의 크기에 따라 다르게 보정되는 타겟 이미지를 나타내는 예시도이다.
도 10은 이미지 정합 장치의 제1예를 설명한다.
도 11은 이미지 정합 장치의 제2예를 설명한다.
도 12a는 알파 블렌딩 방법에 따라 정합된 타겟 이미지를 나타내는 예시도이다.
도 12b는 본 출원발명의 하나의 실시예에 따라 정합된 타겟 이미지를 나타내는 예시도이다.
도 12c는 알파 블렌딩 및 본 출원발명의 하나의 실시예에 따라 정합된 타겟 이미지를 나타내는 예시도이다.
도 13은 도12a 내지 12c에서 설명한 정합 이미지를 보다 구체적으로 설명하는 예시도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. 또한 제1, 제2 등의 용어는 the first 또는 the second의 의미로 해석되기 보다는 one 또는 another의 의미로 해석되는 것이 더 바람직하다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
본 발명에는 제1 카메라 및 제2 카메라가 기재되어 있고, 제1 촬상영역 및 제2 촬상영역이 기재되어 있으나, 이는 하나의 예시에 해당될 뿐이므로 제2 및 제3의 구성요소가 포함됨을 전재로 한다. 즉, 제1 카메라 내지 제4 카메라, 제1 촬상영역 내지 제4 촬상영역, 마찬가지로 제1 소스 이미지 내지 제4 소스 이미지, 제1 변환 이미지 내지 제4 변환 이미지, 및 제1 영역 내지 제2 영역은 본 발명에 포함되어 있는 구성요소들이다.
이하 본 출원발명의 하나의 실시예에 따른 이미지 정합 장치에 대해 설명하기로 한다.
도 2는 본 출원발명의 하나의 실시예에 따른 이미지 정합 장치의 블록도이다.
도 2를 참조하면, 상기 이미지 정합 장치(100)는, 이미지 획득부(110), 이미지 프로세서(120), 이미지정보 획득부(130), 보정부(140)를 포함하고, 추가적으로 제1 연산부(150) 및 제2 연산부(160)을 포함할 수 있다.
상기 이미지 정합 장치(100)는 복수의 소스 이미지들(source images)을 서로 정합하여 타겟 이미지(target image)를 생성한다.
이미지 획득부(110)는, 제1 카메라를 통해 제1 촬상영역을 촬영하여 제1 소스 이미지를 획득하고, 제2 카메라를 통해 제2 촬상영역을 촬영하여, 상기 제1 소스 이미지의 일부와 중첩되는 중첩영역을 포함하는 제2 소스 이미지를 획득한다. 따라서 이미지 획득부 (110)는 카메라를 통해 구현될 수 있다. 상기 카메라는 자동차의 전면(front side), 우측면(right side), 후면(rear side) 및 좌측면(left side)에 구비되는 카메라 모듈인 것이 바람직하다.
이미지 프로세서(120)는 제1 소스 이미지와 제2 소스 이미지의 표시 모드를 탑 뷰(top view)로 변환하고 AE(auto exposure)를 통하여 밝기를 조절한다. 이로써 제1 변환 이미지 및 제2 변환 이미지가 획득될 수 있다.
이미지정보 획득부(130)는 제1 변환 이미지의 제1 이미지 정보 및 제2 변환 이미지의 제2 이미지 정보를 획득한다. 여기서 이미지 정보는, 이미지를 구성하는 픽셀들의 RGB 값, 밝기 등을 포함할 수 있다. 또한 이미지 정보는, RGB 이외의 방식에 의해 표현되는 픽셀 정보를 포함할 수 있다.
보정부(140)는, 제1 이미지 정보 및 제2 이미지 정보에 기초하여 보정된 제1 변환 이미지의 픽셀이 배치되는 중첩영역 내의 제1 영역; 및 제1 이미지 정보 및 제2 이미지 정보에 기초하여 보정된 제2 변환 이미지의 픽셀이 배치되고, 제1 영역에 중첩되지 않는 중첩영역 내의 제2 영역을 포함하는 타겟 이미지를 생성한다. 즉, 보정부(140)는 이미지의 픽셀을 보정함으로써 변환 이미지들을 정합하여 타겟 이미지를 생성한다. 여기서, 보정은 제1 영역에 배치된 제1 변환 이미지의 픽셀과 제2 영역에 배치된 제2 변환이미지의 픽셀의 밝기 또는 색상을 조절하는 그라데이션 보정을 포함한다.
제1 연산부(150)는 변환 이미지들의 밝기를 이용하여 제2 변환 이미지 대비 제1 변환 이미지의 밝기비율을 획득한다.
제2 연산부(160)는 밝기비율을 이용하여 변환 이미지의 보정을 위한 밝기 게인을 연산한다.
여기서, 보정부(140)는, 보정의 정도 및 보정 영역을 설정하고, 상기 밝기 게인에 기초하여 변환 이미지들의 픽셀들을 보정하되, 각 중첩영역의 픽셀들을 제1 영역 및 제2 영역으로 나누어 보정을 하고, 제1 영역 대해서는, 중첩된 2개의 소스 이미지 중에서 제1 영역과 가까운 소스 이미지의 픽셀을 원본으로 하여 상기 원본을 보정하고, 제2 영역에 대해서는, 중첩된 2개의 소스 이미지 중에서 제2 영역과 가까운 나머지 소스 이미지의 픽셀을 원본으로 하여 상기 원본을 보정함에 따라 중첩영역을 중심으로 소스 이미지들이 서로 정합되도록 타겟 이미지를 생성한다.
또한, 상기 이미지 정합 장치는(100) 도면을 통해 개시되어 있지 않은 저장부를 더 포함할 수 있다. 저장부는 각 구성요소의 기능이 발휘되는 순서에 따라 해당 구성요소에 이미지를 제공하기 위해 휘발성이 있는 메모리 또는 비휘발적인 메모리에 상기 이미지를 저장할 수 있다.
또한, 이미지 프로세서(120), 이미지정보 획득부(130), 보정부(140), 제1 연산부(150) 및 제2 연산부(160)는 메모리에 저장된 프로그램 명령(program command)을 실행할 수 있다. 그리고 이미지 프로세서(120), 이미지정보 획득부(130), 보정부(140), 제1 연산부(150) 및 제2 연산부(160)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU) 또는 본 발명에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다.
또한 메모리는 휘발성 저장 매체 및/또는 비휘발성 저장 매체로 구성될 수 있다. 예를 들어, 메모리는 읽기 전용 메모리(read only memory, ROM) 및/또는 랜덤 액세스 메모리(random access memory, RAM)로 구성될 수 있다.
한편, 실시예에 따라, 이미지 정합 장치(100)는 복수의 카메라로부터 베이어 패턴 정보를 수신하여 색 보간(color interpolation, demosaicing), 색 보정(color correction), 감마 보정(gamma correction), 색 공간 변환(color space conversion), 및 에지 인핸스먼트(Edge Enhancement) 등의 작업을 선택적으로 수행할 수 있다. 복수의 카메라로부터 베이어 패턴 정보를 수신하여 데이터를 가공, 정합하는 경우, 이미지 정합 장치(100)에 베이어 패턴 정보를 수집, 가공, 정합하는과정을 하나의 이미지 프로세서로 구현할 수도 있다.
이하 본 출원발명의 다른 실시예에 따른 이미지 정합 방법에 대해 설명한다.
도 3은 이미지 정합 방법을 설명한다.
도3을 참조하면, 이미지 정합 방법은 차량에 탑재된 카메라 장치를 통해 획득된 서로 다른 복수의 이미지 각각에서 이미지 정보를 추출하는 단계, 및 추출된 복수의 이미지 정보를 바탕으로 보정 기준에 따른 단계적 차이(gradation)로 적용시켜 복수의 이미지를 보정 및 정합하여 타겟 이미지를 출력하는 단계를 포함할 수 있다.
보다 구체적으로, 이미지 정합 방법은 복수의 카메라 장치에서 획득된 이미지를 탑뷰(top view) 형태로 변환하는 단계(10), 변환된 복수의 이미지 각각에서 이미지 정보를 추출하는 단계(12), 추출된 이미지 정보를 바탕으로 보정 기준값을 결정하는 단계(14), 보정 기준값을 단계적 차이(gradation)로 적용시켜 복수의 이미지 각각을 보정하는 단계(16), 및 보정된 복수의 이미지를 정합하여 타겟 이미지를 출력하는 단계(18)를 포함할 수 있다.
도시되지 않았지만, 타겟 이미지를 출력하는 단계(18)는 보정된 이미지 내 타겟 이미지에 삽입될 영역에 대응하는 영역의 데이터를 추출하는 단계, 및 추출된 데이터를 타겟 이미지 내 기 설정된 영역에 배치시키는 단계를 포함할 수 있다.
복수의 카메라가 차량에 탑재되는 경우, 차량의 전, 후, 좌, 우에 대한 영상을 획득할 수 있다. 이러한 영상을 각각 운전자 또는 사용자에게 보여주는 경우, 운전자 또는 사용자는 차량 주변의 정보를 얻을 수 있는 장점이 있지만, 각각의 영상을 개별적으로 보여주는 경우 차량 주변의 상황을 인지하기 어려울 수 있다. 따라서, 차량을 기준으로 서로 다른 방향에서 얻어지는 영상을 정합하여 차량의 위에서 바라본 것과 같은 이미지(예, 탑뷰(top view) 이미지)처럼 운전자 또는 사용자에게 제공할 수 있다면, 운전자 또는 사용자가 차량 주변의 정보를 인지하기 용이할 수 있다.
카메라에서 획득된 이미지를 탑뷰 영상의 형태로 변환하기 위해서는 이미지 내에 객체와 사물에 대한 원근 효과를 제거할 필요가 있다. 차량에 카메라가 설치된 높이와 각도, 카메라의 수평, 수직 화각 정보가 있으면, 카메라를 통해 획득되는 영상 평면과 운전자 또는 사용자에게 보여줄 실제 평면(탑뷰 형태의 타겟이미지 평면)과의 관계를 알 수 있다. 이러한 관계를 이용하여, 카메라에서 획득된 영상 평면을 사용자에게 보여줄 평면으로 변환할 수 있다.
이후, 변환된 복수의 이미지로부터 이미지 정보를 추출할 수 있다(12). 각각의 이미지는 서로 다른 위치에 배치된 카메라로부터 획득된 것이고, 서로 다른 방향의 대상을 촬영한 것이므로, 영상마다 빛의 양이 다를 수 밖에 없다. 예를 들어, 서로 다른 밝기를 가지는 이미지를 단순히 결합하면 노이즈 등에 의해 운전자 또는 사용자의 혼란을 야기할 수 있는 이미지가 제공될 수도 있다. 이러한 점을 예방하기 위해서는 이미지를 정합하기 전에 해당 이미지에 대한 정보를 추출할 필요가 있다. 예를 들어, 이미지 정보는 밝기(brightness) 정보 및 명암대비(contrast) 정보 중 적어도 하나를 포함할 수 있다.
한편, 도시되지 않았지만, 이미지 정합 방법은 이미지 정보를 추출하기 위해 각각의 이미지 내 비중첩 영역과 중첩 영역을 설정하는 단계를 더 포함할 수 있다. 이 경우, 이미지 정보는 복수의 이미지 각각의 전체가 아닌 복수의 이미지 각각에 포함된 중첩 영역에서 추출될 수 있다.
한편, 실시예에 따라, 이미지 정보를 추출하는 단계(12)는 복수의 이미지를 타겟 이미지에 삽입될 영역에 대응하는 영역의 데이터를 추출하는 단계, 및 추출된 데이터에서 이미지 정보를 추출하는 단계를 포함할 수도 있다. 서로 다른 복수의 카메라를 통해 획득된 이미지 중 일부만을 타겟 이미지의 생성을 위해 사용하는 경우, 이미지 전체에 대한 보정 작업을 수행할 필요가 없을 수 있다. 따라서, 획득된 복수의 이미지를 타겟 이미지에 대응하도록 미리 추출하면, 이후 이미지를 보정하는 과정에서 보정 대상 영역이나 보정값을 연산하는 시간이 감소할 수 있다.
각각의 이미지에서 이미지 정보를 추출하면, 이미지 정보를 바탕으로 보정 기준값을 결정할 수 있다(14). 여기서, 보정 기준값은 복수의 이미지 정보에 대한 평균값(average), 중앙값(median), 최빈값(mode), 및 표준편차(standard deviation) 중 적어도 하나로 결정될 수 있다. 또한, 보정 기준값은 두 이미지 정보의 비율 또는 차이값에 따라 결정될 수도 있다.
보정 기준값이 결정되면, 각각의 이미지를 보정할 수 있다(16). 이때, 이미지 전체에 대해 보정 기준값을 이용하여 보정하기 보다는 다른 이미지와 중첩될 영역에만 보정 기준값을 이용하여 보정할 수 있다. 예를 들어, 이미지 보정은 중첩 영역의 중심에서 비중첩 영역의 경계의 직선 방향으로 적용되는 선형 단계적 차이(gradation) 방법을 적용할 수 있다.
또한 실시예에 따라, 이미지 보정은 이미지 내 비중첩 영역과 중첩 영역의 경계에서 이미지의 끝(edge)의 직선 방향으로 적용되는 선형 단계적 차이 방법을 적용할 수 있다.
한편 실시예에 따라, 이미지 보정은 이미지 내 비중첩 영역의 중심에서 이미지의 끝(edge)의 방사형 방향으로 적용되는 비선형 단계적 차이 방법을 적용할 수도 있다.
만약 이미지를 타겟 이미지에 대응하여 미리 추출한 경우에는 이미지의 중심에서 끝(edge)의 직선 또는 방사향 방향으로 선형 또는 비선형 단계적 차이 방법을 적용하여 이미지를 보정할 수도 있다.
서로 다른 두 이미지를 전술한 방법으로 보정한 후, 두 이미지를 정합할 수 있다(18).
전술한 이미지 정합 방법은 기존의 이미지 정합을 위해 사용되던 알파블렌딩(Alpha Blending) 방법과는 차이가 있다. 일단, 알파 블렌딩은 이미지 위에 또 다른 이미지를 덧씌울 때 알파값을 섞는 연산을 통해, 투명, 반투명 등의 효과를 내거나 두 이미지 색을 섞는 효과를 낼 수 있는 기법을 의미한다. 하지만, 알파 블렌딩은 두 이미지의 값을 알파값을 통해 정합하는 과정에서 노이즈가 발생하거나 이미지가 왜곡될 가능성이 높다. 또한, 알파 블렌딩은 두 물체가 중첩되어 보이는 고스트 현상을 발생시킬 수 있는 단점이 있다.
반면, 전술한 아미지 정합 방법은 정합, 결합, 덧씌움 등이 이루어질 서로 다른 두 이미지를 서로의 이미지 정보를 이용하여 서로의 중첩 영역을 미리 보정한 후 보정된 중첩 영역을 기준으로 정합하기 때문에, 서로 다른 두 이미지가 가지는 밝기 정도에 대한 단차를 미리 상쇄할 수 있고, 알파 블렌딩에서 보이는 고스트 현상을 예방할 수 있다.
도 4는 이미지 정보 추출 방법의 제1예를 설명한다.
도4를 참조하면, 복수의 이미지로부터 이미지 정보를 추출하는 방법은 변환된 이미지 내 비중첩 영역과 중첩 영역을 설정하는 단계(22) 및 중첩 영역에서 이미지 정보를 추출하는 단계(24)를 포함할 수 있다.
여기서, 이미지 정보는 밝기(brightness) 정보 및 명암대비(contrast) 정보 중 적어도 하나를 포함할 수 있다. 이 경우, 복수의 이미지 각각에서 이미지가 서로 중첩될 수 있는 영역에 대한 분석과 보정이 이루어질 수 있고, 이미지 내 비중첩 영역(고유 영역)은 분석과 보정이 이루어지지 않을 수 있다.
도 5는 이미지 정보 추출 방법의 제2예를 설명한다.
도5를 참조하면, 복수의 이미지로부터 이미지 정보를 추출하는 방법은 변환된 이미지를 타겟 이미지에 삽입될 영역에 대응하여 배치하고 추출(cutting)하는 단계(26) 및 추출된 이미지에서 이미지 정보를 추출하는 단계(28)를 포함할 수 있다.
여기서, 이미지 정보는 밝기(brightness) 정보 및 명암대비(contrast) 정보 중 적어도 하나를 포함할 수 있다. 이 경우, 복수의 이미지 중 사용되지 않는 이미지 영역을 미리 추출하여 제거한 후, 이미지를 분석, 가공할 수 있어 이미지를 분석, 가공하는 데 소요되는 자원(resource)을 줄일 수 있다.
도 6은 이미지 정합 방법의 흐름도이다.
도 6을 참조하면, 이미지 획득부(110)는 카메라를 이용하여 소스 이미지를 획득한다(S310). 여기서 소스 이미지는 2개 이상일 수 있다. 차량에 카메라가 설치되는 경우에는, 4개의 카메라에 의한 4개의 소스 이미지가 획득되는 것이 가장 바람직하다. 다만 이에 한정되는 것은 아니며, 추가적인 카메라의 설치에 의한 추가적인 소스 이미지가 더 획득될 수 있다. 여기서, 각 소스 이미지는 서로 중첩되도록 획득되는 것이 가장 바람직하다. 즉, 어느 두 개의 소스 이미지는 동일한 피사체 영역을 공통으로 포함하고 있어서, 상기 피사체 영역을 중심으로 두 개의 소스 이미지가 연결될 수 있는 것이 바람직하다.
다음으로 이미지 프로세서(120)는 소스 이미지들의 표시 모드를 탑 뷰(top view)로 변환하고, AE(auto exposure)를 통하여 밝기를 조절하여 변환 이미지를 획득한다(S320). 이 단계에서도 2개 이상, 바람직하게는 4개의 변환 이미지가 획득될 수 있다.
다음으로 이미지정보 획득부(130)는 변환 이미지의 이미지 정보를 획득한다(S330). 이 단계에서도 2개 이상, 바람직하게는 4개의 이미지 정보가 획득될 수 있다.
다음으로 보정부(140)는 제1 이미지 정보 및 제2 이미지 정보에 기초하여 보정된, 제1 변환 이미지의 픽셀이 배치되는 중첩영역 내의 제1 영역과, 제1 이미지 정보 및 상기 제2 이미지 정보에 기초하여 보정된, 제2 변환 이미지의 픽셀이 배치되고, 제1 영역에 중첩되지 않는 중첩영역 내의 제2 영역을 포함하는 타겟 이미지를 생성한다(S340). 여기서, 보정은 제1 영역에 배치된 제1 변환 이미지의 픽셀과 제2 영역에 배치된 제2 변환이미지의 픽셀에 대한 그라데이션 보정을 포함한다. 이 단계에서도 2개 이상, 바람직하게는 4개의 중첩영역을 구성하는 제1 영역 내지 제8 영역에 대해 보정이 수행될 수 있다.
이하 보정 방법에 대해 구체적으로 설명하기로 한다.
도 7은 도 6의 S340에 포함되는 단계들에 관한 흐름도이다.
도 7을 참조하면, 제1 연산부(150)는 변환 이미지들의 밝기를 이용하여 제2 변화 이미지 대비 제1 변환 이미지의 밝기비율을 획득한다(S341). 아래 수학식 1은 밝기비율(R 1 , R 2 , R 3 , R 4 )을 나타낸다.
Figure pat00001
상기 수학식 1에서 L 1 내지 L 8 은 제1 영역 내지 제8 영역의 밝기를 나타낸다.
도 8은 본 발명에서 사용되는 용어를 설명하기 위한 타겟 이미지의 개략도이다.
도 8을 참조하면, 타겟 이미지 상에 제1 이미지 내지 제4 이미지 및 제1 영역 내지 제8 영역이 도시되어 있다. 그리고 제1 영역 내지 제8 영역이 도시되어 있다. 여기서 예시로서 제1 영역 및 제2 영역은 중첩영역에 해당된다. 타겟 이미지 상에는 모두 4개의 중첩영역이 형성될 수 있다.
또한, 각 영역의 밝기로서 평균 밝기가 사용될 수 있다.
또한, 각 밝기비율로서 오차가 보정된 밝기비율이 사용될 수 있다. 아래 수학식 2는 오차가 보정된 밝기 비율을 나타낸다.
Figure pat00002
다음으로 제2 연산부(160)는 밝기비율을 이용하여 변환 이미지의 보정을 위한 밝기 게인을 연산한다(S342).
아래 수학식 3은 게인 연산을 위한 과정에서 요구되는 밝기비율의 평균값을 나타낸다. 오른쪽 항의 각 요소는 제1 소스 이미지 내지 제4 소스 이미지가 제1 소스 이미지의 밝기로 보정되는 경우에 곱해지는 인자를 각각 나타낸다. 이들 인자들을 4로 나눈 값이 밝기비율의 평균값이다.
Figure pat00003
아래 수학식 4는 밝기 게인(G 1 , G 2 , G 3 , G 4 )을 나타낸다. 각 밝기 게인은 상기 인자를 상기 밝기비율의 평균값으로 나눔으로써 연산될 수 있다.
Figure pat00004
다음으로 보정부(140)는 보정의 정도 및 보정 영역을 설정하고, 밝기 게인에 기초하여 변환 이미지의 픽셀들을 보정한다(S343).
아래 수학식 5는 보정에 의해 제1 영역 상의 픽셀 값이 변경되는 것을 나타낸다. P 1 은 보정전의 픽셀 값이고, P 1 '은 보정 후의 픽셀 값을 나타낸다. 여기서 파라미터 C는 보정의 정도를 나타내고, 파마미터 M 1 은 보정 영역을 나타낸다. 보정의 정도는 제1 영역 내지 제8 영역 또는 제1 소스 이미지 내지 제4 소스 이미지 정도의 독립성과 관련되어 있다.
Figure pat00005
도 9a 내지 9c는 파라미터 C의 크기에 따라 다르게 보정되는 타겟 이미지를 나타내는 예시도이다.
도 9a를 참조하면, 도 6a는 C가 0인 경우를 나타낸다. 도 6b를 참조하면, 도 6b는 C가 각각 0.3, 0.7인 경우를 나타낸다. 도 6c를 참조하면, 도 6c는 C가 1인 경우를 나타낸다. 따라서 파라미터 C를 조종함으로써 각 소스 이미지가 독립적으로 보정되는지 아니면 소스 이미지 사이에 영향력을 크게 해서 종속적으로 보정되는지가 조정될 수 있다. C가 0인 경우에 픽셀들은 무채색으로 보정될 수 있다.
여기서, 각 중첩영역의 픽셀들은 제1 영역 및 제2 영역으로 나누어 보정이 된다. 제1 영역 대해서는, 중첩된 2개의 소스 이미지 중에서 제1 영역과 가까운 소스 이미지의 픽셀을 원본으로 하여 상기 원본이 보정된다.
제2 영역에 대해서는, 중첩된 2개의 소스 이미지 중에서 제2 영역과 가까운 나머지 소스 이미지의 픽셀을 원본으로 하여 원본이 보정된다.
결과적으로 중첩영역을 중심으로 소스 이미지들이 서로 정합되어 타겟 이미지가 생성된다.
그 밖에 제2 영역 내지 제8 영역 상의 픽셀들의 보정은 다음 수학식 6에 의해 표현될 수 있다.
Figure pat00006
Figure pat00007
Figure pat00008
Figure pat00009
Figure pat00010
Figure pat00011
Figure pat00012
도 10은 이미지 정합 장치의 제1예를 설명한다.
도 10을 참조하면, 이미지 정합 장치는 서로 다른 두 이미지(I1, I2)에 중첩 영역과 비중첩 영역을 설정하는 설정부(30), 두 이미지 각각에서 중첩 영역에 대한 이미지 정보(B1, B2)를 추출하는 추출부(40), 추출된 이미지 정보(B1, B2)를 바탕으로 보정 기준값(C0)을 결정하는 결정부(50), 두 이미지(I1, I2)의 중첩 영역에 보정 기준값(C0)을 단계적 차이(gradation)로 적용시켜 보정하는 보정부(52), 및 보정된 두 이미지(CI1, CI2)를 보정된 중접 영역을 기준으로 정합하는 정합부(60)를 포함할 수 있다. 여기서, 이미지 정합 장치는 두 개의 이미지(I1, I2)를 정합할 수 있는 장치를 예로 들어 설명하였다. 만약 이미지 정합 장치가 두 개 이상의 이미지를 정합하는 경우, 각각의 이미지를 보정하는 데 필요한 구성요소들이 늘어날 수 있다.
보다 구체적으로, 설정부(30)는 제1이미지(I1)를 전달받아 제1이미지(I1) 내 제2이미지(I2)가 서로 중첩될 수 있는 중첩 영역과 중첩되지 않는 영역(고유 영역)을 설정할 수 있는 제1설정부(32)와 제2이미지(I2)를 전달받아 제2이미지(I2) 내 제1이미지(I1)가 서로 중첩될 수 있는 중첩 영역과 중첩되지 않는 영역(고유 영역)을 설정할 수 있는 제2설정부(34)를 포함할 수 있다.
추출부(40)는 제1이미지(I1)내 중첩 영역에 대한 제1이미지 정보(B1)을 추출하는 제1추출부(42)와 제2이미지(I2)내 중첩 영역에 대한 제2이미지 정보(B2)을 추출하는 제1추출부(44)를 포함할 수 있다. 이때, 추출부(40)가 획득하는 제1 및 제2 이미지 정보(B1, B2)는 제1이미지(I1)와 제2이미지(I2) 내 중첩영역에서의 밝기(brightness) 정보 및 명암대비(contrast) 정보 중 적어도 하나를 포함할 수 있다. 다만, 제1 및 제2 이미지 정보(B1, B2)는 보정을 위해 동일한 종류의 정보일 필요가 있다.
결정부(50)는 제1 및 제2 이미지 정보(B1, B2)를 바탕으로 보정 기준값(C0)을 결정한다. 여기서, 보정 기준값(C0)은 복수의 이미지 정보(B1, B2)에 대한 평균값(average), 중앙값(median), 최빈값(mode), 및 표준편차(standard deviation) 중 적어도 하나로 결정될 수 있다. 또한, 보정 기준값(C0)은 복수의 이미지 정보(B1, B2)를 바탕으로 서로에 대한 비율로 결정될 수도 있다. 이러한 방식으로 결정되는 보정 기준값(C0)은 서로 다른 두 이미지(I1, I2)의 중첩 영역을 보정하기 위해 서로 다른 이미지의 정보를 참조하여 보정하기 위함이다.
보정부(52)는 보정 기준값(C0)을 바탕으로 제1이미지(I1)를 보정하여 제1보정이미지(CI1)를 출력하는 제1보정부(54) 및 보정 기준값(C0)을 바탕으로 제2이미지(I2)를 보정하여 제2보정이미지(CI2)를 출력하는 제2보정부(56)를 포함할 수 있다. 실시예에 따라, 제1보정부(54)와 제2보정부(56)는 제1이미지(I1)와 제2이미지(I2)를 보정하기 위해 각 이미지 내 비중첩 영역과 중첩 영역의 경계에서 이미지의 끝(edge)의 직선 방향으로 적용되는 선형 단계적 차이(gradation) 방식을 수행할 수 있다.
한편, 실시예에 따라, 제1보정부(54)와 제2보정부(56)는 제1이미지(I1)와 제2이미지(I2)를 보정하기 위해 각 이미지 내 비중첩 영역의 중심에서 이미지의 끝(edge)의 방사형 방향으로 적용되는 비선형 단계적 차이 방식을 수행할 수도 있다.
보정부(52)를 통해 보정된 제1보정이미지(CI1)와 제2보정이미지(CI2)는 정합부(60)에 전달되고, 정합부(60)는 제1보정이미지(CI1)의 중첩 영역과 제2보정이미지(CI2)의 중첩 영역을 기준으로 배치한 후 두 이미지를 합친다. 이러한 방법을 통해, 정합부(60)는 타겟 이미지(TI)를 출력할 수 있다.
도 11은 이미지 정합 장치의 제2예를 설명한다.
도 11을 참조하면, front, right, rear 및 left로 나타낸 제1 변환 이미지 내지 제4 변환 이미지가 구비될 수 있다. 여기서, 변환 이미지 대신에 소스 이미지가 사용될 수 있음은 자명하다. 각 변환 이미지는 고유 영역과 중첩영역으로 구성된다. 전체 중첩 영역은 모두 8개의 부분(제1 영역 내지 제8 영역)으로 나뉠 수 있다. 실선은 픽셀 값을 의미하고 파선은 스칼라 값을 의미한다.
이미지정보 획득부(130)는 중첩 영역에 있는 이미지의 평균 밝기를 획득한다. 획득된 평균 밝기를 기초로 각 영역 간의 밝기비율이 연산된다. 그리고 상기 밝기비율에 기초하여 비율 균형 보정을 하기 위한 최적 보상값이 연산될 수 있다. 또한, 중첩영역 상의 경계선에 위치하는 중심점을 기준으로 0에서 90도 각도 범위에서 보정 범위가 설정될 수 있다. 최종적으로 각도 기반에 의해 계조(그라데이션)가 나타나도록 중첩 영역 상의 이미지가 보정될 수 있다.
상기와 같이 본건 출원발명의 실시예에 따른 이미지 정합 방법에 의하면 기존의 알파 블렌딩에 의한 밝기 단차 및 고스트 현상이 예방될 수 있다. 이 효과를 도면을 통해 확인 할 수 있다.
도 12a는 알파 블렌딩 방법에 따라 정합된 타겟 이미지를 나타내는 예시도이다.
도 12a를 참조하면, 각각의 타겟 이미지는 보정 범위 30도, 60도, 및 90도에 해당된다. 도 12a에서 보정의 범위가 넓어질수록 고스트 현상의 정도가 심해지는 것이 나타나 있다.
도 12b는 본 출원발명의 하나의 실시예에 따라 정합된 타겟 이미지를 나타내는 예시도이다.
도 12b 및 도 12a를 비교하면, 본 발명의 실시예에 따른 이미지 정합 방법에 의해 중첩영역의 이미지가 보정되는 경우, 밝기 단차 및 고스트 현상의 정도가 약해지는 것이 나타나 있다.
마지막으로 도 12c는 알파 블렌딩 및 본 출원발명의 하나의 실시예에 따라 보정된 타겟 이미지를 나타내는 예시도이다.
도 12c를 참조하면, 도 12b의 본 발명의 실시예가 단독으로 사용된 경우보다 밝기 단차 및 고스트 현상이 줄어드는 효과가 크게 나타남을 알 수 있다.
도 13은 도12a 내지 12c에서 설명한 정합 이미지를 보다 구체적으로 설명하는 예시도이다. 전술한 바와 같이, 이미지 정합 장치가 출력하는 정합 이미지는 기존의 알파 블렌딩 기법을 적용한 경우에 비해 보다 고품질의 이미지 또는 영상을 얻을 수 있다. 여기서는 이미지 정합 장치 또는 이미지 처리 장치가 출력할 수 있는 결과물인 정합 이미지를 보다 구체적으로 설명한다. 설명의 편의를 위해, 서로 다른 두 이미지(92, 82)를 정합하여 하나의 정합 이미지(80)을 생성하는 것을 예로 들어 설명한다.
먼저, 서로 다른 두 이미지, 즉 제1이미지(92)와 제2이미지(82)는 각각 비중첩 영역(94, 84)과 중첩 영역(96, 86)을 포함할 수 있다. 여기서, 제1이미지(92)의 중첩영역(96)과 제2이미지(82)의 중첩영역(86)은 겹쳐질 수 있다. 이러한 방식으로 제1이미지(92)와 제2이미지(82)를 정합하면, 하나의 카메라 장치로부터 얻을 수 없는 정보(연속되는 정보(81) 또는 연속되지 않지만 서로 다른 방향의 정보 등)를 하나의 이미지를 얻을 수 있다.
여기서, 제1이미지(92)와 제2이미지(82)는 서로 다른 카메라 장치에서 촬영되어 이미지를 획득하는 환경이 상이하므로, 이미지 밝기가 서로 상이하다. 따라서, 제1이미지(92)와 제2이미지(82)를 아무런 보정없이 정합하면, 두 이미지 사이의 밝기 차이로 인해 사용자에게 제공되는 정보가 왜곡되거나 사용자가 불편을 느낄 수 있다. 이러한 문제를 해결하기 위해, 이미지 밝기를 부분적으로 조정할 수 있다.
예를 들면, 제1이미지(92)의 중첩영역(96)과 제2이미지(82)의 중첩영역(86)의 중심에는 제1경계(90)가 형성될 수 있고, 제1이미지(92)의 중첩영역(96)과 비중첩영역(94)의 사이에 형성되는 제2경계(88) 및 제2이미지(82)의 중첩영역(86)과 비중첩영역(84)의 사이에 형성되는 또 다른 제2경계(98)가 형성될 수 있다.
제1이미지(92)와 제2이미지(82) 각각의 이미지 밝기에 대한 정보가 있다면, 이 정보를 바탕으로, 보정 기준을 설정할 수 있다. 예를 들면, 보정 기준은 평균값(average), 중앙값(median), 최빈값(mode), 및 표준편차(standard deviation) 중 적어도 하나일 수 있다. 이러한 보정 기준을 제1경계(90)에 적용한 뒤, 제1경계(90)를 기준으로 양측의 제2경계(88,98)의 방향으로 단계적 차이(gradation)를 적용하여 제1이미지(92)의 중첩영역(96)과 제2이미지(82)의 중첩영역(86)의 이미지 밝기를 보정할 수 있다. 제1이미지(92)의 중첩영역(96)과 제2이미지(82)의 중첩영역(86)의 이미지 밝기를 보정한 후, 두 이미지인 제1이미지(92)와 제2이미지(82)를 정합하면, 정합된 이미지(80)에서 부자연스러움이 제거되고, 고품질의 정합 이미지를 얻을 수 있다.
실시예에 따라, 제1경계(90)를 기준으로 양측의 제2경계(88,98)의 방향으로 적용되는 단계적 차이(gradation)는 선형 또는 비선형으로 할 수 있다.
또한, 실시예에 따라, 양측의 제2경계(88,98)에서 제1경계(90)의 방향으로 의 방향으로 단계적 차이(gradation)를 적용하여 이미지 밝기를 보정할 수도 있다.
한편, 실시예에 따라, 제1이미지(92)의 중심부(93)와 제2이미지(82)의 중심부(83)로부터 제1경계(90)까지 이미지 밝기를 선형 또는 방사형의 방향으로 보정할 수도 있다. 또한, 이 경우, 선형 또는 비선형의 단계적 차이(gradation)을 적용할 수 있다.
전술한 과정에서 설명한 제1경계(90), 제2경계(88,98), 및 중심부(83,93)은 실제로 사용자에게 제공될 필요가 있는 기준점은 아니지만, 이미지의 밝기를 보정하기 위해 이미지 처리 장치가 내부적으로 설정할 수 있는 가상의 기준일 수 있다.
본 발명의 도 2에서는 설명의 편의를 위하여, 각 구성을 각각 다른 블록에 도시화하여 예를 들어 설명하였으나, 각각의 구성은 하나의 블록으로 구성될 수 있다. 예를 들면, 각각의 블록은 제어부(controller) 또는 프로세서(processor) 등에 구성되어 전술한 일련의 동작들을 수행할 수 있다.
이상 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100: 이미지 정합 장치,
110: 이미지 획득부,
120: 이미지 프로세서,
130: 이미지정보 획득부,
140: 보정부,
150: 제1 연산부,
160: 제2 연산부

Claims (40)

  1. 차량에 설치된 복수의 카메라로 획득된 영상을 처리하여 하나의 정합 이미지를 생성하는 이미지 처리 방법에 있어서,
    상기 정합 이미지는
    적어도 일부에 상기 복수의 카메라 중 제1 카메라로부터 획득된 영상이 배치되는 제1 영역;
    상기 복수의 카메라 중 제2 카메라로부터 획득된 영상이 배치되는 제2 영역;
    상기 제1 영역과 제2 영역은 서로 경계를 형성하고
    상기 제1 영역은 상기 경계로부터 상기 제1 영역상에 기 설정된 경계까지 밝기가 증가되거나 감소되는 제3 영역을 포함하고
    상기 제3 영역의 밝기는 제1 영역의 밝기 및 제2 영역의 밝기를 바탕으로 증감 여부가 결정되는 이미지 처리방법.
  2. 제 1항에 있어서,
    상기 제1 영역의 밝기가 상기 제2 영역의 밝기보다 밝은경우
    상기 경계로부터 상기 제1 영역상에 기 설정된 경계로 갈수록 밝기가 증가되는 이미지 처리방법.
  3. 제 1항에 있어서,
    상기 제2 영역의 밝기가 상기 제1 영역의 밝기보다 밝은경우
    상기 경계로부터 상기 제1 영역상에 기 설정된 경계로 갈수록 밝기가 감소되는 이미지 처리방법.
  4. 차량에 설치된 복수의 카메라로 획득된 영상을 처리하여 하나의 정합 이미지를 생성하는 이미지 처리 방법에 있어서,
    상기 정합 이미지는
    적어도 일부에
    상기 복수의 카메라 중 제1 카메라로부터 획득된 영상이 배치되는 제1 영역;
    상기 복수의 카메라 중 제2 카메라로부터 획득된 영상이 배치되는 제2 영역;
    상기 제1 카메라와 상기 제2 카메라로부터 획득된 영상을 이용하여 형성한 이미지가 배치되는 제3 영역;을 포함하고
    상기 제1 영역과 제3 영역은 제1 경계를 형성하고
    상기 제2 영역과 제3 영역은 제2 경계를 형성하고
    상기 제1 경계로부터 제1 영역상에 기 설정된 경계까지 밝기가 증가되거나 감소되는 제4 영역을 포함하고
    상기 제2 경계로부터 제2 영역상에 기 설정된 경계까지 밝기가 증가되거나 감소되는 제5 영역을 포함하고
    상기 제4 영역 및 제 5영역의 밝기는 제1 영역의 밝기 및 제2 영역의 밝기를 바탕으로 증감 여부가 결정되는 이미지 처리방법.
  5. 차량에 탑재된 복수의 카메라로 제1 이미지 정보 및 제2 이미지 정보를 포함하는 복수의 이미지정보를 추출하는 단계; 및
    상기 복수의 이미지 정보를 보정 및 정합하여 타겟 이미지를 출력하는 단계를 포함하고
    상기 타겟 이미지는
    제1 이미지 정보를 이용해 형성된 이미지가 배치되는 제1영역;및
    제2 이미지 정보를 이용해 형성된 이미지가 배치되고 제1영역과 일부 영역에서 경계를 형성하는 제2영역을 포함하고
    상기 제1 영역은 상기 경계에 멀어질수록 밝기가 증가하거나 감소하는 영역을 포함하고,
    상기 제2 영역은 상기 경계에서 멀어질수록 밝기가 증가하거나 감소하는 영역을 포함하는 이미지 정합 방법.
  6. 적어도 2개 이상의 서로 다른 소스 이미지를 정합하여 하나의 정합 이미지로 보여주기 위한 이미지 처리 장치에 있어서,
    상기 정합 이미지는
    상기 적어도 2개 이상의 서로 다른 소스 이미지의 일부가 비중첩되어 배치되는 제1영역; 및
    상기 적어도 2개 이상의 서로 다른 소스 이미지가 중첩될 수 있는 제2영역을 포함하고,
    상기 제2영역은 상기 적어도 2개 이상의 서로 다른 소스 이미지의 일부가 맞물리는 제1경계로부터 상기 제1영역과 상기 제2영역의 제2경계까지 이미지 밝기가 단계적 차이로 증가되거나 감소되는, 이미지 처리 장치.
  7. 제6항에 있어서,
    상기 제1경계는 상기 제2영역의 중간이고, 상기 제2경계는 상기 제2영역의 양 끝(edge)인, 이미지 처리 장치.
  8. 제6항에 있어서,
    상기 단계적 차이는 선형 및 비선형 중 하나의 관계를 가지는, 이미지 처리 장치.
  9. 제6항에 있어서,
    상기 제1경계에서의 이미지 밝기는 상기 적어도 2개 이상의 서로 다른 소스 이미지의 밝기의 평균값(average), 중앙값(median), 최빈값(mode), 및 표준편차(standard deviation) 중 적어도 하나인, 이미지 처리 장치.
  10. 제6항에 있어서,
    상기 제1경계에서의 이미지 밝기는 상기 제1영역의 이미지 밝기의 평균값(average), 중앙값(median), 최빈값(mode), 및 표준편차(standard deviation) 중 적어도 하나인, 이미지 처리 장치.
  11. 차량에 탑재된 카메라 장치를 통해 획득된 서로 다른 복수의 이미지 각각에서 이미지 정보를 추출하는 단계; 및
    추출된 복수의 상기 이미지 정보를 바탕으로 보정 기준에 따른 단계적 차이(gradation)로 적용시켜 상기 복수의 이미지를 보정 및 정합하여 타겟 이미지를 출력하는 단계
    를 포함하는, 이미지 정합 방법.
  12. 제11항에 있어서,
    상기 이미지 정보는 밝기(brightness) 정보 및 명암대비(contrast) 정보 중 적어도 하나를 포함하는, 이미지 정합 방법.
  13. 제11항에 있어서,
    상기 타겟 이이지를 출력하는 단계는
    추출된 상기 이미지 정보를 바탕으로 보정 기준값을 결정하는 단계;
    상기 보정 기준값을 단계적 차이(gradation)로 적용시켜 상기 복수의 이미지 각각을 보정하는 단계; 및
    보정된 상기 복수의 이미지를 정합하여 타겟 이미지를 출력하는 단계
    를 포함하는, 이미지 정합 방법.
  14. 제13항에 있어서,
    상기 서로 다른 복수의 이미지는 복수의 카메라 장치에서 획득된 이미지를 탑뷰(top view) 형태로 변환된 이미지인, 이미지 정합 방법.
  15. 제13항에 있어서,
    상기 보정 기준값은 복수의 상기 이미지 정보에 대한 평균값(average), 중앙값(median), 최빈값(mode), 및 표준편차(standard deviation) 중 적어도 하나로 결정되는, 이미지 정합 방법.
  16. 제11항에 있어서,
    상기 이미지 내 비중첩 영역과 중첩 영역을 설정하는 단계
    를 더 포함하는, 이미지 정합 방법.
  17. 제16항에 있어서,
    상기 이미지 정보는 상기 복수의 이미지 각각의 전체가 아닌 상기 복수의 이미지 각각에 포함된 상기 중첩 영역에서 추출되는, 이미지 정합 방법.
  18. 제16항에 있어서,
    상기 단계적 차이는 상기 중첩 영역의 중심에서 상기 비중첩 영역의 경계의 직선 방향으로 적용되는 선형 단계적 차이를 포함하는, 이미지 정합 방법.
  19. 제16항에 있어서,
    상기 단계적 차이는 상기 비중첩 영역과 상기 중첩 영역의 경계에서 상기 이미지의 끝(edge)의 직선 방향으로 적용되는 선형 단계적 차이를 포함하는, 이미지 정합 방법.
  20. 제16항에 있어서,
    상기 단계적 차이는 상기 비중첩 영역의 중심에서 상기 이미지의 끝(edge)의 방사형 방향으로 적용되는 비선형 단계적 차이를 포함하는, 이미지 정합 방법.
  21. 제11항에 있어서,
    상기 타겟 이미지를 출력하는 단계는
    보정된 이미지 내 상기 타겟 이미지에 삽입될 영역에 대응하는 영역의 데이터를 추출하는 단계; 및
    추출된 상기 데이터를 타겟 이미지 내 기 설정된 영역에 배치시키는 단계
    를 포함하는, 이미지 정합방법.
  22. 제11항에 있어서,
    상기 이미지 정보를 추출하는 단계는
    상기 복수의 이미지를 상기 타겟 이미지에 삽입될 영역에 대응하는 영역의 데이터를 추출하는 단계; 및
    추출된 상기 데이터에서 상기 이미지 정보를 추출하는 단계
    를 포함하는, 이미지 정합 방법.
  23. 제22항에 있어서,
    상기 타겟 이미지를 출력하는 단계에서,
    상기 단계적 차이는 상기 중첩 영역의 중심에서 상기 비중첩 영역의 경계의 직선 방향으로 적용되는 선형 단계적 차이를 포함하는, 이미지 정합 방법.
  24. 제22항에 있어서,
    상기 타겟 이미지를 출력하는 단계에서,
    상기 단계적 차이는 상기 추출된 이미지의 중심에서 끝(edge)의 직선 방향으로 적용되는 선형 단계적 차이를 포함하는, 이미지 정합 방법.
  25. 제22항에 있어서,
    상기 타겟 이미지를 출력하는 단계에서,
    상기 단계적 차이는 상기 추출된 이미지의 중심에서 끝(edge)의 방사형 방향으로 적용되는 비선형 단계적 차이를 포함하는, 이미지 정합 방법.
  26. 프로세서에 의해 실행되는 것을 통하여, 청구항 제11항 내지 제25항 중 어느 한 항에 기재된 이미지 정합 방법을 실현하는 것을 특징으로 하는 응용 프로그램이 기록된 컴퓨터 판독 가능한 기록매체.
  27. 적어도 하나의 프로세서와 컴퓨터 프로그램이 저장된 적어도 하나의 메모리 장치를 포함하는 프로세싱 시스템을 포함하는 이미지 정합 장치에 있어서,
    상기 프로세싱 시스템은 상기 이미지 정합 장치가
    서로 다른 복수의 이미지 각각에서 이미지 정보를 추출하는 단계; 및
    추출된 복수의 상기 이미지 정보를 바탕으로 보정 기준에 따른 단계적 차이(gradation)로 적용시켜 상기 복수의 이미지를 보정 및 정합하여 타겟 이미지를 출력하는 단계
    를 수행하도록 하고,
    상기 서로 다른 복수의 이미지는 복수의 카메라 장치에서 획득된 이미지를 탑뷰(top view) 형태로 변환된 이미지인, 이미지 정합 장치.
  28. 제27항에 있어서,
    상기 타겟 이이미를 출력하는 단계는
    추출된 상기 이미지 정보를 바탕으로 보정 기준값을 결정하는 단계;
    상기 보정 기준값을 단계적 차이(gradation)로 적용시켜 상기 복수의 이미지 각각을 보정하는 단계; 및
    보정된 상기 복수의 이미지를 정합하여 타겟 이미지를 출력하는 단계
    를 포함하는, 이미지 정합 장치.
  29. 제27항에 있어서,
    상기 프로세싱 시스템은 상기 이미지 정합 장치가
    상기 복수의 이미지 내 비중첩 영역과 중첩 영역을 설정하는 단계
    를 더 수행하도록 하는, 이미지 정합 장치.
  30. 제29항에 있어서,
    상기 이미지 정보는 상기 복수의 이미지 각각의 전체가 아닌 상기 복수의 이미지 각각에 포함된 상기 중첩 영역에서 추출되는, 이미지 정합 장치.
  31. 제27항에 있어서,
    상기 프로세싱 시스템은 상기 이미지 정합 장치가
    상기 이미지 정보를 추출하기 전, 상기 복수의 이미지 내 상기 타겟 이미지에 삽입될 영역에 대응하는 영역의 데이터를 추출하는 단계
    를 더 수행하도록 하는, 이미지 정합 장치.
  32. 제27항에 있어서,
    상기 프로세싱 시스템은 상기 이미지 정합 장치가
    상기 복수의 이미지를 보정한 후, 상기 복수의 이미지 내 상기 타겟 이미지에 삽입될 영역에 대응하는 영역의 데이터를 추출하는 단계
    를 더 수행하도록 하는, 이미지 정합 장치.
  33. 제31항 또는 제32항에 있어서,
    상기 타겟 이미지를 출력하는 단계는
    추출된 상기 데이터를 타겟 이미지 내 기 설정된 영역에 배치시키는 단계
    를 포함하는, 이미지 정합 장치.
  34. 제27항에 있어서,
    상기 이미지 정보는 밝기(brightness) 정보 및 명암대비(contrast) 정보 중 적어도 하나를 포함하고,
    상기 보정 기준값은 복수의 상기 이미지 정보에 대한 평균값(average), 중앙값(median), 최빈값(mode), 및 표준편차(standard deviation) 중 적어도 하나로 결정되는, 이미지 정합 장치.
  35. 서로 다른 두 이미지에 중첩 영역과 비중첩 영역을 설정하는 설정부;
    상기 두 이미지 각각에서 상기 중첩 영역에 대한 이미지 정보를 추출하는 추출부;
    추출된 상기 이미지 정보를 바탕으로 보정 기준값을 결정하는 결정부;
    상기 두 이미지의 상기 중첩 영역에 상기 보정 기준값을 단계적 차이(gradation)로 적용시켜 보정하는 보정부; 및
    상기 두 이미지를 보정된 상기 중접 영역을 기준으로 정합하는 정합부
    를 포함하는, 이미지 정합 장치.
  36. 제35항에 있어서,
    상기 이미지 정보는 밝기(brightness) 정보 및 명암대비(contrast) 정보 중 적어도 하나를 포함하는, 이미지 정합 장치.
  37. 제35항에 있어서,
    상기 보정 기준값은 복수의 상기 이미지 정보에 대한 평균값(average), 중앙값(median), 최빈값(mode), 및 표준편차(standard deviation) 중 적어도 하나로 결정되는, 이미지 정합 장치.
  38. 제35항에 있어서,
    상기 단계적 차이는 상기 중첩 영역의 중심에서 상기 비중첩 영역의 경계의 직선 방향으로 적용되는 선형 단계적 차이를 포함하는, 이미지 정합 장치
  39. 제35항에 있어서,
    상기 단계적 차이는 상기 비중첩 영역과 상기 중첩 영역의 경계에서 상기 이미지의 끝(edge)의 직선 방향으로 적용되는 선형 단계적 차이를 포함하는, 이미지 정합 장치.
  40. 제35항에 있어서,
    상기 단계적 차이는 상기 비중첩 영역의 중심에서 상기 이미지의 끝(edge)의 방사형 방향으로 적용되는 비선형 단계적 차이를 포함하는, 이미지 정합 장치.
KR1020160165384A 2016-10-12 2016-12-06 이미지 정합 방법 및 장치 KR20180040469A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP17861083.8A EP3528492A4 (en) 2016-10-12 2017-10-12 IMAGE MATCHING METHOD AND DEVICE
PCT/KR2017/011240 WO2018070799A1 (ko) 2016-10-12 2017-10-12 이미지 정합 방법 및 장치
CN201780068474.1A CN109906602B (zh) 2016-10-12 2017-10-12 图像匹配方法及装置
US16/341,336 US11017508B2 (en) 2016-10-12 2017-10-12 Image matching method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160132439 2016-10-12
KR1020160132439 2016-10-12

Publications (1)

Publication Number Publication Date
KR20180040469A true KR20180040469A (ko) 2018-04-20

Family

ID=62088206

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160165384A KR20180040469A (ko) 2016-10-12 2016-12-06 이미지 정합 방법 및 장치

Country Status (4)

Country Link
US (1) US11017508B2 (ko)
EP (1) EP3528492A4 (ko)
KR (1) KR20180040469A (ko)
CN (1) CN109906602B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200000953A (ko) * 2018-06-26 2020-01-06 주식회사 수올리나 어라운드 뷰 모니터링 시스템 및 카메라 공차 보정 방법

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0650299B1 (fr) 1993-10-20 1998-07-22 Laboratoires D'electronique Philips S.A.S. Procédé de traitement des niveaux de luminance dans une image composite et système de traitement d'image appliquant ce procédé
JPH08287218A (ja) * 1995-04-10 1996-11-01 Sharp Corp 画像合成装置
US5982951A (en) * 1996-05-28 1999-11-09 Canon Kabushiki Kaisha Apparatus and method for combining a plurality of images
JP3297040B1 (ja) 2001-04-24 2002-07-02 松下電器産業株式会社 車載カメラの画像合成表示方法及びその装置
US7259784B2 (en) 2002-06-21 2007-08-21 Microsoft Corporation System and method for camera color calibration and image stitching
US7661601B2 (en) * 2004-10-15 2010-02-16 Sony Computer Entertainment Inc. Object, image data, image data transmission method, card, game mat, card game system, image analysis device, and image analysis method
DE102006036933B4 (de) * 2006-08-08 2024-01-11 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Erzeugung eines Gesamtbilds aus überlappenden Einzelbildern
JP2010113424A (ja) * 2008-11-04 2010-05-20 Fujitsu Ltd 画像合成装置及び画像合成方法
KR100968378B1 (ko) * 2009-03-05 2010-07-09 주식회사 코아로직 파노라마 이미지를 생성하는 장치, 방법 및 그 방법을 실행하는 프로그램이 기록된 기록 매체
KR101012585B1 (ko) 2009-07-10 2011-02-07 고려대학교 산학협력단 다채널 영상 정합 시스템 및 그 방법
KR20110005482A (ko) 2009-07-10 2011-01-18 유희창 상품 걸이구
WO2012024830A1 (en) 2010-08-24 2012-03-01 Hewlett-Packard Development Company, L.P. Stitched digital images
EP2629506A1 (en) * 2012-02-15 2013-08-21 Harman Becker Automotive Systems GmbH Two-step brightness adjustment in around-view systems
JP5940383B2 (ja) * 2012-06-12 2016-06-29 オリンパス株式会社 顕微鏡システム
JP6115104B2 (ja) * 2012-12-04 2017-04-19 アイシン精機株式会社 車両の制御装置、及び制御方法
KR20140112909A (ko) * 2013-03-14 2014-09-24 삼성전자주식회사 파노라마 영상을 생성하는 전자 장치 및 방법
CN105981367A (zh) 2014-02-11 2016-09-28 罗伯特·博世有限公司 对来自多摄像机系统的视频的亮度和颜色匹配
KR101610038B1 (ko) 2014-06-13 2016-04-07 현대모비스 주식회사 Avm 장치 및 동작 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200000953A (ko) * 2018-06-26 2020-01-06 주식회사 수올리나 어라운드 뷰 모니터링 시스템 및 카메라 공차 보정 방법

Also Published As

Publication number Publication date
US11017508B2 (en) 2021-05-25
US20200051222A1 (en) 2020-02-13
EP3528492A4 (en) 2020-05-27
EP3528492A1 (en) 2019-08-21
CN109906602A (zh) 2019-06-18
CN109906602B (zh) 2022-09-27

Similar Documents

Publication Publication Date Title
JP4739122B2 (ja) 車載カメラの画像合成装置および画像合成方法
US9509909B2 (en) Method and apparatus for a surround view camera system photometric alignment
EP2629506A1 (en) Two-step brightness adjustment in around-view systems
US11477372B2 (en) Image processing method and device supporting multiple modes and improved brightness uniformity, image conversion or stitching unit, and computer readable recording medium realizing the image processing method
US9214034B2 (en) System, device and method for displaying a harmonized combined image
JP4830380B2 (ja) 車両周辺監視装置及び車両周辺監視方法
KR20140134374A (ko) 다수 영상의 밝기 균일화 방법
EP3065390B1 (en) Image correction parameter output device, camera system, and correction parameter output method
JP4862321B2 (ja) 車載カメラ装置
JP5195841B2 (ja) 車載カメラ装置および車両
EP3836071A1 (en) Brightness adjustment method for multi-camera mosaicking, and portable terminal
JP5020792B2 (ja) 合成画像生成装置および合成画像生成方法
KR20180001869A (ko) Avm 시스템의 영상 개선 장치 및 그 방법
US20170347008A1 (en) Method for adapting a brightness of a high-contrast image and camera system
KR20180040469A (ko) 이미지 정합 방법 및 장치
KR101819984B1 (ko) 실시간 영상 합성 방법
JP4857556B2 (ja) 車載用カメラ映像提示装置
US11145093B2 (en) Semiconductor device, image processing system, image processing method and computer readable storage medium
KR101230909B1 (ko) 차량용 광각 영상 처리장치 및 그 방법
KR101241012B1 (ko) 어라운드 뷰 모니터 시스템의 카메라 간 화질차이 개선 방법
KR101750156B1 (ko) 차량의 파노라마 영상 표시장치 및 방법
US20220215668A1 (en) Method for generating an image of vehicle surroundings, and apparatus for generating an image of vehicle surroundings
KR20180028354A (ko) 다중 뷰 모드에서의 영상 디스플레이 방법
JP4556494B2 (ja) 車両周囲表示装置及び車両周囲表示方法
JP2022181027A (ja) 画像処理装置、画像処理方法、撮像装置、およびプログラム

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application