KR20110071854A - 입체 영상 시스템에서 영상 데이터의 색상 보정 장치 및 방법 - Google Patents

입체 영상 시스템에서 영상 데이터의 색상 보정 장치 및 방법 Download PDF

Info

Publication number
KR20110071854A
KR20110071854A KR1020090128531A KR20090128531A KR20110071854A KR 20110071854 A KR20110071854 A KR 20110071854A KR 1020090128531 A KR1020090128531 A KR 1020090128531A KR 20090128531 A KR20090128531 A KR 20090128531A KR 20110071854 A KR20110071854 A KR 20110071854A
Authority
KR
South Korea
Prior art keywords
image data
color
target image
target
reference image
Prior art date
Application number
KR1020090128531A
Other languages
English (en)
Inventor
엄기문
방건
김태원
장은영
허남호
김진웅
이수인
정재일
호요성
Original Assignee
한국전자통신연구원
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원, 광주과학기술원 filed Critical 한국전자통신연구원
Priority to KR1020090128531A priority Critical patent/KR20110071854A/ko
Publication of KR20110071854A publication Critical patent/KR20110071854A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/643Hue control means, e.g. flesh tone control

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 입체 영상 시스템에 관한 것으로, 특히 입체 영상 시스템에서 카메라 특성을 이용하여 영상 데이터의 색상을 보정하는 장치 및 방법에 관한 것이다.
본 발명의 일 실시 예에 따른 영상 데이터의 색상 보정 방법은, 복수의 영상촬영기기로부터 수신된 영상 데이터 에서 기준 영상 데이터와 타겟 영상 데이터를 결정하고, 상기 기준 영상 데이터와 상기 타겟 영상 데이터의 특징점 각각 추출하여 상기 기준 영상 데이터와 타겟 영상 데이터 간 샘플 대응점들을 추출하고, 상기 샘플 대응점들의 픽셀 값을 확인하여 샘플 색상 정보를 추출하며, 상기 추출된 샘플 색상 정보의 픽셀 값으로부터 상기 복수의 영상촬영기기의 특성 정보를 산출하고, 상기 산출된 특성 정보를 이용하여 색상 참조표를 생성하며, 상기 색상 참조표를 기준으로 타겟 영상 데이터를 기준 영상 데이터에 맵핑하여 상기 타겟 영상 데이터의 색상을 보정한다.
Figure P1020090128531
영상 데이터, 카메라 특성 정보, 색상 보정, 대응점

Description

입체 영상 시스템에서 영상 데이터의 색상 보정 장치 및 방법 {Apparatus and method for correcting color of 3D image in 3D image system}
본 발명은 입체 영상 시스템에 관한 것으로, 특히 입체 영상 시스템에서 카메라 특성을 이용하여 영상 데이터의 색상을 보정하는 장치 및 방법에 관한 것이다.
본 발명은 방송통신위원회의 IT 원천기술개발 사업의 일환으로 수행한 연구로부터 도출된 것이다[과제고유번호: 2008-F-011-02, 과제명 : 차세대DTV 핵심 기술 개발].
입체 영상은 두 가지 관점에서 정의될 수 있다. 첫째, 입체 영상은 깊이 정보를 이용하여 영상의 일부가 화면으로부터 튀어나오는 느낌을 사용자가 느끼도록 구성된 영상이다. 여기서, 깊이 정보는 카메라와 2차원 영상 내의 객체간의 거리를 영상 형태로 표현한 정보를 의미한다. 따라서 상기 깊이 정보를 이용하여 2차원 영상을 3차원 영상으로 표현할 수 있다. 둘 째, 입체 영상은 기본적으로 사용자에게 다양한 시점을 제공하여 현실감을 느끼도록 구성된 영상이다.
이러한 입체 영상을 획득하는 방법은 양안식 카메라 시스템, 다시점 카메라 시스템, 홀로그램 획득 시스템이 있다. 상기 양안식 카메라 시스템은 두 개의 카메라를 통해 촬영된 좌측 영상과 우측 영상을 이용하여 사용자에게 입체감을 제공하는 시스템이다. 상기 다시점 카메라 시스템은 두 대 이상의 카메라를 통해 촬영된 영상들을 공간적인 합성 등을 통하여 다양한 시점을 사용자에게 제공하는 시스템이다. 또한, 상기 홀로그램 획득 시스템은 빛의 세기뿐만 아니라 빛이 갖는 위상 정보를 이용하여 원래의 입체 영상을 정확히 제공하는 시스템이다.
상기 다시점 카메라 시스템은 사실감 넘치는 영상을 사용자에게 제공하며, 이와 같은 이유로 광고, 교육, 의료, 국방 등의 분야에서 영상 정보 전달 효과를 크게 높일 수 있다. 이러한 특징으로 인하여 다시점 카메라 시스템은 사용자에게 전방향의 영상을 제공할 수 있는 옴니 비디오, N개의 카메라로부터 입력된 영상을 선택할 수 있는 시점 스위칭, 기존 2차원 비디오와 비교해 사용자 주위의 장면에 대한 보다 넓은 시야(Field of View : FOV)를 제공하는 파노라마 등 다양한 형태로 나타나고 있다.
그러나, 상기 다시점 카메라 시스템은 영상 획득시 필수적으로 존재하는 카메라간의 동기, 데이터량, 고가의 장비가 요구되는 문제점이 있다. 또한, 동일한 기종의 카메라들을 사용하여 다시점 영상을 촬영할지라도, 각각의 카메라간의 미세한 특성 차이 때문에 영상 데이터의 색상이 조금씩 다르게 촬영된다. 이러한 색상이 조금씩 다른 영상 데이터를 이용하여 입체 영상을 생성하면 정상적으로 입체감 을 사용자에게 제공할 수 없다. 따라서, 이러한 문제점을 해결 하기 위한 영상 데이터의 색상을 보정하는 방안이 필요하다.
따라서, 본 발명의 목적은, 입체 영상 시스템에서 영상 데이터의 색상을 보정하는 장치 및 방법을 제공함에 있다.
그리고, 본 발명의 또 다른 목적은, 입체 영상 시스템에서 영상 데이터의 기준 영상 데이터와 타겟 영상 데이터 간에 각각 대응되는 대응점들로부터 추출된 색상 정보 이용하여 영상 데이터의 색상을 보정하는 장치 및 방법을 제공함에 있다.
상기한 목적들을 해결하기 위해 본 발명의 일 실시 예에 따른 영상 데이터의 색상 보정 장치는, 복수의 영상촬영기기로부터 수신된 영상 데이터 에서 기준 영상 데이터와 타겟 영상 데이터를 결정하는 결정부; 상기 기준 영상 데이터와 상기 타겟 영상 데이터의 특징점 각각 추출하고, 상기 특징점을 이용하여 상기 기준 영상 데이터와 타겟 영상 데이터 간 샘플 대응점들을 추출하고, 상기 샘플 대응점들의 픽셀 값을 확인하여 샘플 색상 정보를 추출하는 추출부; 상기 샘플 색상 정보를 이용하여 상기 복수의 영상촬영기기의 특성 정보를 산출하는 계산부; 상기 산출된 특성 정보를 이용하여 색상 참조표를 생성하는 생성부; 상기 색상 참조표를 기준으로 타겟 영상 데이터를 기준 영상 데이터 맵핑하여 상기 타겟 영상 데이터의 색상을 보정하는 보정부; 를 포함한다.
본 발명의 일 실시 예에 따른 영상 데이터의 색상 보정 방법은, 복수의 영상 촬영기기로부터 수신된 영상 데이터 에서 기준 영상 데이터와 타겟 영상 데이터를 결정하는 단계; 상기 기준 영상 데이터와 상기 타겟 영상 데이터의 특징점 각각 추출하여 상기 기준 영상 데이터와 타겟 영상 데이터 간 샘플 대응점들을 추출하고, 상기 샘플 대응점들의 픽셀 값을 확인하여 샘플 색상 정보를 추출하는 단계; 상기 추출된 샘플 색상 정보의 픽셀 값으로부터 상기 복수의 영상촬영기기의 특성 정보를 산출하는 단계; 상기 산출된 특성 정보를 이용하여 색상 참조표를 생성하는 단계; 상기 색상 참조표를 기준으로 타겟 영상 데이터를 기준 영상 데이터에 맵핑하여 상기 타겟 영상 데이터의 색상을 보정하는 단계; 를 포함한다.
본 발명은, 입체 영상 시스템에서 영상촬영기기의 특징 정보를 이용하여 영상 데이터의 기준 영상 데이터와 타겟 영상 데이터 간에 각각 대응되는 대응점들의 색상 보정으로 상기 영상 데이터의 색상을 보정할 수 있다. 또한, 본 발명은 입체 영상 시스템에서 영상 데이터의 기준 영상 데이터와 타겟 영상 데이터 간에 각각 대응되는 대응점들의 색상 정보 이용하여 영상 데이터의 색상을 보정할 수 있다.
상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되어 있는 상세한 설명을 통하여 보다 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다.
본 발명은, 입체 영상 시스템에서, 영상 데이터의 색상 보정 장치 및 방법을 제안한다. 여기서, 후술할 본 발명의 실시 예에서는 입체 영상 시스템에서 영상촬영기기의 특징 정보를 이용하여 영상 데이터의 기준 영상 데이터와 타겟 영상 데이터 간에 각각 대응되는 대응점들의 색상 보정으로 상기 영상 데이터의 색상을 보정할 수 있는 장치 및 방법을 제안한다. 또한, 본 발명은 입체 영상 시스템에서 영상 데이터의 기준 영상 데이터와 타겟 영상 데이터 간에 각각 대응되는 대응점들의 색상 정보 이용하여 영상 데이터의 색상을 보정할 수 있는 장치 및 방법을 제안한다. 그러면 여기서, 도 1 및 도 2를 참조하여 본 발명의 실시 예에 따른 입체 영상 시스템에서 영상 데이터의 색상을 보정하는 색상 보정 장치를 보다 구체적으로 설명하기로 한다.
도 1 및 도 2는 본 발명의 실시 예에 따른 입체 영상 시스템에서 영상 데이터의 색상을 보정하는 장치를 설명하기 위한 도면이다. 여기서, 도 1은 본 발명의 실시 예에 따른 입체 영상 시스템에서 색상 보정 장치의 구조를 개략적으로 나타낸 도면이고, 도 2는 색상 보정을 위해 상기 색상 보정 장치로 입력되는 영상 데이터로, 입체 영상 시스템에서 복수개의 영상 촬영기기에 의해 촬영된 영상 데이터를 나타낸 도면이다.
도 1을 참조하면, 상기 영상 데이터의 색상 보정 장치는 수신부(110), 결정 부(120), 추출부(130), 계산부(140), 생성부(150), 보정부(160)를 포함한다. 여기서, 상기 영상 데이터는, 도 1에 구체적으로 도시하지 않았으나 다양한 형태의 복수의 영상 촬영기기, 예컨대 다시점 카메라에서 상기 영상 데이터의 색상 보정 장치로 수신된다. 상기 다시점 카메라는 적어도 하나의 카메라를 통해 여러 시점에서 촬영된 영상 데이터를 사용자에게 제공하는 카메라를 의미한다.
상기 수신부(110)는 복수개의 영상 촬영기기에 의해 촬영된 영상 데이터(210, 220, 230)를 수신한다. 여기서, 상기 복수개의 영상 촬영기기는, 다양한 형태의 촬영 기기가 될 수 있으며, 그에 따라 상기 복수개의 영상 촬영기기에 의해 촬영된 영상 데이터(210, 220, 230)의 시점과 색상은 다르게 촬영 되었다. 즉, 상기 복수개의 영상 촬영기기는 동일한 장면을 동시에 촬영하지만, 상기 촬영된 영상 데이터(210, 220, 230)의 색상은 다르게 촬영되었다. 따라서 본 발명의 실시 예에 따른 보정 장치는 전술한 바와 같이 복수의 기기에서 촬영된 영상 입력되면 영상 데이터의 색상 보정을 수행한다.
이러한 색상 보정을 위해, 상기 결정부(120)는 복수의 영상들이 포함된 상기 영상 데이터에는 상기 영상들 중에서 기준 영상 데이터를 선택하여 기준 영상 데이터 데이터를 결정하고, 상기 기준 영상 데이터를 제외한 나머지 영상을 타켓 영상 데이터를 결정한다. 상기 기준 영상 데이터는 상기 복수개의 영상 촬영기기들 중 중앙에 위치한 영상 촬영기기에 의해 촬영된 영상을 나타낸다. 상기 타겟 영상 데이터는 상기 영상 데이터에서 기준 영상 데이터를 제외한 나머지 영상 데이터이고, 상기 타겟 영상 데이터는 기준 영상 데이터를 기준으로 색상이 보정될 영상 데이터 를 나타낸다.
따라서, 상기 추출부(130)는 상기 영상 데이터의 특징점을 이용하여 상기 기준 영상 데이터와 상기 타겟 영상 데이터간에 존재하는 대응점(Correspondence Point)을 추출한다. 이때, 상기 추출부(130)는 상기 영상 데이터에서 특징점을 추출하는 알고리즘, 예컨대 크기 불변 특징 변환(Scale Invariant Feature Transform : SIFT) 알고리즘을 이용하여 상기 기준 영상 데이터와 상기 타겟 영상 데이터간에 존재하는 소수의 대응점을 추출할 수 있다. 여기서, 상기 특징점은 상기 기준 영상 데이터와 상기 타겟 영상 데이터에 포함되어 있는 특징을 갖는 부분, 예컨대 코너, 경계(edge) 등을 의미한다. 상기 특징점을 이용하여 상기 영상 데이터의 대응점을 추출하면, 강한 특징을 갖는 대응점만 검출할 수 있다.
상기와 같이 기준 영상 데이터 데이터의 특징점 및 타겟 영상 데이터의 특징점을 각각 추출한 후, 상기 추출한 특징점을 이용하여 기준 영상 데이터 데이터 및 타겟 영상 데이터 간의 복수의 대응점들을 추출한다. 그리고, 상기 추출된 대응점영역에 해당하는 영상의 픽셀 값을 이용하여 샘플 색상 정보를 추출한다. 그리고, 상기 계산부(140)는 상기 샘플 색상 정보를 이용하여 상기 복수의 영상촬영기기의 특성 정보를 산출한다. 그리고, 생성부(150)는 상기 기준 영상 데이터 및 타겟 영상 데이터를 촬영한 영상 촬영 기기의 특징 정보를 이용하여 색상 참조표를 생성하고, 상기 보정부(160)는 상기 색상 참조표를 기준으로 타겟 영상 데이터를 기준 영상 데이터 맵핑하여 상기 타겟 영상 데이터의 색상을 보정한다.
하지만, 상기 추출된 기준 영상 데이터의 색상 값에 존재하지 않는 타겟 영상 데이터의 색상 값을 보정하기 위해서 상기 기준 영상 데이터의 색상 값을 유추해야한다. 이를 위해, 상기 계산부(140)는 상기 추출부(130)로부터 추출되지 못한 대응점에 해당하는 영역의 색상 값을 보정하기 하기<수학식 1>에 포함된 계수, 예컨대 알파, 베타, 감마를 계산한다.
Figure 112009079129506-PAT00001
상기 <수학식 1>을 참조하면, y는 기준 영상 데이터의 색상을 나타내고, x는 타겟 영상 데이터의 색상을 나타낸다. 여기서, 상기 기준 영상 데이터는 상기 복수개의 영상 촬영기기 중 중앙에 위치한 영상 촬영기기에 의해 촬영된 영상을 나타낸다. 그리고, 상기 타겟 영상 데이터는 기준 영상 데이터를 제외한 나머지 영상 데이터를 나타낸다. 또한,
Figure 112009079129506-PAT00002
는 상기 다시점 카메라의 특성, 예컨대 화소 밝기를 조절하는 카메라 특성을 나타낸다.
Figure 112009079129506-PAT00003
는 다시점 카메라의 시점간 비정합의 이득(gain)을 나타내며,
Figure 112009079129506-PAT00004
는 다시점 카메라의 시점간 비정합의 오프셋(offset)을 나타낸다. 상기 <수학식 1>은 상기 이득, 오프셋, 감마 특성이 모두 다른 경우를 고려한 수학식이다. 그러면 여기서는, 하기 <수학식 2> 내지 <수학식 4>를 참조하여, 상기 이득, 오프셋, 감마를 보다 구체적으로 설명한다.
Figure 112009079129506-PAT00005
상기 <수학식 2>를 참조하면, 상기 다시점 카메라의 시점간 비정합의 이득을 나타낸 수학식이다. y는 기준 영상 데이터의 색상을 나타내고, x는 타겟 영상 데이터의 색상을 나타낸다. 또한,
Figure 112009079129506-PAT00006
는 상기 다시점 카메라의 특성, 예컨대 화소의 밝기를 조절하는 카메라의 특성을 의미한다. 상기 다시점 카메라의 시점간 비정합의 이득을 나타낸 수식이다. 상기 기준 영상 데이터의 이득과 상기 타겟 영상 데이터의 이득이 같으면, 상기 <수학식 2>는 후술될 도 3의 300과 같은 그래프로 나타난다. 하지만, 상기 기준 영상 데이터의 이득과 상기 타겟 영상 데이터의 이득이 같지 않으면, 상기 <수학식 2>는 후술될 도 3의 310과 같은 그래프로 나타난다.
Figure 112009079129506-PAT00007
상기 <수학식 3>을 참조하면, 상기 다시점 카메라의 시점간 비정합의 이득을 나타낸 수학식이다. y는 기준 영상 데이터의 색상을 나타내고, x는 타겟 영상 데이터의 색상을 나타낸다. 또한,
Figure 112009079129506-PAT00008
는 상기 다시점 카메라의 특성, 예컨대 화소의 밝기를 조절하는 카메라의 특성을 의미한다. 상기 다시점 카메라의 시점간 비정합의 오프셋을 나타낸 수식이다. 상기 기준 영상 데이터의 오프셋과 상기 타겟 영상 데이터의 오프셋이 같으면, 상기 <수학식 3>는 후술될 도 3의 300과 같은 그래프로 나타난다. 하지만, 상기 기준 영상 데이터의 오프셋과 상기 타겟 영상 데이터의 오프셋이 같지 않으면, 상기 <수학식 3>는 후술될 도 3의 320과 같은 그래프로 나타난다.
Figure 112009079129506-PAT00009
상기 <수학식 4>를 참조하면, 상기 다시점 카메라의 시점간 비정합의 감마를 나타낸 수식이다. 상기 기준 영상 데이터의 감마와 상기 타겟 영상 데이터의 감마가 같으면, 상기 <수학식 4>는 후술될 도 3의 300과 같은 그래프로 나타난다. 하지만, 상기 기준 영상 데이터의 감마와 상기 타겟 영상 데이터의 감마가 같지 않으면, 상기 <수학식 4>는 후술될 도 3의 330과 같은 그래프로 나타난다. 그러면 여기서는, 도 3을 참조하여 본 발명의 실시 예에 따른 입체 영상 시스템에서 영상 데이터 촬영 기기의 특성, 예컨대 이득, 오프셋, 감마가 다를 경우에 상기 기준 영상 데이터의 색상과 상기 타겟 영상 데이터의 색상 차이를 보다 구체적으로 설명한다.
도 3은 본 발명의 실시 예에 따른 입체 영상 시스템에서 영상 데이터 촬영 기기의 특성이 다른 경우 기준 영상 데이터와 타겟 영상 데이터의 색상 차이를 도시한 그래프이다.
상기 도 3을 참조하면, X축은 기준 영상 데이터의 색상을 나타내고, Y축은 타겟 영상 데이터의 색상을 나타낸다. 여기서, 상기 기준 영상 데이터의 색상과 타겟 영상 데이터의 색상은 0부터 255 사이의 픽셀 값으로 표현되었다. 만약, 상기 기준 영상 데이터를 촬영한 카메라의 특징과 상기 타겟 영상 데이터를 촬영한 카메라의 특징, 예컨대 이득, 오프셋, 감마가 모두 일치하면 300과 같은 그래프로 표현된다. 하지만, 상기 기준 영상 데이터를 촬영한 카메라의 특징과 상기 타겟 영상 데이터를 촬영한 카메라의 특징 중 이득이 다른 경우에는 310과 같은 그래프로 표현된다. 또한, 상기 기준 영상 데이터를 촬영한 카메라의 특징과 상기 타겟 영상 데이터를 촬영한 카메라의 특징 중 오프셋이 다른 경우에는 320과 같은 그래프로 표현된다. 상기 기준 영상 데이터를 촬영한 카메라의 특징과 상기 타겟 영상 데이터를 촬영한 카메라의 특징 중 감마가 다른 경우에는 330과 같은 그래프로 표현된다.
상기 계산부(140)는 상기 추출부(130)에서 추출된 기준 영상 데이터의 색상과 상기 기준 영상 데이터의 색상에 대응되는 상기 타겟 영상 데이터의 색상에 비선형 회귀 분석 방법을 적용하여 상기 <수학식 1>의 계수들, 예컨대 이득, 오프셋, 감마를 계산한다. 이때, 상기 이득, 오프셋, 감마를 계산하는 과정은 시점 별 영상 데이터와 삼원색 채널 별로 각각 실행된다. 상기 비선형 회귀 분석 방법은 복수의 샘플 데이터를 이용하여 상기 <수학식 1>내에 포함되어 있는 계수들을 예측할 수 있는 분석 방법이다. 상기 계산부(140)는 상기 추출부(130)로부터 수신한 삼원색 채널별로 저장된 색상 값을 이용하여 상기 이득, 오프셋, 감마를 계산한다. 그리고 생성부(150)는 상기 계산된 특징 정보를 이용하여 색상표를 생성한다. 그러면 여기서는, 도 4를 참조하여 본 발명의 실시 예에 따른 입체 영상 시스템에서 영상 데이터의 색상을 보정하는 과정을 보다 구체적으로 설명한다.
도 4는 본 발명의 실시 예에 따른 입체 영상 시스템에서 영상 데이터의 색상을 보정하는 과정을 설명하기 위한 도면이다.
도 4를 참조하면, 상기 추출부(130)에 의해서 산출된 색상 정보를 삼원색 채널 별로 저장하여 색상 참조표(430)를 생성한다. 보다 구체적으로, 상기 생성부(140)는 상기 <수학식 1>의 계수, 예컨대 이득, 오프셋, 감마에 상기 계산부(140)로부터 수신한 이득, 오프셋, 감마를 입력한다. 그리고, 상기 생성부(150)는 상기 <수학식 1>의 기준 영상 데이터의 색상 값에 0부터 255까지 순차적으로 대입하여 타겟 영상 데이터의 색상 값을 추출한다. 그리고, 상기 추출된 색상 값을 삼원색 채널 별로 저장하여 색상 참조표(430)를 생성한다.
그런 다음, 상기 보정부(160)는 상기 색상 참조표(430)를 이용하여 타겟 영상 데이터의 화소 값(420)을 보정한다. 예를 들어, 기준 영상 데이터의 화소 값(410)에서 R은 100이고, 상기 타겟 영상 데이터를 화소 값(420)에서 R은 200이다. 여기서, 상기 기준 영상 데이터의 화소 값(410)과 타겟 영상 데이터의 화소 값(420)의 차이는 상기 색상 참조표(430)를 통해서 보정된 타겟 영상 데이터의 화소 값(440)로 보정한다. 그러면 여기서, 도 5 및 도 6를 참조하여 본 발명의 실시 예에 따른 입체 영상 시스템에서 영상 데이터의 색상 보정하는 과정을 설명한다.
도 5는 본 발명의 실시 예에 따른 입체 영상 시스템에서 복수개의 카메라에 의해 촬영된 영상 데이터를 도시한 도면이고, 도 6는 본 발명의 실시예에 따른 입체 영상 시스템에서 복수개의 카메라에 의해 촬영된 영상 데이터의 색상을 보정한 영상 데이터를 도시한 도면이다.
도 5 및 도 6를 참조하면, 상기 수신부(110)는 복수개의 다시점 카메라에 의해 촬영된 영상 데이터(510 내지 550)를 수신한다. 상기 결정부(120)는 상기 영상 데이터(510 내지 550)에서 기준 영상 데이터와 타겟 영상 데이터를 결정한다. 상기 결정부(120)는 상기 영상 데이터(510 내지 550)를 촬영한 복수개의 영상 촬영기기들 중 중앙에 위치한 영상 촬영기기에 의해 촬영된 영상 데이터(530)을 기준 영상 데이터로 결정한다. 그리고, 상기 결정부(120)는 상기 영상 데이터에서 기준 영상 데이터(530)를 제외한 나머지 영상 데이터를 타겟 영상 데이터(510, 520, 540, 550)로 결정한다. 상기 타겟 영상 데이터(510, 520, 540, 550)는 기준 영상 데이터를 기준으로 색상이 보정될 영상 데이터를 나타낸다.
상기 추출부(130)는 상기 영상 데이터(510 내지 550)의 특징점을 이용하여 상기 기준 영상 데이터(530)와 상기 타겟 영상 데이터(510, 520, 540, 550)간에 존재하는 대응점을 추출한다. 이때, 상기 추출부(130)는 크기불변특징변환 알고리즘을 이용하여 상기 기준 영상 데이터(530)와 상기 타겟 영상 데이터(510, 520, 540, 550)간에 존재하는 소수의 대응점을 추출할 수 있다. 그리고, 상기 추출부(130)는 상기 대응점을 이용하여 상기 기준 영상 데이터(530)의 색상과 상기 기준 영상 데이터(530)의 색상 값에 대응되는 타겟 영상 데이터(510, 520, 540, 550)의 색상 값을 삼원색채널 별로 저장한다. 그리고, 상기 계산부(140)는 상기 추출부(130)로부터 추출되지 못한 대응점에 해당하는 영역의 색상을 보정하기 상기 <수학식 1>에 포함된 계수들을 계산한다. 여기서, <수학식 1>에 포함된 계수를 계산하는 과정은 앞서 구체적으로 설명하였으므로 이에 관한 상세한 설명은 생략하기로 한다.
상기 생성부(150)는 상기 기준 영상 데이터(530)의 색상 값을 추출하고, 상기 추출된 기준 영상 데이터(530)의 색상 값을 삼원색 채널 별로 저장하여 제 1 색상표를 생성한다. 그리고, 상기 생성부(150)는 상기 <수학식 1>의 기준 영상 데이터의 색상 값에 0부터 255까지 순차적으로 입력하여 타겟 영상 데이터(510)의 색상 값을 추출하고, 상기 추출된 타겟 영상 데이터의 색상 값을 삼원색 채널 별로 저장하여 색상 참조표를 생성한다.
다음으로, 상기 보정부(160)는 상기 색상 참조표를 기준으로 타겟 영상 데이터를 맵핑하여 타겟 영상 데이터의 화소 값을 보정하고, 보정된 영상 데이터(610)를 출력한다. 그리고, 상기 생성부(150)는 상기와 같은 과정을 통해 타겟 영상 데이터(520, 540, 550)의 색상표를 각각 생성하고, 상기 보정부(160)는 상기 제 1 색상표와 타겟 영상 데이터(520, 540, 550)의 색상표와 각각 비교하여 보정된 색상표를 생성한다. 그리고, 상기 보정된 색상표를 상기 타겟 영상 데이터(520, 540, 550)에 각각 맵핑하여 보정된 영상 데이터(620, 640, 650)을 출력한다. 그러면 여기서, 도 7 및 도 8을 참조하여 상기 타겟 영상 데이터의 보정 전/후를 비교하기 위해서 상기 도 5 및 도 6의 일부분을 확대하여 보다 구체적으로 설명하기로 한다.
도 7는 본 발명의 실시 예에 따른 입체 영상 시스템에서 복수개의 카메라에 의해 촬영된 영상 데이터의 일부분을 확대한 도면이고, 도 8은 본 발명의 실시예에 따른 입체 영상 시스템에서 복수개의 카메라에 의해 촬영된 영상 데이터의 색상을 보정한 영상 데이터의 일부분을 확대한 도면이다.
도 7 및 도 8을 참조하면, 상기 도 7의 영상 데이터(710, 720, 730, 740, 750)는 복수개의 영상 촬영기기에 의해 촬영되었다. 이때, 상기 복수개의 영상 촬영 기 기는 동일한 기종의 카메라이지만, 상기 복수개의 영상촬영기기는 각각 미세한 특성 차이를 가지기 때문에 상기 영상 데이터(710, 720, 730, 740, 750)의 색상은 조금씩 다르게 촬영되었다. 상기와 같은 보정과정을 통해 상기 영상 데이터(710, 720, 730, 740, 750)을 보정하면 보정된 영상 데이터(810, 820, 830, 840, 850)을 출력할 수 있다.
상기 보정된 영상 데이터(810, 820, 830, 840, 850)는 상기 영상 데이터(710, 720, 730, 740, 750)와 대비하면, 상기 보정된 영상 데이터(810, 820, 830, 840, 850)의 색상 차이는 상기 영상 데이터(710, 720, 730, 740, 750)의 색상 차이보다 작게 나타난다. 그러면 여기서, 도 9를 참조하여 본 발명의 실시 예에 따른 입체 영상 시스템에서 영상 데이터의 색상 오차 크기, 보정된 영상 데이터의 색상 오차 크기, 색상 보정에 널리 사용되는 히스토그램 매칭 방법을 이용하여 보정된 영상 데이터의 색상 오차 크기를 비교하여 구체적으로 설명하기로 한다.
도 9는 본 발명의 실시 예에 따른 입체 영상 시스템에서 영상 데이터의 색상 오차 크기, 보정된 영상 데이터의 색상 오차 크기, 색상 보정에 널리 사용되는 히스토그램 매칭 방법을 이용하여 보정된 영상 데이터의 색상 오차 크기를 비교하기 위한 도면이다.
도 9를 참조하면, X축은 영상 데이터의 수를 나타내고, Y축은 기준 영상 데이터의 색상과 타겟 영상 데이터의 색상의 오차 크기를 나타낸다. 여기서는, 상기 오차 크기는 평균 절대 오차(Mean Absolute Error : MAE)를 이용하여 계산되며, 상기 평균 절대 오차는 기준 영상 데이터의 색상과 타겟 영상의 색상의 오차 크기를 나 타내는 객관적 평가 기준으로 사용된다. 910은 상기 영상 데이터(510 내지 550)에서 기준 영상 데이터(530)의 색상과 타겟 영상 데이터(510, 520, 540, 550)의 색상의 오차 크기를 계산하여 나타낸 그래프이다.
또한, 920은 상기 보정된 영상 데이터(610, 620, 630, 640, 650)에서 기준 영상 데이터(630)의 색상과 타겟 영상 데이터(610, 620, 640, 650)의 색상의 오차 크기를 계산하여 나타낸 그래프이다. 또한, 930은 색상 보정에 널리 사용되는 히스토그램 매칭 방법을 이용하여 상기 영상 데이터(510, 520, 530, 540, 550)을 보정한 후, 상기 보정된 영상 데이터에서 기준 영상 데이터(630)의 색상과 타겟 영상 데이터의 색상의 오차 크기를 계산하여 나타낸 그래프이다. 도 9에 도시되어 있는 그래프들에서 알 수 있듯이 영상촬영기기의 특징 정보를 이용하여 기준 영상 데이터를 기준으로 타겟 영상 데이터를 보정하면, 상기 기준 영상 데이터의 색상과 상기 타겟 영상 데이터의 색상간 오차 크기가 개선됨을 나타낸다.
따라서 본 발명의 영상 데이터 보정 방법을 적용하는 경우의 입체 영상 시스템과 본 발명의 영상 데이터 보정 방법을 적용하지 않은 경우의 입체 영상 시스템을 대비하면 본 발명의 영상 데이터 보정 방법을 적용하는 경우가 탁월한 효과를 가짐을 알 수 있다. 그러면 여기서, 도 10을 참조하여 본 발명의 실시 예에 따른 입체 영상 시스템에서 영상 데이터의 색상을 보정하는 방법을 보다 구체적으로 설명하기로 한다.
도 10은 본 발명의 실시 예에 따른 입체 영상 시스템에서 영상 데이터의 색상을 보정하는 방법을 개략적으로 도시한 도면이다.
도 10을 참조하면, 상기 영상 데이터 보정 장치는, 1000단계에서 다양한 형태의 복수의 영상 촬영기기, 예컨대 다시점 카메라에서 영상 데이터를 수신한다. 상기 다시점 카메라는 적어도 하나의 카메라를 통해 여러 시점에서 촬영된 영상 데이터를 사용자에게 제공하는 카메라를 의미한다. 여기서, 상기 복수개의 영상 촬영기기는, 다양한 형태의 촬영 기기가 될 수 있으며, 그에 따라 상기 복수개의 영상 촬영기기에 의해 촬영된 영상 데이터 시점과 색상은 다르게 촬영 되었다. 즉, 상기 복수개의 영상 촬영기기는 동일한 장면을 동시에 촬영하지만, 상기 촬영된 영상 데이터의 색상은 다르게 촬영되었다. 따라서 본 발명의 실시 예에 따른 보정 장치는 전술한 바와 같이 복수의 기기에서 촬영된 영상 입력되면 영상 데이터의 색상 보정을 수행한다.
이러한 색상 보정을 위해, 상기 영상 데이터 보정 장치는, 1100단계에서 복수의 영상들이 포함된 상기 영상 데이터에는 상기 영상들 중에서 기준 영상 데이터를 선택하여 기준 영상 데이터 데이터를 결정하고, 상기 기준 영상 데이터를 제외한 나머지 영상을 타켓 영상 데이터를 결정한다. 상기 기준 영상 데이터는 상기 복수개의 영상 촬영기기들 중 중앙에 위치한 영상 촬영기기에 의해 촬영된 영상을 나타낸다. 상기 타겟 영상 데이터는 상기 영상 데이터에서 기준 영상 데이터를 제외한 나머지 영상 데이터이고, 상기 타겟 영상 데이터는 기준 영상 데이터를 기준으로 색상이 보정될 영상 데이터를 나타낸다.
그런 다음, 상기 영상 데이터 보정 장치는, 1200단계에서 상기 영상 데이터에서 특징점을 추출하는 알고리즘, 예컨대 크기 불변 특징 변환(Scale Invariant Feature Transform : SIFT) 알고리즘을 이용하여 상기 기준 영상 데이터와 상기 타겟 영상 데이터간에 존재하는 소수의 대응점을 추출한다. 여기서, 상기 특징점은 상기 기준 영상 데이터와 상기 타겟 영상 데이터에 포함되어 있는 특징을 갖는 부분, 예컨대 코너, 경계(edge) 등을 의미한다. 상기 특징점을 이용하여 상기 영상 데이터의 대응점을 추출하면, 강한 특징을 갖는 대응점만 검출할 수 있다. 그리고, 상기 추출된 대응점영역에 해당하는 영상의 픽셀 값을 이용하여 샘플 색상 정보를 추출한다.
다음으로, 상기 영상 데이터 보정 장치는, 1300단계에서 추출한 샘플 색상 정보들을 이용하여 상기 기준 영상 데이터 및 타겟 영상 데이터를 촬영한 영상 촬영 기기의 특징 정보, 예컨대 알파, 베타, 감마를 산출한다. 그리고, 상기 영상 데이터 보정 장치는, 1400단계에서 상기 <수학식 1>의 기준 영상 데이터의 색상 값에 0부터 255까지 순차적으로 대입하여 타겟 영상 데이터의 색상 값을 추출하고, 상기 추출된 색상 값을 삼원색 채널 별로 저장하여 색상 참조표를 생성한다.
그리고, 상기 영상 데이터 보정 장치는, 1500단계에서 상기 색상 참조표를 이용하여 타겟 영상 데이터의 화소 값을 보정한다. 예를 들어, 기준 영상 데이터의 화소 값(410)에서 R은 100이고, 상기 타겟 영상 데이터를 화소 값에서 R은 200이면, 상기 기준 영상 데이터의 화소 값(410)과 타겟 영상 데이터의 화소 값의 차이는 상기 색상 참조표를 참조하여 타겟 영상 데이터를 맵핑함으로써 상기 타겟 영상 데이터의 화소 값을 보정한다.
한편, 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로, 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 안되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
도 1은 본 발명의 실시 예에 따른 입체 영상 시스템에서 색상 보정 장치의 구조를 개략적으로 나타낸 도면,
도 2는 색상 보정을 위해 상기 색상 보정 장치로 입력되는 영상 데이터로, 입체 영상 시스템에서 복수개의 영상 촬영기기에 의해 촬영된 영상 데이터를 나타낸 도면,
도 3은 본 발명의 실시 예에 따른 입체 영상 시스템에서 영상 데이터 촬영 기기의 특성이 다른 경우 기준 영상 데이터와 타겟 영상 데이터의 색상 차이를 도시한 그래프,
도 4는 본 발명의 실시 예에 따른 입체 영상 시스템에서 영상 데이터의 색상을 보정하는 과정을 설명하기 위한 도면,
도 5는 본 발명의 실시 예에 따른 입체 영상 시스템에서 복수개의 카메라에 의해 촬영된 영상 데이터를 도시한 도면,
도 6는 본 발명의 실시 예에 따른 입체 영상 시스템에서 복수개의 카메라에 의해 촬영된 영상 데이터의 색상을 보정한 영상 데이터를 도시한 도면,
도 7는 본 발명의 실시 예에 따른 입체 영상 시스템에서 복수개의 카메라에 의해 촬영된 영상 데이터의 일부분을 확대한 도면,
도 8은 본 발명의 실시 예에 따른 입체 영상 시스템에서 복수개의 카메라에 의해 촬영된 영상 데이터의 색상을 보정한 영상 데이터의 일부분을 확대한 도면,
도 9는 본 발명의 실시 예에 따른 입체 영상 시스템에서 영상 데이터의 색상 오차 크기, 보정된 영상 데이터의 색상 오차 크기, 색상 보정에 널리 사용되는 히스토그램 매칭 방법을 이용하여 보정된 영상 데이터의 색상 오차 크기를 비교하기 위한 도면,
도 10은 본 발명의 실시 예에 따른 입체 영상 시스템에서 영상 데이터의 색상을 보정하는 방법을 개략적으로 도시한 도면.

Claims (10)

  1. 입체 영상 시스템에서 영상 데이터의 색상 보정 장치에 있어서,
    복수의 영상촬영기기로부터 수신된 영상 데이터 에서 기준 영상 데이터와 타겟 영상 데이터를 결정하는 결정부;
    상기 기준 영상 데이터와 상기 타겟 영상 데이터의 특징점 각각 추출하고, 상기 특징점을 이용하여 상기 기준 영상 데이터와 타겟 영상 데이터 간 샘플 대응점들을 추출하고, 상기 샘플 대응점들의 픽셀 값을 확인하여 샘플 색상 정보를 추출하는 추출부;
    상기 샘플 색상 정보를 이용하여 상기 복수의 영상촬영기기의 특성 정보를 산출하는 계산부;
    상기 산출된 특성 정보를 이용하여 색상 참조표를 생성하는 생성부;
    상기 색상 참조표를 기준으로 타겟 영상 데이터를 기준 영상 데이터 맵핑하여 상기 타겟 영상 데이터의 색상을 보정하는 보정부; 를 포함함을 특징으로 하는 색상 보정 장치.
  2. 제 1 항에 있어서, 상기 결정부는,
    상기 복수의 영상촬영기기들 중 소정의 객체에 대해 중앙에 위치한 영상 촬영기기에 의해 촬영된 영상 데이터를 상기 기준 영상 데이터로 결정하고, 상기 기 준 영상 데이터를 제외한 나머지 영상 데이터를 타겟 영상 데이터로 결정함을 특징으로 하는 색상 보정 장치.
  3. 제 1 항에 있어서, 상기 추출부는,
    상기 기준 영상 데이터와 상기 타겟 영상 데이터에 포함되어 있는 영역 중 촬영되는 객체들의 코너 및 상기 객체들 간 경계되는 영역을 특징점으로 추출함을 특징으로 하는 색상 보정 장치.
  4. 제 1 항에 있어서, 상기 계산부는,
    상기 샘플 색상 정보의 색상 값을 이용하여 상기 영상촬영기기들에서 각각 촬영되는 영상들의 영상 데이터에서 상기 기준 영상 데이터와 상기 타겟 영상 데이터 간의 이득 값 및 오프셋 값을 산출함을 특징으로 하는 색상 보정 장치.
  5. 제 4 항에 있어서, 상기 생성부는,
    상기 추출한 모든 대응점들을 이용하여 상기 기준 영상 데이터와 상기 타겟 영상 데이터의 색상 정보를 추출하고, 추출된 색상 정보를 RGB별로 저장하여 추출함을 특징으로 하는 색상 보정 장치.
  6. 제 1 항에 있어서, 상기 보정부는,
    상기 기준 영상 데이터와 상기 타겟 영상 데이터의 색상 정보를 RGB 별로 비교하고, 상기 색상 참조표를 이용하여 타겟 영상 데이터의 RGB를 상기 기준 영상 데이터의 RGB로 보정함을 특징으로 하는 색상 보정 장치.
  7. 입체 영상 시스템에서 영상 데이터의 색상 보정 방법에 있어서,
    복수의 영상촬영기기로부터 수신된 영상 데이터 에서 기준 영상 데이터와 타겟 영상 데이터를 결정하는 단계;
    상기 기준 영상 데이터와 상기 타겟 영상 데이터의 특징점 각각 추출하여 상기 기준 영상 데이터와 타겟 영상 데이터 간 샘플 대응점들을 추출하고, 상기 샘플 대응점들의 픽셀 값을 확인하여 샘플 색상 정보를 추출하는 단계;
    상기 추출된 샘플 색상 정보의 픽셀 값으로부터 상기 복수의 영상촬영기기의 특성 정보를 산출하는 단계;
    상기 산출된 특성 정보를 이용하여 색상 참조표를 생성하는 단계;
    상기 색상 참조표를 기준으로 타겟 영상 데이터를 기준 영상 데이터에 맵핑하여 상기 타겟 영상 데이터의 색상을 보정하는 단계; 를 포함함을 특징으로 하는 색상 보정 방법.
  8. 제 7 항에 있어서, 상기 특성 정보는,
    상기 영상촬영기기들에서 각각 촬영되는 영상들의 영상 데이터에서 상기 기준 영상 데이터와 상기 타겟 영상 데이터 간의 이득 값 및 오프셋 값을 포함함을 특징으로 하는 색상 보정 방법.
  9. 제 7 항에 있어서, 추출하는 단계는;
    상기 샘플 색상 정보의 색상 값을 이용하여 상기 영상촬영기기들에서 각각 촬영되는 영상들의 영상 데이터에서 상기 기준 영상 데이터와 상기 타겟 영상 데이터 간의 이득 값 및 오프셋 값을 산출함을 특징으로 하는 색상 보정 방법.
  10. 제 7 항에 있어서, 상기 생성하는 단계는,
    상기 추출한 모든 대응점들을 이용하여 상기 기준 영상 데이터와 상기 타겟 영상 데이터의 색상 정보를 추출하고, 추출된 색상 정보를 RGB별로 저장하여 추출함을 특징으로 하는 색상 보정 방법.
KR1020090128531A 2009-12-21 2009-12-21 입체 영상 시스템에서 영상 데이터의 색상 보정 장치 및 방법 KR20110071854A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090128531A KR20110071854A (ko) 2009-12-21 2009-12-21 입체 영상 시스템에서 영상 데이터의 색상 보정 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090128531A KR20110071854A (ko) 2009-12-21 2009-12-21 입체 영상 시스템에서 영상 데이터의 색상 보정 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20110071854A true KR20110071854A (ko) 2011-06-29

Family

ID=44402846

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090128531A KR20110071854A (ko) 2009-12-21 2009-12-21 입체 영상 시스템에서 영상 데이터의 색상 보정 장치 및 방법

Country Status (1)

Country Link
KR (1) KR20110071854A (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101492060B1 (ko) * 2013-08-20 2015-02-12 전자부품연구원 동영상의 일괄 컬러 변환 방법 및 그 기록매체
KR101501590B1 (ko) * 2014-06-30 2015-03-12 연세대학교 산학협력단 지역 유사성을 이용한 스테레오 영상의 색상 보정 방법 및 그 장치
KR101523169B1 (ko) * 2014-02-20 2015-05-26 세종대학교산학협력단 스테레오 영상 보정 장치 및 그 방법
KR20150125244A (ko) 2014-04-30 2015-11-09 주식회사 이에스엠연구소 다시점 카메라가 획득한 영상에 대한 색상 보정 방법 및 다시점 카메라가 획득한 영상에 대한 색상을 보정하는 장치
KR101581037B1 (ko) * 2015-10-20 2015-12-29 한국지질자원연구원 드론을 이용한 지질 경계 탐색 시스템 및 방법
WO2017039416A1 (ko) * 2015-09-03 2017-03-09 주식회사 쓰리디지뷰아시아 타임 슬라이스 영상용 오차교정 유닛
US10778908B2 (en) 2015-09-03 2020-09-15 3Digiview Asia Co., Ltd. Method for correcting image of multi-camera system by using multi-sphere correction device
WO2021157900A1 (ko) * 2020-02-05 2021-08-12 삼성전자 주식회사 필터를 제공하는 방법 및 이를 지원하는 전자 장치

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101492060B1 (ko) * 2013-08-20 2015-02-12 전자부품연구원 동영상의 일괄 컬러 변환 방법 및 그 기록매체
KR101523169B1 (ko) * 2014-02-20 2015-05-26 세종대학교산학협력단 스테레오 영상 보정 장치 및 그 방법
KR20150125244A (ko) 2014-04-30 2015-11-09 주식회사 이에스엠연구소 다시점 카메라가 획득한 영상에 대한 색상 보정 방법 및 다시점 카메라가 획득한 영상에 대한 색상을 보정하는 장치
KR101501590B1 (ko) * 2014-06-30 2015-03-12 연세대학교 산학협력단 지역 유사성을 이용한 스테레오 영상의 색상 보정 방법 및 그 장치
WO2017039416A1 (ko) * 2015-09-03 2017-03-09 주식회사 쓰리디지뷰아시아 타임 슬라이스 영상용 오차교정 유닛
US10778908B2 (en) 2015-09-03 2020-09-15 3Digiview Asia Co., Ltd. Method for correcting image of multi-camera system by using multi-sphere correction device
US10904458B2 (en) 2015-09-03 2021-01-26 3Digiview Asia Co., Ltd. Error correction unit for time slice image
KR101581037B1 (ko) * 2015-10-20 2015-12-29 한국지질자원연구원 드론을 이용한 지질 경계 탐색 시스템 및 방법
WO2021157900A1 (ko) * 2020-02-05 2021-08-12 삼성전자 주식회사 필터를 제공하는 방법 및 이를 지원하는 전자 장치

Similar Documents

Publication Publication Date Title
US10540806B2 (en) Systems and methods for depth-assisted perspective distortion correction
KR20110071854A (ko) 입체 영상 시스템에서 영상 데이터의 색상 보정 장치 및 방법
KR101310213B1 (ko) 깊이 영상의 품질 개선 방법 및 장치
US8654195B2 (en) Distance measuring apparatus, distance measuring method, distance measuring program, distance measuring system, and image pickup apparatus
CN106030653B (zh) 用于生成高动态范围图像的图像处理系统和图像处理方法
WO2012114639A1 (ja) オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
JP4831514B2 (ja) 設定パラメータ最適化装置およびそのプログラム
US9922441B2 (en) Image processing device, image processing method, and program
CN107077743A (zh) 用于阵列相机的动态校准的系统和方法
US20110149031A1 (en) Stereoscopic image, multi-view image, and depth image acquisition apparatus and control method thereof
Lin et al. High dynamic range imaging for stereoscopic scene representation
JP2011203811A (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び複眼デジタルカメラ
US20140043434A1 (en) Image processing apparatus
JP6624785B2 (ja) 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
EP2658269A1 (en) Three-dimensional image generating apparatus and three-dimensional image generating method
KR20150028474A (ko) 3차원 영상의 색상 보정방법
KR20110133677A (ko) 3d 영상 처리 장치 및 그 방법
Selmanovic et al. Enabling stereoscopic high dynamic range video
JP2018182700A (ja) 画像処理装置およびその制御方法、プログラム、並びに記憶媒体
Gurbuz et al. Color calibration for multi-camera imaging systems
CN112422848B (zh) 一种基于深度图和彩色图的视频拼接方法
CN115359128A (zh) 一种少量重合区域无需特制标定物的多深度相机外参标定的方法
KR101648673B1 (ko) 360° vr 영상 콘텐츠제작을 위한 유손실 이미지 복원 및 컨버팅 방법
KR20130057586A (ko) 깊이 맵 생성 장치 및 방법과 이를 이용한 입체 영상 변환 장치 및 방법
JP6332982B2 (ja) 画像処理装置およびその方法

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination