KR100496875B1 - 이미지 처리 방법 - Google Patents

이미지 처리 방법 Download PDF

Info

Publication number
KR100496875B1
KR100496875B1 KR10-1999-7010255A KR19997010255A KR100496875B1 KR 100496875 B1 KR100496875 B1 KR 100496875B1 KR 19997010255 A KR19997010255 A KR 19997010255A KR 100496875 B1 KR100496875 B1 KR 100496875B1
Authority
KR
South Korea
Prior art keywords
color
image
distance
scale
plane
Prior art date
Application number
KR10-1999-7010255A
Other languages
English (en)
Other versions
KR20010012303A (ko
Inventor
핀 호이달
Original Assignee
디멘션즈 에이에스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 디멘션즈 에이에스 filed Critical 디멘션즈 에이에스
Publication of KR20010012303A publication Critical patent/KR20010012303A/ko
Application granted granted Critical
Publication of KR100496875B1 publication Critical patent/KR100496875B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Endoscopes (AREA)
  • Image Generation (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Threshing Machine Elements (AREA)
  • Holo Graphy (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Silver Salt Photography Or Processing Solution Therefor (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Sewing Machines And Sewing (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

본 발명은 이미지 처리 특히, 3차원 실제 피사체의 2차원 이미지를 동일한 3차원 실제 피사체의 3차원 화상으로 변환하는 방법에 관한 것으로, 피사체는 2차원 이미지내의 화소에 의해 표현되는 엘리먼트로 구성된다. 이미지의 컬러는 컬러 품질에 대해 분석되고, 개별 컬러 포인트의 공간에서의 방향은 색온도 척도, 컬러 채도 및 콘트라스트 척도를 사용하여 결정되고, 그 결과 각각의 컬러는 이미지의 다른 컬러에 대한 투시 위치에서 얻어진다.

Description

이미지 처리 방법 {METHOD FOR IMAGE PROCESSING}
본 발명은 이미지 처리 방법 특히, 3차원 실제 피사체의 2차원 이미지를 동일한 3차원 실제 피사체의 3차원 화상으로 변환하는 방법에 관한 것이고, 여기서 피사체는 각각이 2차원 이미지의 화소로 대표되는 엘리먼트로 구성된다.
본 발명의 목적은 컬러 화면(picture)이 폭과 높이 좌표 (x, y)를 가진 이미지 평면내의 2차원 화상인 필름 또는 비디오로부터 폭, 높이 및 깊이 좌표 (X, Y, Z)를 가진 공간내의 3차원 화상으로 변환될 수 있도록 하는 새롭고 간단한 기술을 제공하는 것이다. 이러한 3차원 화상은 예를 들면, 이미지 표면내의 형태 엘리먼트를 분석(물체 분석)하거나 또는 그곳에 적합한 매체를 위한 3차원 이미지/필름을 형성하기 위해 사용된다.
필름 또는 비디오로부터의 컬러 화면은 주어진 시간에서의 카메라의 이미지 화상내 물체를 비춘 특정 스펙트럼 구성을 가진 하나 이상의 광원으로부터의 광의 사진 화상이다. 모든 물체는 특정 컬러를 흡수하고 나머지는 반사한다. 물체 컬러는 물체에 의해 반사된 광의 스펙트럼 분포에 의해 결정된다. 물체를 필름상에 기록하는 것은 이하와 같은 여러 요소에 의존한다:
1) 광원의 스펙트럼 분포
2) 물체의 스펙트럼 반사력
3) 카메라로부터의 거리와 이러한 대기 원근법의 흡수 스펙트럼
4) 사진 재료의 컬러 기록력.
존재하는 이미지내의 피사체 엘리먼트에 대한 깊이 파라미터 Z를 포함하는 공간 좌표를 얻기 위해, 이미지의 컬러 품질이 분석된다. 컬러 품질은 입사 광원 및 반사하는 물체에 대한 기록이다.
광원의 컬러 품질은 색온도로 측정되고 켈빈(K)으로 나타내진다. 시나리오를 촬영할 때, 이미지 표면내의 물체로 입사하는 광 및 반사되는 광의 색온도는 일반적으로 컬러 광도계로 측정되고, 용도(일광, 인공광 등)에 맞는 컬러 기록력을 가진 필름을 사용한다. 광원의 색온도는 카메라까지의 거리에 따라 변한다.
컬러 화면내의 개별 이미지 포인트인 화소는 이미지 화상내의 반사 물체를 표현한다. 이미지 포인트의 컬러 품질은 3개의 측정 파라미터에 의해 명확히 결정된다: 색상, 채도 및 명도. 이러한 컬러 품질은 카메라까지의 거리에 따라 변한다.
색상은 뉴튼 컬러 스펙트럼과 사이클을 참조한 전자기 스펙트럼내의 컬러 위치에 관한 것이다. 이는 일반적으로 스펙트럼 컬러 적색, 녹색 및 청색(R, G, B) 또는 선택적으로 마젠타, 황색 및 사이안(M, Y, C)과 또한 CIE 1931 표준에 따른 컬러 좌표에 대한 변환의 상대 구성에 의해 나타내지고, 여기서 주어진 명도에 대한 모든 가시광 컬러(즉, 400㎚ 내지 770㎚ 파장의)는 스펙트럼 컬러와 자주색(purple) 라인에 의해 한정되는 표에 정확한 좌표를 할당할 수 있다.
채도는 한 컬러가 다른 컬러와 얼마나 혼합되었는가를 나타내고 백분율(%)로서 나타내진다. 순수 스펙트럼 컬러는 포화(100%의 채도)되었다고 하고, 백색과 회색은 불포화(0%의 채도)되었다고 한다.
명도(콘트라스트, 광강도 또는 값)는 순수한 백색 표면으로부터의 반사(100% 반사)에 대한 입사광의 양을 측정하는 것이고 이에 따라 상대 백분율(%)로 나타내진다.
필름 카메라에 대해 다른 거리로 이동하는 물체로부터 반사된 광의 기록된 컬러의 품질은 변한다. 광원의 색온도는 거리에 따라 변한다. 개별 포인트의 색상(RGB)은 일정하지만, 명도와 채도는 거리에 따라 변한다. 높은 명도와 포화된 컬러 및 낮은 색온도는 이미지 표면에 인접(짧은 거리)하여 발생하고, 소위 능동 레벨이라 불린다. 결과적으로, 낮은 명도와 불포화된 컬러 및 높은 색온도는 이미지 표면으로부터 먼거리(긴 거리)에서 발생될 것이고, 수동 레벨이라 불린다. 추가로, 이는 모든 이러한 레벨(능동/수동)로 내부적으로 작동하고, 여기서 따뜻한 컬러는 차가운 컬러에 비해 상보적으로 더욱 능동적인 것으로 나타난다. 따뜻한 컬러는 M, MY 및 Y이다. 차가운 컬러는 YC 및 C이다.
필름 카메라로부터의 거리에 따른 상기 특성의 변화로 인하여, 각각의 컬러가 하나내에 자신의 투시 위치와 이미지의 다른 컬러에 대한 동일한 시나리오를 가지는 것으로 추론할 수 있다. 이는 본 발명의 기본 원리이다.본 발명에 따르면, 이미지 처리 특히, 3차원 실제 피사체의 2차원 이미지를 동일한 3차원 실제 피사체의 3차원 화상으로 변환시키는 방법이 제공되고, 여기서 피사체는 2차원 이미지내 엘리먼트로 구성되며, 2차원 이미지는 카메라에 의해 제공된다. 이러한 방법은:- 카메라의 초점 평면에 가장 인접한 카메라의 초점 평면에 해당하는 기준면을 결정하는 단계를 포함하는데, 상기 기준면은 2차원 이미지내의 엘리먼트에 해당하는 엘리먼트를 구비하며,- 상기 기준면내에서 상기 각각의 엘리먼트에 대해 컬러 파라미터 색상, 채도 및 명도를 결정하는 단계;- 개별 이미지의 이미지 시퀀스에 의해 컬러 파라미터의 값을 결정함으로써 기준 척도를 형성하는 단계를 포함하는데, 상기 각각의 이미지는 여러 미리 설정된 초점 평면내의 피사체를 나타내고, 개별 초점 평면 사이의 컬러 파라미터에서의 변화가 개별 측정된 컬러 파라미터에 대해 계측 또는 투시 거리값을 참조하는 기하학적 측정 척도의 보정을 위해 사용되며,- 상기 2차원 이미지내의 상기 각각의 엘리먼트에 대해 컬러 파라미터 색상, 채도 및 명도를 측정하고 기록하는 단계,- 2차원 화면내의 각각의 엘리먼트에 대한 컬러 파라미터를 상기 기준면내의 해당 엘리먼트에 대한 컬러 파라미터와 비교하는 단계,- 상기 비교에 기초하여, 상기 2차원 이미지내에 상기 각각의 엘리먼트에 거리값 dh;ds;db를 할당하는 단계를 포함하는데, 상기 dh는 색상값을 비교함으로써 형성되고, 상기 ds는 채도값을 비교함으로써 형성되고 및 db는 명도값을 비교함으로써 형성되며, - 상기 2차원 이미지내의 상기 엘리먼트와 상기 기준면 사이의 거리 d(z)를 계산하는 단계를 포함하는데, 상기 d(z)는 상기 기준면에 수직인 z-축을 따라 측정되고 원점을 가지며, 상기 거리값 dh, ds, db의 가중 평균으로서; d(z)=1/3*(kh*dh+ks*ds+kb*db)로서 설정되고, 여기서 kh, ks 및 kb는 경험 데이터에 기초한 가중 인자(weight factor)를 구성하며,- 변환 d(x)--->X, d(y)--->Y 및 d(z)--->Z를 수행하는 단계를 포함하는데, 상기 X, Y, Z는 상기 기준면내의 원점을 가진 3차원 좌표계내의 엘리먼트의 좌표이고, 상기 변환 d(x)--->X, d(y)--->Y는 카메라 이미지 평면과 공간내의 초점 평면 사이의 계산된 비율(척도)에 의해 평면내의 이미지 엘리먼트를 공간내의 엘리먼트로 변환하기 위한 공지된 과정으로 얻어지고, 가장 인접한 평면은 상기 기준면을 구성하며, 상기 변환 d(z)--->Z는 표준화된 투시 도면으로부터 판독 계측(metric) 거리에 대한 전방 투시 구조화를 위한 과정을 역으로 제공함으로써 얻어지고,- 설정된 거리값 d(z)와 상기 2차원 이미지 평면내의 상기 엘리먼트의 x, y 좌표에 기초하여 상기 엘리먼트에 대한 실제 공간 좌표 X, Y, Z를 결정하는 단계를 포함한다.
본 발명은 개별 이미지의 이미지 시퀀스에 의해 컬러에 대한 파라미터 값을 결정함으로써 기준 척도의 형성을 포함하고, 각각의 개별 이미지는 피사체를 나타낸다.
바람직한 실시예에서, 본 발명은 각각이 여러 미리 설정된 초점 평면내의 피사체를 나타내는 개별 이미지의 이미지 시퀀스에 의해 컬러 품질에 대한 파라미터의 값을 결정함으로써 기준 척도를 형성하는 것을 포함하고, 개별 초점 평면 사이의 컬러 품질 파라미터내의 변화는 개별 측정된 컬러 품질 파라미터에 대해 계측 또는 투시 거리값을 참조하는 기하학적 측정 척도의 보정(calibration)을 위해 사용된다. 기하학적 측정 척도는 바람직하게는 켈빈 온도의 색온도, 백분율로서의 컬러 채도 및 각각 백분율로서의 광강도/콘트라스트에 대한 기준과 경험 데이터에 기초한 기하학적으로 일치하는 비-선형 척도를 포함하고, 색온도는 컬러 채도와 광강도/콘트라스트는 0에 근접하는 척도의 공통 종료점 또는 수렴점에서 자신의 최대값을 향해 증가하고, 비-선형 척도의 공통 수렴 포인트는 가장 먼 거리에 대한 초점 평면상에 초점을 맞춘 이미지내의 하나이상의 떨어져 위치하는 엘리먼트에 대한 컬러 품질 파라미터에 의해 결정되고, 이러한 엘리먼트에 대한 측정값 또는 평균 측정값은 수렴점을 결정한다. 추가의 바람직한 실시예에서, 기준면과 이미지내의 엘리먼트 사이 또는 기준면과 엘리먼트의 일부를 형성하는 하나 이상의 화소 사이의 거리를 결정하기 위해 2차원 이미지의 포맷에 해당하고 관련 이미지의 컬러 품질에 대해 보정된 비-선형 척도를 가진 전면 투시도내에 이러한 기학학적 측정 척도가 삽입된다.
마지막으로, 본 발명에 따르면, 투시-기초한 거리값 또는 계측 거리값중 하나로 구성된 사용이 바람직하다.
이로써, 노출된 컬러 사진 이미지 재료가 컬러 품질의 특성에 대해 경험 및 실험적으로 알려진 것에 기초하여 분석되어 지고, 이에 따라 각각의 컬러는 이미지의 다른 컬러에 대한 자신의 투시 위치를 얻게된다. 결과적으로, 본 발명은 시나리오내 모든 컬러에 대한 3차원 기준 데이터베이스를 제공하고, 이로부터 다른 투시 파라미터 즉, 거리, 공간 좌표 등이 추론될 수 있다.
본 발명에서, 이미 노출된 사진 컬러 화면내에 존재하는 정보가 처리된다. 만일 사진 재료가 네가티브 또는 포지티브 컬러 필름/페이퍼 또는 비디오와 같은 전형적인 아날로그형이라면, 추가의 처리를 위해 재료를 디지털 포맷으로 변환하는 것이 당연하고, 여기서 이미지 표면내 각각의 포인트는 화소 즉, 자신의 특징의 설명에 의해 표현되고, 이미지 평면내의 포인트의 방향과 컬러 품질(색온도, 색상, 채도 및 콘트라스트)에 대한 원하는 데이터와 같은 것들을 포함한다. 이러한 디지털 화상은 이미지 처리를 위한 현재의 편집 유니트에 의해 제공될 수 있고, 본 발명 또한 처리될 수 있다.
본 발명의 이하의 설명에서, 기하학적 방법에 기초한 수학적 모델이 사용된다. 본 발명의 목적은 이러한 방법에 대한 최상의 설명을 제공하는 것이다. 실제로, 컴퓨터로 처리하기 위한 선택적인 동등한 수학적 방법을 사용하는 것도 자연스러운 것이다.
본 발명은 이하에서 첨부된 도면을 참조로 설명된다.
도 1은 보정 또는 기준 데이터의 추론에 사용되는 이동하는 물체의 여러 이미지의 개략도.
도 2는 기준면에 대한 이미지로 표현된 여러 물체의 위치를 도시하는 도면.
도 3은 기하학적 측정 척도내의 데이터의 사용을 도시하는 도면.
도 4는 이미지 포맷을 표현하는 전면 투시도.
도 1은 특정 시나리오내의 Z-축(C-B와 평행)을 따라 이동하는 물체에 대한 이미지 시퀀스를 도시한다. 카메라 초점 평면으로부터의 거리 증가로 인하여, 물체의 컬러 품질이 변한다. 다음으로 물체내의 초점 평면 화상이 기준면(예를 들면, 시퀀스내의 제 1 이미지(5'))으로부터 시퀀스내의 마지막 이미지(11')까지의 물체의 거리와 여러 초점 평면(도 1의 실제 이미지 시퀀스(5'-11')) 사이의 물체의 이동의 기록을 표현하는 컬러 품질 파라미터를 가지고, 이에 의해 기준면(5')으로부터 물체의 거리에 대한 식을 얻는다. 각각의 초점 평면(5'-11')내 물체에 대한 측정된 컬러 품질 파라미터와 조합된 물체에 대한 초점 평면의 공지된 위치 즉, 공지된 거리값이 도 2에 도시된 바와 같은 측정된 컬러 품질 파라미터에 대한 기하학적 측정 척도(거리 척도)를 형성하는데 사용될 수 있는 기준 척도를 제공한다.
도 2는 렌즈를 구비한 카메라 및 기준면(카메라 초점 평면)이 결정되는 방법을 도시한다. 도면은 또한 기준면으로부터 특정 거리 d(z)에 실제로 위치하는 여러 물체를 도시한다. 본 발명에 따른 방법에서, 물체의 실제 공간 위치는 이미지내 물체를 표현하는 화소의 컬러 파라미터를 기초하여 얻어진다. 도면의 하단부에, 본 발명에 따른 실시예에서 물체와 기준면 사이의 거리가 물체의 이미지에 기초하여 설정되도록 하는 기하학적 척도가 도시될 수 있다.
도 3은 각각 색온도, 컬러 채도 및 광강도/콘트라스트에 대해 기하학적으로 일치하는 비선형 척도를 가진 기하학적 측정 척도를 도시한다. 기하학적 측정 척도는 동일한 시나리오내의 임의의 엘리먼트를 분석하기 위한 수단일 것이다. 측정 척도는 직각 삼각형 ABC' 형태이고, 이는 도 1에 해당하는 이미지 시나리오내의 깊이 범위를 나타낸다. 측면 에지부를 따라, 기준과 경험 데이터에 기초한 컬러 품질에 관한 특징에 대한 척도를 설정한다. 도 3에 도시된 전면 투시도에서 알 수 있듯이 이러한 기하학적 측정 척도는 본 발명에 따른 방법의 이러한 실시예에서의 원리적인 수단이다.
도 4는 필름/비디오 이미지의 포맷을 도시하는 직사각형 ADEF를 도시한다. 도 4의 C점은 각각의 초점 평면내의 중심점으로 초점이라 불리며, 도 1에 도시된 시나리오의 중심을 향하는 개별 이미지를 통한 전면도이고, 도 3의 기하학적 척도는 하부 우측 4분면내에 삽입되는 것으로 표시되어 있다. 도 4는 공지된 방법을 기초하여 계산된 척도에 따른 계측 장치를 위한 것이다. 다음으로 계측값이 전체 표면과 윤곽에 저장된다.
도 4는 전면 투시도로 불리고, 외부로부터 투시하여 정확한 계산을 수행하기 위한 수동 설계의 경우에서의 아키텍쳐 방법으로 알려져 있다. 본 발명의 실시예에서, 이는 이미지의 피사체 엘리먼트(물체)에 관한 정확한 계측 거리 데이터를 얻기 위해 내부에서 외부쪽으로 투시하는 방식(도 3 또한 이에 의해 계측 척도를 위한 것이다)으로 도 4내부의 도 3의 자동 판독에 의해 역순(순환적으로)으로 사용될 수 있다.
본 실시예에 따른 방법은 도 1 내지 도 4를 참조로 설명되고 사용된 수단을 설정하고 보정하기 위한 과정으로부터 시작한다. 가장 먼저, 도 3의 기하학적 척도는 여러 척도를 가지도록 설정된다. 도 3은 꼭지점 A, B, C를 가진 직각삼각형으로서의 기하학적 형상을 가지는 것으로 설정된다. 측면 에지부를 따라 본 발명의 개념에 따른 여러 척도 즉, 사진화된 시나리오내의 컬러 품질을 분석하도록 설정된다. 기하학적 척도는 도 4에 삽입되고 이러한 척도는 측정된 데이터에 의해 보정된다. 이는 반드시 처리될 각각의 시나리오에 대해 수행되어야 한다.
다음으로 투시-거리 파라미터를 제공하기 위한 방법 예를 들면, 시나리오내의 물체/엘리먼트에 계측 거리값을 제공하기 위한 방법이 제공된다.
도 3의 ABC'내의 빗변 AC'를 따라 필름 시퀀스내의 이미지 순서가 마킹(marking)된다. 각각의 초점 평면은 또한 반드시 수직선에 의해 변 AB까지 도달된다. 중간 영역(도 3에 도시된 삼각형의 내부)에서, 개별 이미지의 컬러 품질은 반영될 것이다.
도 3의 ABC'의 변 AB를 따라 예를 들면, 나노미터(㎚)인 파장 λ(람다)에 의해 RGB 포맷으로 표시되는 색상의 분포를 가진 척도가 설정된다. 척도는 비-선형이고 기준 데이터에 기초한 소정 컬러의 바이어스를 가지고 분석적으로 발생되고, 가장 따뜻한 전면 컬러는 점 B에 위치하고, 차갑고 더 먼 거리의 RGB 순서에서의 나머지 컬러는 꼭지점 A로 하향한다. 선 AB를 따르는 모든 이러한 컬러는 컬러의 포화된 세그먼트에 속하고, 시나리오 투시도내의 색온도의 최하값에 해당한다. 처리하는 동안 여러 컬러의 분포는 내부 기준 데이터에 대해 편차를 제공할 것이고, 이러한 경험 데이터를 고려함으로써 여러 시나리오에 대한 척도의 정확한 보정을 얻을 수 있는 가능성이 증가할 것이다.
도 3의 ABC'내의 변 BC'를 따라, 3개의 척도가 설정되고: 제 1척도는 비-선형이며 켈빈 온도(K)로 색온도를 나타내고, B에서 최저이고, C'쪽으로 증가하며, 제 2 척도는 비-선형이며 백분율(%)로 컬러 채도를 나타내고 B에서 최고이고 C'쪽으로 감소하고, 제 3 척도는 비-선형이고 백분율(%)로 명도 또는 콘트라스트를 나타내며 B'에서 최고이고 C'쪽으로 감소한다.
제 3 척도는 선 BC상의 점 B'에서 시작점(100% 콘트라스트)을 가진다. 점 B'는 일반적으로 꼭지점 B로부터 선 AC'로의 수직선을 그음으로써 제공되고, 이에 의해 교차점(5')을 형성한다. 다음으로 수직선이 일반적으로 점 5'로부터 선 BC'까지 그어지고, 이에 의해 점 B'를 형성한다.
따라서, 도 3의 수직선(4)은 도 1에서 참조부호 5'로 표시된 가장 인접한 초점 평면을 마킹한다.
도 3에 초기 기준 데이터를 포함하는 척도를 설정한 이후, 전체 기하학적 척도는 도시된 바와 같이 도 4의 하부 우측 또는 하부 좌측의 4분면내에 삽입된다. 삽입된 도 3의 기하학적 척도를 가진 도 4는 시나리오내 이미지의 최상부상에 위치한다. 기하학적 척도의 크기는 측정된 데이터에 따라 원하는 시나리오에 대해 보정된다. 색온도 척도인 제 1 척도는 추가 처리에 대한 가이드라인을 제공한다. 이는 비-선형이고 기준 데이터에 기초한 특정 컬러의 바이어스를 구비하며, 변 AB를 따른 RGB 척도를 참조한다. 제 1 척도는 종료점에서 보정되고 또한 가능하다면 경험 데이터에 의해서도 보정된다.
제 1 척도는 제 2 및 제 3 척도과 외형상 일치하는 점 C'에서 자신의 종료점을 가질 것이다. 수렴점이라 불리는 점 C'에서, 측정 가능한 콘트라스트와 컬러 포화가 0%를 향해 수렴할 것이다. 따라서, 제 1 척도상의 점 C'는 시나리오내 측정 가능한 최고 색온도일 것이다. 수렴점 C'는 이미지 시리즈내의 가장 마지막으로 기록된 초점 평면/점으로부터 관련된 3개의 척도상에 이러한 측정된 값을 마킹하고 평균을 선택함으로써 제공될 수 있거나 또는 선택적으로 측정된 값이 시나리오내 기록된 가장 멀리 떨어진 엘리먼트/물체로부터 사용된다. 만일 경험 데이터가 지시된 경우, 알고리즘이 종료점 C'를 제공하는 가중된 평균을 위해 선택된다.
색온도를 위한 제 1 척도는 컬러 포화 및 콘트라스트에 대한 선 AB를 따른 도면의 포화된 컬러 척도의 이동(묘사)이다. 이는 삼각형 척도 내부 영역이 시나리오내의 모든 컬러에 대한 투시 변화를 반영한다는 것을 의미한다. 따라서, 시나리오내 각각의 이미지내의 각각의 점은 자신의 컬러, 채도 및 명도에 의해 표현된다. 카메라 위치와 관련된 공간내 점의 방향은 명확하게 한정되고, 이는 적합한 처리에 의해 정확한 공간 좌표(x, y, z)가 추론될 수 있다.
상술된 바와 같이 전면 투시도(도 4)에 삽입된 보정된 기하학적 척도(도 3)의 형태인 수단을 설정한 이후에, 시나리오내 이미지의 실제 처리가 후속된다 즉, 투시-거리 파라미터를 제공하기 위한 과정이 후속한다. 이러한 수단은 시나리오내 개별 이미지상에 위치하고 원하는 파라미터는 공지된 방법으로 얻어진다.
만일 이미지내 물체 또는 엘리먼트에 대한 계측 거리가 요구되면, 이하의 과정이 수행된다:
물체/엘리먼트에 부수적인 이미지 표면내 원하는 점이 구조화 라인을 통해 주 투시 선 AC으로 이동된다. 수직선은 일반적으로 선 AC상의 이러한 점들로부터 선 BC'으로 그어지어 교차점을 형성하고, 도 3의 초점 평면/점(11', 10' 및 9')를 참조한다. 주 투시 라인 AC를 가진 교차점으로부터 떨어진 점 B뿐만 아니라 자신의 확장부에서 아래로 측면 에지 AF를 가진 교차점으로 또는 ADEF 외부에서 자신의 확장부내로 그어진다. 카메라로부터 이미지 표면내 점에 대한 계측 거리는 척도에 의존하는 점 A로부터의 거리에 비례(또는 온도가 도 4의 하부 우측 4분면내에 삽입될 때 점 F로부터의 거리에 비례)하게 될 것이다.
만일 계측 높이가 이미지내의 물체 및 엘리먼트에 부수적으로 또는 이들 사이에서 요구될 경우, 유사한 과정이 라인 CD까지 구조화 라인을 긋고 라인내에서 판독될 계측 값이 있는 라인 AD로 CD를 가진 교차점으로부터 그어진다.
만일 계측 높이가 윤곽을 결정하기 위해 이미지내의 물체 및 엘리먼트 사이에 또는 물체에 해당하여 요구된다면, 유사한 공지된 과정이 수행된다.
이러한 계측 파라미터가 가장 먼저 공간 좌표(x, y, z)를 결정하는 것 즉, 이미지 시나리오의 전체 또는 부분에 대해 2차원 화상을 3차원 화상으로 변환함으로써 물체 진단학에서 사용될 수 있고, 다음으로 주변, 윤곽, 컬러 등의 변경에 관한 형태 엘리먼트 분석을 수행한다.
만일 공지된 계측 거리에 대한 물체/엘리먼트의 컬러 품질이 요구된다면, 이상의 과정은 역순으로 수행될 수 있다. 이러한 투시-거리 컬러 파라미터는 과장된 투시를 형성하고 2차원 이미지 재료를 조작하여 3차원으로 보이도록 하는데 사용될 수 있고, 예를 들면 고분해능 스크린(가상 3D TV)상과 같은 공지된 비디오 데이터 기술에 의해 보여질 수 있다.
이상의 및 본 발명에 따른 다른 실시예에 의해, 데이터는 적합한 매개물을 통해 보기 위해 실제 3차원 텔레비젼(실상 3D TV)을 제조하는데 사용될 수 있다고 추론될 수 있다.

Claims (10)

  1. 카메라에 의해 제공되는 2차원 이미지의 엘리먼트로 구성된 3차원 실제 피사체의 2차원 이미지를 동일한 3차원 실제 피사체의 3차원 화상으로 변환시키는 이미지 처리 방법에 있어서,
    - 카메라의 초점 평면에 가장 인접한 카메라의 초점 평면에 해당하는 기준면을 결정하는 단계를 포함하는데, 상기 기준면은 2차원 이미지내의 엘리먼트에 해당하는 엘리먼트를 구비하며,
    - 상기 기준면내에서 상기 각각의 엘리먼트에 대해 컬러 파라미터 색상, 채도 및 명도를 결정하는 단계;
    - 개별 이미지의 이미지 시퀀스에 의해 컬러 파라미터의 값을 결정함으로써 기준 척도를 형성하는 단계를 포함하는데, 상기 각각의 이미지는 여러 미리 설정된 초점 평면내의 피사체를 나타내고, 개별 초점 평면 사이의 컬러 파라미터에서의 변화가 개별 컬러 파라미터에 대해 계측 또는 투시 거리값을 참조하는 기하학적 측정 척도의 보정을 위해 사용되며,
    - 상기 2차원 이미지내의 상기 각각의 엘리먼트에 대해 컬러 파라미터 색상, 채도 및 명도를 측정하고 기록하는 단계,
    - 2차원 화면내의 각각의 엘리먼트에 대한 컬러 파라미터를 상기 기준면내의 해당 엘리먼트에 대한 컬러 파라미터와 비교하는 단계,
    - 상기 비교에 기초하여, 상기 2차원 이미지내에 상기 각각의 엘리먼트에 거리값 dh;ds;db를 할당하는 단계를 포함하는데, 상기 dh는 색상값을 비교함으로써 형성되고, 상기 ds는 채도값을 비교함으로써 형성되고 및 db는 명도값을 비교함으로써 형성되며,
    - 상기 2차원 이미지내의 상기 엘리먼트와 상기 기준면 사이의 거리 d(z)를 계산하는 단계를 포함하는데, 상기 d(z)는 상기 기준면에 수직인 z-축을 따라 측정되고 원점을 가지며, 상기 거리값 dh, ds, db의 가중 평균으로서; d(z)=1/3*(kh*dh+ks*ds+kb*db)로서 설정되고, 여기서 kh, ks 및 kb는 경험 데이터에 기초한 가중 인자를 구성하며,
    - 변환 d(x)--->X, d(y)--->Y 및 d(z)--->Z를 수행하는 단계를 포함하는데, 상기 X, Y, Z는 상기 기준면내의 원점을 가진 3차원 좌표계내의 엘리먼트의 좌표이고, 상기 변환 d(x)--->X, d(y)--->Y는 카메라 이미지 평면과 공간내의 초점 평면 사이의 계산된 비율(척도)에 의해 평면내의 이미지 엘리먼트를 공간내의 엘리먼트로 변환하기 위한 공지된 과정으로 얻어지고, 가장 인접한 평면은 상기 기준면을 구성하며, 상기 변환 d(z)--->Z는 표준화된 투시 도면으로부터 기록 계측 거리에 대한 전방 투시 구조화를 위한 과정을 역으로 제공함으로써 얻어지고,
    - 설정된 거리값 d(z)와 상기 2차원 이미지 평면내의 상기 엘리먼트의 x, y 좌표에 기초하여 상기 엘리먼트에 대한 실제 공간 좌표 X, Y, Z를 결정하는 단계를 포함하는 것을 특징으로 하는 방법.
  2. 제 1 항에 있어서, 상기 경험 데이터는 전방 투시 구조와 관련하여 사용하기에 적합한 기하학적 컬러 모델인 것을 특징으로 하는 방법.
  3. 제 2 항에 있어서, 상기 기하학적 컬러 모델의 측정 척도는 색상, 컬러 채도 및 명도에 대한 기준 및 경험 데이터에 기초한 기하학적으로 일치하는 비-선형 척도를 포함하며, 상기 색온도는 공통 종료점 또는 수렴점에서 자신의 최대값을 향해 증가하고, 상기 컬러 채도 및 콘트라스트는 0에 근접하는 것을 특징으로 하는 방법.
  4. 제 3 항에 있어서, 상기 비-선형 척도의 공통 수렴점은 가장 먼 거리에 대한 초점 평면상에 집속된 이미지내의 하나 이상의 떨어져 위치하는 엘리먼트에 대한 컬러 파라미터에 의해 결정되고, 상기 엘리먼트에 대해 측정된 값 또는 평균 측정값은 수렴점을 결정하는 것을 특징으로 하는 방법.
  5. 제 4 항에 있어서, 상기 기하학적 측정 척도는 2차원 이미지의 포맷에 해당하는 전방 투시도내에 삽입되고, 기준면과 이미지내의 엘리먼트 사이의 거리 결정과 관련된 이미지의 피사체에 대해 보정된 비-선형 척도를 가지는 것을 특징으로 하는 방법.
  6. 제 5 항에 있어서, 투시-기초한 거리값이 사용되는 것을 특징으로 하는 방법.
  7. 제 6 항에 있어서, 계측 거리값이 사용되는 것을 특징으로 하는 방법.
  8. 삭제
  9. 삭제
  10. 삭제
KR10-1999-7010255A 1997-05-06 1998-05-06 이미지 처리 방법 KR100496875B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
NO972097 1997-05-06
NO971651A NO304715B1 (no) 1997-05-06 1997-05-06 FremgangsmÕte ved bildebehandling
PCT/NO1998/000141 WO1998050889A1 (en) 1997-05-06 1998-05-06 Method for image processing

Publications (2)

Publication Number Publication Date
KR20010012303A KR20010012303A (ko) 2001-02-15
KR100496875B1 true KR100496875B1 (ko) 2005-06-22

Family

ID=19900698

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-1999-7010255A KR100496875B1 (ko) 1997-05-06 1998-05-06 이미지 처리 방법

Country Status (19)

Country Link
US (1) US6546153B1 (ko)
EP (1) EP0980568B1 (ko)
JP (1) JP2001524239A (ko)
KR (1) KR100496875B1 (ko)
CN (1) CN1261969A (ko)
AT (1) ATE290242T1 (ko)
AU (1) AU735613B2 (ko)
BR (1) BR9808743A (ko)
CA (1) CA2289593A1 (ko)
DE (1) DE69829177T2 (ko)
ES (1) ES2242281T3 (ko)
IL (1) IL132728A (ko)
IS (1) IS5238A (ko)
NO (1) NO304715B1 (ko)
NZ (1) NZ501466A (ko)
PL (1) PL336850A1 (ko)
RU (1) RU2193798C2 (ko)
TR (1) TR199902741T2 (ko)
WO (1) WO1998050889A1 (ko)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140045373A (ko) * 2011-05-11 2014-04-16 펠리칸 이매징 코포레이션 어레이 카메라 이미지 데이터를 송신 및 수신하기 위한 시스템들 및 방법들
US10455168B2 (en) 2010-05-12 2019-10-22 Fotonation Limited Imager array interfaces
US11270110B2 (en) 2019-09-17 2022-03-08 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11302012B2 (en) 2019-11-30 2022-04-12 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11580667B2 (en) 2020-01-29 2023-02-14 Intrinsic Innovation Llc Systems and methods for characterizing object pose detection and measurement systems
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7068825B2 (en) * 1999-03-08 2006-06-27 Orametrix, Inc. Scanning system and calibration method for capturing precise three-dimensional information of objects
KR100450836B1 (ko) * 2001-12-11 2004-10-01 삼성전자주식회사 이차원 영상의 입체화 장치 및 방법
US7883415B2 (en) * 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US7102615B2 (en) * 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US8686939B2 (en) * 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US7391409B2 (en) * 2002-07-27 2008-06-24 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to multi-channel mixed input
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US9682319B2 (en) * 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
JP4068596B2 (ja) 2003-06-27 2008-03-26 株式会社東芝 図形処理方法、図形処理装置およびコンピュータ読取り可能な図形処理プログラム
US8323106B2 (en) * 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US10279254B2 (en) * 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US9573056B2 (en) * 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
CA2633341A1 (en) 2005-12-23 2007-07-12 Wms Gaming Inc. Transient or persistent game play in wagering games
CA2642098C (en) 2006-02-17 2014-04-08 Wms Gaming Inc. Providing alternative persistent state recovery techniques
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8542907B2 (en) * 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
KR101335346B1 (ko) * 2008-02-27 2013-12-05 소니 컴퓨터 엔터테인먼트 유럽 리미티드 장면의 심도 데이터를 포착하고, 컴퓨터 액션을 적용하기 위한 방법들
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
JP5338228B2 (ja) * 2008-09-29 2013-11-13 カシオ計算機株式会社 画像生成装置、及びプログラム
US8961313B2 (en) * 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
US8527657B2 (en) * 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
US8342963B2 (en) * 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
JPWO2013032008A1 (ja) * 2011-09-02 2015-03-23 株式会社ニコン 画像処理装置、プログラム
RU2493602C1 (ru) * 2012-08-10 2013-09-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ и система для выделения ключевых кадров из видео последовательностей
KR102105645B1 (ko) * 2012-10-08 2020-05-04 코닌클리케 필립스 엔.브이. 색상 제한들을 통한 루미넌스 변화 이미지 처리
US10467855B2 (en) 2017-06-01 2019-11-05 Igt Gaming system and method for modifying persistent elements
CN109816704B (zh) 2019-01-28 2021-08-03 北京百度网讯科技有限公司 物体的三维信息获取方法和装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0696144A3 (en) * 1994-08-02 1996-04-24 Canon Kk Image pickup device with a plurality of lenses and a unit for extracting matching points
GB2305050A (en) 1995-09-08 1997-03-26 Orad Hi Tec Systems Ltd Determining the position of a television camera for use in a virtual studio employing chroma keying
US6014472A (en) * 1995-11-14 2000-01-11 Sony Corporation Special effect device, image processing method, and shadow generating method
US6009188A (en) * 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10455168B2 (en) 2010-05-12 2019-10-22 Fotonation Limited Imager array interfaces
KR20140045373A (ko) * 2011-05-11 2014-04-16 펠리칸 이매징 코포레이션 어레이 카메라 이미지 데이터를 송신 및 수신하기 위한 시스템들 및 방법들
US10218889B2 (en) 2011-05-11 2019-02-26 Fotonation Limited Systems and methods for transmitting and receiving array camera image data
KR101973822B1 (ko) * 2011-05-11 2019-04-29 포토네이션 케이맨 리미티드 어레이 카메라 이미지 데이터를 송신 및 수신하기 위한 시스템들 및 방법들
US10742861B2 (en) 2011-05-11 2020-08-11 Fotonation Limited Systems and methods for transmitting and receiving array camera image data
US11699273B2 (en) 2019-09-17 2023-07-11 Intrinsic Innovation Llc Systems and methods for surface modeling using polarization cues
US11270110B2 (en) 2019-09-17 2022-03-08 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11982775B2 (en) 2019-10-07 2024-05-14 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11302012B2 (en) 2019-11-30 2022-04-12 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
US11842495B2 (en) 2019-11-30 2023-12-12 Intrinsic Innovation Llc Systems and methods for transparent object segmentation using polarization cues
US11580667B2 (en) 2020-01-29 2023-02-14 Intrinsic Innovation Llc Systems and methods for characterizing object pose detection and measurement systems
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11683594B2 (en) 2021-04-15 2023-06-20 Intrinsic Innovation Llc Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Also Published As

Publication number Publication date
CA2289593A1 (en) 1998-11-12
RU2193798C2 (ru) 2002-11-27
DE69829177T2 (de) 2006-04-13
ES2242281T3 (es) 2005-11-01
AU735613B2 (en) 2001-07-12
WO1998050889A1 (en) 1998-11-12
BR9808743A (pt) 2002-05-21
DE69829177D1 (de) 2005-04-07
KR20010012303A (ko) 2001-02-15
NO304715B1 (no) 1999-02-01
IL132728A (en) 2004-06-20
US6546153B1 (en) 2003-04-08
IS5238A (is) 1999-11-05
EP0980568B1 (en) 2005-03-02
JP2001524239A (ja) 2001-11-27
NO972097D0 (no) 1997-05-06
AU7555798A (en) 1998-11-27
CN1261969A (zh) 2000-08-02
EP0980568A1 (en) 2000-02-23
ATE290242T1 (de) 2005-03-15
NZ501466A (en) 2002-10-25
PL336850A1 (en) 2000-07-17
IL132728A0 (en) 2001-03-19
NO972097L (no) 1998-11-09
TR199902741T2 (xx) 2000-02-21

Similar Documents

Publication Publication Date Title
KR100496875B1 (ko) 이미지 처리 방법
JP4324238B2 (ja) 画像処理システム、方法及び装置
US7113633B2 (en) System and method for discovering and categorizing attributes of a digital image
US6983082B2 (en) Reality-based light environment for digital imaging in motion pictures
JP6004481B2 (ja) カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
JPS62500325A (ja) 場面の色画像から場面照明体の色を決定するための方法
RU99126413A (ru) Способ обработки изображений
Apollonio et al. Photogrammetry driven tools to support the restoration of open-air bronze surfaces of sculptures: an integrated solution starting from the experience of the Neptune Fountain in Bologna
Marszalec et al. Some aspects of RGB vision and its applications in industry
US7514669B2 (en) Imaging apparatus and light source estimating device for the imaging apparatus
Pjanic et al. Geometric and photometric consistency in a mixed video and galvanoscopic scanning laser projection mapping system
Goesele et al. Building a Photo Studio for Measurement Purposes.
US20110279656A1 (en) Surface Scanning System
Yang A light field camera for image based rendering
Goesele New acquisition techniques for real objects and light sources in computer graphics
Alasal et al. Improving passive 3D model reconstruction using image enhancement
JP2790750B2 (ja) レンダリング装置
MXPA99010197A (en) Method for image processing
Voisin et al. Color influence on accuracy of 3D scanners based on structured light
JP7334509B2 (ja) 三次元形状モデル生成システム、三次元形状モデル生成方法及びプログラム
Höll et al. Cultural heritage acquisition: Geometry-based radiometry in the wild
CZ393199A3 (cs) Způsob zpracování obrazu
Schenkel et al. Comparison of normalized transfer functions for fast blending-based color correction of scans acquired under natural conditions
Guarnera et al. DIY absolute tele-colorimeter using a camera-projector system
Carpiceci DIGITAL MODEL, ACQUISITION AND PROCESSING: THE NEW TECHNOLOGIES FOR ARCHITECTURAL SURVEY

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee