KR102112491B1 - 물체 공간의 물점의 기술을 위한 방법 및 이의 실행을 위한 연결 - Google Patents

물체 공간의 물점의 기술을 위한 방법 및 이의 실행을 위한 연결 Download PDF

Info

Publication number
KR102112491B1
KR102112491B1 KR1020157007835A KR20157007835A KR102112491B1 KR 102112491 B1 KR102112491 B1 KR 102112491B1 KR 1020157007835 A KR1020157007835 A KR 1020157007835A KR 20157007835 A KR20157007835 A KR 20157007835A KR 102112491 B1 KR102112491 B1 KR 102112491B1
Authority
KR
South Korea
Prior art keywords
point
imaging device
object space
image
imaging
Prior art date
Application number
KR1020157007835A
Other languages
English (en)
Other versions
KR20150047604A (ko
Inventor
자니크 파볼
Original Assignee
에이더블유이 스폴. 에스.알.오.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이더블유이 스폴. 에스.알.오. filed Critical 에이더블유이 스폴. 에스.알.오.
Publication of KR20150047604A publication Critical patent/KR20150047604A/ko
Application granted granted Critical
Publication of KR102112491B1 publication Critical patent/KR102112491B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)
  • Stored Programmes (AREA)

Abstract

물체 공간(1)으로부터 물체(11)의 점(12)을 기술하는 방법에 있어서, 촬영 장치(3)의 격자선(35)에 디스플레이된 물체 공간(1)의 물체(11)의 각각의 점(12)에 대하여, 촬영 장치(3)로부터의 점 거리에 대한 정보(I)가 등록되고 나서, 상기 정보는 이미지의 격자선(35)의 각각의 점(36)에 추가적인 데이터로서 저장되는 것을 특징으로 하는 물체 공간(1)으로부터 물체(11)의 점(12)을 기술하는 방법이다. 이전의 항에 따른 물체 공간(1)으로부터 물체(11)의 점(12)을 기술하는 방법을 실행하기 위한 연결에 있어서, 촬영 시스템(2)은, 소프트웨어 애플리케이션의 블록(5)과 평가 소프트웨어를 가진 모듈을 연산하는 블록(6)을 포함하는 CPU(4) 중앙 제어부의 입력단에 연결된 적어도 두 개의 촬영 장치(3)를 포함하고, 소프트웨어 애플리케이션의 블록(5) 및 평가 소프트웨어를 가진 연산 모듈의 블록(6)과 CPU(4)의 통신은 데이터 버스를 통해 발생하며, CPU(4) 출력단은 온라인 내부 메모리 및/또는 제거 가능한 메모리의 블록(7)과 온라인 출력부의 블록(8) 모두에 연결되는 것을 특징으로 하는 물체 공간(1)으로부터 물체(11)의 점(12)을 기술하는 방법을 실행하기 위한 연결이다.

Description

물체 공간의 물정의 기술을 위한 방법 및 이의 실행을 위한 연결{METHOD FOR DESCRIPTION OF OBJECT POINTS OF THE OBJECT SPACE AND CONNECTION FOR ITS IMPLEMENTATION}
본 발명은 물체 공간의 물점의 기술을 위한 방법 및 이미지 정보의 등록 및 이의 실행을 위한 연결에 관한 것이다.
사람은 주변 세상을 바라보기 위해 눈을 사용하고, 눈 덕분에 인류는 장면 깊이에 대한 정보에 기초하여 공간 내에서 걸어갈 수 있다. 동일한 장면의 두 개의 평면형이고 이격된 이미지를 바라볼 때, 인간 두뇌에서 생성되는 정지 이미지의 차원적(용적 측정) 인지는 Sir Charles Wheatstone에 의해 1830년에 이미 기술되었다. 우리는 이차원 이미지를 바라볼 때, 깊이 정보를 명확하게 구별할 수 없다. 하나의 눈을 사용하는 시각의 경우, 단안 현상에만 기초하여 깊이를 인지할 수 있다. 삼차원적(입체적) 이미지를 바라보기 위해서는, 두 개의 눈이 필요하다. 양안 시각은 두 눈을 사용하여 장면 또는 이미지를 인지하는 것이다. 결과 이미지는 망막 상에 반사되고, 두뇌는 차원적인 외관의 인식과 동일한 것을 재구성한다. 스테레오스코피(Stereoscopy)는 차원적인 이미지 또는 프레임을 디스플레이하는 것과 관련된 분야이고, 왼쪽 눈과 오른쪽 눈에 대해 생성된 두 프레임은 스테레오 페어라고 불린다. 입체적 비디오 주파수는 연속적인 프레임의 시퀀스를 바라보는 것이다. 최근에, 스테레오스코피는 엔터테인먼트 산업이나 그 밖의 분야에서, 다양한 과학적 분야에 광범위하게 적용되어 왔다. 시각화 기술은 삼차원(입체적) 이미징을 위해 오랫동안 사용되어 왔다는 것이 알려져 있다. 이들 시스템은 두 눈을 위해 하나의 이미지만을 프로젝트하지 않고, 각각의 눈에 대해 한 쌍의 분리된 뷰 중 하나를 프로젝트하려고 한다. 나란히 디스플레이되는 두 이미지의 입체적인 이미징이 알려져 있다. 역사적으로, 이는 오늘날까지 사용되는 가장 오래된 방법이다. 스테레오-뷰어(소위 스테레오스코프)를 사용하여, 눈 거리(약 7 cm)만큼 수평으로 이동되고, 나란히 위치된, 카메라에 의해 캡쳐된 두 개의 정지 이미지는 안경으로 볼 수 있다. 오디오 기술과 유사하게, 이 거리는 보통 스테레오 기반으로 불린다. 두 개의 렌즈가 있는 특별한 카메라는 이러한 목적을 위해 생산되고 생산되었다. 디지털 이미징 덕분에, 필요한 시프트된 이미지가 특별한 소프트웨어 애플리케이션을 사용하여 디지털 이미지로부터 생성될 수 있다. 안경은 직접(오른쪽 눈이 오른쪽 성분 이미지(component image)를 보고, 왼쪽 눈이 왼쪽 성분 이미지를 봄) 또는 시프트된 이미지의 교차 보기(오른쪽 눈이 왼쪽 성분 이미지를 보고, 왼쪽 눈이 오른쪽 성분 이미지를 봄)를 가능하게 한다. "교차된" 보기는 시계의 확장 및 입체적 효과 깊이의 개선을 가능하게 한다는 것을 실험이 입증하였다. 특별한 각기둥 광학계를 가진 안경은 이러한 이미징을 위해 개발되었다. 이러한 경우에서, 성분 이미지도 교차된다. 움직이는 이미지에도 원리가 작동하므로, 텔레비전에 대해서도 이론적으로 적용 가능하나, 특별한 수평 스캐닝이 요구된다. 이러한 시스템의 이점은 결과 이미지의 충분한 밝기를 포함하는데, 왜냐하면, 성분 이미지의 밝기의 기여가 완전히 가해져야 하기 때문이다. 성분 이미지는 종종 그림 슬라이드이다. 또 다른 이들 3D 이미징 원리는 두 개의 시프트된 이미지의 중첩의 입체적 이미징이다(아나글리프 시스템(Anaglyph system)). 바라본 이미지는 눈의 거리만큼 다시 수평으로 시프트되어서, 서로 다른 각도하에서 장면을 프로젝트하는, 두 개의 카메라에 의해 동시에 찍힌 두 개의 성분 이미지의 중첩(소위 아나글리프)으로 구성된다. 촬영술 또는 프로젝트 텔레비전 스크린에서, 성분 이미지는 컬러 필터(시안 및 빨강)를 통해 캔버스 상에 프로젝트된다. 시청자는 컬러 안경에 해당하는 안경으로 스크린을 본다. 이러한 컬러 필터는 각각의 눈이 성분 이미지를 인지하고, 두뇌가 공간 인지를 생성하도록 보장한다. 이러한 분리의 방법은 컬러 이미지가 결과 가상 이미지의 컬러 인지를 왜곡시키는 경우일 수 있다. 이러한 시스템은 많은 버전은 점차적으로 개발되어 왔다. 이들 중 하나는 예를 들어, 다양한 컬러 조합(프로젝터의 필터 내의 어두운 노랑 파랑 및 안경의 필터 내의 어두운-황색 파랑)이 사용된 Color Code 3D 시스템이다. 가능하면 안경 없이도 (물론 차원적인 인지 없이) 아나글리프를 보기 위한, 실질적으로 좁은 스테레오 기반을 가진 아나크롬 방법(Anachrome Method)이 언급되어야 한다. 이러한 방법의 단점(특별한 안경을 사용해야 하는 필요성 이외의)은, 공간 인지(입체적 효과)를 나타내는 이미지 축으로부터, 시청자의 위치로부터 작은 허용 가능한 이탈이다. 오늘날, 디지털 포토그래프의 시대에서, 표준 2D 디지털 이미지로부터 아나글리프를 생성하기 위한 많은 소프트웨어 애플리케이션이 있다. 보기 위한 또 다른 방법은 (직교 또는 원형 편광으로) 다양하게 편광된 필터가 맞춤된 3D 안경이다. 또한, 이 경우에, 결과 이미지는 시프트된 카메라로 찍은 두 개의 성분 이미지의 동시의 중첩으로 구성된다. 서로 다른 배향 또는 편광 방향을 가진 편광 필터가 맞춤된 두 개의 프로젝터로부터 프로젝션함에 의해 프로젝션 스크린 상에 중첩이 생성된다. 시청자는 각각의 눈에 대해 서로 다른 편광의 해당 편광 필터가 있는 안경으로 스크린을 본다. 다소 비싼 이러한 방법의 이점은 컬러 인지의 감소된 컬러 왜곡이다. 그러나, 프로젝션 스크린은 매우 비싼데(특히, 처리된 실버 캔버스), 왜냐하면, 이는 입사 및 반사된 광속의 편광이 변하지 않을 수(편광 소멸) 있기 때문이다.
상기 기술된 해결책의 기본적인 단점은 두뇌에 의해 눈에서 수신된 신호의 시간 불연속성의 문제이다. 이러한 시간 불연속성에 대한 이유는 왼쪽 눈에서 오른쪽 눈을 통해 가는 신호가 시간 시프트를 가지고 두뇌 비전 센터에 도달한다는 사실이다. 이는, 이미지 신호의 부자연스러운 수신 때문에 두뇌 불안정을 초래한다. 비전 센터는 불연속적인 신호를 처리해야 하고, 센터는 이를 위해 만들어지지 않는다. 수신된 정보의 이러한 처리의 결과는 간질 발작이나 두통을 포함할 수 있다. 대안예는 이클립싱으로 성분 이미지의 연속적인 입체적 이미징(이클립스 방법)이다. 시프트된 카메라로 찍은 성분 이미지는 연속적으로 디스플레이 상에 디스플레이되거나 프로젝션 스크린으로 프로젝트된다. 이미지의 시퀀스는 가령, 반-프레임 주기와 동일할 수 있다. 왜곡을 줄이기 위하여, 빠른 콘텐츠의 이미지의 시퀀스가 변화하는 경우에, 가령, 100 Hz 전시를 사용하여, 교대 주기는 감소할 수 있다. 디스플레이의 루미노포어(luminophores)(특히 초록색) 또는 사용된 프로젝션 스크린은 동일한 이유로 긴 잔광을 보여서는 아니된다. 또한, 특별한 안경이 이러한 경우에 요구된다. 왼쪽 눈과 오른쪽 눈의 어퍼처는 교호하는 성분 이미지들과 동기화되는 방식으로 연속적으로 가려지고, 개방된다. 필요한 동기화 신호는 대개 IR선으로 발산되고, 이는 실제적으로 시야 공간과 시청자의 수를 제한할 수 있다. 기설적인 적용성은 가령, LCD SH Shutter Glasses에 의해 제공될 수 있다. 이러한 버전으로서는, 시야각이 더 넓어진다. 마지막에 기술된 방법에서는, 신호가 제1 및 제2 프로젝터로부터 동시에 발산되고, 신호 사이의 차이는 한 이미지는 파랑 성분을 막고, 다른 이미지는 빨강 성분을 막는다는 것이다. 인간의 눈은 초록색에 가장 민감하기 때문에(초록색으로 구성된 이미지 정보의 70%까지), 두뇌는 혼란스럽고, 컬러 톤이 약간 시프트됨에도 불구하고, 인간은 이미지를 스테레오 이미지로 인지한다. 물론, 이는 다양한 인지가 있으나, 상기 기술된 문제점(두통 및 간질 발작)이 완화된다. 마지막에 기술된 방법은 시청자의 안경 기능 제어가 요구되지 않는 곳에서 수동 비동기식으로 실행될 수 있다. 이러한 경우에, 성분 이미지는 서로 다른 편광 방향을 가진 편광 필터가 구비된 두 개의 프로젝터에 의해 시간 시퀀스 프로젝트된다. 이전에 기술된 방법과 유사하게, 시청자는 각각의 눈에 대해 서로 다른 편광의 편광 필터에 대응되는 안경을 사용한다. 본 섹션에서 기술된 모든 3D 시스템에 대한 공통의 단점은 특별한 안경의 사용을 요한다는 것이다. 또한, 참고문헌은 대한민국, 광주 500-712, 1 오룡동 북구, 광주 과학 기술대(GIST)의 김성열과 호요성의 “Mesh-Based Depth Coding For 3d Video Using Hierarchical Decomposition Of Depth Maps”을 기술한다. 이러한 논문은 평면 그리드의 구조로 연결된 삼각 필드의 구조에 기초한 3D 이미징을 위한 프로세스를 기술한다. 시스템은 오른쪽 카메라와 왼쪽 카메라로 찍는 것에 기초한다. 그리고 나서, 왼쪽 카메라와 오른쪽 카메라에서 찍은 사진들이 중첩되고, 이미지 영역이 상호간에 형성되고 계산되는 곳에, 단일 컬러의 삼각형이 각 방향으로 적어도 여러 점으로 정의된다. 오른쪽 및 왼쪽 이미지의 사이드 시프트를 고려하면, 삼각형의 어는 것이 더 높은 지 그리고 더 낮은지를 계산할 수 있다. 가상 중심에 위치되고 가상적인 삼각형은 공간 스퀴징 시스템에 의존하여 부서지는 컴팩트 영역을 생성한다. 이러한 방식으로, 부분적인 이미지 가변성이 따라서, 생성될 수 있다. 이러한 삼각형 그리드가 작용하는 반면, 예를 들어, 프레스 몰드 내에 금속 시트 표면으로서, 어떤 이미지 프로필이 달성될 수 있으나, 실제 이미징을 위해 요구되는 높은 이미지 깊이 다이내믹이나 정확한 점 구조를 달성할 수 없다. 문제점은 표면이 삼각형의 영역에 의해 계산되고, 이들의 스퀴징 업 또는 다운은 공간의 착각을 생성한다. 그러나, 이는 여전히 다양하게 변형된, 시각적인 이미지 충실도를 생성할 수 없는 삼각 필드를 가진 컴팩트 그리드이다. 이러한 시스템은, 2D 이미지를 프로파일링할 때, 삼각 필드의 가능성의 증명으로서만 작용할 수 있다. 그러나, 변형된 2D 공간을 볼 때, 인간은 컬러 영역에 의해 생성된 이미지 표면의 부분적으로 프로파일된 각인만을 볼 수 있고, 3D 이미지를 볼 수 없어서, 이미지 세부사항의 어떠한 선명도의 가능성이 없다는 것이 중요하다. 실제 삼차원 인식과 비교할 때, 완전한 깊이 다이내믹 내의 이미지 선명도는 여기서 발생하지 않으나, 몇 퍼센트만 있다. 또한, 스퀴즈된 컬러 영역의 삼각 구조를 가진 비존재 중심 이미지와 같이, 프로파일된 이미지는 삼각 필드에 의해 생성된다. 이는 컴퓨터 게임에서 흔히 사용되는 기술을 사용하는 가능성의 증명이다. 그러나, 이러한 기술은 가상 현실의 생성을 위해 만들어진다. 삼각형 그리드의 절차와 계산에 기초하여, 실제 이미지를 보는 인간 눈을 설득할 수 있는 3-D 이미징을 얻는 것은 거의 불가능하다.
본 발명의 목적은 추가적인 광전자 또는 그 밖의 보조기를 사용할 필요 없이, 3D에서 작동할 수 있는 물체 공간으로부터의 점을 기술하기 위한 새로운 방법을 디자인하는 것이다.
상기 언급된 단점이 제거되고, 본 목적은 물체 공간으로부터의 물점의 기술 방법에 의해 달성되며, 이러한 내용은 촬영 장치로부터의 거리에 대한 정보가 촬영 장치의 격자선 상에 디스플레이된 대상 공간의 각각의 대상 점에 대해 기록되고, 이러한 방식으로 생성된 정보는 각각의 이미지 격자선에 추가적인 데이터로 저장된다.
물체 공간 내의 물점의 완벽하게 기술하는데, 거리 정보(I)가 서로 떨어져서 배열된 적어도 두 개의 촬영 장치를 사용하여 기록될 때, 바람직하다.
더구나, 물체 공간의 물점에서 이미지 격자선 점까지 “z” 축 방향으로 격자선 점으로부터의 거리 정보(I)는 각각의 물점에 대해 등록되는 것이 바람직하다.
촬영 장치로부터의 거리에 대한 정보 “I”가 다양한 반투명 레벨의 이클립싱 점을 포함하는 물체 공간의 물점에 대해 기록될 때, 다양한 반투명 레벨의 이클립싱 점을 포함하는 물체 공간 내의 물체의 정확한 기술이 바람직하며, 이클립싱 점의 명도 및 컬러 정보는 상기 레이어 점의 반투명 레벨과 함께 동시에 기록되고, 이러한 방식으로 생성된 정보는 이미지 격자선 점에 저장된다.
촬영 장치로부터 이들 점의 다른 거리에 대한 깊이 정보는 다양한 반투명 레벨의 레이어 점의 여러 중첩된 영역과 다양한 깊이 정보를 이미지 디스플레이하기 위해 할당되고, 동시에, 레이어 내의 점 반투명 레벨과 함께 이미지 점의 명도 및 컬러 정보가 기록되며, 이러한 방식으로 생성된 정보는 각각의 이미지에 추가적인 데이터로 저장된다.
본 발명의 근거는 다음 정보가 임의로 알려진 코덱에 의해 코딩된 각각의 이미지 정보에 추가된다는 것이다.
- 개별적 또는 그룹인 촬영 장치(깊이 각인(depth imprint))으로부터의 물체 공간에서 각각의 프레임 또는 이미지 점(픽셀)의 거리에 대한 정보.
- 다양한 반투명 레벨과 다양한 “I” 거리의 깊이 각인 점 뒤에 이미지 점 축 내에 가려진 이클립싱 점에 대한 정보(가령, 불완전하게 불투명인 유리, 안개등 뒤의 장면).
- 내부 명도 및 컬러 정보 및 각각의 불투명 점 뒤의 촬영 장치로부터의 내부 “I” 거리의 이클립싱 점일 수 있기 때문에, 불투명 점의 에지 뒤의 이클립싱 점에 대한 정보.
이러한 해결책의 이점은 코딩 및 이미지 데이터 전달의 기존 시스템과 100% 하위 호환성이다. 본 발명에 따른 등록 방법에 의해, 다른 무엇보다도, 2D 이미지로서의 이러한 데이터와 작업하기 위한 현재의 전문적인 기술이, 2D에서 편집 및 커팅하여, 우리의 디자인에 기초하여 생성된 추가적인 데이터로부터의 정보를 사용하여 실제 3D 이미지로 이후에 전환할 수 있다. 필요한 데이터의 조합은, 방송 표준을 포함하여 각각의 이미지 점의 컬러 구성을 직접 저장하는 적절한 코덱 및 소위 크로마 샘플링(그 밖의 모든 변형과 조합을 통해 가장 흔한 변형인 4:2:2부터 3:1:1 HDCAM과 같은 비표준 변형을 포함함)이라고 하는 명도 및 컬러 성분의 불균형적인 분할을 사용하는 현재의 압축된 방송 표준 모두에 대해 문제가 없다.
채도 샘플링의 현재 기록:
4:4:4:4 4: X 축과 Y 축 상의 점 위치
4: 점 컬러 정보
4: 점 명도 정보
4. 이미지에 걸쳐 명도 레벨링을 위한 점 명도 정보
4:4:4 4: X 축과 Y 축 상의 점 위치
4: 점 컬러 정보
4: 점 명도 정보
4:2:2 4: X 축과 Y 축 상의 점 위치
2: 점 컬러 정보
2: 점 명도 정보
4:2:0 4: X 축과 Y 축 상의 점 위치
2: 점 컬러 정보
0: 점 명도 정보
4:1:1 4: X 축과 Y 축 상의 점 위치
1: 점 컬러 정보
1: 점 명도 정보
본 발명에 따른 깊이 각인에 대한 정보에 기초하여, 기록은 다음과 같다.
4:4:4:4 + 깊이 정보
4:4:4 + 깊이 정보
4:2:2 + 깊이 정보
4:2:0 + 깊이 정보
4:1:1+ 깊이 정보
4:4:4:4 + 깊이 정보 + 4:4 + 깊이 정보
4:4:4 + 깊이 정보 + 4:4 + 깊이 정보
4:2:2 + 깊이 정보 + 2:2 + 깊이 정보
4:2:0 + 깊이 정보 + 2:0 + 깊이 정보
4:4:4:4 + 깊이 정보 + 4:4 + 깊이 정보 + 4:4 + 깊이 정보
4:4:4 + 깊이 정보 + 4:4 + 깊이 정보 + 4:4 + 깊이 정보
4:2:2 + 깊이 정보 + 2:2 + 깊이 정보 + 2:2 + 깊이 정보
4:2:0 + 깊이 정보 + 2:0 + 깊이 정보 + 2:0 + 깊이 정보
이러한 방식으로 컴파일된 3D 이미지 포맷은, 소비자 시장에서의 전문적인 캠코더, 기본적인 모바일폰, 컴퓨터 및 태블릿의 다양한 장치의 주로 출력단인 것이 바람직하다.
그리고 나서, 동일한 포맷은 비디오 처리 또는 정지 이미지와 작업하기 위한 해당하는 그래픽 소프트웨어를 위한 특별한 컷 애플리케이션(cut application)에서의 추가적인 처리를 위한 입력으로서 사용될 수 있고, 동시에, 출력 포맷이 될 것이다.
마찬가지로, 3D 이미지 포맷은 3D 이미징 장치 또는 이를 위해 개조된 유닛을 위한 입력 포맷으로 사용될 것이다.
마지막으로, 이미지 데이터를 저장 및 보관하기에도 적합한데, 왜냐하면, 원하면(가령, 현재 “삼차원” 프로젝팅 시스템을 위한 2X2D 포맷 이미지 또는 스테레오그램 또는 흔한 이미징 유닛을 위한 2D 포맷 이미지나 프린팅을 위한 이미징 장치) 이는 간략화된 형태가 효과적으로 생성될 수 있는 삼차원 장면의 본격적인 기록을 가능하게 하기 때문이다. 본 방법에 따른 3D 포맷 이미지는 일반적으로, 필요한 오버랩의 절약 덕분에, 데이터 흐름(따라서, 원하는 보관 장치의 용량)에 대해 효과적이다.
본 발명에 따른 방법의 이점은, 물체 공간의 각각의 점에 대해, 거리는 촬영 장치로부터 정확히 할당된다는 것이다(즉, 깊이 정보). 색차 정보가 100% 아래의 포화 레벨을 가진(반투명이 중요함) 장소 상의 물점 또는 촬영 장치의 위치로부터 보이지 않는 점을 기술할 필요가 있다면, 기술은 명도 및 색차 정보는 물론 또 다른 “I” 거리를 포함할 것이다.
물체 공간의 물점을 정확하게 기술하기 위하여, 이전의 방법 청구항에 따른 방법의 실행을 위한 연결이 사용되는데, 이는 촬영 장치 핵심을 커버하는데, 이러한 핵심은 촬영 시스템은 CPU 중앙 제어부의 입력단에 연결된 적어도 두 개의 촬영 장치를 포함하고, 이는 소프트웨어 애플리케이션의 블록 및 평가 소프트웨어를 가진 연산 모듈의 블록을 포함하는데, 소프트웨어 애플리케이션의 블록 및 평가 소프트웨어를 가진 연산 모듈의 블록과 CPI와의 통신은 데이터 버스를 통해 발생하고, CPU 출력단은 내부 메모리 및/또는 제거 가능한 메모리의 블록과 온라인 출력단의 블록 모두에 연결된다.
촬영 장치가 제1 촬영 장치 및 적어도 하나의 제2 촬영 장치를 포함하면, 물체 공간의 물점의 깊이 정보 및 제1 촬영 장치의 격자선 점으로의 할당을 보장하는 것이 바람직하다.
제2 촬영 장치가 방사선(거리) 검출기 및 방사선 이미터를 포함하면, 물체 공간 내의 물체의 기술에 바람직하다.
제1 촬영 장치 또는 제2 촬영 장치가 캠코더를 포함하면, 물체 공간 내의 물체의 컬러는 물론 모양의 기술에 바람직하다.
방사선(거리) 검출기가 광학 맞춤된 CCD 또는 CMOS 센서를 포함하고, 방사선 이미터가 레이저를 포함할 때 바람직하다.
적어도 세 개의 촬영 시스템이 물체 주위에 (물체 공간) 거리를 두고 배열되어 사용되면, 컬러 관련 또는 형상 관련되어, 360°까지 복수의 관점으로부터 물체 공간 내의 물점의 기술을 하는 것이 바람직하다.
이러한 방식으로 디자인된 연결은 깊이 정보 데이터의 정확한 정의와 할당 및 물체 공간의 깊이 정보를 생성을 가능하게 한다. 이들 연결에 포함된 촬영 시스템은 물체 공간의 각각의 점에 대해 복수의 방식으로 깊이 정보을 얻고 할당할 수 있게 하여, 각각의 2D 이미지에 대한 완전한 깊이 정보를 생성한다.
본 발명은 도면을 사용하여 설명될 것인데, 도 1은 촬영 장치의 이미지 격자선의 선택된 점을 도시하고, 도 2는 "z" 좌표를 사용하여 나타난 특정 격자선 점의 "l" 거리를 도시하며, 도 3은 촬영 장치의 격자선 점 및 물체 공간의 물점의 특정 "l" 거리의 표시로 할당된 "z" 좌표를 도시하고, 도 4는 촬영 장치의 격자선 점 및 물체 공간의 제1 및 제2 물점의 특정 "l" 거리의 표시로 할당된 "z" 좌표를 도시하며, 도 5는 세 개의 촬영 장치에 의해 가시적인 물체 공간의 물점을 도시하고, 도 6은 두 개의 촬영 장치에 의해 가시적인 물체 공간의 물점을 도시하며, 도 7은 하나의 제2 촬영 장치에 의해 가시적인 물체 공간의 물점을 도시하고, 도 8은 제1 촬영 장치에 의해 가시적인 물체 공간의 물점을 도시하며, 도 9는 서로에 대해 120°간격으로 배열된 세 개의 촬영 장치의 시스템에 의해 가시적인 물체 공간의 물점을 도시하고, 도 10은 제1 촬영 장치와 방사선 검출기 및 이미터에 의해 가시적인 물체 공간의 물점을 도시하며, 도 11은 두 개의 촬영 장치를 커버하는 촬영 시스템의 연결 및 관련 서비스 블록과 CPU의 연결의 기본 블록도를 도시하고, 도 12는 촬영 시스템의 연결의 블록도를 도시하는데, 여기서, 촬영 장치는 캠코더를 포함하는 제1 촬영 장치 및 방사선 이미터 및 방사선 검출기를 포함하는 적어도 하나의 제2 촬영 장치를 포함하며, 도 13은 촬영 시스템의 연결의 블록도를 도시하는데, 여기서, 촬영 장치는 캠코더를 포함하는 제1 촬영 장치이고, 도 14는 촬영 시스템의 연결의 블록도를 도시하는데, 여기서, 제1 촬영 장치는 캠코더를 포함하는 제1 촬영 장치이고, 제2 촬영 장치는 캠코더와 방사선 이미터 및 검출기를 모두 포함하는 제2 촬영 장치이다. 도 15는 촬영 시스템의 연결의 블록도를 개략적으로 도시하는데, 여기서, 제1 촬영 장치 및 제2 촬영 장치는 방사선 이미터 및 검출기를 포함하고, 도 16은 애플리케이션 소프트웨어를 사용하여 개별 라인 상의 이미지 격자선의 개별 점의 표시의 할당의 일 실시예를 도시하며, 도 17은 3D 코덱 및 "깊이 정보"와 결합하기 위해 사용되는 세 개의 코덱 타입에 기초한 코덱의 등록 방법을 도시하고, 도 18은 서로 일정한 거리만큼 떨어져서 배열된 세 개의 촬영 장치의 시스템에 의해 촬영되는 물체 공간의 물점을 도시한다.
본 발명은 본 발명의 실시예를 사용하여 자세히 설명될 것이다. 분명히, 이들 예시는 본 발명 뒤의 원리의 응용예를 나타내는 실시예이다.
본 발명에 따른 방법의 기술 및 본 발명에 따른 방법의 실행을 위한 연결의 기술을 위하여, 우리는 이하의 기술에서 사용되는 다음 용어를 정의한다.
용어의 정의가 사용되지만, 우리는 촬영의 순간에 2D에서 작업하고, 이하의 용어를 사용한다.
촬영 장치 - 이미지 센서를 사용하여 물체 공간을 촬영하고, 얻은 데이터의 저장, 처리 또는 이미징을 위해 물체 공간에 대해 얻은 데이터를 기록하는 장치(본 발명의 정의에서의 촬영 장치는 가령, 카메라, 캠코더, X-레이 장치, 이미터 및 검출기 시스템 및/또는 이러한 타입의 유사한 장치일 수 있음).
이미지 센서 - 입사 광 방사선을 전기 신호로 변환하는, 격자선에 배열된, 광에 민감한 한 세트로 구성되는 전자 소자(가령, CCD 칩 또는 CMOS)
촬영 장치 격자선 - 본 발명에서, 광에 민감한 이미지 센서의 소자의 네트워크. 전형적으로, 광에 민감한 이들 소자는 격자로 배열되고, 소자에 의해 촬영된 값은 처리 동안에 매트리스로 배열된다.
광에 민감한 소자 - 이미지 센서의 가장 작은 촬영 유닛인데, 이는 대상 공간(가장 작은 격자선 유닛)의 섹션에 대한 이미지 정보를 캡쳐한다.
물체 공간 - 촬영 장치의 렌즈 앞에 위치된 공간. 촬영 물체는 물체 공간 내에 위치된다. 이들 물체들은 오버랩 또는 서로 가려질 수 있고, 또는 이들은 다양하게 분리될 수 있다. 이들은 다양한 컬러 및 반투명일 수 있다. 각각의 물체는 그 채도 및 반투명에 의해 특징이 된다.
물체 공간의 섹션 - 광에 민감한 촬영 장치의 소자에 의해 캡쳐된 대상 공간의 부분.
이미지/프레임 - 이미지 정보를 낳는 한 그룹의 이미지에 의해 촬영 물체 공간의 표현.
이미지 점(픽셀) - 이미지 정보(컬러 및 명도)를 가진 최소의 이미지(프레임) 단위인데, 이는 광에 민감한 촬영 장치 격자선의 한 소자에 의해 캡쳐된 물체 공간의 섹션을 나타낸다. 이미지 점의 수는 촬영 장치(이미지 센서) 격자선 광에 민감한 소자의 수에 해당한다.
우리는 다음 용어를 3D로의 처리 및 변환을 위해 추가한다.
물체 공간의 깊이 각인 - 한 세트의 "l" 거리는 이미지 점에 할당되는데(명도 정보와 컬러 정보만이 지금까지 알려져 왔음), 이는 이들에 의해 표현된 물체 공간의 섹션 내의 물체에서 촬영 장치의 이미지 센서의 평면까지이다. 이들 거리는 두 개의 서로 다른 촬영 장치로부터 찍은 적어도 두 개의 이미지의 처리 동안에, 가령 삼각측량에 의해 얻는다. 단지 하나의 거리는 각각의 이미지에 할당된다. 물체 공간의 섹션이 그들의 채도와 반투명에 의해 특징이 되는 복수의 물체를 포함한다면(여기서, 이들 중 일부는 이미지 센서의 시야에서 완전히 커버되거나, 이들이 더 가까운 물체의 반투명 덕분에 부분적인 정도 가시적임), 이미지 점은, 이미지 센서 또는 촬영 장치의 이미지 센서의 평면에 가장 가까이 위치된, 물체 공간의 이러한 섹션으로부터 할당된 물체 거리를 얻는다. 사실, 깊이 각인은 따라서, 물체 공간의 쉘(shell)을 결정한다.
깊이 각인 점 - 이미지 센서 또는 촬영 장치의 이미지 센서의 평면에 가장 가까이 위치된 물체 공간의 구성 부품으로부터의 물체의 표현
이클립싱 점/깊이 각인 점의 이클립싱 - 본 발명의 의미에서, 물체 공간의 섹션 내의 깊이 각인 점 뒤에 위치된, 즉, 촬영 장치의 이미지 격자선의 평면에 가장 가까이 위치된 물체 공간의 구성 부품으로부터의 물체의 거리를 초과하는 촬영 장치 이미지 격자선의 평면으로부터의 거리에 위치된 물체 공간의 구성 부품으로부터의 물체의 표현. 점은 촬영 장치의 이미지 격자선의 평면으로부터, 또는 그것이 위치된 곳 뒤의 특정 점(깊이 각인 점 또는 이클립싱 점)으로부터의 "l" 거리, 명도 및 컬러 정보 또는 반투명성에 의해 정의된다. 이들 점의 수는 무제한이다.
깊이 정보 - 깊이 각인과 이클립싱 점에 대한 정보의 결합에 의해 생성된다. 따라서, 깊이 정보는 물체 공간 내의 개별 물체를 확인하는데 요구되는 많은 정보 및 물체 공간의 촬영 순간의 물체 공간 내의 물체의 위치, 컬러, 명도 및 반투명성을 포함한다.
3D 코덱 - 이러한 발명을 위해, 표준 코덱 + 각각의 이미지 점을 위한 깊이 정보에 대한 정보이다. 또는, "z" 축 상의 거리 "l" 및 명도 정보와 채도 정보의 등록을 가진 촬영 장치로부터의 개별 점의 "l" 거리를 정의하는 "z" 축 상의 다른 점을 위한 깊이 정보에 대한 데이터.
채도 정보 - 본 발명의 목적을 위해, 상기 점의 컬러에 대한 정보.
뷰 라인 - 본 발명의 목적을 위해, Am과 L 또는 Am과 P 또는 Am과 S 점을 지나는 라인.
일반적으로, 본 발명에 따른 물체 공간(1)의 물체(11)의 점(12)을 기술하기 위한 방법은 다음 단계에 있다. 제 1 단계는, 물체 공간(1) 내에 위치된 2D 포맷으로 등록된 각각의 물체(11)에 대하여, 물체의 거리에 대한 깊이 정보는 서로 어떤 거리만큼 떨어져서 배열된 적어도 두 개의 촬영 장치(3)를 사용하여, 동일하게 물체의 각각의 점에 대해 등록되는 것이고, 제2 단계는, 이러한 방식으로 생성된 정보가 각각의 이미지에 추가적인 데이터로 저장되는 것이다. 상기 언급된 바와 같이, 물체 공간(1) 가령, 2D 포맷으로 등록된 이미지에 대해, 깊이 각인은 물체(물체 공간(1)로부터의 이미지)의 개별 점(12)에 대한 등록된 정보에 추가된다.
본 발명에 따른 방법을 위한 연결의 기본 배열은 도 11에 도시되는데, 이는 물체 공간(1) 내에 위치된 물체(11)의 개별 점(12)의 촬영이다. 이러한 배열의 연결은 적어도 두 개의 촬영 장치(3)를 포함하는 촬열 시스템(2)을 포함한다. 촬영 장치(3)는 중앙 처리부(4)(이하 "CPU"라고만 함)의 입력단에 연결된다. CPU(4)는 방사선 이미터(34)와 검출기(33) 제어를 위한 소프트웨어 애플리케이션(51), 촬영 장치(3) 제어를 위한 소프트웨어 애플리케이션(52) 및 격자선(35)의 점(36)을 평가하기 위한 소프트웨어 애플리케이션(53)을 포함하는 소프트웨어 애플리케이션의 블록(5)을 통합시키고, 소프트웨어 애플리케이션(61)을 가진 연산 모듈의 블록(6)도 통합된다. 또한, CPU(4)는 내부 메모리 및/또는 제거 가능한 메모리의 블록(7)에 연결되고, 온라인 출력의 블록(8)에 연결된 입력단의 일부를 가진다.
슈팅 시스템(2)과 CPU(4) 사이의 통신은 아래에 기술된다. 촬영 데이터는 방사선 이미터(38) 및 검출기(39)의 연산 모듈 및/또는 이미지 프로세서(37)를 통해 촬영 시스템(3)에서 CPU(4) 입력단으로 전달되고, CPU(4)는 그 안에 포함된 소프트웨어 애플리케이션, 방사선 이미터(38)와 검출기(39) 및/또는 방사선 검출기(12)와 통신하기 위한 소프트웨어 애플리케이션(51), 제1 촬영 장치(10) 및/또는 제2 촬영 장치(11)의 이미지 프로세서(37)와 통신하기 위한 소프트웨어 애플리케이션(52) 및 격자선(35)의 점(36)의 평가를 위한 소프트웨어 애플리케이션(53)의 블록(5)은 물론, 3D 코덱의 연산을 위한 소프트웨어 애플리케이션(61)을 위한 연산 모듈(6)을 통해 통신한다. 격자선(35)의 점(36)의 평가를 위한 소프트웨어 애플리케이션(53)을 사용하여, 깊이 정보의 수학적 연산이 수행되는데, 이 거리 정보는 물체(11)의 각 점(12)에 추가적인 데이터로서 저장되고, 깊이 각인이 생성된다. 그리고 나서, 3D 코덱이 3D 코덱의 연산을 위한 소프트웨어 애플리케이션을 사용하여 연산되고, 파일에 추가적인 데이터로서 라이트되며, 3D 코덱은 추가적인 데이터로 파일을 이미징 반복하는데 사용되어야 한다.
물체 공간(1)의 물체(11)의 3D 촬영, 즉, 본 발명에 따른 이미지 촬영을 위한 촬영 시스템(2)의 또 다른 가능한 연결은 도 13에 도시된다. 이러한 연결의 목적은 제1 촬영 장치(31)의 각도 외부에 위치되나, 제2 촬영 장치(32)에 의해 가시적인 물체(11)의 점(12)의 정의를 포함하는 깊이 정보를 얻는 것이다. 이러한 배열에서 촬영 시스템(2)의 연결은 세 개의 촬영 장치(3)를 포함하는데, 여기서, 이들 중 하나는 제1 촬영 장치(31)(소위 중앙 촬영 장치), 두 개는 제2 촬영 장치(32)(소위 측면 촬영 장치)이다. 촬영 시스템(2)의 촬영 장치(3)는 다시 CPU(4) 입력단에 연결된다. CPU(4)는 소프트웨어 애플리케이션의 블록(5)을 통합하는데, 이는 촬영 장치(3)를 위한 소프트웨어 애플리케이션(52) 및 촬영 장치(3) 제어를 위한 소프트웨어 애플리케이션(52) 및 격자선(35)의 점(36)의 평가를 위한 소프트웨어 애플리케이션(53)을 포함하고, 소프트웨어 애플리케이션(61)을 가진 연산 모듈의 블록(6)도 통합된다. 또한, CPU(4)는 내부 메모리 및/또는 제거 가능한 메모리의 블록(7)에 연결되고, 온라인 출력의 블록(8)에 연결된 입력단의 일부를 가진다.
이는 가능한 실시예 중 하나이다. 실제로, 다양한 수의 제2 촬영 장치(32)가 사용될 수 있고, 이들은 제1 촬영 장치(31)와 단일축 상의 동일 평면 상에 설치될 필요도 없다. 그러나, X, Y, 및 Z 좌표로 범위를 정한, 공간 내의 이들의 상호 위치에 대한 정보를 가질 필요는 있다. 더구나, 촬영 장치(3)의 촬영 각도 "u"를 알 필요가 있고, 물체 공간(1) 내의 물체(11)를 센싱하는 촬영 장치(3)의 각도 "u"를 취할 필요가 있다. 여기서, 제2 촬영 장치(32)를 사용하여 촬영된 물체 공간(1) 상의 뷰 방향이 제1 촬영 장치(31)의 물체 공간(1)으로 뷰 방향과 동일한지 아닌지를 알아야 하고, 다르다면, 얼마나 많은 각도와 어떤 각도로 다른지를 알아야 한다. 이는, 공간 내에 위치된 물체의 점(12)의 확인을 위한 절차 및 깊이 정보의 이후의 생성이 동일한 모든 조건에 적용된다. 처리된 데이터의 양은 제2 촬영 장치(32)의 다양한 수 및 공간 내의 그들의 위치에 의존하는 경우에만 변한다. 연산 원리는 여기서 변하지 않으나, 단지, 촬영 장치(3)의 상호 위치를 교정하는 새로운 값과 공식이 추가될 것이다.
촬영 시스템(2)은 중앙의 제1 촬영 장치(31)로부터 다양한 거리에 배열된 한 쌍 또는 두 쌍 또는 복수의 제2 촬영 장치(32)로 사용될 수 있다. 이러한 방식으로, 실질적으로 더 깊은 뷰가 달성되고, 이는 처리 또는 프로젝션 동안에 회전되고 편집될 수 있다. 물체 공간(1)의 물체(11)의 점(12)의 이미징인 제1 이미지의 격자선(35)의 각 점(36) 및 물체 공간(1)의 물체(11)의 점들(12)의 이미징인 제2 이미지의 격자선(35)의 모든 점들(36)의 배치의 지식에 기초하여, 수학적 공식은 촬영 장치(3)가 배열된 평면(축)으로부터 각 개별 이미지 점의 거리의 계산을 가능하게 할 것이다.
촬영 시스템(2)을 통해 물체 공간(1)의 물체(11)의 점(12)을 기술하기 위한 또 다른 방법이 도 9에 도시된다. 이러한 경우, 촬영 시스템(2)은 서로에 대해 120°간격으로 배치되고, 이러한 배열에서(적어도 3 시스템으로), 이들의 표면의 360° 내의 물체 공간(1)의 물체(11)의 점(12)을 촬영할 수 있다. 우리는 촬영 시스템(2)의 상호 위치 및 이러한 경우, 이들 촬영 시스템(2)의 촬영 각도 "u"를 알아야 한다. 이와 같이 배치된 촬영 시스템(2)의 각각은 제1 촬영 장치(31)로부터의 이미지 및 깊이 정보를 기록한다. 우리가 선택한 이들 촬영 시스템(2) 중 하나는 완전한 그룹의 촬영 시스템(2)의 제1 촬영 시스템(2)으로 정의된다. 이하의 데이터는 제1 촬영 시스템(2)으로 우리가 정의했던 그 촬영 시스템을 위한 제1 촬영 장치(31) 이미지 및 촬영 시스템(2)의 이러한 집합체로부터의 깊이 정보에 추가된다. 제1 촬영 시스템(2)으로부터의 제1촬영 장치(31)로부터의 이미지는, 360°까지의 복수의 점으로부터의 물체 공간 내의 물체(11)의 점(12)에 대한 이미지 데이터를 포함하는 깊이 정보로 완성된다는 것을 의미한다.
줌 가능 렌즈로 맞춤된 촬영 장치(3)라면, 줌은 가장 짧은 초점 거리에 대한, 가능한 가장 긴 렌즈의 초점 거리의 비율로 특징짓는다. 따라서, 줌은 소위 줌 렌즈 또는 조절 자재의 렌즈의 초점 거리를 조절할 수 있는 렌즈에 기초한다. 광학 줌은 렌즈의 시프팅에 기초하여 이루어진 렌즈의 초점 거리로 변한다. 초점 거리로의 변화는 촬영 장치의 렌즈 내의 개별 광학 부재의 재배열에 의해 달성된다. 그렇게 하여, 개별 광학 그룹은 어떤 경사를 가진 나선형 라인 상에서 움직이고, 그렇게 함으로써, 서로에 대해 움직인다. 여기서, 줌 기능에 대한 두 개의 실시예가 명백하다. 제1 실시예에 있어서, 제1 촬영 장치(31)만이 줌 기능이 맞춤되고, 줌 정보가 점의 평가를 위한 소프트웨어 애플리케이션(53)과의 통신에 의하여 CPU(4)로 전달되는 반면, 제2 촬영 장치(32)는 촬영 각도 "u"는 불변한다. 소프트웨어 애플리케이션을 사용하는 수학적 처리는, 모든 촬영 데이터를 제1 촬영 장치(31)의 초점 거리(줌)에 따르도록 한다.
제2 실시예에서, 제2 촬영 장치(32)는 줌 기능이 맞춤될 것이다. 줌은 광학(상기 참조) 또는 디지털일 수 있다.
3D 촬영을 위한 촬영 시스템(2)의 배열을 위한 또 다른 실시예가 도 14에 도시된다. 본 실시예의 촬영 시스템(2)은 중앙의 제1 촬영 장치(31)와 함게, 왼쪽 측면과 오른쪽 측면에 제2 촬영 장치들(32)(가령, 중앙 렌즈를 가진 캠코더와 제1 촬영 장치(31)의 양 측면에 배열된 렌즈를 가진 한 쌍의 CCD 센서), 및 방사선 이미터(34)와 검출기(33), 즉, 파장/입자 이미터를 가진 제2 촬영 장치(32)를 포함한다. 제2 촬영 장치(32) 내에 설치된 방사선 이미터(34) 및 검출기(33)는 카운터-택트 모드(counter-tact mode) 또는 서로 다른 주파수에서 작동한다. 방사선 이미터(34) 및 검출기(33)는 동시에 물체(11)의 개별 점(12)의 거리를 측정한다.
물체(11)의 개별 점(12)에 대한 촬영 거리 데이터는 점의 평가를 위한 소프트웨어 애플리케이션(53)을 사용하여 수학적으로 처리되고, 개별 이미지 점에 할당된다. 본 실시예는 "깊이 정보"의 계산을 개선한다. 방사선 이미터(34) 및 검출기(33)에 의해 추가로 측정된 거리는 계산의 확인으로 사용되고, 잠재적인 계산 오류를 제거한다. 그리고 나서, 제1 촬영 장치(31)의 각각의 이미지 점에 대한 깊이 정보는 점의 평가를 위한 소프트웨어 애플리케이션(53)을 사용하여 코덱에 등록된다.
촬영 시스템(2)의 배열을 가진 또다른 실시예는 방사선 이미터(34) 및 검출기(33), 즉, 파장/입자 이미터로의 촬영 장치(3)의 연결이다. 이러한 촬영 시스템(2)은 가시적인 이미지 스펙트럼 외부에도 직접 사용될 수 있는데, 도 15를 참조한다. 이는, 가시적인 스펙트럼 방사선이 없거나, 방사선이 채도 정보를 라이팅하기에 너무 약한 조건 하에서, 물체 공간(1) 내의 물체(11)를 촬영하는데 필요할 때의 조건인데, 그럼에도 불구하고, 채도 정보 없이도 깊이 정보를 생성할 필요가 있다. 방사선 이미터(34) 및 검출기(33)가 맞춤된 하나의 촬영 장치(3)를 제1 촬영 장치로 사용하고, 방사선 이미터(34) 및 검출기(33)가 맞춤된 적어도 두 개의 촬영 장치(3)를 제2 촬영 장치로 사용한다면, 우리는 채도, 명도, 및 반투명 데이터를 제외한 모든 데이터를 포함하는 깊이 정보를 생성할 수 있다.
특정 실시예는, 물체(11)의 촬영을 위한 촬영 장치(3)로서, 모바일 폰이나 태블릿의 사용하여, 물체 공간(1)의 물체(11)의 촬영을 위한 촬영 시스템(2)의 배열이다(도 12를 참조). 촬영 시스템(2)은 두 개의 촬영 장치(3)를 포함한다. 본 실시예에서 촬영 시스템(2)의 연결은 두 개의 촬영 장치(3)만을 포함하는데, 이들 중 하나는 캠코더를 포함하는 제1 촬영 장치(31)(소위, 중앙)이고, 두 번째는 가령, 파장/입자 이미터와 같은 방사선 이미터(34) 및 검출기(33)를 포함하는 제2 촬영 장치(32)(소위, 측면 촬영 장치)이다.
렌즈의 중심 또는 중심에서 벗어난 축에서의 렌즈와 인접한 한 측면상에서(후자의 경우, 위치의 수학적 교정이 포함되어야 함), 가령, 스위프 레이저(sweep laser), 강력한 IR 또는 UV 다이오드 또는 그 밖의 타입의 파장/입자 이미터와 같은 방사선 이미터(34)가 있다. 렌즈의 다른 측면 상에는, 방사선 이미터(34)에 의해 발산된 방사선 반사상을 촬영하기 위한 방사선 검출기(33)가 있다. 여기서, 방서선 이미터(38) 및 검출기(39)의 개별 연산 모듈은 방사선의 출력과 입력 사이의 시간 지연을 계산하고, 이러한 방식으로 얻은 시간 지연 정보는 소프트웨어 애플리케이션(51)을 사용하여 CPU(4)에서 연산될 것이고, 이를 기초로, 제1 촬영 장치(31)에 의해 촬영된 2D 장면에 대한 거리가 할당될 것이다. 이와 같은 촬영 시스템(2)은 모바일 폰이나 태블릿에 통합된 부분이다. 이러한 데이터는 3D 코덱으로 등록될 것이다. 이것 때문에, 우리는 이후의 처리를 위해 모바일 폰이나 태블릿과 같은 장치를 사용하여 3D 장면를 찍는 것을 달성할 수 있을 것이다. 본 실시예는 매우 저렴한 휴대용 캠코더에 적용되는데, 여기서, 하나의 제1 촬영 장치(31) 및 적어도 하나의 제2 촬영 장치(32)를 사용하기 위해 경제적인 이유 때문에 실현 가능하지 않을 것이다.
본 발명에 따른 물체 공간(1)으로부터 물체(11)의 점(12)을 기술하는 방법은 가령, 도 13에 도시된 촬영 시스템(2)의 연결을 사용하여 실행될 수 있다. 모든 세 개의 촬영 장치들(3)은, z 축에 대해 α 및 β를 포함하고, 여기서, y축과 x축에 의해 정의된 동일 평면상에 정확히 위치되는데, 각도 α 및 β는 z 축에 대해 90°를 형성하는 것이 바람직하다. 이러한 경우, 촬영 장치(3)는 제1 촬영 장치(31), 제1 촬영 장치(31)의 왼쪽 측면과 오른쪽 측면 상에 제1 촬영 장치(31)로부터 동일한 거리에 위치된 두 개의 제2 촬영 장치(32)를 포함한다. 우리는 세 개의 모든 촬영 장치(3)의 상호 위치를 안다. 촬영 장치들(3)은 물체 공간(1)을 동시에 촬영한다. 이러한 경우, 물체 공간(1)의 물체(11)의 세 개의 이미지가 찍히는데, 이미지들 중 하나(소위 제1 이미지)는 제1 촬영 장치(31)(소위, 중앙)에 의해 찍힌 것이고, 두 개의 이미지(소위, 제2 이미지)는 왼쪽과 오른쪽의 제2 촬영 장치(32)에 의해 찍힌 것이다. 제2 이미지는 기준 이미지에 대해 시프트된다. 격자선(35)의 점(36)은 도시된 연산 스킴의 수학적 절차를 사용하여 카운트 되는데, 스킴 중 첫 번째는, 물체 공간(1)의 물체(11)의 개별 점(12)까지의 "l" 거리의 연산 및 할당을 위한 연산 스킴을 도시한다.
Figure 112015030037575-pct00001
상기 도면에 대한 깊이 정보의 연산의 설명을 위해 사용된 용어 및 부호가 이하 정의된다.
Am - 물체 공간(1) 내에 촬영되는 임의의 점(12), 여기서 "m"은 임의의 정수.
S - 촬영 장치(3) - 이러한 스킴의 목적을 위해, 크기는 무한정 작은 것(점)으로 정의됨.
L - 촬영 장치(3) - (우리의 기술적인 세트에서 적어도 둘 이상의 촬영 장치에서 왼쪽 측면에 위치됨); 이러한 스킴의 목적을 위해, 크기는 무한정 작은 것(점)으로 정의됨.
P - 촬영 장치(3) - 우리의 기술적인 세트에서 적어도 둘 이상의 촬영 장치에서 오른쪽 측면에 위치됨); 이러한 스킴의 목적을 위해, 크기는 무한정 작은 것(점)으로 정의됨.
S, L 및 P는 X축 상에 있음
l - X축으부터 Am 점의 가장 짧은 거리.
uS - S 촬영 장치의 촬영 각도인데, uS 각도축은 X축에 수직이면서, 동시에 S 점을 지나는 직선과 동일함.
uL - L 촬영 장치의 촬영 각도인데, uL 각도축은 X축에 수직이면서, 동시에 L 점을 지나는 직선과 동일함.
uP - P 촬영 장치의 촬영 각도인데, uP 각도축은 X축에 수직이면서, 동시에 P 점을 지나는 직선과 동일함.
kS - S 중심이고 rS 반지름인 원.
kL - L 중심이고 rL 반지름인 원.
kP - P 중심이고 rP 반지름인 원.
d'S - 우리의 스킴 내에서 좌표 시스템의 X축에 따른 물체 공간(1)의 디지털 이미징의 치수(가령, 사진의 결과), 여기서, 물체 공간은 S 촬영 장치에 의해 촬영되었음.
d'L - 우리의 스킴 내에서 좌표 시스템의 X축에 따른 물체 공간(1)의 디지털 이미징의 치수(가령, 사진의 결과), 여기서, 물체 공간은 L 촬영 장치에 의해 촬영되었음.
d'P - 우리의 스킴 내에서 좌표 시스템의 X축에 따른 물체 공간(1)의 디지털 이미징의 치수(가령, 사진의 결과), 여기서, 물체 공간은 P 촬영 장치에 의해 촬영되었음.
A'mS - 물체 공간(1)의 이미징(가령, 사진) 내에 도시된 Am, 여기서, 물체 공간(1)은 S 촬영 장치에 의해 촬영되었음.
A'mL - 물체 공간(1)의 이미징(가령, 사진) 내에 도시된 Am, 여기서, 물체 공간(1)은 L 촬영 장치에 의해 촬영되었음.
A'mP - 물체 공간(1)의 이미징(가령, 사진) 내에 도시된 Am, 여기서, 물체 공간(1)은 P 촬영 장치에 의해 촬영되었음.
dS - kS 원의 섹션, 여기서, dS 길이는 d'S와 동일하고, 동시에, 종점 dS는 uS 각도의 암(arm) 위에 있고, 동시에, 적어도 하나의 내부 dS 점은 S 중점과 uS 각도에 의해 정의된 원형 섹션 내에 있음.
dL - kL 원의 섹션, 여기서, dL 길이는 d'L와 동일하고, 동시에, 종점 dL는 uL 각도의 암(arm) 위에 있고, 동시에, 적어도 하나의 내부 dL 점은 L 중점과 uL 각도에 의해 정의된 원형 섹션 내에 있음.
dP - kP 원의 섹션, 여기서, dP 길이는 d'P와 동일하고, 동시에, 종점 dP는 uP 각도의 암(arm) 위에 있고, 동시에, 적어도 하나의 내부 dP 점은 P 중점과 uP 각도에 의해 정의된 원형 섹션 내에 있음.
AmS - 점, dS가 Am 점과 S 점을 지나는 직선과 교차하는 점.
AmL - 점, dL가 Am 점과 L 점을 지나는 직선과 교차하는 점.
AmP - 점, dP가 Am 점과 P 점을 지나는 직선과 교차하는 점.
vL - S 점과 L 점 사이의 거리.
vP - S 점과 P 점 사이의 거리.
u'L - Am, AmL 및 L 점을 지나는 직선과 X 축에 의해 끼인각.
u'S - Am, AmS 및 S 점을 지나는 직선과 X 축에 의해 끼인각.
u'P - Am, AmP 및 P 점을 지나는 직선과 X 축에 의해 끼인각.
"l" 거리의 계산
"o"는 원의 길이
"r"은 원의 반지름
"pi"는 루돌프 수
"u"는 촬영 각도
"d"는 촬영 각도(원의 중심 각도)의 암에 의해 정의된 섹션에 속하는 원의 섹션의 길이
그리고 나서, 이하가 일반적으로 적용된다.
o = 2 x pi x r
d = (u x pi x r)/180
r = (180 x d)/(u x pi)
그리고 우리의 스킴을 위해,
dS=(uS x pi x rS)/180
dL=(uL x pi x rL)/180
dP=(uP x pi x rP)/180
dS=d'S , dL=d'L , dP=d'P
dS=dSa+dSb , dL=dLa+dLb , dP=dPa+dPb
rS=(180 x dS)/(uS x pi)
rL=(180 x dL)/(uL x pi)
rP=(180 x dP)/(uP x pi)
u'S=((180-uS)/2)+((dSa x 180)/(rS x pi))
u'S=((180-uS)/2)+((dSa x 180)/(((180 x dS)/(uS x pi)) x pi))
u'S=((180-uS)/2)+ ((dSa x uS)/dS)
u'L=((180-uL)/2)+((dLa x 180)/(rL x pi))
u'L=((180-uL)/2)+((dLa x 180)/(((180 x dL)/(uL x pi)) x pi))
u'L=((180-uL)/2)+((dLa x uL)/dL)
u'P=((180-uP)/2)+((dPa x 180)/(rP x pi))
u'P=((180-uP)/2)+((dPa x 180)/(((180 x dP)/(uP x pi)) x pi))
u'P=((180-uP)/2)+((dPa x uP)/dP)
l=vL/(cotg(u'S)+cotg(u'L))
또는
l=vP/(cotg(u'S)+cotg(u'P))
Figure 112015030037575-pct00002
여기서, 이들의 두 번째는 "u" 촬영 각도 정의를 도시한다.
우리의 문헌에서, 촬영 장치(3)의 "u" 촬영 각도는 촬영 장치(3)를 를 통해 나아가는 각도 축인데, 이는 본 스킴의 목적을 위해 점으로서, 동시에, 각도 축에 의해 생성된 평면으로 정의되고, 각도 암은 물체 공간(1)의 촬영 섹션의 프로젝션에 의해 생성된 평면에 수직이다. 게다가, 촬영 장치(3)가 캡쳐할 수 있는, 촬영 각도 암과 물체 공간(1)의 교차점을 지나가는 직선은 촬영 장치(3)의 수평축에 평행하다.
따라서, 우리는, 연산 스킴에 의해 표현된 수학적 절차를 사용하여, 촬영 장치(3)가 배열된 평면(축)으로부터 이미지상에 촬영된, 물체 공간(11)의 물체의 각각의 개별 점(12)의 소프트웨어 애플리케이션(53)을 우리가 사용하여 거리를 계산할 수 있는 것에 기초하여, 그리고, 제2 이미지상의 기준 중앙 이미지의 격자선(35)의 각각의 점(36)의 배치의 지식에 기초하여 세 개의 이미지를 사용할 수 있다.
이미지 격자선(35)의 개별 라인상의 격자선(35)의 점(36)을 사용하여 도시된(도 5 및 도 18 참조), 물체 공간(1)의 물체(11)의 개별 점(12)을 확인하는 방법은 본 설명의 마지막에 블록도상에 도시된 단계의 순서를 통해 발생한다.
Figure 112015030037575-pct00003
깊이 정보의 결정은 확인 방법의 결과이다.
본 실시예의 모든 세 개의 이미지는 동일한 점 레졸루션을 가지는데, 즉, 제1 촬영 장치(31)의 격자선(35)과 제2 촬영 장치(32)의 격자선(35)은 동일하다. 모든 세 개의 이미지가 촬영 장치(3)를 사용하여 동시에 찍힐 조건은 충족되어야 한다.
명백하게, 촬영 시스템(2) 내에 배열된 개별 촬영 장치(3)의 다양한 광학적 및 물리적 특성을 고려하며, 개별 이미지는 다양한 컬러 표시, 즉, 다양한 컬러 및 명도를 가질 것이다. 그러므로, "깊이 정보"를 진정 1 단계로 결정할 때, 이러한 불균형은 제거되어야 한다. 이는, 모든 세 개의 이미지의 균형있는 컬러 표시를 얻기 위하여, 제1 촬영 장치(31)의 ICC 프로필을 제2 촬영 장치(32)의 프로필에 할당함에 의해 달성된다. 제1 촬영 장치(31)에 의해 찍힌 이미지는 항상 컬러 매칭을 위해 기준 이미지이다.
또한, 개별 라인에 의해 얻은 이미지의 격자선(35)과 격자선(35)의 점(36)이 비교된다. 이는 비교된 이미지의 개별 격자선 라인(35) 상의 개별 점(36)이 얼마나 서로에 대해 시프트되는지를 나타낸다.
개별 이미지의 격자선(35)의 점(36)의 비교는 이미지의 격자선(35)의 수평 방향과 수직 방향 모두에서 수행될 수 있다. 본 예시와 관련하여 본 발명에 따라 기술된 절차의 설명을 위해, 우리는 첫 번째 라인업에서 시작하여, 격자선(35)의 마지막 라인 아래방향으로, 연산의 기술을 위해 수평 라인을 카운트할 것이다.
제1 촬영 장치(31)와 제2 촬영 장치(32)에 의해 각각의 이미지를 찍는 시간에, 상기 도시된 연산 스킴으로부터 명백한 바와 같이, "u" 촬영 각도에 대한 정보가 각각의 촬영 장치(3)에 대해 등록된다. 제1 촬영 장치(31)에 대해서, 촬영 각도는 "uS"로 표시되는 반면, 제2 촬영 장치(32)에 대해서, 촬영 각도는 문제 "uP, uL"로 표시된다. 촬영 각도 데이터는 어떤 초점 거리의 숫자가 연산 공식에서 사용될 필요가 있는지를 정의한다. 이 정보가 CPU(4)에 리드 되자마자, 점의 평가를 위한 소프트웨어 애플리케이션(53)은 제1 촬영 장치(31)에 의해 촬영된 이미지로부터의 격자선(35)의 제1 라인의 점(36)에 대한 정보를 사용할 것이다. 이는 기준 이미지이다. 그리고 나서, 우리는 오른쪽과 왼쪽의 제2 촬영 장치(32)에 의해 찍힌 이미지로부터의 격자선(35)의 제1 라인의 점(36)에 대한 정보를 사용할 것이다. 명백하게, 채도 정보는 표준 모드에서 16.7 백만 컬러를 가진다. 우리는 이들 첫 번째 세 개의 라인상의 개별 점(36)의 컬러 프로필을 비교할 것이고, 제2 이미지의 격자선(35)의 다음 첫 번째 라인 내의 다른 점(36)과의 비교를 위한 기준 데이터는 제1 촬영 장치(31)에 의해 찍힌 이미지의 격자선(35)의 첫 번째 라인ㅇ으로부터의 점(36)에 대한 데이터이다. 그리고 나서, 평가를 위한 소프트웨어 애플리케이션(53)이 CPU(4)에서의 이들 세 개의 라인의 모든 이미지 점들을 비교하기 위해 사용되는데, 격자선(35)의 모든 비교된 세 개의 라인으로부터의 점(36)의 모든 데이터는 서로 연산 동안 중에 있다는 것이 중요하다. 평가를 위한 소프트웨어 애플리케이션(53)에 기인한 연산은 얼마나 많은 격자선 라인(35)상의 격자선의 점들(36)에 의해 표시되고, 오른쪽과 왼쪽의 제2 촬영 장치(32)로부터의 격자선(35)의 제1 라인상의 동일한 컬러의 격자선의 점(36)은 격자선(35)의 기준 라인의 점(36)에 대해 오른쪽이나 왼쪽으로 시프트되는데, 상기 기준 라인은 제1 촬영 장치(31)에 의해 찍힌 이미지의 격자선(35)의 제1 라인이다. 격자선(35)의 비교된 라인의 점(36)의 시프트의 이러한 비교는 전체 라인을 따라 점마다 수행된다. 그리고 나서, 우리는 평가를 위한 소프트웨어 애플리케이션(53)을 사용하여, 제1 촬영 장치(31)로부터의 기준 이미지의 격자선(35)의 제1 라인 상의 점(36)에 대한 "z" 축 상의 거리 "l"을 계산한다. 이러한 경우에서, 제2 촬영 장치(32)로부터의 이미지의 격자선(35)의 제1 라인의 점(36)은 제1 촬열 장치(31)의 이미지상에 도시된 개별 점(36)의 위치를 결정하는데 사용된다. 이러한 방식으로, 우리는 격자선(35)의 이들 점(36)에 대한 "깊이 각인"을 계산할 수 있다.
격자선(35)의 개별 점(36)의 깊이 정보의 계산을 위해, 우리는 제2 촬영 장치(32)에 의해 찍힌 이미지상의 격자선(35)의 제1 라인들 상의 점(36)에 대한 거리들의 동일한 계산을 수행해야 하나, 오른쪽 제2 장치(32)로부터의 이미지로부터 제1 라인(35)의 격자선(35)의 점(36)의 거리에 대해 계산 우선성을 가지고, 그리고 나서 왼쪽 제2 장치(32)를 한다. 왼쪽 제2 장치(32)의 경우에, 이들 촬영 장치(3)가 서로 다른 "u" 촬영 각도로부터 물체 공간(1)을 촬영하고, 촬영 각도는 "uL"로 표시되며, 오른쪽 제2 장치(32)의 경우, 촬영 각도는 "uP"로 표시된다. 이러한 방식으로, 우리는 제1 촬영 장치(31)로부터의 이미지에 대한 라인(35)의 격자선(35)의 점(36) 뒤에, 동일한 "z" 축 상의 추가적인 점(12)을 놓을 수 있다. 이들은 "이클립싱 점(들)"로 "깊이 각인"을 보완하는 이클립싱 점이다. 이러한 방식으로, 우리는 제1 촬영 장치(31)의 기준 이미지에 대한 격자선 라인(35)상의 격자선(35)의 특정 점(36)에 대한 "깊이 정보"를 얻을 수 있다. 상기 기술된 방법을 사용하여, 격자선 라인(35)상의 격자선(35)의 모든 점(36)들이 비교되고, 기준 이미지의 격자선(35)의 모든 라인은 동일하게 처리될 것이다.
격자선 에지(35) 상의 격자선(35)의 점(36)의 그리기를 개선하기 위하여, 제2 촬영 장치(32)를 위한 더 큰 격자선(35)을 사용하는 것이 바람직하다. 더 큰 격자선이 제2 촬영 장치(31)에 사용되면, "깊이 정보"를 가진 결과 이미지의 격자선(35)의 에지상의 점이 더 잘 그려질 것이다.
하나의 촬영 장치(3)에 의해 가시적인 기준 이미지 뒤의 이클립싱 점(12)의 할당을 교정하기 위하여, 우리는 "에지, 영역 및 불연속성의 검출"의 기술을 사용할 것이다. 이는 하나만의 촬영 장치(3)로부터의 이미지상에 가시적인 격자선(35)의 점(36)의 계산을 위한 절차이다. 도 7로부터 명백한 바와 같은 단지 하나의 촬영 장치(3)에 의해 가시적인 물체(11)의 점(12) 및 도 8로부터 명백한 바와 같은 제1 촬영 장치(31)에 의해 가시적인 점(12)의 계산이다.
- 세 개의 촬영 장치들(3)에 의해 가시적인 물체 공간(1)의 물체(11)의 점(12)의 계산, 도 5 참조
- 두 개의 촬영 장치들(3)에 의해 가시적인 물체 공간(1)의 물체(11)의 점(12)의 계산, 도 6 참조
- 한 개의 촬영 장치(3)에 의해 가시적인 물체 공간(1)의 물체(11)의 점(12)의 계산, 도 7 및 8 참조
세 개의 촬영 장치(3)에 의해 가시적인 물체 공간(1)의 물체(11)의 점(12)의 계산, 여기서, 왼쪽과 오른쪽 중앙 촬영 장치(3)의 격자선(35)의 점(12)과 점(36) 사이의 링크는 뷰 직선(9)을 형성한다(도 5 참조). 이러한 절차는 "z" 축 상의 점(12)의 계산을 위한 이전 문장과 동일하다.
두 개의 촬영 장치(3)에 의해 가시적인 물체 공간(1)의 물체(11)의 점(12)의 계산, 여기서, 왼쪽과 오른쪽 중앙 촬영 장치(3)와 점(12) 사이의 링크는 뷰 직선(9)을 형성한다(도 6 참조). 이러한 절차는 "z" 축 상의 점(12)의 계산을 위한 이전 문장과 동일하다.
한 개의 촬영 장치(3)에 의해 가시적인 물체 공간(1)의 물체(11)의 점(12)의 계산, 여기서, 왼쪽 또는 중앙 촬영 장치(3)와 점(12)(= Am) 사이의 링크는, Am 과 L 점을 교차하는 뷰 직선(9)을 형성한다(도 7 참조). 이러한 뷰 직선(9)은 그 자체로, "z" 축" 상의 점(12)의 "l" 거리를 직접 정의할 수 없다. 그러므로, 절차는 다음과 같다. 우선 우리는 뷰 직선(9) 상의 어떤 거리 "l"를 결정하고, 물체 공간(1)의 물체(11)의 점(12)이 위치되지 않을 수 있다. 이러한 방식으로, 점(12)(연산 스킴에서 Am 점으로 표시된)과 다른 촬영 장치(3)의 S 및 P 점 사이의 링크를 형성하는 다른 뷰 직선(9' 및 9")과 교차를 찾을 수 있는 뷰 직선(9)상에 위치된 점(12)의 모든 "l" 거리를 우리는 제거할 것이다. 뷰 직선(9) 상의 점(12)의 "l" 거리의 정확한 표시는, 점(12)과 이미 할당된 그들의 "l" 거리를 비교하여 달성되고, 따라서, 이들은 적어도 두 개의 촬영 장치(3)에 의해 가시적이다. 이들 점(12)은 뷰 직선(9' 및 9") 상에 위치된다. Am 과 L 점을 교차하는 복수의 뷰 직선(9)상에 가시적인 물체 공간(1)의 물체(11)의 점(12)의 이전 연산 동안에, 우리는 물체의 압도적인 다수의 점(12)를 위한 "l" 거리의 정확한 할당을 달성하였다. Am 과 L 점을 교차하는 뷰 직선(9) 상의 물체 공간(1)의 물체(11)의 점(12)(도 7 참조)과 연결 점(12)(Am)과 촬영 장치(3)(L) 사이의 "l" 거리의 정확한 할당은 이 시점에 정확히 정의되지 않는다(도 7 참조). 그 시점에, 우리는, 뷰 직선(9) 상에 Am 과 L 점을 교차하는 점(12)이 존재하지 않다는 것만 안다.
또한, 점(12), 소위 미분류된, 하나의 촬영 장치(3)에 의해 가시적인 이클립싱 점의 연산을 위해, 절차가 이하에 기술된다.
(기준 및 2차적인) 찍힌 이미지의 비교된 격자선(35)은 서로에 대해 개별 점(36)의 실제 시프트를 비교된 이미지 상의 격자선(35)의 개별 라인이 상에 나타낸다. 격자선(35)의 이미지 라인 상의 격자선(35)의 미분류된 점(36)을 마주하는 경우에, 즉, 인접한 이미지 상의 점(36)에 대한 점의 위치가 점 표시 동안에 명시될 수 없는 경우에, 다음의 절차가 적용된다. 미분류된 점(36)에, 점이 위치되지 않을 뷰 직선(9) 상의 어떤 거리 "l" 및 도 7에 따라 어떻게 표시된 "u'L" 각도의 정보를 추가하고, 뷰 직선(9) 상의 "l" 위치의 정확한 정의는 상기 물체(11)(이미지)의 모든 점(12)의 연산의 완성후에서야 이루어질 것이다. 이미지 연산의 마지막에, 우리는 두 개 또는 세 개의 뷰 직선(9)에 의해 정의된, 물체 공간(1)의 물체(11)의 모든 점(12)에 대한 정확한 깊이 정보를 따라서 가질 것이다(도 5 및 6 참조). 물체 공간(1)의 물체(11)의 점(12)의 표현인, 이미지상의 격자선(35)의 점(36)은, 오직 하나의 뷰 직선(9)에 의해 기록될만한 할당된 "l" 거리로 남아있지 않을 것이다(도 7 참조). 격자선(35) 라인 상의 점(36) 위치에 대한 정보는 점(36)에 추가되는데, 이는 뷰 직선(9)이 점(12)을 향하는 "u'L" 각도 데이터 및 점(12)이 뷰 직선 상에 위치되지 않을 어떤 "l" 거리의 정보를 포함한다. 아직 뷰 직선(9)상에 정의되지 않은 정확한 "l" 거리 없는 각각의 점(12)은, 이전 연산으로부터 이미 할당된 "l" 거리를 가진, 점(12)의 시스템의 부분 및 연속적인 구성이다. 물체 공간(1)의 물체(11)의 각각의 점(12)은 이미지의 임의의 인접한 부분의 부분이다. 각각의 점(12)은, 우리가 뷰 직선(9) 상에 "l" 거리를 할당할 필요가 있는, 점(12)에 매우 인접하여 위치된 매우 유사한 컬러 또는 동일한 컬러의, 이미 그리고 정확히 정의된 점(12)을 가진 그룹의 부분이다. 뷰 직선(9) 상에 아직 할당되지 않은 "l" 거리를 가진 점(들)과 인접한 물체 공간(1)의 물체(11)의 각각의 점(12)은 물체 공간(1)의 물체(11) 상의 이들에 가까이 인접한 점(12) 또는 점들(12)과 유사 또는 동일한 컬러를 가진다. 이들 컬러 및 이들 구조는 흔히 사용되는 이미지 분석 방법(에지, 영역 및 불연속성의 검출)을 사용하여 확인 및 분석될 수 있다. 이는, 에지, 영역 및 불연속성 검출의 평가 이후에, 물체 공간(1)의 물체(11)의 점(12)의 그룹 뒤의 뷰 직선(9) 상의 정확한 "l" 거리 내에서 이들 점(12)에 인접하는 정확히 정의된 점(12)과의 이들 비교에 기초하여 이들 점(12)을 정확하게 정의할 수 있다는 것을 의미한다. 이미지의 전체 격자선(35) 상의 점(36)을 사용하여 도시된 각각의 점(12)은 이미지의 전체 격자선(35)의 부분을 형성하고, 이에 따라 이들이 정의될 수 있고, 뷰 직선(9) 상의 "l" 거리는 이들에 할당될 수 있다. 물체 공간(1)의 물체(11)가 단일 뷰 직선(9)에 의해 정의되었다면, 점(12)이 있을 때, 이미지를 위한 깊이 정보뿐만 아니라 격자선(35)의 연산된 점(36)이 정확하게 정의될 것이다(도 7 참조).
다음 이러한 연산, "깊이 정보" 결과 포맷이 완성된다. "깊이 정보" 데이터를 가진 제1 촬영 장치(31)의 기준 이미지가 추가되었다. 이는 물체 공간(1)의 물체(11)의 점(12)의 정확한 정의를 가진 완벽한 3D 이미지이다.
이러한 포맷은 보편적이고, 이는 임의의 이미지 사진 또는 비디오 코덱으로 등록될 수 있다. 본 발명에 따라 도 17 및 이하의 코덱 블록 도로 도시된 이미지 코덱은 표준 코덱에 대해, 추가적인 정보 소위 "깊이 각인" 또는 "깊이 정보"의 배치의 형성 및 방법을 의미한다.
3D 코덱 블록도는 2D 사진 및 비디오 포맷의 등록을 위해 현재 사용되는 다양한 코덱으로의 할당과 관련하여 깊이 정보가 얼마나 사용될 수 있는지를 기술한다.
Figure 112015030037575-pct00004

2D 코덱은 다음과 같이 분할될 수 있다.
● 사용자 스트림을 지원하는 코덱
● 사용자 스트림을 지원하지 않은 코덱, 메타데이터 지원이 있는 파일 시스템
● 사용자 스트림을 지원하지 않는 코덱, 메타데이터 지원이 있는 파일 시스템
이는 2D 코덱의 기본적인 분할이다. 각각의 코덱 타입에 대해, 깊이 정보는 다양한 방식으로 할당될 것이라는 점은 명백하다. 마지막으로, 그러나, 이들 모든 옵션은 두 개의 서로 다른 방식으로 수정된 3D 코덱의 완전한 리딩을 가능하게 할 것이다.
첫 번째는 3D 코덱이 2D 정보로서 처리되는 2D 장치를 사용하여 3D 코덱의 리딩인데, 깊이 정보는 전혀 사용되지 않을 것이다. 이러한 경우, 3D 코덱의 완전한 처리는 2D 장치 상에서만 수행될 수 있고, 2D 또는 3D 코덱은 최종 컷 및 분배를 위해 사용될 것이다.
두 번째는 3D 코덱의 리딩과 처리이며, 3D 코덱이 3D 정보로서 처리되는 3D 장치를 사용하여 이미징하고, 깊이 정보가 여기서 사용된다.
3D 코덱의 블록도 및 도 17에 도시된 코덱의 모든 세 개의 타입은 다음과 같이 분할될 수 있다.
● 사용자 스트림을 지원하는 3D 코덱
● 사용자 스트림을 지원하지 않은 3D 코덱, 메타데이터 지원이 있는 파일 시스템
● 사용자 스트림을 지원하지 않는 3D 코덱, 메타데이터 지원이 있는 파일 시스템
상기 언급된 3D 코덱은 본 발명의 맥락에서 동일한 데이터를 포함한다. 이는 "깊이 각인"도 또한 포함하는 깊이 정보이다. 이러한 깊이 정보는 상기에서 정의되고, 이는 물체 공간(1)의 물체(11)의 각각의 점(12)에 대한 정확한 데이터 파일이다(가령, 사진, 영화등). 코덱 타입(3D 코덱 블록도 및 도 17)은 물론, 이러한 데이터 할당은 우리의 분류에 따라 다음과 같다.
● 사용자 스트림을 지원하는 3D 코덱 - 이러한 3D 코덱의 경우, 깊이 정보가 메타데이터 컨테이너로서 3D 코덱 구조에 인코딩되고, 물체 공간(1) 내의 2D 포맷으로 등록된 물체(11)를 포함하는 3D 코덱의 통합 부분이 된다.
● 사용자 스트림을 지원하지 않는 3D 코덱, 메타데이터 지원이 있는 파일 시스템 - 이러한 3D 코덱의 경우, 깊이 정보는 메타데이터 컨테이너로서 3D 코덱 구조에 인코딩되고, 메타데이터 및 물체 공간(1) 내에 2D 포맷으로 등록된 물체(11)는 별도로 등록될 것이다. 이러한 경우, 깊이 정보는 3D 코덱의 통합 부분을 형성한다.
● 사용자 스트림을 지원하지 않는 3D 코덱, 메타데이터 지원이 없는 파일 시스템 - 3D 코덱의 경우, 깊이 정보는 원래의 2D 코덱과 함께 데이터 컨테이너로서 등록된다. 이러한 경우, 깊이 정보는 3D 코덱의 독립된 부분을 형성한다. 원래의 2D 코덱과 깊이 정보의 결합이 개별 이미지를 위해 타임라인을 통해 발생한다. 이들 두 구성은 3D 코덱, 원래의 2D 코덱 + 깊이 정보가 있는 데이터 컨테이너를 형성한다.
본 발명에 따른 물체 공간(1)로부터 물체(11)의 점(12)을 기술하는 방법은 가령, 도 12에 도시된 촬영 시스템(2)의 연결을 사용하여 실행될 수 있다. 이러한 경우, 모바일 폰 또는 태블릿에 물체(11)의 촬영을 위한 촬영 시스템(2)이 맞춤된다. 촬영 시스템(2)은 두 개의 촬영 장치(3)를 포함한다. 본 실시예에서 촬영 시스템(2)의 연결은 두 개의 촬영 장치(3)만을 포함하는데, 이들 중 하나는 캠코더를 포함하는 제1 촬영 장치(31)(소위, 중앙) 및 두 번째는 가령, 파장/입자 이미터와 같은 방사선 이미터(34) 및 검출기(33)를 포함하는 제2 촬영 장치(32)(소위, 측면 촬영 장치)이다. 이러한 경우, 정보는 깊이 정보의 연산에 대한 누락이 있어서, 우리는 이러한 촬영의 방법을 위한 깊이 각인만을 가질 수 있다. 물체 공간(1) 내에 위치된 물체(11)의 각각의 점(12)에 대한 "l" 거리 정보를 수신하기 위한 절차 및 격자선(35)의 점(36)과의 이후 연결이 도 10에 따른 깊이 정보의 연산을 위한 블록도에 기술되는데, 이는 제1 및 제2 촬영 장치(3)를 포함하고, 여기서, 제1 촬영 장치(3)는 중앙 캠코더(31)이고, 제2 촬영 장치(3)는 방사선 이미터(34) 및 검출기(33)를 포함한다.
이미지 격자선(35)의 개별 라인 상의 격자선(35)의 점(36)을 사용하여 도시된 물체 공간(1)의 촬영 섹션의 개별 점(12)의 확인의 방법(도 5 참조)은 블록도에 도시된 단계의 시퀀스를 사용하여 발생한다(촬영 시스템(2)을 위한 깊이 정보의 연산을 위한 블록도는 제1 촬영 장치(31), 그리고, 방사선 이미터(34)와 검출기(33)를 포함하는 제2 촬영 장치(32)를 포함함). 결과적인 확인의 방법은 깊이 정보의 결정이다. 제1 촬영 장치(31)는 이미지 또는 일련의 이미지들을 생성한다. 제2 촬영 장치(3)는 방사선 이미터(34)를 사용하여 "l" 거리의 측정을 위해 사용되는데, 상기 방사선 이미터는 방사선(파장/입자)을 전송하고, 물체(11)의 촬영 점(12)으로부터 반사되고나서, 방사선 검출기(33)에 의해 반사된 방사선의 검출이 있은 후에, 방사선의 전송과 검출 사이의 시간 지연이 연산된다. 발산된 방사선과 방ㅏ선 검출 사이의 시간차를 사용하여, "z" 축 상의 "l" 거리는 실제 촬영의 각각의 개별 점에 대해 연산된다. 이러한 방식으로 물체(11)의 점(12) 마다 진행하고, "z" 축 상의 이들 점(12)에 대한 "l" 거리 정보를 분류하여, 이러한 거리 정보는 깊이 정보로서, 추가 데이터로 제1 촬영 장치(31)에 의해 찍힌 이미지에 할당된다. 제2 촬영 장치(32)로부터의 이미터(34)에서의 방사선은 물론 메인 촬영 장치의 격자선(35) 상의 이미지의 촬영이 동일한 격자선(35)에서 발생하기 때문에, 촬영 장치(31)에 대해 동일한 "u" 각도하에서, 이러한 데이터가 결합될 수 있다. 이하의 구조 스킴은 이전에 연산을 위해 사용된다. 제1 촬영 장치(31)는 중앙에 위치된다. 제1 촬영 장치(31)로부터 떨어져서 한 쪽에 배열되는 방사선 검출기(33)와 제1 촬영 장치(31)로부터 떨어져서 다른 쪽에 배열되는 방사선 이미터(34)를 포함하는 제2 촬영 장치(32)는 제1 촬영 장치(32)에서 동일한 거리에 있고, 제1 촬영 장치(31)와의 단일 축 상의 평면에 있다. 이러한 타입의 배열에 대해서, 방사선 검출기(33)의 검출 후에, 어떠한 수학적 시간 측정 교정이 필요하지 않다.
Figure 112015030037575-pct00005
제1 촬영 장치(31) 및 제2 촬영 장치(32)를 사용하여 깊이 정보의 연산을 위한 블록도는 방사선 이미터(34)와 검출기(33)를 포함한다.
이러한 포맷은 임의의 이미지(사진 또는 비디오) 코덱에 등록하기에 충분히 보편적이다(3D 블록도 및 도 17 참조)
산업상 이용가능성
물체 공간으로부터 물점의 기술 방법은 촬영, 처리 및 이미지 정보의 이미징이 발생하는 곳에 적용 가능하다. 촬영, 처리 및 이미지 정보의 이미징 작업을 하는 모든 장치는, 카메라, 캠코더 및 스캐너와 결합하여 적용 가능하다.
1 물체 공간
11 물체 공간 내의 물체
12 물점
2 촬영 시스템
3 촬영 장치
31 제1 촬영 장치
32 제2 촬영 장치
33 방사선 검출기
34 방사선 이미터
35 격자선
36 격자선의 점
37 촬영 장치의 이미지 프로세서
38 이미터의 연산 모듈
39 검출기의 연산 모듈
4 중앙 처리부
41 촬영 장치의 중앙 처리부
5 소프트웨어 애플리케이션의 블록
51 방사선 이미터 및 검출기 제어를 위한 소프트웨어 애플리케이션
52 촬영 장치 제어를 위한 소프트웨어 애플리케이션
53 점의 평가를 위한 소프트웨어 애플리케이션
6 탐지 애플리케이션이 있는 연산 모듈
7 메모리가 있는 데이터 모듈
8 온라인 출력단의 블록
81 디지털 출력단
82 독립적인 깊이 정보
83 아날로그 출력단
9 뷰 직선

Claims (10)

  1. 서로 일정 거리를 갖도록 배치된 적어도 2개의 촬영 장치(3)를 사용하여 물체 공간(1)으로부터 물체(11)의 점(12)을 기술하는 방법에 있어서, 제1 촬영 장치(31)의 격자선(35)에 디스플레이된 물체 공간(1)의 물체(11)의 각각의 점(12)에 대하여, 제1촬영 장치(31)의 격자선(35)으로부터 Z축 방향으로 상기 물체 공간(1)의 물체(11)의 점(12)으로의 점 거리(I)에 대한 정보가 등록되고, 다음에 상기 정보가 이미지의 격자선(35)의 각각의 점(36)에 추가적인 데이터로서 저장되며, 상기 물체 공간(1)의 제1 이미지를 제공하고,
    제1 촬영 장치(31)로부터 일정 거리에 배치된 적어도 하나의 제2 촬영 장치(32)가 제2촬영 장치(32)의 격자선(35)의 점(36)으로부터 상기 물체 공간(1)의 물체(11)의 점(12)으로의 점 거리(I)에 대한 정보를 등록하고, 상기 물체 공간(1)의 제2 이미지를 제공하며, 상기 제2 이미지가 물체 공간(1)의 이클립싱 점(eclipsing points)을 포함함을 특징으로 하는 물체 공간(1)으로부터 물체(11)의 점(12)을 기술하는 방법.
  2. 삭제
  3. 삭제
  4. 제 1 항에 있어서, 다양한 반투명 레벨의 이클립싱 점을 포함하는 물체 공간(1)의 물체(11)에 대하여, 제1 및 제2 촬영 장치(31, 32)로부터의 점 거리(I)에 대한 정보가, 레이어 점(12)의 반투명 레벨과 함께 제2 촬영 장치(32)에 의해 물체(11)의 이클립싱 점의 명도 및 채도 정보를 동시에 등록하는 동안 등록되고, 이 같은 방식으로 생성된 정보가 제2 촬영 장치(32)의 격자선(35)의 점(36)에 저장되는 것을 특징으로 하는 물체 공간(1)으로부터 물체(11)의 점(12)을 기술하는 방법.
  5. 제 1 항에 따른 물체 공간(1)으로부터 물체(11)의 점(12)을 기술하는 방법을 실행하기 위한 촬영 시스템에 있어서, 촬영 시스템(2)은 제1 촬영 장치(31) 그리고 적어도 하나의 제2 촬영 장치(32)를 포함하며,
    상기 제 1 촬영 장치(31)가 제1촬영 장치(31)의 격자선(35)의 점(36)으로부터 Z축 방향으로 물체 공간(1)에 대한 제1 중앙 이미지를 제공하고, 상기 제 2 촬영 장치(32)가 제2촬영 장치(32)의 격자선(35)의 점(36)으로부터 Z축 방향으로 물체 공간(1)에 대한 제2 추가적인 데이터 이미지를 제공하고,
    제2 촬영 장치(32)에 의한 촬영 방향이 Z축과 일정한 각을 형성하고, 상기 제1 및 제2 촬영 장치(31, 32)가 소프트웨어 애플리케이션의 블록(5)과 평가 소프트웨어를 가진 연산 모듈의 블록(6)을 포함하는 CPU(4) 중앙 제어부의 입력단에 연결되며,
    소프트웨어 애플리케이션의 블록(5) 및 평가 소프트웨어를 가진 연산 모듈의 블록(6)과 CPU(4)의 통신은 데이터 버스를 통해 발생하며, CPU(4) 출력단은 내부 메모리 및/또는 제거 가능한 메모리의 블록(7)과 온라인 출력부의 블록(8) 모두에 연결되는 것을 특징으로 하는 물체 공간(1)으로부터 물체(11)의 점(12)을 기술하는 방법을 실행하기 위한 촬영 시스템.
  6. 삭제
  7. 제 5 항에 있어서, 제2 촬영 장치(32)는 방사선 검출기(33) 및 방사선 이미터(34)를 포함하는 것을 특징으로 하는 물체 공간(1)으로부터 물체(11)의 점(12)을 기술하는 방법을 실행하기 위한 촬영 시스템.
  8. 제 5 항에 있어서, 제1 촬영 장치(31) 또는 제2 촬영 장치(32)는 캠코더를 포함하는 것을 특징으로 하는 물체 공간(1)으로부터 물체(11)의 점(12)을 기술하는 방법을 실행하기 위한 촬영 시스템.
  9. 제 5 항에 있어서, 방사선 검출기(33)는 광학 장치와 방사선 이미터(34)가 장착된 CCD 또는 CMOS 센서를 포함하고, 방사선 이미터(34)는 레이저를 포함하는 것을 특징으로 하는 물체 공간(1)으로부터 물체(11)의 점(12)을 기술하는 방법을 실행하기 위한 촬영 시스템.
  10. 제 5 항에 있어서, 적어도 세 개의 촬영 시스템(2)이 물체(11) 주위에 거리를 두고 배열되는 것을 특징으로 하는 물체 공간(1)으로부터 물체(11)의 점(12)을 기술하는 방법을 실행하기 위한 촬영 시스템.
KR1020157007835A 2012-08-29 2013-05-13 물체 공간의 물점의 기술을 위한 방법 및 이의 실행을 위한 연결 KR102112491B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CZ2012-586A CZ308335B6 (cs) 2012-08-29 2012-08-29 Způsob popisu bodů předmětů předmětového prostoru a zapojení k jeho provádění
CZPV2012-586 2012-08-29
PCT/IB2013/000913 WO2014033511A1 (en) 2012-08-29 2013-05-13 Method for description of object points of the object space and connection for its implementation

Publications (2)

Publication Number Publication Date
KR20150047604A KR20150047604A (ko) 2015-05-04
KR102112491B1 true KR102112491B1 (ko) 2020-06-05

Family

ID=50182593

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157007835A KR102112491B1 (ko) 2012-08-29 2013-05-13 물체 공간의 물점의 기술을 위한 방법 및 이의 실행을 위한 연결

Country Status (11)

Country Link
US (1) US9918070B2 (ko)
EP (1) EP2904586A4 (ko)
JP (1) JP6367803B2 (ko)
KR (1) KR102112491B1 (ko)
CN (1) CN104584075B (ko)
AU (1) AU2013308155B2 (ko)
CA (1) CA2881037C (ko)
CZ (1) CZ308335B6 (ko)
EA (1) EA033516B1 (ko)
IN (1) IN2015DN01209A (ko)
WO (1) WO2014033511A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9979930B2 (en) * 2015-12-03 2018-05-22 Beijing Pico Technology Co., Ltd. Head-wearable apparatus, 3D video call system and method for implementing 3D video call
US11683450B2 (en) * 2020-06-04 2023-06-20 FLIR Unmanned Aerial Systems AS Shutter and light signal synchronization systems and methods
US20230209035A1 (en) * 2021-12-28 2023-06-29 Faro Technologies, Inc. Artificial panorama image production and in-painting for occluded areas in images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010058362A1 (en) 2008-11-24 2010-05-27 Koninklijke Philips Electronics N.V. Extending 2d graphics in a 3d gui
US20100157280A1 (en) * 2008-12-19 2010-06-24 Ambercore Software Inc. Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6858826B2 (en) * 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
US20020122045A1 (en) * 1998-12-19 2002-09-05 Morgan Woodson Font anti-aliasing system
JP3280001B2 (ja) * 1999-09-16 2002-04-30 富士重工業株式会社 ステレオ画像の位置ずれ調整装置
JP4032843B2 (ja) * 2002-06-25 2008-01-16 富士重工業株式会社 監視システムおよび監視方法、当該監視システムにおける距離補正装置および距離補正方法
US20100002070A1 (en) * 2004-04-30 2010-01-07 Grandeye Ltd. Method and System of Simultaneously Displaying Multiple Views for Video Surveillance
US7027081B2 (en) * 2003-12-21 2006-04-11 Kremen Stanley H System and apparatus for recording, transmitting, and projecting digital three-dimensional images
KR20110039537A (ko) * 2008-07-21 2011-04-19 톰슨 라이센싱 3d 비디오 신호들을 위한 멀티 표준 코딩 장치
PL2342693T3 (pl) * 2008-09-25 2012-12-31 Koninl Philips Electronics Nv Przetwarzanie danych obrazu trójwymiarowego
JP5614900B2 (ja) * 2009-05-01 2014-10-29 トムソン ライセンシングThomson Licensing 3d映像符号化フォーマット
US9167226B2 (en) * 2009-10-02 2015-10-20 Koninklijke Philips N.V. Selecting viewpoints for generating additional views in 3D video
KR20110053160A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 깊이감 조절을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
US8908045B2 (en) * 2011-03-15 2014-12-09 David Alexander Stewart Camera device to capture and generate target lead and shooting technique data and images
CN102137267A (zh) * 2011-03-28 2011-07-27 彩虹集团公司 一种人物场景2d转3d算法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010058362A1 (en) 2008-11-24 2010-05-27 Koninklijke Philips Electronics N.V. Extending 2d graphics in a 3d gui
US20110225523A1 (en) 2008-11-24 2011-09-15 Koninklijke Philips Electronics N.V. Extending 2d graphics in a 3d gui
US20100157280A1 (en) * 2008-12-19 2010-06-24 Ambercore Software Inc. Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions

Also Published As

Publication number Publication date
IN2015DN01209A (ko) 2015-06-26
CN104584075B (zh) 2018-12-21
KR20150047604A (ko) 2015-05-04
AU2013308155B2 (en) 2019-02-07
CA2881037C (en) 2022-01-04
EA033516B1 (ru) 2019-10-31
AU2013308155A1 (en) 2015-02-26
CZ2012586A3 (cs) 2014-03-12
CN104584075A (zh) 2015-04-29
JP6367803B2 (ja) 2018-08-01
CA2881037A1 (en) 2014-03-06
CZ308335B6 (cs) 2020-05-27
WO2014033511A1 (en) 2014-03-06
US20150195508A1 (en) 2015-07-09
EA201590374A1 (ru) 2015-11-30
JP2016500162A (ja) 2016-01-07
US9918070B2 (en) 2018-03-13
EP2904586A1 (en) 2015-08-12
EP2904586A4 (en) 2016-07-13

Similar Documents

Publication Publication Date Title
JP5238429B2 (ja) 立体映像撮影装置および立体映像撮影システム
US8208048B2 (en) Method for high dynamic range imaging
CN106170822B (zh) 3d光场相机和摄影方法
US7583307B2 (en) Autostereoscopic display
US8130259B2 (en) Three-dimensional display device and method as well as program
JP4942106B2 (ja) 奥行データ出力装置及び奥行データ受信装置
US20130250053A1 (en) System and method for real time 2d to 3d conversion of video in a digital camera
KR20110124473A (ko) 다중시점 영상을 위한 3차원 영상 생성 장치 및 방법
KR101641406B1 (ko) 스테레오 카메라
KR20150003576A (ko) 삼차원 영상 생성 또는 재생을 위한 장치 및 방법
US20070122029A1 (en) System and method for capturing visual data and non-visual data for multi-dimensional image display
KR102112491B1 (ko) 물체 공간의 물점의 기술을 위한 방법 및 이의 실행을 위한 연결
JP2001016621A (ja) 多眼式データ入力装置
JP2000222116A (ja) 表示画像の位置認識方法とその位置認識装置および仮想画像立体合成装置
JP2006267767A (ja) 画像表示装置
JP5088973B2 (ja) 立体撮像装置およびその撮像方法
KR101741227B1 (ko) 입체 영상 표시 장치
JP6234366B2 (ja) グリッド変調された単一レンズ3−dカメラ
JPH07220113A (ja) 画像記録再生装置
KR100489213B1 (ko) 입체영상용 뷰 파인더 시스템
KR102204074B1 (ko) 3차원공간영상 디스플레이 시스템
JPH0634339A (ja) 3次元画像入力装置
EP3267682A1 (en) Multiview video encoding
JP3108166B2 (ja) 多視点画像生成システム
JPH07296165A (ja) 3次元画像撮影用カメラ

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant