KR20010023561A - 영상처리 방법 및 장치 - Google Patents

영상처리 방법 및 장치 Download PDF

Info

Publication number
KR20010023561A
KR20010023561A KR1020007002209A KR20007002209A KR20010023561A KR 20010023561 A KR20010023561 A KR 20010023561A KR 1020007002209 A KR1020007002209 A KR 1020007002209A KR 20007002209 A KR20007002209 A KR 20007002209A KR 20010023561 A KR20010023561 A KR 20010023561A
Authority
KR
South Korea
Prior art keywords
image
images
processing
planar
parallax
Prior art date
Application number
KR1020007002209A
Other languages
English (en)
Inventor
필립빅터 허먼
Original Assignee
로버트 베커
다이나믹 디지탈 텝스 리서치 피티와이 엘티디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=3803230&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR20010023561(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 로버트 베커, 다이나믹 디지탈 텝스 리서치 피티와이 엘티디 filed Critical 로버트 베커
Publication of KR20010023561A publication Critical patent/KR20010023561A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/334Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using spectral multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

평면 영상들을 수신하기에 적합한 입력수단, 제 1 영상과 평면 영상 시퀸스의 제 2 영상 사이에 연속성이 있는가를 판단하는 1차 해석수단, 연속성을 갖는 평면 영상을 수신하고 물체의 속도 및 이동방향 또는 원근, 크기 및 위치 중 최소한 하나를 판단하기 위해 영상들을 해석하는 2차 해석수단, 1차 해석 수단 및/또는 2차 해석 수단으로부터 수신된 데이타에 입각하여 평면 영상들을 처리하는 제 1 프로세싱 수단, 상기 제 1 프로세싱 수단으로부터 수신된 영상들을 더 처리하도록 제공되는 제 2 프로세싱 수단, 처리된 영상을 입체 디스플레이 시스템으로 전송할 수 있는 전송수단을 포함하는 3차원으로 시청하기 위해 평면 영상들을 변환하는 영상변환 시스템.

Description

영상처리 방법 및 장치{IMAGE PROCESSING METHOD AND APPARATUS}
종래의 평면 또는 2차원(2D) 디스플레이 시스템보다 시청자에게 더 실감나는 영상을 제공하는 입체 또는 3차원(3D) 디스플레이 장치의 출현은 입체 영상이 3D 디스플레이 시스템에 보여질 수 있는 것을 필요로 한다. 이와 관련하여 많은 평면 소오스 예컨대 2D 필름 또는 비디오가 있고, 이것들은 입체 영상 디스플레이 장치에 상영되기에 알맞게 입체 영상들을 생성하도록 조절될 수 있다.
이와같은 평면 영상을 입체 영상으로 변환시키는 종래의 방법은 만족스러운 결과를 제공하지 못했다. 동작 시차(Motion Parallax ; 動作 視差)의 입체 원근 신호를 복사하는 기술을 필름 또는 비디오에 사용하는 다른 시도가 있었다. 수평 동작, 좌측 동작 또는 우측 동작이 영상들에 제공되면 종동 눈(trailing eye)에 제공된 영상들에 알맞은 딜레이를 생성시키는 방법을 포함한다. 원근 인식을 제공하도록 좌우측 눈으로 영상들을 '수평 이동(lateral shifiting)'시키는 방법을 사용하는 것이 시도되었다.
그러나, 이 두 기술은 한계가 있고 일반적으로 특정한 분야에만 적합하다. 예를 들어, '동작 시차' 기술은 오직 좌우측 움직이는 장면들에만 양호하고, 장면의 입체 강조를 하는데 한계가 있다. 수평 이동 기술은 어느 한 장면 전체에만 원근 효과를 제공하고, 원근이 변하는 곳에서 여러 가지 물체의 가변 원근을 인지하지 못한다. 이 두가지 기술을 조합하면 대부분의 2D 필름 또는 비디오에 한정된 입체 효과만을 제공할 것이다.
다소의 기존 접근 방법은 이러한 기술의 한계를 보여준다. 어느 한 영상이 수직 동작과 다수의 수평 동작을 가지며 딜레이가 종동 눈에 제공된 영상에 제공되면, 종종 좌우 시야 사이에 큰 수직적 불균형 발생하여 시청하기에 영상이 불안전하게 된다. 동일한 장면에서 물체가 좌측 및 우측으로 움직이는 것처럼 상반 동작을 가진 장면들 또한 시청하기에 불편하다. 이러한 방법의 실시예들은 가변 원근의 물체가 영상에 제공될 때 전방 배경에서 후방 배경으로 물체가 매끄럽게 이동하기 보다 별도의 원근 레이어들로 물체에 '화상 절단(card board cut-out)' 현상이 나타난다는 것이다.
모든 이러한 접근 방법은 모든 영상 시퀀스에 적합하거나 또는 시청자의 불불편함을 해결하거나 또는 모든 시청자 또는 디스플레이 장치에 대해 입체 효과를 최적화하는 시스템 또는 방법 개발에 성공하지 못했다.
본 발명은 일반적으로 입체 영상 시스템에 관한 것으로서, 보다 상세히는 입체 영상 디스플레이를 위해 평면 영상(monoscopic images)을 입체 영상 사진(stereoscopic image pairs)들로 합성하는 것에 관한 것이다. 본 발명은 또한 입체 영상들을 생성시키는 5 레이어 방법(five layer method)에 관한 것이다. 상기 5 레이어 방법은 평면 소오스(monoscopic source)를 디지털화하고, 동작을 위해 이것을 해석하고, 입체 영상 사진을 생성시키며, 입체 효과를 최적화하고, 이것들을 전송 또는 기억시킨 후 이것들을 입체 디스플레이 장치에 디스플레이시킨다.
도 1은 본 발명을 이용한 전체 시스템(complete system)의 상태 내역을 도시한 것이다.
도 2는 본 발명을 이용한 전체 시스템과 다중 처리장치의 사용을 도시한 것이다.
도 3은 레이어 1(비디오 디지탈화)과 레이어 2의 제 1부분(영상 해석)에 대한 플로우 다이어그램을 도시한 것이다.
도 4는 레이어 2의 제 2부분의 플로우 다이어그램을 도시한 것이다.
도 5는 레이어 2의 제 3부분의 플로우 다이어그램을 도시한 것이다.
도 6은 레이어 2의 제 4부분의 플로우 다이어그램을 도시한 것이다.
도 7은 레이어 3(3차원 생성)의 제 1부분의 플로루 다이어그램을 도시한 것이다.
도 8은 레이어 3, 레이어 4(3차원 매체-전송 및 저장) 및 레이어 5(3차원 디스플레이)의 제 2 부분의 플로우 다이어그램을 도시한 것이다.
발명의 목적
따라서, 평면 영상들을 입체 영상 사진으로 변환하는 개선된 방법을 갖춘 시스템 및 시청자에게 개선된 입체 영상들을 제공하는 시스템이 필요하게 되었다.
본 발명의 목적은 개선된 방법을 갖춘 이와같은 시스템을 제공하는 것이다.
발명의 요약
위에 기술된 문제점들에 해결하기 위해, 본 발명의 일 예로에서 평면 영상들을 입체 영상 사진으로 처리하는 방법은 영상내의 동작 특성을 판단하도록 평면 영상을 해석하는 단계, 동작 카테고리들의 예정된 범위와 검출된 동작을 비교하는 단계, 입체 영상 사진을 형성하기 위해 동작 카테고리에 좌우되는 최소한 하나의 프로세싱 방법을 이용하여 평면 영상들을 프로세싱하는 단계를 포함한다.
다른 예에 있어서, 본 발명은 평면 영상들을 수신하는 입력 수단, 영상 카테고리를 판단하기 위해 영상을 해석하는 해석 수단, 입체 시청을 위해 선택된 영상 카테고리 함수로 평면 영상들을 입체 영상 사진으로 변환시킬 수 있는 변환 수단을 포함하는 입체 영상 시스템을 제공한다.
이상적으로, 입력 수단들은 또한 평면 영상을 포착하고 디지탈화할 수 있는 수단들을 포함한다.
영상 해석 수단은 영상 내의 후방 배경과 물체의 동작 속도 및 방향, 물체의 원근, 크기 및 위치를 판단할 수 있는 것이 바람직하다.
또 다른 예에 있어서, 본 발명은 입체 효과를 더 향상시키기 위해 입체 영상을 최적화하는 방법을 제공하고, 이러한 방법은 일반적으로 전송, 기억, 및 디스플레이 전에 적용된다.
또 다른 예에 있어서, 본 발명은 영상에 시청자 기준점을 첨가하므로서 입체 영상 사진을 개선하는 방법을 제공한다.
또 다른 예에 있어서, 본 발명은 각각의 영상을 다수의 구역으로 스케일링(scaling)하는 단계, 제 1 영상과 제 2 영상 사이의 이동 특성을 판단하기 위해 제 1 영상의 구역과 제 2 영상의 대응 및 인접 구역들을 각각 비교하는 단계를 포함하는 입체 영상 사진으로 변환시키기 위해 평면 영상들을 해석하는 방법을 제공한다.
동작 벡터는 비 동작부터 완전한 장면 변화까지 예정된 동작 카테고리와 검출된 동작 특성을 비교한 것에 입각하여 각각의 영상에 알맞게 정의 되는 것이 바람직하다.
또 다른 예에 있어서, 본 발명은 평면 영상들을 수신하기에 적합한 입력 수단, 제 1 영상과 평면 영상 시퀀스의 제 2 영상 사이에 연속성이 있는가를 판단하는 1차 해석 수단, 연속성을 갖는 평면 영상들을 수신하고 동작의 속도 및 방향, 원근, 물체의 크기 및 위치 중 최소한 어느 하나를 판단하기 위해 영상들을 해석하는 2차 해석 수단, 1차 해석 수단 및 2차 해석 수단으로부터 수신된 데이터에 입각하여 평면 영상들을 처리하는 제 1 프로세싱 수단을 포함하는 3 차원에서 시청하기에 알맞도록 평면 영상들을 수신하는 영상 변환 시스템을 제공한다.
1차 프로세싱 수단으로부터 수신된 영상들을 더 처리할 수 있는 제 2 프로세싱 수단이 포함되는 것이 바람직하다. 이상적으로 상기 시스템은 입체 디스플레이 시스템 또는 기억 수단으로 처리된 영상들을 전송할 수 있는 전송 수단을 포함한다.
제 3 프로세싱 수단은 변환된 영상을 입체 디스플레이 장치로 전송하기 전에 제 2 프로세싱 수단으로부터 수신된 영상들을 임의적으로 강조하기 위해 제공되는 것이 바람직하다.
또 다른 예에 있어서, 평면 영상을 수신하기에 적합한 제 1 레이어, 영상 데이터를 만들기 위해 평면 영상을 수신하고 평면 영상을 해석하기에 적합한 제 2 레이어, 영상 데이터 함수로 선택된 최소한 하나의 예정된 기술을 이용하여 평면 영상으로부터 입체 영상을 만들기에 적합한 제 3 레이어, 입체 영상 사진을 입체 영상 수단으로 전송하기 전송하기에 적합한 제 4 레이어, 입체 디스플레이 수단으로 구성된 제 5 레이어를 포함하는 3차원으로 시청하기 알맞게 평면 영상들을 변환하는 방법을 제공한다.
바람직하게 제 1 레이어는 아날로그 영상들을 디지털 영상으로 변환시키기에 더 적합하다. 또한, 제 2 레이어는 장면에 있는 모든 물체를 검출하고 이와같은 모든 동작의 속도 및 방향에 관한 것을 판단하기에 적합하다. 영상은 이와같은 해석전에 압축되는 것이 편리하다.
제 3 레이어는 입체 영상 사진을 입체 디스플레이 장치로 전송하기 전에 입체 영상 사진을 더 강조하는 최적화 단계를 더 포함하는 것이 바람직하다. 제 4 레이어는 최근에 입체 디스플레이 수단을 디스플레이 하기에 알맞게 입체 영상을 기억하는 기억 수단을 포함할 수 있다.
장점
본 발명에 따른 처리방법이 어떤 단계에서 유지되고 최근에 연속해서 기억되거나 또는 필요한 경우 다른 위치로 계속해서 전송될 수 있다는 것을 알 수 있을 것이다.
본 발명은 아래의 많은 독특한 장점을 가진 변환기술을 제공한다.
1) 실시간 또는 비실시간 변환
평면 영상을 입체 영상 사진들로 변환하는 성능은 실시간 또는 비실시간에 수행될 수 있다. 작동기 조정은 영상을 수동으로 조작하도록 적용될 수 있다. 이러한 예는 모든 시쿼스가 시험될 수 있고 작동기에 의해 자체 입체 효과가 최적화될 수 잇는 필름 또는 비디오 변환에서 이다.
2) 기술은 입체영상 강조를 포함한다.
본 발명은 입체 영상 사진들을 생성시키는 동작 시차 또는 수평 이동(강제 시차)의 기본 기술을 더 향상시키기 위해 다수의 기술들을 이용한다. 이들 기술들은 물체 해석, 표식 붙이기(tagging), 트랙킹(tracking) 및 모핑(morphing), 시차 구역, 기준점, 운동 합성 및 시차 조정 기술의 사용을 포함할 뿐만 아니라 여기에 한정되지 않는다.
3) 역 3D의 검출 및 수정
역 3D는 영상의 동작 특성을 해석하므로서 3D 생성 단계에서 이상적으로 검출된다. 수정기술은 시청자의 불편함을 최소화하도록 역 3D를 최소화하여 사용한다.
4) 모든 분야에 사용-전송 및 저장을 포함한다.
본 발명은 폭 넓은 분야에 적용할 수 있는 기술을 기록하며 입체 변환 방법을 평면 기술분야에 적용하는 완전 처리 방법을 설명하고 있다. 본 발명은 한편으로 영상처리장치와 영상 디스플레이 장치가 실직적으로 같은 장소에 위치되는 3D 생성 기술을 설명하고 있다. 다른 한편으로 기술은 어느 한 장소에서 입체 영상 사진의 생성과 입체 영상 사진의 전송, 저장, 및 원격지에서의 디스플레이를 정의하고 있다.
5) 입체 디스플레이 장치와 함께 사용할 수 있다.
본 발명은 모든 입체 디스플레이 장치와 조화를 이루고 조정장치에 이상적으로 설치된다. 3D 생성 방법은 입체 효과를 최적화하기 위해 디스플레이 장치의 종류를 고려할 수 있다.
본 발명은 변환 방법 및 통합 시스템의 바람직한 실시예에 대한 첨부 도면을 참조함으로서 아래 설명으로 보다 더 완전하게 이해될 것이다. 그러나, 본 발명이 설명한 실시예에 한정되지 않는다는 것을 알 수 있을 것이다.
본 발명의 목적은 인간의 완전한 시각인식능력들을 이용하는 입체영상을 시청자에게 제공하는 것이다. 따라서 이와같은 영상을 해석하기 위해 필요한 두뇌에 완전한 신호를 제공하는 것이다.
도입
인간은 눈과 두뇌를 포함하는 육체적 및 정신적 처리들의 복잡한 조합에 의해 볼 수 있다. 시각인식은 자신의 분별능력에 의해 한정되기 때문에 짧고 긴 기억을 이용하여 알고 있거나 경험한 사실로 시각 정보를 해석할 수 있다. 예를 들어, 공간과 원근에 대한 카테시안 법칙(Cartesian laws)에 따라 물체가 시청자로부터 더 멀어질 수록 더 작게 보이게 된다. 즉 두뇌는 만약 물체가 작을 경우 물체가 시청자에게서 다소 멀리 떨어져 있다고 인식한다. 이것은 첫번째 장소에 있는 물체의 크기를 알고 있는 것에 근거한 학습방법이다. 시각 정보로 표현될 수 있는 기타 평면 또는 부수적 원근 신호는 예컨대 그림자, 초점을 흐리게 하는 것, 문자, 빛, 대기가 있다.
이들 원근 신호는 "원근을 나타내는 3차원(Perspective 3D)" 비디오 게임 및 컴퓨터 그래픽 생성에 큰 장점으로 이용된다. 그러나, 입체 효과를 달성하는데 있어서 이들 기술의 문제점은 인식된 시각 신호의 양을 정할 수 없다는 것이다. 2차원 환경에서 2차원 물체를 디스플레이하는 것으로 착각한다. 이와같은 디스플레이는 두 눈으로 보는 것이 동일하기 때문에 입체영상을 보지 못하는 것으로 실물을 보지 못한다.
원근 신호(DEPTH CUES)
입체영상들이 "실제 세계의 시계를 재창조하려는 시도이고, "원근을 나타내는 3차원" 영상보다 더 많은 시각 정보를 필요로 하므로 원근이 정해질 수 있다. 입체 또는 주요 원근신호들은 이러한 추가 데이타를 제공하므로 인간의 시각 인식이 3차원에서 자극될 수 있다. 이들 주요 원근신호들은 아래와 같이 설명된다.
1) 망막 시차(Retinal Disparity) - 2개의 눈은 약간 다른 풍경을 본다는 것이다. 이것은 사람 얼굴 앞에 물체를 위치시키고 후방 배경에 초점을 맞추는 것으로 쉽게 증명될 수 있다. 눈들이 후방배경에 초점을 맞추면 실제로 얼굴의 정면에 2개의 물체가 있는 것처럼 나타날 것이다. 시차(視差)는 겹쳐진 망막영상의 좌측 영상점과 우측 영상점 사이에 해당하는 수평거리이다. 반면 시차는 보여진 영상들 사이의 실제 차이이다.
2) 동작 시차(Motion Parallax) - 물체가 같은 속도로 이동할 때 시청자에게 더 가깝게 있는 물체들은 더 멀리 있는 물체들보다 더 빠르게 이동하는 것처럼 보인다. 따라서, 상대 운동은 부수적인 원근 신호이다. 그러나 수평 운동의 주요 입체 원근 신호는 동작 시차를 나타낸다. 영상 동작이 우측에서 좌측으로 이동하는 상태에서, 우측 눈은 주동 눈(Leading eye)이지만 좌측 눈은 딜레이되는 영상을 갖는 종동 눈(Trailing eye)이 된다. 이러한 딜레이(Delay)는 일반적으로 시각인식메카니즘 함수이다. 좌측에서 우측으로의 운동에서 우측 눈은 종동 눈이 된다. 이러한 딜레이 효과는 망막 시차(2개가 분에 다르게 보임)를 형성하고, 이것은 쌍안 시차로 인식되므로 동작 시차로 알려진 입체 신호를 제공한다.
3) 적응(Accommodation) - 눈은 시신경 활동을 통해 수정체를 수축(가까운 물체에 알맞게 더 볼록한 형상)하거나 수정체를 확장(먼 물체에 알맞게 덜 볼록한 형상)하므로서 정확하게 초점을 맞춘다.
4) 수렴(Convergence) : 수렴현상은 시신경 시스템의 반응이며 시신경 시스템은 눈의 중심 시계 영역으로 물체의 영상을 정렬하므로서 오직 하나의 물체만이 보이게 된다. 예를 들어 팔 길이에 고정된 손가락을 얼굴로 천천히 가져가 양 눈 근처에서 볼 때, 눈은 손가락이 더 가까워지는 것을 나타내기 위해 안쪽(수렴)으로 이동한다. 즉 손가락에 대한 원근이 감소한다.
눈의 수렴반응은 정상 상태에서 적응 메카니즘에 생리학적으로 연결되어 있다. 입체 영상 시청에 있어서, 시청자가 '시선고정현상(Fixation Plane)'(즉 눈이 수렴하는 것)으로 조절되지 않을 때, 불편함을 느낄 수 있다. "시선고정현상"은 일반적으로 촬상면이다.
개요 - 5 레이어 접근법
본 발명은 평면영상 입력을 취할 수 있고 평면영상을 개선된 입체영상 출력으로 변환할 수 있는 시스템을 설명하고 있다. 설명을 위해 이러한 전체 시스템은 많은 독립 레이어(layer) 또는 프로세싱 공정으로 분류될 수 있다. 즉, 제 1 레이어 : 단일 영상 입력(일반적으로 비디오 입력)
제 2 레이어 : 영상 해석
제 3 레이어 : 3D 생성
제 4 레이어 : 3D 매체(전송 또는 저장)
제 5 레이어 : 3D 디스플레이
도 1은 내림 차순 방법으로 입체 변환 처리를 도시한 것이다. 여기서 비디오 또는 다른 평면 영상 소오스가 입력되면, 영상들은 정해진 입체 영상 사진들이 발생되고, 전송되며, 저장되고 입체 디스플레이 장치에서 디스플레이 된다. 각각의 레이어는 평면 영상입력에서 입체 영상 디스플레이로 각 시스템의 독립 공정을 설명될 것이다. 그러나, 여러가지 레이어가 독립적으로 작동된다는 것을 알 수 있을 것이다.
적용
일반적으로 5 레이어 모두는 특정 분야에 알맞게 평면 영상 입력부터 디스플레이가지 이용된다. 예를 들어, 이러한 시스템은 극장 또는 영화관에서 사용될 수 있다. 이와같은 분야에 있어서 2D 비디오 입력은 아날로그 또는 디지털 형태를 비디오 소오스로부터 받을 수 있다. 그 후 이러한 소오스는 모든 동작의 속도 및 방향을 판단하기 위해 해석된다. 프로세싱 공정은 3D 영상을 생성하기 위해 실시간 또는 비 실시간에 작업한다. 이것은 경계, 시차 보정, 역 3D 해석, 음영처리 및/또는 문자처리를 통해 더 최적화될 수 있다. 3D 영상은 셔터글래스(shutter glasses), 폴라라이징 안경(polarising glasses) 또는 자동 입체 디스플레이를 포함하는 3D 디스플레이로 릴레이로 전송되거나 기억될 수 있다.
이러한 시스템은 케이블 또는 유료 TV 시스템에 사용하기에 적합하다. 이러한 분야에서 2D 비디오 입력은 VTR, 레이저 디스크 또는 기타 디지털 소오스에서 녹화될 수 있다. 3D생성 및/또는 최적화는 실시간 또는 비실시간에 처리될 수 있다. 3D 매체 레이어는 TV, 비디오 투사기, 또는 자동 입체 디스플레이에 3차원 영상을 디스플레이할 수 있도록 케이블 또는 인공위성을 거치는 전송 형태를 취할 수 있다는 것이 편리하다.
상기 시스템은 또한 비디오 아케이트 게임에 사용되거나, 다중매체에 사용되거나 지역 또는 네트워크 TV에 사용될 수 있다. 적용 분야에 따라 2D 비디오 입력 레이어는 게임 프로세서로부터 소오스 평면 영상을, 레이저 디스크로부터 비디오를, VTR로부터 비디오를, 네트워크로부터 또는 기타 디지털 기억 장치 또는 디지털 소오스 또는 텔레비젼 영화 프로세스로부터 비디오를 얻을 수 있다. 3D 생성은 실시간 또는 비실시간에 수행될 수 있고, 컴퓨터에 의해 중앙변환 사이트에서, 사용자 컴퓨터에서, 중앙 처리장치에서 또는 기타 영상 처리장치에서 생성될 수 있다.
입체영상은 지역네트워크로 전송되거나 극장으로 분배되기 전에 비디오 또는 기타 디지털 기억장치에 저장될 수 있다. 이들 입체영상들은 지역 전송방법 또는 이와달리 VHF/ UHF 시설 또는 인공위성을 통해 비디오영사기로 전송될 수 있다.
3D 디스플레이는 필요한 분야에 좌우되고, 자동입체 디스플레이장치, 폴라라이징 안경을 갖춘 비디오 영사기, 셔터글래스를 갖춘 지역 모니터 또는 적절한 시청안경을 갖춘 세트 탑 박스(set-top box) 형태이다.
단일 및 다중 처리장치
전체 시스템은 실제시간 또는 비실시간(레이어 2, 3 및 4)에 함께 또는 각각 독립적으로 작동되는 모두 5개의 레이어를 갖는 처리장치에서 작동될 수 있다. 레이어 2 및 3은 예컨대 도 2에 도시된 바와 같이 멀티테스킹(multitasking) 또는 자중처리장치 환경에 적합하도록 더 분할될 수 있다.
다중 처리장치는 휴대하기에 알맞은 형태로 사용될 수 있다. 예컨대, 레이어 1 및 2는 제 1 프로세싱 장치에 의해 처리되고 레이어 3 내지 5는 제 2 프로세싱 장치에 의해 처리될 수 있다. 경우에 따라, 이러한 장치의 제 1 프로세싱 장치는 예지능력이 있는 처리장치로 사용될 수 있고, 제 2 프로세싱 장치는 딜레이 후 입체영상을 생성할 수 있다. 다른 대안으로, 제 1 프로세싱 장치는 실시간 비디오를 수신하고 비디오를 디지털화하고 디지털 비디오를 적절한 디지털 저장 장치로 전송하는데 사용될 수 있다. 유선 방식으로 또는 무선방식으로 제 2프로세싱 장치는 디지털화된 영상을 해석할 수 있고 적절한 디스플레이장치에 입체영상을 디스플레이하도록 필요한 업무를 수행할 수 있다.
예지능력을 갖춘 프로세싱 기술은 필름 또는 비디오 시퀸스의 추세를 예견하도록 사용될 수 있어 영상처리모드가 모든 입체효과를 최적화하도록 더 효율적으로 선택될 수 있다.
본 발명은 1차적으로 평면영상해석과 평면 영상을 입체영상 사진으로의 변환과 함께 입체효과의 최적화에 관한 것이다. 이것을 고려할 때 본 발명은 평면영상 입력부, 전송수단 및 관측수단의 넓은 범위에 적용될 수 있다. 그러나 여기서는 전체 5개의 레이어가 설명될 것이다.
레이어 1 - 영상 또는 비디오 입력
레이어 1은 평면 영상 소오스 또는 비디오 입력부가 제공되는 것을 필요로 한다. 이러한 소오스는 디지털 영상 소오스 또는 디지털화될 수 있는 아날로그 영상 중 어느 하나가 제공될 수 있다. 이들 영상 소오스는 아래의 아날로그 소오스와 디지털 소오스를 포함한다.
1) 아날로그 소오스
a) 테이프 형태의 VCT/VTR 또는 필름
b) 디스크 형태의 레이저 디스크
c) 비디오 카메라 또는 기타 실시간 영상포착 장치
d) 영상 또는 그래픽이 생성되는 컴퓨터
2) 디지털 소오스
a) DAT, AMPEX's DCT, SONY의 디지탈 베타캄(Digital Betacam), Panasonic의 디지털 비디오 형태 또는 6.5mm 테이프를 이용하는 새로운 디지털 비디오 카세트(DVC)형태는 테이프 형태이다.
b) 디스크 형태의 기억장치- Magneto Optical(MO) 하드 디스크(HD), 콤팩트 디스크(CD), 레이저 디스크, CD-ROM, DAT, 디지털 비디오 카세트(DVC) 또는 데이타 기억장치에 입각한 디지털 비디오 디스크(DVD)-는 JPEG, MPEG 또는 기타 디지털 포맷을 사용한다.
c) 비디오 카메라 또는 기타 실시간 영상포착
d) 영상 또는 그래픽이 생성되는 컴퓨터
본 발명의 변환처리방법에 중요한 것은 평면 영상 소오스가 제공되는 것이다. 입체영상 소오스는 레이어 1 내지 3의 필요성을 방지하지만, 이와같은 입체영상은 디스플레이하기 전에 최적화 과정을 거칠 수 있다.
레이어 2 - 영상해석
도 3 내지 8을 참조하면, 도 3 내지 8은 본 발명의 바람직한 배열을 설명하는 플로우 다이어그램이다.
2D 영상, 디지털화된 비디오 또는 디지털 영상의 수신은 필드 대 필드 또는 하드웨어, 소프트웨어 또는 이 둘의 조합에 의한 실시간 또는 비실시간에 입각한 영상 대 영상으로 아래와 같이 처리된다. 먼저, 영상해석처리는 아래의 단계를 포함한다.
1) 영상압축
2) 동작검출
3) 물체검출
4) 동작해석
1)영상압축
영상압축은 필수적인 것은 아니나 많은 프로세싱, 응용, 압축을 위한 옵션사양이고, 프로세서는 필요한 시간에 전체 해상 영상을 처리할 만큼 강력하지 않다.
영상들은 더 작은 크기로 범위가 정해지는 것이 바람직하다. 스케일링 요소(scaling factor)는 각각의 영상에 사용된 디지털 비디오 해상도에 좌우되고 디지털화 공정에 사용되는 영상컴퓨터의 시설 타입으로 한정된다.
2)동작검출
바람직한 실시예에 있어서, 각각의 영상은 픽셀 블록으로 해석될 수 있다. 동작 벡터는 최소 평균분산오차(minimum Mean Squared Error)로 주어진 위치를 기록하므로서 그리고 예컨대 ±9의 픽셀 수까지 수평 및/또는 수직으로 오프세팅되는 인접한 영상의 대응 블록과 어느 한 영상의 블록을 비교하므로서 각각의 블록에 맞게 계산된다.
각각의 블록에서, 벡터와 최소 및 최대 평균분산오차는 이후의 프로세싱 공정에서 기록된다.
프로세싱 시간을 절약하기 위해, 벡터는 블록에 상세부가 없는 경우 예컨대 블록이 단일 칼라일 때 계산될 필요가 없다.
동작을 계산하기 위한 다른 방법은 예컨대 영상 삭감법(image subtraction)을 이용할 수 있다. 본 실시예는 평균 분산 오차 방법을 이용한다.
3) 물체검출
물체는 공통 특징을 갖는 영상부분을 동일시하는 영상소자 또는 픽셀그룹으로 정의된다. 이러한 특징은 동일한 휘도값(동일한 밝기), 색수차(동일한 칼라), 동작 벡터(동일한 동작속도 및 방향) 또는 동일한 영상 상세부(동일한 패턴 및 에지)의 구역과 관련된다.
자동차가 집을 지나가고 있는 경우, 자동차는 후방배경에 대해 다른 속도로 이동하고 있는 픽셀구역 또는 픽셀 블록이다. 자동차가 집 앞에 정지하여 자동차를 검출하기 어려운 경우 다른 방법이 이용될 수 있다.
연결 알고리즘은 동작 벡터를 동일한 동작 벡터의 구역으로 조합하기 위해 사용될 수 있다. 물체는 하나 이상의 이와같은 구역을 포함할 수 있다. 에지 검출 등과 같은 다른 영상처리 알고리즘이 물체검출에 사용될 수 있다.
물체들이 어느 한 영상에서 동일한 경우 물체에 표싱르 붙이거나(tagging) 동일한 번호가 주어지는 것이 바람직하다. 이들 물체들과 이와 관련된 상세한 부분(예컨대 위치, 크기, 운동벡터, 타입, 원근)이 데이타베이스에 저장되어 다음 처리과정이 수행될 수 있다. 물체가 영상 시퀀스 전체에서 이동할 경우 이것은 물체 트랙킹(Ovject Tracking)으로 알려져 있다. 물체를 트랙킹하고 그 특징을 해석하므로서 그것들은 앞 뒤 배경 물체가 되는 것으로 파악되므로서 영상에서 물체의 원근 위치가 강조된다.
4)동작해석
물체가 검출되면, 물체는 영상에서 동작의 전체적인 속도와 방향을 판단하도록 해석될 수 있다. 바람직한 실시예에 있어서, 이러한 단계는 영상에서 동작의 종류를 판단하고 전체 벡터를 제공한다.
물체검출 정보를 이용하고 몇 개의 영상 동작 모델에 대한 데이타를 비교하므로서 평면 영상을 입체영상 사진으로 변환하는 최선의 방법으로 1차 판단이 이루어질 수 있다.
본 발명의 바람직한 실시예에 사용되는 영상동작모델은 아래와 같다.
a) 장면변화(scene change)
b) 심플 팬(simple Pan)
c) 복합 팬(complex pan)
d) 물채가 고정 배경 전체를 가로질러 이동하는 것.
e) 전방 배경물체가 후방배경으로 이동하는 것.
f) 동작이 없는 것.
다른 동작 모델은 필요에 따라 사용될 수 있다.
a) 장면변화
이름 암시로써의 장면변화는 하나의 영상이 작거나 예전의 영상 또는 장면과 공통점이 없을 때이다. 두 영상 사이의 휘도가 아주 많은 차이로 검출되거나 두 영상의 색채가 큰 차이로 검출될 수 있다.
바람직한 실시예에서 장면변화는 예전과 현재의 영상 사이의 휘도값(0-255)의 차이 평균이 30이상일 때 판단될 수 있다. 이러한 값은 적용이 변할 수 있지만 시행착오방법은 이러한 값이 대부분의 장면변화를 판단할 수 있는 것으로 판단한다.
장면 변화를 판단하는 2차 실험은 동작 벡터의 구역이 너무 많은 때이고, 이것은 영상에 불규칙한 노이즈처럼 나타나고 마찬가지로 장면변화 때문이다. 이것은 영상에 동작의 양이 너무 많은 경우에 발생할 수 있다.
장면 변화를 검출하는 3차 기술은 장면변화를 검출하기 위해 각 영상의 상부라인 몇 개를 해석하는 것이다. 각 영상의 상부는 가장 적게 변한다.
다른 대안으로, 주요 동작 벡터 블록이 큰 오차값을 가질 때 두 영상간의 차이가 너무 크고 따라서 장면변화로 간주될 수 있다.
장면 변화와 필드 딜레이
바람직한 실시예에서 장면에 검출된 수평동작이 있을 때 종동 눈에 비추어지는 영상은 동작속도에 반비례하는 시간의 양만큼 딜레이된다. 영상이 우측에서 좌측으로 이동할 때 종동 눈은 좌측 눈이고 영상이 좌측에서 우측으로 이동할 때 종동 눈은 우측 눈이다.
종동 눈으로의 영상 시퀸스 딜레이(또는 필드 딜레이)는 메모리에 디지털 형태로 그것들을 저장하므로서 종동 눈에 비디오 필드의 시퀸스를 잠시 딜레이하므로서 발생될 수 있다. 현대의 비디오 필드는 주동 눈에 비추어지고 종동 눈으로 딜레이된 영상은 수평이동속도에 따라 기억된 비디오 필드로부터 선택된다.
많은 필드가 지나치게 디스플레이된 경우, 동작변화와 종동 눈으로의 필드 디스플레이 변화에 관한 내력이 유지될 수 있다. 이것은 영상프로세서가 동작방향을 예측하고 딜레이를 변경함에 따라 반응할 수 있는 것으로 매끄럽게 입체효과를 도우므로서 갑작스런 변화가 없게 된다.
장면변화가 검출되는 경우 본 발명의 바람직한 실시를 위한 필드 딜레이는 0으로 세팅되어 영상의 급변을 방지한다. 필드 딜레이 내력은 각각의 장면변화에서 리셋되는 것이 바람직하다.
b) 심플 팬(카메라를 상하좌우로 움직이는 것)
심플 팬은 일련의 영상들을 가로지르는 수평이동 방향을 설명하는 것으로서 이것에 의해 해석된 주요 이동은 어느 한 방향으로 이다. 이것은 주요장면이 일관된 이동을 가지며 고정물체가 전방 배경에서 검출되지 않는 상황을 커버할 것이다.
심플 팬은 0이 아닌 이동 벡터를 갖는 주요 물체처럼 검출될 수 있다.
심플 팬의 결과는 장면이 우측(좌측으로 패닝(panning))으로 이동하고 있는 경우 플러스 이동 벡터가 생성된다는 것이다. 이러한 경우에 있어서, 우측 눈의 영상이 딜레이될 것이다. 마찬가지로, 마이너스 이동 벡터는 장면이 좌측으로 이동(또는 우측으로 패닝)하고 있는 경우 생성된다. 이러한 경우, 좌측 눈의 영상이 딜레이될 것이다.
c) 복합 팬
복합 팬은 영상에 많은 수직이동이 있다는 점에서 심플 팬과 다르다. 따라서, 바람직한 실시예에 있어서, 입체 영상 사진 시퀀스들 사이에 수직 불균형을 최소화하도록, 필드 딜레이가 적용되지 않고 오직 물체 처리만이 입체 효과를 창조하도록 사용된다. 필드 딜레이 내력은 새로운 수평이동의 계속성을 유지하기 위해 저장된다.
d)고정후방배경을 가로질러 물체를 이동시키는 것
고정후방배경을 가로질러 물체를 이동시키는 것은 주요장면이 이동하지 않고 장면에 최소 크기의 물체 이동이 하나 이상 있는 단순한 상태이다. 이러한 상태는 또한 주요물체가 우측으로 이동하는 경우 플러스 이동 벡터가 생성되고, 주요물체가 좌측으로 이동하는 경우 마이너스 이동 벡터가 생성된다.
장면에 있는 물체의 동작 벡터가 일관되지 않은 경우, 예컨대, 물체가 같은 장면에서 좌측 및 우측으로 이동하는 경우, 반대 동작이 존재하고 역 3D 수정 기술이 적용될 수 있다.
e)전방배경물체가 후방배경으로 이동하는 것.
전방배경물체가 후방배경으로 이동하는 것은 주요장면이 이동하고, 장면에 다른 이동을 하는 물체가 있는 상황, 예컨대 카메라가 걷고 있는 사람을 뒤따르는 상황이다. 후방배경물체에서 동작 벡터가 주요물체에 반대이거나 또는 0 크기 매체의 물체 뒤에 0이 아닌 동작벡터(즉, 후방배경으로 이동하는 것)의 주요물체 또는 전체 필드 분포된 0이 아닌 벡터의 부수적 물체 전방에 있는 0 벡터의 주요 물체(즉, 큰 고정물체가 필드의 대부분을 채우지만 팬은 그 후방을 아직 볼 수 있다)가 검출된다.
전방배경 물체가 동작 시차 생성에 우선권이 주어져야할 것인가 또는 후방배경에 우선권이 주어져야 하는가에 관한 판단이 이루어져야 한다. 후방배경(예컨대 나무)이 큰 원근 변화를 포함할 경우 이동벡터가 심플 팬으로 발생하는 것처럼 할당된다. 후방배경(예컨대 벽)이 작은 원근 변화를 포함할 경우 이동벡터에 불균형 또는 마이너스가 할당된다.
후방배경이 큰 원근 변화를 포함할 때, 이동벡터가 단위 심플 팬 방법으로 장면에 할당되고, 전방배경 물체는 역 3D에 있을 것이고 적절한 수정방법이 적용되어야 한다.
f)비 동작
이동벡터가 전체적으로 0이거나 또는 가장 큰 이동 물체가 아주 작은 것으로 간주되어 이동이 검출되지 않는 경우 필드 딜레이가 0으로 세팅된다. 이러한 상황은 불규칙하거나 노이즈 동작 벡터가 판단되거나 이동 정보를 입수할 수 없는 상황예컨대 파란하늘을 팬이 가로지르는 상황에서 발생한다.
레이어 3 - 3D 생성
영상이 해석되면, 그것들은 입체 영상 사진을 만들도록 처리될 수 있다.
실제 세계를 볼 때 두 눈은 약간 다른 영상을 본다. 이것은 소위 망막 시차로 일컬어진다. 이것은 입체영상 또는 원근 인식을 생성한다. 즉, 우리는 같은 장면의 영상을 약간 다르게 보는 눈을 가지므로서 입체적으로 본다.
다른 한편 시차는 망막 시차에 만큼 시청자가 인지하는 영상들간의 수평 이동양으로 정의된다. 입체 영상 사진이 만들어지면, 3차원 장면이 2개의 수평 이동 관측지점으로부터 관찰된다.
본 발명은 평면 영상으로부터 입체영상 사진을 생성시키는 많은 영상 및 물체 프로세싱 기술을 이용한다.
1) 동작 시차
2) 강제 시차(수평 이동)
3) 시차 구역
4) Y축을 중심으로 한 영상 회전
5) 물체 처리
1) 동작 시차
장면이 우측에서 좌측으로 이동할 때, 우측 눈이 먼저 장면을 관측하고 좌측 눈이 딜레이된 영상을 보게되고, 반대 방향으로 이동하는 장면에 대해서는 그 반대이다. 동작이 빠를수록 영상과 두 눈 사이가 덜 딜레이된다. 이것은 동작 시차로 알려져 있으며 주요 원근 신호이다. 따라서, 장면에 수평 이동이 있는 경우, 영상과 두 눈 사이에 딜레이를 만듬으로서 입체 효과가 인지된다.
a) 필드 딜레이 계산
영상에 있는 동작 특성이 해석되고 전체 동작 벡터가 판단되면, 소정의 필드 딜레이가 계산될 수 있다. 바람직하게, 계산된 필드 딜레이는 '노이즈'값을 필터링하도록 예전의 딜레이 값이 평균되고 필드 딜레이가 너무 빠르게 변하는 것을 방지한다.
위에서 설명한 바와같이, 이동이 빠를수록 각각의 눈에 비추어지는 영상들 사이의 딜레이는 적어지게 된다. 따라서, 필드 딜레이의 더 작은 값이 큰 동작 벡터를 갖는 장면에 사용되지만, 큰 딜레이는 작은 수평이동을 갖는 장면에 사용된다. 즉 바람직한 실시예에서는 역함수 관계가 딜레이와 이동 양 사이에 존재한다.
장면변화가 판단되면, 필드 딜레이 내력은 이동이 전에 발생하지 않았던 것처럼 0으로 리셋되어야 한다. 제 1 동작방향에서 0이 아닌 필드 딜레이가 계산되지만 필드 딜레이가 여전히 0인 경우, 필드 딜레이의 전체 내력은 계산된 필드 딜레이로 세팅된다. 이것은 동작이 검출될 때 시스템이 정확한 필드 딜레이를 바로 디스플레이할 수 있게 한다.
b)필드 딜레이 실행
메모리에 디지털화된 영상을 기억시킴으로서 하드웨어와 소프트웨어에 이동시차가 생성될 수 있다. 바람직하게 디지털화된 영상은 버퍼와, 좌측 눈 영상에 알맞은 하나와 우측눈 영상에 알맞은 하나, 즉 2개의 출력점들에 사용된 신호 입력 포인터에 저장될 수 있다. 주동 눈의 영상 기억 포인터는 현재의 입력영상 기억 포인터 부근 또는 에서 유지되지만 딜레이된 눈의 영상기억 포인터는 딜레이된 출력을 생성하도록 버퍼에 더 입력된다. 많은 영상들은 비디오 분야에서 일반적인 8-10 비디오 필드까지 저장될 수 있다. 딜레이는 영상에서 해석된 동작 속도에 좌우된다. 최대 필드 딜레이는 최소 동작이 있을 때이다.
2)강제시차(수평이동)
강제시차는 아래의 것들 사이에 수평 이동을 도입하므로서 생성될 수 있다.
ⅰ) 영상 및 자체 영상의 정확한 복사
ⅱ) 비디오 프레임의 2 필드
ⅲ) 필름 시퀸스의 2 프레임
ⅳ) 영상과 자체영상의 변형복사
마이너스 수평 이동은 같은 양만큼 좌측으로의 우측 영상과 우측으로의 좌측 영상을 디스플레이함으로서 생성되고(영상 면으로부터 시작하여 영상면의 앞으로 진행하는 필드의 원근을 설정함), 플러스 수평 이동은 같은 양만큼 우측으로 우측 영상과 좌측으로 좌측영상을 디스플레이 함으로서 생성된다(영상면에서 시작하고 영상면 뒤로 후퇴하는 필드의 원근을 설정함).
강제시차는 팬(pan)의 전방에 있는 고정 물체에 입체효과를 강조하기위해 감소될 수 있다. 여기서 물체는 스크린 면에 더 가깝게 위치되고 배경은 지정된 물체 평면에서 멀어진다.
3) 시차구역
대부분의 스크린은 상부에 후방배경이 그리고 하부에 전방배경과 보여지기 때문에 강제시차를 V자로 변경하므로서 영상의 원근을 강조할 수 있다. 이것은 영상 하부보다 더 영상 상부를 수평으로 이동시킴으로서 그 후 화면에 관측된 전방에서 후방으로의 원근을 강조하므로서 이루어진다.
다른 기술은 이동시차와 영상의 다른 부분에 강제시차를 조합하는데 사용된다. 예컨대 절반부위에서 수직하게 영상을 분할하므로서 그리고 각각의 측부에 여러가지 시차 이동을 적용하므로서, 기차 트랙에서 아래로 이동하는 기차가 전방에 보이는 것과 같은 장면은 정확한 입체효과를 갖는다. 반대로 어느 한 측부는 언제나 역 3D에 나타나게 될 것이다.
4) Y축을 중심으로 한 영상회전
물체가 실제세계 장면에서 시청자 전방으로 이동할 때, 물체가 각 눈에 알맞은 모습에서 약간 회전된다. 회전효과는 물체가 더 가깝게 이동하는 것으로 알려져 있다. 이러한 회전을 입체영상사진내로 이동시키는 것은 아래와 같은 효과를 규정한다.
ⅰ) 시청자를 향한 이동 - 좌측영상이 반시계방향으로 자체 중심축을 중심으로 하여 수직하게 회전되고 우측영상이 시계방향으로 회전된다.
ⅱ) 시청자로부터 멀어지는 이동 - 좌측 영상이 시계방향으로 자신의 중심축을 중심으로 하여 수직하게 회전되고 우측영상이 반 시계방향으로 회전된다.
따라서, 영상회전에 의해 영상에 있는 물체의 원근이 약간 변경되어 원근이 감지된다. 이러한 기술이 모든 장면에 알맞게 강제시차와 조합될 때 조합된 효과는 매우 강력한 입체원근 신호를 제공한다.
5)물체처리(object processing)
물체처리는 영상에 입체효과를 더 강조하기 위해 물체와 후방배경을 분리하므로서 수행되어 이들 아이템들이 독립적으로 처리된다. 물체의 크기가 크고 갯수가 적고 필드 원근을 관통하여 뚜렷한 원근 수준을 가질 때 가장 효과적이다.
물체에 표식을 붙이는 것과 물체 트랙킹용 데이타베이스는 방향을 설정하기 위해 사용되어 물체가 자신의 후방배경에서 디지털적으로 잘릴 수 있고 입체효과를 강조하기 위해 취해진 측정에 전용된다. 처리가 수행되면 물체가 다시 같은 위치에서 후방배경에 부착된다. 이것은 "컷 앤드 페이스트(Cut and Paste)" 기술로 일컬어지고 변환 공정에 유용하다.
물체 태깅, 트랙킹, 커팅 및 페이스팅 방법을 통합하므로서, 강력한 도구가 물체처리 및 후방배경 처리에 사용가능하다.
다른 물체처리기술은 각각 이동하는 물체에 알맞은 독립된 원근을 한정하는 물체 레이어링이다. 물체가 그 위치에 있지 않을 때 지정되었던 상세부가 후방배경을 채우기 때문에 물체가 영상 어디에나 위치될 수 있다. 이것은 후방배경 삽입물이 삽입되지 않을 경우 물체와 함께 할 수 없다.
입체변환에서 가장 중요한 것은 역 3D와 시청자에게 불안함을 야기시키는 조절/변환 불균형의 수정이다. 바람직한 실시예에서 물체처리는 이러한 문제를 수정한다.
a) 메쉬 왜곡과 모핑(mesh distortion and morphing) - 이러한 물체처리 기술은 물체가 절단되어야 하고 왜곡된 메쉬에 부착되어야 하는 것을 가능하게 하여 원근 인식을 향상시킨다. 좌측 눈 영상의 물체를 우측으로 왜곡시킴으로서 그리고 우측 눈의 같은 물체를 좌측으로 왜곡시킴으로서 물체시차가 발생하고 입체 디스플레이 장치를 사용할 때 물체가 시청자에게 더 가깝게 나타나도록 한다.
b) 물체 배럴링(object barrelling) - 이 기술은 메쉬 왜곡의 특별한 형태이고 영상에서 물체를 절단하고 수직하게 위치된 절반원통을 감싸는 기술에 관한 것이다. 이것은 물체 에지보다 물체의 중심부를 더 가깝게 나타냄으로서 원근감이 물체에 나타나도록 한다.
c) 물체 에지 강조 - 물체의 에지들을 강조하므로서 영상에 있는 배경 또는 기타 물체들 사이에 더 큰 구별이 있게 된다. 입체효과는 많은 분야에서 이러한 기술에 의해 향상된다.
d) Y축을 중심으로 한 물체회전 - Y축을 중심으로 한 물체회전은 이때 회전이 물체에만 일어나는 것을 제외하고 Y축을 중심으로 한 영상회전의 프로세싱 방법과 같다.
3D 최적화
1) 기준점 및 경계
입체 영상들을 디스플레이하기 위해 일반 TV 또는 비디오 모니터를 이용할 때, 눈은 모니터 또는 스크린의 에지를 계속해서 관찰하고 이것은 모든 원근 인지를 위한 고정점 또는 기준점으로 인지된다. 즉, 모든 물체는 이러한 기준점의 전방 또는 후방에서 원근감이 인지된다.
모니터의 에지가 빛 또는 어두운 칼라 등 불량한 환경 때문에 쉽게 보여지지 않는 경우, 기준점은 없어질 수 있고 눈은 3D 도메인에서 고정점을 계속해서 찾게된다. 길게 연장된 입체영상을 시청할 때 이것은 눈의 피로를 야기시키고 원근 인식을 감소시킨다. 전방 또는 후방 투사 스크린 디스플레이 시스템은 같은 문제를 같고 있다.
따라서 본 발명은 비추어진 영상내의 공통 경계 또는 기준점을 지정한다. 이상적으로 기준면은 스크린 수준으로 세팅되고 모든 원근은 이러한 수준 이하로 감지된다. 이것은 많은 장면에서 입체 효과를 강조하는 장점을 갖는다.
이러한 기준점은 단순한 비디오 경계 또는 기준 그래픽일 수 있고 예컨대 아래와 같은 종류일 수 있다.
ⅰ) 영상 주변의 단순한 색채 비디오 경계
ⅱ) 경계들 사이의 불투명하거나 투명한 구역을 가질 수 있는 2 이상의 밀집경계를 구성하는 복합채색비디오 경계
ⅲ) 2개의 수평 또는 수직 변부 중 어느 하나 또는 어느 한 변부를 점유할 수 있는 부분경계
ⅳ) 로고(LOGO) 또는 영상내의 여러 지점에 위치된 다른 그래픽
ⅴ) 그림내의 그림
ⅵ) 위의 것들의 조합
본 실시예에서 본질적인 것은 시청자 눈에 기준점이 제공되고 이것에 의해 영상에서 물체의 원근이 인지될 수 있다는 것이다.
경계 또는 그래픽이 3D 생성 수준으로 추가될 경우 그것은 서로 수평하게 이동되는 좌측 및 우측 경계를 창조하므로서 특정 원근에 기준점을 제공할 수 있다. 이것은 기준점 또는 고정점이 공간에서 스크린 수준의 전방 또는 후방 어느 지점으로나 이동되도록 할 수 있다. 좌우측 눈에 시차가 없는 것으로 지정된 경계 또는 그래픽은 스크린 수준으로 인지될 것이다. 이것은 본 발명의 바람직한 형태이다.
영상 경계 또는 기준 그래픽이 3D 생성 지점에 삽입될 수 있거나 디스플레이용 입체영상 출력으로 함께 록킹되고 외부적으로 한정될 수 있다. 이와같은 영상경계 또는 기준 그래픽은 영상 후방배경이 검은색 또는 흰색 등으로 채색되거나 평면 등으로 형태를 갖거나 불투명, 반투명, 투명할 수 있거나 고정 또는 활동적일 수 있다. 고정 경계는 대부분의 경우에 전송되지만 다소의 환경에서 이동하거나 활동적인 경계는 이동 강조를 위해 사용될 수 있다.
2) 시차 조정 - 원근 감지성 제어
입체 디스플레이 장치를 통해 본 입체 영상은 영상 또는 물체에 적용된 시차의 종류와 양을 변경하므로서 증가되거나 감소될 수 있는 원근 범위(소위 원근감)를 자동으로 한정한다. 시청자마다 입체 영상 사진들에 의해 정해진 입체영상의 양 또는 원근 범위에 근거한 안라한 입체 시청 수준이 변한다는 것을 알았다. 즉 어떤 시청자는 더 큰 원근 범위를 갖는 뚜렷한 입체효과를 선호하고, 다른 시청자는 최소 원근을 갖는 영상을 선호한다.
원근감의 수준을 조절하고 안락한 시청을 위해 많은 기술들이 사용될 수 있다, 즉;
I) 필드 딜레이를 변화시키므로서 이동시차의 양을 변화시킴.
II) 강제 시차의 양을 영상으로 변화시킴.
III) 물체에 적용된 시차의 양을 변화시킴.
시차의 최대 수준을 감소시킴으로서 원근 범위가 감소될 수 있고 입체 영상에 더 큰 감도를 갖는 인지 기능으로 시청자의 안락한 시청을 향상시킨다.
3) 시차 평활
연속 함수로서 시차의 총량(운동시차 더하기 강제시차)을 유지하는 공정이다. 필드 딜레이에 특정 운동 형태를 변화시킨다. 즉 심플 팬과 전방 배경 물체 동작이 생성된 동작 시차의 양에서 불연속성을 야기시키고, 이것은 시청자에게 입체 영상들이 "점프"하는 것처럼 보이게 된다. 주동 눈에는 딜레이되지 않은 영상이 제공되기 때문에, 불연속성은 종동 눈에 생성된 영상에만 발생한다. 이러한 불연속성은 강제 시차 또는 물체 시차를 종동 눈에 알맞게 같거나 반대 방향으로 조정하므로 교정될 수 있고, 이것에 의해 연속적인 총 시차가 유지된다.
강제 시차 또는 물체 시차는 자체 노말 값으로 후방이 매끄럽게 조정될 수 있고 필드 딜레이에서 다음 변화를 위해 준비된다. 시차 평활에 의해 강제 시차로 이루어진 조정은 필드 딜레이 변화 동작 형태 및 동작 벡터의 함수이다. 시차 평활을 수행하기 위해 좌측 및 우측 눈 영상에 알맞은 강제 시차는 독립적으로 세팅되어야 한다.
4) 시차 조정
입체 효과를 만드는 강제시차 기술은 시청자에 의해 검출된 입체영상의 양을 조정하기 위해 사용된다. 이것은 물체 또는 영상의 인지 원근이 모든 시간에 걸쳐 변할 정도로 짧은 시간으로 최대값과 최소값 사이에서 세팅되는 강제 시차를 변화시키므로서 수행된다. 이상적으로 강제 시차는 매번 0.5 내지 1초로 세팅하는 최대값 및 최소값 사이에서 조정된다. 이것은 시청자가 자신의 입체감 수준으로 조절할 수 있다.
5) 이동 조합
가상 이동을 만듦으로서, 후방 배경을 검출할 수 없을 만큼 작은 증가량으로 불규칙하게 이동시킴으로서 전방 배경물체의 인지 원근이 향상된다. 전방배경 물체는 후방배경에서 '절단(cut)'된다. 후방 배경은 아래 기술들 중 어느 하나에 의해 가상으로 불규칙하게 선택되고 전방 배경 물체는 디스플레이를 위해 준비된 후방배경에 '부착(paste)'된다. 아래 기술들 중 어느 하나가 사용될 수 있다.
I) 가상의 불규칙한 원리에서 변하는 휘도값
II) 가상의 불규칙한 원리에서 변하는 색수차 값
III) 이동을 만들도록 후방배경으로 가상의 불규칙한 노이즈를 첨가하는 것.
6) 역 3D 해석 및 수정
역 3D는 시차에 의해 창조된 물체의 원근 정도가 실제 세계의 원근 정도에 대응하는 것과 차이가 있어 인지될 때 발생한다. 이것은 일반적으로 시청자의 불편함을 유도하여 수정되어야 한다.
입체 영상 사진 역 3D로 평면영상을 변환시킬 때 역 3D는
I) 같은 영상에서 좌측 및 우측으로 이동하는 물체, 반대운동
II) 다른 방향들로 이동하는 물체 및 후방 배경
III) 가변 속도로 이동하는 많은 물체에 의해 생성될 수 있다.
역 3D는 영상에서 물체의 운동 특성을 해석하므로서 수정되고, 메쉬 왜곡 기술을 각각 이용하는 각각의 물체를 조정하므로서 물체 시차가 예상된 시각 인식 수준과 매칭된다.
7) 혼합 기술
어느 한 영상내의 어느 한 물체의 원근을 조정하므로서 그리고 소수의 원근 신호 대부분을 강조하므로서 입체 효과가 강조될 수 있다. 아래 기술 모두는 '컷 앤드 페이스트' 기술을 이용하여 작동한다. 즉 전방물체는 "컷"으로 향상되고 "페이스트"로 후방 배경이 멀어진다.
a) 음영 - 음영처리는 물체 원근을 제공한다.
b) 전방 배경 / 후방 배경 - 흐림(blurring)과 농무(fogging) 처리를 통해 후방 배경의 초점을 제거하므로서, 전방 배경 물체가 강조될 수 있는 반면, 전방 배경 물체의 초점을 제거하므로서 후방 원근이 강조될 수 있다.
c) 에지 향상 - 에지들은 자체 후방 배경으로부터 물체를 구분하게 하는 것을 돕는다.
d) 문자 지도 - 후방 배경으로부터 물체를 구분하게 하는 것을 돕는다.
레이어 4 - 3D 매체(전송 및 저장)
레이어 1, 레이어 4 및 5에 관한 것은 본 발명에 본질적인 것은 아니다. 레이어 4는 입체 영상의 전송 및 기억을 위해 제공된다. 전송 수단은 특정 용도에 적합하다. 예컨대 아래의 것이 사용될 수 있다.
1) 지역 전송 - 코엑스 케이블(coax cable)을 거칠 수 있다.
2) 네트워크 TV 전송 - I) 케이블 II) 위성 III) 지상 통신소(Terrestrial)를 거칠 수 있다.
3) 디지털 네트워크 - 인터넷 등
4) 입체(3D) 영상 기억
영상 기억 수단은 전송후에 디스플레이를 위해 영상 데이터의 기억에 사용되고
I) 아날로그 기억 - 비디오 테이프, 필름 등
II) 디지털 기억 - 레이저 디스크, 하드 디스크, CD-ROM, 마그네틱 광학 디스크, 디지털 비디오 카세트(DVC), DVD를 포함할 수 있다.
레이어 5 - 3D 디스플레이
전송 수단에 관한 것으로 디스플레이 수단은 적용 요건에 종속되고 아래의 것들을 포함한다.
1) 셋-탑 박스
셋-탑 박스의 정의는 신호를 수신하고, 해독하며, 악세사리 인터페이스를 제공하고 마지막으로 적용하기에 적합한 출력을 갖는 작은 전자 박스이다. 이것은 아래의 것을 통합할 수 있다.
a) 비디오 또는 RF 수신기
b) 헤드 마운티드 장치 또는 분리형 비디오 채널이 필요한 다른 입체영상 디스플레이로 좌측 및 우측 영상 출력을 각각 제공하는 입체(3D) 디코더
c) 해상도 향상 - 라인 더블링/픽셀 삽입
d) 셔터 또는 시퀀셜 안경(sequential glasses) 동기화
e) 입체 원근 감도 제어 회로
f) 악세사리 인터페이스 - 2D/3D 스위치 및 원근 제어와 같은 특징을 갖는 원격 제어
g) 오디오 인터페이스 - 오디오 출력, 헤드폰 접속
h) 액세스 채널 디코딩 - 케이블 및 유료 TV 분야
I) 비디오 또는 RF 출력
2) 입체영상 디스플레이
a) 폴라라이징 안경 - 선형 또는 원형 폴라라이저
b) 애너글리픽 안경 - 채색 렌즈 - 빨간색/녹색 등
c) LCD 셔터 안경
d) 칼라 시퀀셜 안경
e) 헤드 마운티드 장치(HMD) - 2개의 소형 비디오 모니터(각각의눈에 하나씩)에 끼워진 헤드 기어, VR 헤드세트
3) 자동 입체 영상 디스플레이
a) 비디오 영사기/디스플레이 시스템에 근거한 역반사 스크린
b) 음량 디스플레이 장치
c) 디스플레이 시스템에 근거한 수정체형 렌즈
d) 디스플레이 시스템에 근거한 입체광학 소자(HOE)
바람직한 실시예
요약해서, 본 발명은 바람직한 실시예에서 아날로그를 디지털 변환처리가 포함된 아날로그 포맷에 또는 디지털 포맷에 평면 영상 시퀀스를 입력할 수 있는 시스템을 제공한다. 이러한 영상 데이터는 영상 해석 방법에 제공되고 이것에 의해 평면 영상들이 특정한 분야에 필요한 경우 압축된다.
영상의 픽셀 블록과 인접한 영상의 대응 블록을 비교하므로서, 그리고 각각의 블록에 알맞은 최소 평균 분포 오차를 얻으므로서, 영상내의 동작이 판단된다.
다음의 동작 감지, 영상안의 범위는 영상 밝기, 칼라, 동작, 패턴 및 에지 연속성과 같은 유사한 특성들에 의해 구분된다. 이 데이터는 영상내의 동작 특성을 결정하기 위해 동작 해석에 제공된다. 동작 해석은 영상내의 어떤 동작의 위치, 원근감, 타입, 속도, 방향을 결정하는 형태로 이루어진다. 동작은 동작이 전체 화면 변화인가, 실플 팬인가, 복잡한 팬(Pan)인가, 정적인 배경에 움직이는 물체인가, 움직이는 배경에 정적인 물체인가 또는 아예 아무런 동작이 없는가를 포함하는 많은 범위들로 카테고리화 된다. 더 이상의 행위들은 이러한 범위들을 근거로하여 평면 영상들을 적당한 입체 디스플레이 장치로 볼 수 있도록 하는 입체 영상 사진들로 변경하는 것을 결정한다.
바람직한 실시예에서 평면 영상들이 분석되고 화면 변화 또는 복잡한 팬 등이 감지되면 더 이상 특정 화면에 대한 분석을 필요로 하지 않는다. 즉, 필드 딜레이 및 필드 딜레이 내력이 0으로 리셋된다. 물체 검출 방법은 화면내에 물체들을 구분하고 시험하기 위해 새로운 화면에 적용된다. 이러한 물체들이 구분되면, 물체 처리를 수행한다. 더 이상의 물체들이 구분되지 않으면, 그 때 영상은 강제 시차와 3D 최적화를 이용하여 다음 프로세싱을 위해 이동된다.
영상 분석동안에 카테고리화된 동작이 화면 변화가 아닌 경우, 화면 해석이 더 요구된다. 만일 심플 팬으로 카테고리화된 동작에서 화면 분석이 더 발생한다면, 동작 시차의 원리에 따라 필드 딜레이를 적용하는 것이 필요하다. 그리고 나서 이것은 더 프로세싱되기 위해 이동된다. 만일 동작이 심플 팬으로 카테고리화되지 않고 정적인 배경에서 동작중인 물체로 카테고리화되어도 동작 시차의 원리에 따라 필드 딜레이를 적용하여야 한다. 이 관계에서 만일 동작 시차가 적용되었다면 이것은 그 물체들이 모두 동일한 방향을 가졌는가를 고려할 필요가 있다. 만일 물체들이 동일한 방향으로 움직인다면 그땐 다음 단계로 더 처리하기를 위해 넘겨진다. 만일 물체들이 균일한 방향 가지지 않았다면, 그땐 역 3D 효과를 에 대해 수정하도록 화면내에 선택된 물체 처리를 수행하는 것이 필요하다. 이것은 메쉬 왜곡 및 모핑 기술을 통해서 달성될 수 있다. 만일 동작이 움직이는 배경에 정적인 물체로 카테고리화되었다면, 이것은 배경에 원근감이 있어 커다란 차이를 가졌는지 어떤지를 판별하는 것이 필요하다. 만일 그렇지 않다면 동작 시차의 원리를 이용한 우선 순위를 가지는 물체를 필드 딜레이에 적용시킨다. 그러나 배경이 원근감에 있어서 커다란 차이를 가졌다면, 다시 동작 시차의 원리를 이용하여 그 물체에 반대되는 우선 순위를 가지는 배경을 가지고 필드 딜레이를 적용한다. 이 경우에 더 리를 위해 넘겨지기 전에 역 3D 효과를 수정하기 위해 전경에 물체에 대한 프로세싱을 수행하는 것이 필요하다.
더 이상의 동작이 탐지 되지않는다면, 그 때 다음 화면에 물체가 어떤 전의 동작으로부터 알려졌는가를 고려하는 것이 필요하다. 만일 그렇다면, 선택된 물체에 대해 물체 프로세싱을 실행하는 것이 필요하다. 만일 그렇지 않았다면, 화면에서 물체를 구별하도록 시도하기 위해 특정 화면에 물체 탐지를 적용한다. 만일 물체가 구분된다면, 특정 물체에 대해 물체 프로세싱을 실행하고 그렇지 않다면 강제 시차와 3D 최적화가 수행된다.
물체 처리가 필요한 곳에서 물체들이 구분되고, 표시되고 그리고 관측되며, 메쉬 왜곡 및 모핑, 물체 배럴링, 에지 강조, 발기 보정, 물체 회전 기술을 이용하여 처리된다.
모든 경우에 있어서, 동작들이 카테고리화되고 입체 영상들을 변환하는 주요한 기술들이 적용되면 , 강제 시차로 일컬어지는 수평 이동 또는 그 이상 양의 시차가 영상에 적용된다. 바람직한 실시예에서 강제 시차는 모든 영상에 적용되고 원근 평활 목적 뿐만 아니라 모든 영상들이 입체 디스플레이장치의 기준면 앞으로 또는 뒤로 원근감을 갖는 것처럼 보이므로서 입체 효과를 제공한다. 강제 시차 적용의 장점은 시청자의 원근감 인식에 갑작스런 변화를 일으키지 않으며 검출된 동작의 변화를 좀 더 잘 처리할 수 있는 데 있다.
강제 시차가 영상에 적용되면, 영상은 3D 최적화로 이송된다. 이것은 입체 영상을 보기위해 필요하지만 최적화는 시청자에 의해 영상의 원근 인식도를 향상시킨다. 3D 최적화는 특정 시청자의 원근감을 변경하기 위해 기준점 또는 경계 이외에 시차 보정, 시차 평활, 및 시차 조정을 포함하는 많은 형태로 이루어질 수 있다. 가상으로 불규칙하게 휘도값 또는 색수차를 변경하므로서 영상이 또한 최적화되어 전방배경 물체 뒤에 있는 후방배경의 동작이 보일 수 있으므로 원근인식이 향상된다. 역 3D를 해석할 수 있어 시청자의 눈피로가 최소화된다. 또한 음영처리 기술, 전방배경과 후방배경의 농무 기술 또는 흐림 기술 및 영상의 에지 강조 기술이 이 단계에서 수행될 수 있다.
영상이 최적화되면 적절한 디스플레이 장치로 전송된다. 이러한 전송은 케이블, 동축, 위성 등 많은 형태 또는 어느 한 지점에서 다른 지점으로 신호를 전송하는 다른 형태를 취할 수 있다. 또한, 디스플레이 장치로 전송되기 전에 영상이 저장될 수 있다. 디스플레이 장치는 많은 형태를 취할 수 있고, 응용분야에 적합하도록 처리할 필요가 있다. 예를 들어 좌우측 영상을 분리하고, 스캔 속도를 증가시키고, 시청용 안경을 동기화하기 위해서 셋-탑 장치를 가진 기존 비디오 모니터를 사용할 수 있다. 다른 대안으로, 전용 입체 디스플레이 장치가 사용될 수 있는데, 이것은 입체 영상을 제공하는 헤드 기어 또는 안경의 용도를 통합한다. 다른 대안으로, 자동 입체 디스플레이 장치가 사용될 수 있다. 극장, 영화관, 비디오 아케이트, 케이블, 또는 네트워크 텔레비젼, 교육분야, 특히 다중매체 산업 및 테마 유원지 및 기타 오락 분야에 본 발명이 적용될 수 있다는 것을 알 수 있을 것이다.

Claims (79)

  1. 평면 영상들을 수신하기에 적합한 입력수단,
    제 1 영상과 평면 영상 시퀸스의 제 2 영상 사이에 연속성이 있는가를 판단하는 1차해석수단,
    연속성을 갖는 평면 영상을 수신하고 물체의 속도 및 이동방향 또는 원근, 크기 및 위치 중 최소한 하나를 판단하기 위해 영상들을 해석하는 2차 해석 수단,
    1차 해석 수단 및/또는 2차 해석 수단으로부터 수신된 데이타에 입각하여 평면 영상들을 처리하는 제 1 프로세싱 수단을 포함하는 3차원으로 시청하기 위해 평면 영상들을 변환하는 영상변환 시스템.
  2. 제 1항에 있어서,
    입체 디스플레이 시스템 또는 기억 시스템으로 처리된 영상들을 전송할 수 있는 전송 수단을 더 포함하는 영상변환 시스템.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 제 1 프로세싱 수단은 이동시차, 강제 시차, 시차구역들, 영상회전 또는 물체처리 중 최소한 어느 하나를 이용하므로서 영상을 처리하는 것을 특징으로 하는 영상변환 시스템.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    제 2 프로세싱 수단이 상기 제 1 프로세싱 수단으로부터 수신된 영상들을 더 처리하도록 제공되는 것을 특징으로 하는 영상변환 시스템.
  5. 제 4 항에 있어서,
    상기 제 2 프로세싱 수단은 영상을 더 처리하도록 강제 시차를 사용하는 것을 특징으로 하는 영상변환 시스템.
  6. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
    제 3 프로세싱 수단이 입체 디스플레이 장치로 변환된 영상들을 전송하기전에 영상들을 임의적으로 향상시키기 위해 제공되는 것을 특징으로 하는 영상변환 시스템.
  7. 제 6 항에 있어서,
    상기 제 3 프로세싱 수단은 기준점들, 시차조정, 시차평활, 시차 조정, 동작 해석, 역 3D 수정 또는 컷 앤드 페이스트 기술 중 최소한 어느 하나를 이용하므로서 영상을 강조하는 것을 특징으로 하는 영상변환 시스템.
  8. 영상내에서의 동작 특성을 판단하기 위해 평면 영상들을 해석하는 단계,
    동작 카테고리의 예정된 범위와 검출된 동작을 비교하는 단계,
    입체 영상 사진을 형성하기 위해 동작 카테고리에 따라 최소한 하나의 처리 방법을 이용하여 평면 영상들을 처리하는 단계를 포함하는 것을 특징으로 하는 평면 영상들을 입체영상 사진으로 처리하는 방법.
  9. 제 8 항에 있어서,
    상기 프로세싱 방법들은 동작시차, 강제시차, 시차구역들, 영상회전 및/또는 물체처리를 포함하는 것을 특징으로 하는 방법.
  10. 제 8 항 또는 제 9 항에 있어서,
    상기 동작 카테고리는 장면변화, 심플 팬, 복합 팬, 물체이동, 후방배경 이동 및 무동작을 포함하는 것을 특징으로 하는 방법.
  11. 제 8 항 내지 제 10 항 중 어느 한 항에 있어서,
    입체영상은 해석을 하기 전에 압축되는 것을 특징으로 하는 방법.
  12. 제 8 항 내지 제 11 항 중 어느 한 항에 있어서,
    평면 영상은 해석 전에 스케일링되는 것을 특징으로 하는 방법.
  13. 제 12 항에 있어서,
    스케일링 요소는 각 영상의 디지털 비디오 해상도에 좌우되는 것을 특징으로 하는 방법.
  14. 평면 영상을 수신하기에 적합한 제 1 레이어,
    평면 영상을 수신하고 영상 데이터를 만들기 위해 평면 영상을 해석하기에 적합한 제 2 레이어,
    영상 테이타 함수로 선택된 최소한 하나의 예정된 기술을 이용하여 평면 영상으로부터 입체 영상 사진을 만들기에 적합한 제 3레이어,
    입체 영상 사진을 입체 디스플레이 수단으로 전송하기에 적합한 제 4 레이어,
    입체 디스플레이 수단으로 구성되는 제 5 레이어를 포함하는 것을 특징으로 하는 3 차원 시청을 위해 평면 영상들을 변환하는 방법.
  15. 제 14 항에 있어서,
    상기 제 1 레이어는 아날로그 영상을 디지탈 영상으로 변환시키기에 더 적합한 것을 특징으로 하는 방법.
  16. 제 14 항 또는 제 15 항에 있어서,
    상기 제 2 레이어는 장면에서 물체를 검출하고 이와 같은 물체들의 속도와 동작에 관한 것을 판단하기에 적합한 것을 특징으로 하는 방법.
  17. 제 14 항 내지 제 16 항 중 어느 한 항에 있어서,
    영상은 해석전에 압축되는 것을 특징으로 하는 방법.
  18. 제 14 항 내지 제 17 항 중 어느 한 항에 있어서,
    제 3 레이어는 입체 영상 사진을 입체 디스플레이 수단으로 전송하기 전에 입체 영상 사진을 더 강조하는 최적화 단계를 포함하는 것을 특징으로 하는 방법.
  19. 제 14 항 내지 제 18 항 중 어느 한 항에 있어서,
    제 4 레이어는 시간순으로 입체 디스플레이 수단에 디스플레이하기 위해 입체 영상 사진을 기억하는 기억수단을 포함하는 것을 특징으로 하는 방법.
  20. 평면영상을 수신할 수 있는 입력 수단,
    영상 카테고리를 판단하기 위해 영상들을 해석하는 해석수단,
    입체 영상 시청을 위해 선택된 영상 카테고리 함수로 평면 영상을 입체 영상 쌍들로 변환시킬 수 있는 변환 수단을 포함하는 것을 특징으로 하는 입체 영상 시스템.
  21. 제 20 항에 있어서,
    상기 입력수단은 상기 평면 영상들을 포착하고 디지털화하는 수단을 포함하는 것을 특징으로 하는 시스템.
  22. 제 20 항 또는 제 21항에 있어서,
    영상 해석 수단은 영상내의 후방 배경과 물체의 속도 및 방향을 판단할 수 있는 것을 특징으로 하는 시스템.
  23. 제 20 항 내지 제 22 항 중 어느 한 항에 있어서,
    영상 해석 수단은 영상내의 후방 배경과 물체의 원근, 크기, 위치를 판단할 수 있는 것을 특징으로 하는 시스템.
  24. 제 20 항 내지 제 23 항 중 어느 한 항에 있어서,
    입체 효과를 더 향상시키기 위해 입체 영상을 최적화하는 수단을 더 포함하는 것을 특징으로 하는 시스템.
  25. 제 20 항 내지 제 24 항 중 어느 한 항에 있어서,
    시청자 기준점을 영상에 첨가하므로서 입체 영상 사신을 향상시키는 방법을 더 포함하는 것을 특징으로 하는 시스템.
  26. 각각의 영상을 다수의 구역으로 스케일링하는 단계, 제 1 영상과 제 2 영상 사이의 이동 특성을 판단하기 위해 제 1 영상과 제 2 영상의 대응구역 및 인접 구역을 각각 비교하는 단계를 포함하는 것을 특징으로 하는 입체 영상 사진으로 변환 하는 평면 영상들을 해석하는 방법.
  27. 제 26 항에 있어서,
    동작 벡터는 비동작에서 완전한 장면 변화까지 예정된 동작 카테고리와 검출된 동작 특성의 비교에 근거한 각각의 영상에 알맞게 정의되는 것을 특징으로 하는 방법.
  28. 시청자 기준점 제공을 포함하는 입체 디스플레이 시스템.
  29. 평면 영상을 수신하기에 적합한 입력수단,
    영상들의 특징을 판단하는 제 1 해석 수단,
    상기 제 1 해석 수단에서 판단된 특성에 근거한 영상을 처리하는 제 1 프로세싱수단,
    적절한 저장 및 또는 입체 디스플레이 시스템으로 처리된 영상들을 전송할 수 있는 출력수단을 포함하는 3차원에서 시청하기에 알맞도록 평면 영상들을 변환하는 시스템.
  30. 제 29 항에 있어서,
    상기 입력수단은 상기 평면영상들을 디지털화하기에 더 적합한 것을 특징으로 하는 시스템.
  31. 제 29 항 또는 제 30 항에 있어서,
    상기 제 1 해석수단으로 해석하기 전에 상기 평면 영상들을 압축하기에 적합한 압축수단을 더 포함하는 것을 특징으로 하는 시스템.
  32. 제 29 항 내지 제 31 항 중 어느 한 항에 있어서,
    상기 제 1 해석 수단으로 해석하기 전에 상기 평면영상을 스케일링하는 스케일링 수단을 더 포함하는 것을 특징으로 하는 시스템.
  33. 제 32 항에 있어서,
    상기 평면 영상이 스케일링하는 스케일링 요소는 각 영상의 디지털 비디오 해상도에 좌우되는 것을 특징으로 하는 시스템.
  34. 제 29 항 내지 제 33 항 중 어느 한 항에 있어서,
    이어지는 제 1 및 제 2 영상들 사이에 연속성이 있는가를 판단하는 1차 해석 수단을 더 포함하는 것을 특징으로 하는 시스템.
  35. 제 29 항 내지 제 34항 중 어느 한 항에 있어서,
    상기 제 1 해석 수단은 상기영상들 내의 물체를 판단할 수 있는 것을 특징으로 하는 시스템.
  36. 제 29 항 내지 제 35 항 중 어느 한 항에 있어서,
    상기 제 1 해석 수단은 영상들의 동작 및/또는 영상내의 물체동작을 판단할 수 있는 것을 특징으로 하는 시스템.
  37. 제 35 항 또는 제 36 항에 있어서,
    상기 제 1 해석수단은 동작 카테고리의 예정된 범위들 중 어느 하나로 동작을 카테고리화할 수 있는 것을 특징으로 하는 시스템.
  38. 제 29 항 내지 제 37 항 중 어느 한 항에 있어서,
    영상들을 더 처리하는 제 2 프로세싱 수단을 더 포함하는 것을 특징으로 하는 시스템.
  39. 제 38 항에 있어서,
    상기 제 2 프로세싱 수단은 영상을 더 처리하기 위해 강제 시차를 사용하는 것을 특징으로 하는 시스템.
  40. 제 29 항 내지 제 39 항 중 어느 한 항에 있어서,
    영상들을 입체 디스플레이 및/또는 저장 시스템으로 전송하기 전에 처리된 영상들을 강조하는 최적화 수단을 더 포함하는 것을 특징으로 하는 시스템.
  41. 제 29 항 내지 제 40 항 중 어느 한 항에 있어서,
    상기 평면 영상들에 첨가된 원근 수준을 제어하는 수단을 더 포함하는 것을 특징으로 하는 시스템.
  42. 제 29 항 내지 제 41 항 중 어느 한 항에 있어서,
    처리된 영상에 기준점을 첨가하는 수단을 더 포함하는 것을 특징으로 하는 시스템.
  43. 상기 평면 영상들을 수신하는 단계,
    영상들의 특성을 판단하기 위해 상기 평면 영상들을 해석하는 단계,
    판단된 영상 특성에 입각하여 상기 평면 영상을 처리하는 단계,
    처리된 영상들을 적절한 저장 및/또는 입체 디스플레이 장치로 출력하는 단계를 포함하는 3차원에서 시청하기에 알맞도록 평면 영상들을 변환시키는 방법.
  44. 제 43 항에 있어서,
    상기 평면 영상은 해석 또는 프로세싱 단계가 수행되기 전에 디지털화되는 것을 특징으로 하는 방법.
  45. 제 43 항 또는 제 44 항에 있어서,
    상기 평면 영상은 해석 단계전에 압축되는 것을 특징으로 하는 시스템.
  46. 제 43 항 내지 제 45 항 중 어느 한 항에 있어서,
    상기 평면 영상은 해석단계전에 스케일링되는 것을 특징으로 하는 시스템.
  47. 제 46 항에 있어서
    평면 영상을 스케일링하는 스케일링 요소는 각 영상의 디지털 비디오 해상도에 좌우되는 것을 특징으로 하는 시스템.
  48. 제 43 항 내지 제 47 항 중 어느 한 항에 있어서,
    이어지는 제 1 및 제 2 영상들이 영상특성들을 판단하기 전에 연속성을 위해 해석되는 것을 특징으로 하는 시스템,
  49. 제 48 항에 있어서,
    이어지는 제 1 및 제 2 영상들 사이의 매체 휘도값을 비교하므로서 연속성이 판단되는 것을 특징으로 하는 시스템.
  50. 제 49 항에 있어서,
    매체 휘도값의 차가 30을 초과할 때 연속성이 없는 것으로 가정하는 것을 특징으로 하는 방법.
  51. 제 48 항 내지 제 50항 중 어느 한 항에 있어서,
    연속성 판단을 돕기위해 이어지는 영상들 중 몇 개의 상부라인이 비교하는 것을 특징으로 하는 방법.
  52. 제 43 항 내지 제 51 항 중 어느 한 항에 있어서,
    비연속성이 판단되는 영상처리는 시청자의 다른 눈에 의해 비추어지기 전에 어느 한 눈에 의해 연속성이 부족한 영상이 보이도록 어느 한 눈에 필드 딜레이를 도입하는 단계를 포함하는 것을 특징으로 하는 방법.
  53. 제 43 항 내지 제 52 항 중 어느 한 항에 있어서,
    상기 평면 영상들을 해석하는 동안, 상기 영상들이 정의되어 상기 프로세싱 중에 돕는 것을 특징으로 하는 방법.
  54. 제 43 항 내지 제 53 항 중 어느 한 항에 있어서,
    상기 평면 영상해석중에 영상들 내의 물체 및/또는 영상의 이동이 상기 프로세싱 공정을 돕도록 판단되는 것을 특징으로 하는 방법.
  55. 제 54 항에 있어서,
    상기 영상 및/또는 물체의 동작은 동작 카테고리의 예정된 범위 중 어느 하나로 카테고리화되는 것을 특징으로 하는 방법.
  56. 제 43 항 내지 제 55 항 중 어느 한 항에 있어서,
    동작을 판단하기 위해 상기 평면 영상들을 해석하는 단계는 인접한 영상의 대응 블록들이 수평 및/또는 수직으로 오프셋되고 다수의 블록들로 각각의 영상을 분할하는 단계,
    상기 블록과 상기 대응 블록을 비교하여 최소 평균 분포 오차를 구하고 이것으로 블록의 동작을 찾는 단계를 포함하는 것을 특징으로 하는 방법.
  57. 제 56 항에 있어서,
    비상세부를 가진 상기 블록은 상기 대응블록들과 비교되지 않는 것을 특징으로 하는 방법.
  58. 제 48 항에 있어서,
    주요 블록과 상기 대응 블록의 비교가 큰 오차값을 가지면 연속성이 없는 것으로 가정하는 것을 특징으로 하는 방법.
  59. 제 43 항 내지 제 58 항 중 어느 한 항에 있어서,
    시청자의 어느 한 눈이 시청자의 다른 눈에 앞서 영상을 보도록 영상처리는 필드 딜레이를 도입하므로서 동작 시차의 사용을 포함하는 것을 특징으로 하는 방법.
  60. 제 59 항에 있어서,
    동작의 양은 필드 딜레이에 반비례하는 것을 특징으로 하는 방법.
  61. 제 59 항 또는 제 60 항에 있어서,
    필드 딜레이가 기억되고, 각각의 새로운 영상에 알맞는 필드 딜레이가 이전필드 딜레이의 평균이 되는 것을 특징으로 하는 방법.
  62. 제 61 항에 있어서,
    기억된 필드 딜레이는 연속성이 검출되지 않을 때 삭제되는 것을 특징으로 하는 방법.
  63. 제 43 항 내지 제 62 항 중 어느 한 항에 있어서,
    영상 처리 방법은 좌우측 눈의 영상 이동을 통해 수평 이동을 도입하므로서 강제 시차의 사용을 포함하는 것을 특징으로 하는 방법.
  64. 제 43 항 내지 제 63 항 중 어느 한 항에 있어서,
    영상처리방법은 영상의 일부분으로 더 수평이동시키는 시차구역을 이용하는 것을 특징으로 하는 방법.
  65. 제 43 항 내지 제 64 항 중 어느 한 항에 있어서,
    영상처리방법은 영상의 여러 부분에 강제 시차와 동작 시차의 조합을 포함하는 것을 특징으로 하는 방법.
  66. 제 43 항 내지 제 65 항 중 어느 한 항에 있어서,
    영상처리방법은 반대방향으로 같은 양만큼 Y축을 중심으로 하여 좌우측 눈의 영상을 회전시키는 것을 특징으로 하는 방법.
  67. 제 43 항 내지 제 66 항 중 어느 한 항에 있어서,
    영상처리방법은 메쉬 왜곡 및 모핑 방법
    물체를 빨리 이동시키는 방법
    물체 에지 강조 방법
    물체 밝기 강조 방법
    물체 회전 방법과 같은 물체 처리 기술들 중 최소한 어느 하나로 이용하는 것을 특징으로 하는 방법.
  68. 제 43항 내지 제 67 항 중 어느 한 항에 있어서,
    최종 강제 시차를 처리된 영상에 적용하므로서 처리된 영상이 더 처리되는 것을 특징으로 하는 방법.
  69. 제 68 항에 있어서,
    강제시차의 정도가 영상을 처리하는 동안 첨가된 시차의 양에 의해 판단되므로서, 프로세싱 중에 첨가된 시차의 총량과 강제시차가 인접한 영상의 총 시차량이 실질적으로 같은 것을 특징으로 하는 방법.
  70. 제 68 항 또는 제 69 항에 있어서,
    최종 강제 시차 량은 예정된 시간 프레임 전체에 걸쳐 예정된 최대 세팅값과 최소 세팅값 사이에서 조절되는 것을 특징으로 하는 방법.
  71. 제 43 항 내지 제 70 항 중 어느 한 항에 있어서,
    영상들을 입체 디스플레이 시스템 및/또는 기억시스템으로 전송하기 전에 처리된 영상들을 더 강조하도록 처리된 영상이 최적화되는 것을 특징으로 하는 방법.
  72. 제 43 항 내지 제 71 항 중 어느 한 항에 있어서,
    기준점이 처리된 영상에 첨가되는 것을 특징으로 하는 방법.
  73. 제 43 항 내지 제 72 항 중 어느 한 항에 있어서,
    상기 기준점은 영상주변 둘레의 경계, 다수의 중심경계, 부분경계, 로고(logo), 사진 중 최소한 어느 하나인 것을 특징으로 하는 방법.
  74. 제 43 항 내지 제 73 항 중 어느 한 항에 있어서,
    영상 처리중에 평면 영상에 첨가되는 원근의 양은 시청자 선택에 따라 조절되는 것을 특징으로 하는 방법.
  75. 제 43 항 내지 제 74 항 중 어느 한항에 있어서,
    영상의 후방 배경이 시청자가 인식할 수 없는 작은 증가량으로 불규칙하게 이동되는 것을 특징으로 하는 방법.
  76. 제 43 항 내지 제 75 항 중 어느 한 항에 있어서,
    역 3D를 알맞게 보상하도록 독립적으로 조정된 물체들과 역 3D에 알맞게 영상이 시험되는 것을 특징으로 하는 방법.
  77. 제 43 항 내지 제 76 항 중 어느 한 항에 있어서,
    컷 앤드 페이스트 기술은 입체효과를 더 강조하도록 사용되는 것을 특징으로 하는 방법.
  78. 첨부한 도면을 참조하여 기술한 것과 실질적으로 같은 방법.
  79. 첨부한 도면을 참조하여 기술한 것과 실질적으로 같은 시스템.
KR1020007002209A 1997-09-02 1998-09-02 영상처리 방법 및 장치 KR20010023561A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AUPO8944 1997-09-02
AUPO8944A AUPO894497A0 (en) 1997-09-02 1997-09-02 Image processing method and apparatus
PCT/AU1998/000716 WO1999012127A1 (en) 1997-09-02 1998-09-02 Image processing method and apparatus

Publications (1)

Publication Number Publication Date
KR20010023561A true KR20010023561A (ko) 2001-03-26

Family

ID=3803230

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020007002209A KR20010023561A (ko) 1997-09-02 1998-09-02 영상처리 방법 및 장치
KR1020007002244A KR20010023596A (ko) 1997-09-02 1998-09-02 영상처리 방법 및 장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020007002244A KR20010023596A (ko) 1997-09-02 1998-09-02 영상처리 방법 및 장치

Country Status (8)

Country Link
US (2) US6496598B1 (ko)
EP (1) EP1019873A1 (ko)
JP (1) JP2001515287A (ko)
KR (2) KR20010023561A (ko)
CN (1) CN1278349A (ko)
AU (1) AUPO894497A0 (ko)
CA (1) CA2302199A1 (ko)
WO (1) WO1999012127A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100682071B1 (ko) * 2005-02-17 2007-02-12 강원대학교산학협력단 화상데이터의 입체영상변환장치 및 방법
KR100792852B1 (ko) * 2006-10-25 2008-01-14 전자부품연구원 단일 카메라를 이용한 이동 로봇의 랜드 마크 거리추출방법
US8295539B2 (en) 2007-12-07 2012-10-23 Samsung Electronics Co., Ltd. Method and system of immersive sensation enhancement for video sequence displaying

Families Citing this family (484)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7907793B1 (en) 2001-05-04 2011-03-15 Legend Films Inc. Image sequence depth enhancement system and method
US8396328B2 (en) 2001-05-04 2013-03-12 Legend3D, Inc. Minimal artifact image sequence depth enhancement system and method
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
AUPN732395A0 (en) 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
US7116324B2 (en) 1998-05-27 2006-10-03 In-Three, Inc. Method for minimizing visual artifacts converting two-dimensional motion pictures into three-dimensional motion pictures
US20050146521A1 (en) * 1998-05-27 2005-07-07 Kaye Michael C. Method for creating and presenting an accurate reproduction of three-dimensional images converted from two-dimensional images
US7116323B2 (en) 1998-05-27 2006-10-03 In-Three, Inc. Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images
US6515659B1 (en) 1998-05-27 2003-02-04 In-Three, Inc. Method and system for creating realistic smooth three-dimensional depth contours from two-dimensional images
US20050231505A1 (en) * 1998-05-27 2005-10-20 Kaye Michael C Method for creating artifact free three-dimensional images converted from two-dimensional images
US6208348B1 (en) 1998-05-27 2001-03-27 In-Three, Inc. System and method for dimensionalization processing of images in consideration of a pedetermined image projection format
JP4656680B2 (ja) * 1998-11-30 2011-03-23 シャープ株式会社 画像検索情報記録装置及び画像検索装置
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
KR20010075579A (ko) * 1999-08-03 2001-08-09 요트.게.아. 롤페즈 비디오형 또는 필름형 이미지를 포함하는 프레임들의시퀀스를 인코딩하는 방법 및 장치
DE60014420T2 (de) 1999-11-26 2005-10-13 Sanyo Electric Co., Ltd., Moriguchi Verfahren zur 2d/3d videoumwandlung
DE10016074B4 (de) * 2000-04-01 2004-09-30 Tdv Technologies Corp. Verfahren und Vorrichtung zur Erzeugung von 3D-Bildern
US7254265B2 (en) * 2000-04-01 2007-08-07 Newsight Corporation Methods and systems for 2D/3D image conversion and optimization
DE10023512A1 (de) * 2000-05-13 2001-11-15 Leipold Andreas Verfahren zur Erzeugung von anaglyphischen Bildern mit Hilfe digitaler Systeme
CN1381025A (zh) * 2000-05-18 2002-11-20 皇家菲利浦电子有限公司 前景/背景检测装置
WO2001091468A1 (en) * 2000-05-19 2001-11-29 Koninklijke Philips Electronics N.V. Method, system and apparatus
AU2001266862A1 (en) * 2000-06-12 2001-12-24 Vrex, Inc. Electronic stereoscopic media delivery system
US8194118B2 (en) * 2000-06-16 2012-06-05 Dennis J Solomon Performance display system
GB2364590B (en) * 2000-07-07 2004-06-02 Mitsubishi Electric Inf Tech Method and apparatus for representing and searching for an object in an image
US6795068B1 (en) * 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
KR20030029649A (ko) * 2000-08-04 2003-04-14 다이나믹 디지탈 텝스 리서치 피티와이 엘티디 화상 변환 및 부호화 기술
JP2002077723A (ja) * 2000-09-01 2002-03-15 Minolta Co Ltd 動画像処理装置、動画像処理方法および記録媒体
US7027665B1 (en) * 2000-09-29 2006-04-11 Microsoft Corporation Method and apparatus for reducing image acquisition time in a digital imaging device
US6760469B1 (en) * 2000-10-05 2004-07-06 Canon Kabushiki Kaisha Flipping stereoscopic radiographs
US10742965B2 (en) 2001-01-23 2020-08-11 Visual Effect Innovations, Llc Faster state transitioning for continuous adjustable 3Deeps filter spectacles using multi-layered variable tint materials
US9781408B1 (en) 2001-01-23 2017-10-03 Visual Effect Innovations, Llc Faster state transitioning for continuous adjustable 3Deeps filter spectacles using multi-layered variable tint materials
US7604348B2 (en) * 2001-01-23 2009-10-20 Kenneth Martin Jacobs Continuous adjustable 3deeps filter spectacles for optimized 3deeps stereoscopic viewing and its control method and means
US7043058B2 (en) * 2001-04-20 2006-05-09 Avid Technology, Inc. Correcting motion vector maps for image processing
US8401336B2 (en) 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
DE10128530A1 (de) 2001-06-13 2002-12-19 Basf Ag Kühlmittel für Kühlsysteme in Brennstoffzellenantrieben enthaltend Azolderivate
EP1396819A4 (en) * 2001-06-15 2006-08-09 Sony Corp IMAGE PROCESSING APPARATUS AND METHOD AND IMAGING APPARATUS
EP1425707A4 (en) * 2001-07-06 2008-08-06 Vision Iii Imaging Inc IMAGE SEGMENTATION PERFORMED BY INDUCTION OF A PARALLAX DIFFERENCE
JP4896311B2 (ja) * 2001-07-18 2012-03-14 興和株式会社 眼底画像取得表示装置
US6803912B1 (en) * 2001-08-02 2004-10-12 Mark Resources, Llc Real time three-dimensional multiple display imaging system
US6816629B2 (en) * 2001-09-07 2004-11-09 Realty Mapping Llc Method and system for 3-D content creation
US7286168B2 (en) * 2001-10-12 2007-10-23 Canon Kabushiki Kaisha Image processing apparatus and method for adding blur to an image
JP5020458B2 (ja) 2001-11-24 2012-09-05 フェニックス スリーディー インコーポレイテッド 二次元画像列からの立体画像列の生成
US20030103136A1 (en) * 2001-12-05 2003-06-05 Koninklijke Philips Electronics N.V. Method and system for 2D/3D illusion generation
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
CN1650622B (zh) 2002-03-13 2012-09-05 图象公司 用于数字重新灌录或修改电影或其他图像序列数据的系统和方法
EP2262273A3 (en) * 2002-04-25 2013-12-04 Sharp Kabushiki Kaisha Image data creation device, image data reproduction device, and image data recording medium
DE60331534D1 (de) * 2002-04-25 2010-04-15 Sony Corp Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und bildverarbeitungsprogramm
IL150131A (en) * 2002-06-10 2007-03-08 Rafael Advanced Defense Sys A method for turning a series of monoscopic images into a series of stereoscopic images
US7043084B2 (en) * 2002-07-30 2006-05-09 Mitsubishi Electric Research Laboratories, Inc. Wheelchair detection using stereo vision
US20040032489A1 (en) * 2002-08-13 2004-02-19 Tyra Donald Wayne Method for displaying a visual element of a scene
AU2003274951A1 (en) * 2002-08-30 2004-03-19 Orasee Corp. Multi-dimensional image system for digital image input and output
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
JP2004363758A (ja) * 2003-06-03 2004-12-24 Konica Minolta Photo Imaging Inc 画像処理方法、撮像装置、画像処理装置及び画像記録装置
FR2858423B1 (fr) * 2003-07-29 2005-10-28 France Telecom Ecran a images variables avec l'angle de vue
EP1654884A1 (en) 2003-08-05 2006-05-10 Koninklijke Philips Electronics N.V. Multi-view image generation
GB2405764A (en) * 2003-09-04 2005-03-09 Sharp Kk Guided capture or selection of stereoscopic image pairs.
US7777764B2 (en) * 2003-09-11 2010-08-17 Sharp Kabushiki Kaisha Portable display device
GB0322840D0 (en) * 2003-09-30 2003-10-29 Lange Eric B Stereoscopic imaging
US7643025B2 (en) * 2003-09-30 2010-01-05 Eric Belk Lange Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
US8133115B2 (en) 2003-10-22 2012-03-13 Sony Computer Entertainment America Llc System and method for recording and displaying a graphical path in a video game
US20050131659A1 (en) * 2003-12-16 2005-06-16 Mei Hsaio L.S. Systems and methods for 3D modeling and asset management
JP4841250B2 (ja) * 2003-12-19 2011-12-21 ティディヴィジョン コーポレイション エス.エー. デ シー.ヴィ. 3dビデオゲーム・システム
US7499494B2 (en) * 2003-12-23 2009-03-03 Genesis Microchip Inc. Vector selection decision for pixel interpolation
US7346109B2 (en) * 2003-12-23 2008-03-18 Genesis Microchip Inc. Motion vector computation for video sequences
US7457438B2 (en) * 2003-12-23 2008-11-25 Genesis Microchip Inc. Robust camera pan vector estimation using iterative center of mass
US7480334B2 (en) * 2003-12-23 2009-01-20 Genesis Microchip Inc. Temporal motion vector filtering
WO2005066897A1 (ja) * 2004-01-06 2005-07-21 Sony Corporation 画像処理装置および方法、記録媒体、並びにプログラム
US20050168485A1 (en) * 2004-01-29 2005-08-04 Nattress Thomas G. System for combining a sequence of images with computer-generated 3D graphics
US20050226489A1 (en) * 2004-03-04 2005-10-13 Glenn Beach Machine vision system for identifying and sorting projectiles and other objects
US9424634B2 (en) 2004-03-04 2016-08-23 Cybernet Systems Corporation Machine vision system for identifying and sorting projectiles and other objects
CN1998153A (zh) * 2004-05-10 2007-07-11 辉达公司 用于视频数据的处理器
WO2006109252A2 (en) * 2005-04-11 2006-10-19 Humaneyes Technologies Ltd. Depth illusion digital imaging
JP2005333254A (ja) * 2004-05-18 2005-12-02 Sony Corp 画像処理装置および画像処理方法
JP4707368B2 (ja) * 2004-06-25 2011-06-22 雅貴 ▲吉▼良 立体視画像作成方法および装置
US9030532B2 (en) * 2004-08-19 2015-05-12 Microsoft Technology Licensing, Llc Stereoscopic image display
US20060071933A1 (en) 2004-10-06 2006-04-06 Sony Computer Entertainment Inc. Application binary interface for multi-pass shaders
US7643672B2 (en) * 2004-10-21 2010-01-05 Kazunari Era Image processing apparatus, image pickup device and program therefor
DE602005027379D1 (de) * 2004-10-26 2011-05-19 Koninkl Philips Electronics Nv Disparitätskarte
IL166305A0 (en) * 2005-01-14 2006-01-15 Rafael Armament Dev Authority Automatic conversion from monoscopic video to stereoscopic video
US20080246759A1 (en) * 2005-02-23 2008-10-09 Craig Summers Automatic Scene Modeling for the 3D Camera and 3D Video
US8004515B1 (en) * 2005-03-15 2011-08-23 Nvidia Corporation Stereoscopic vertex shader override
EP1869639A2 (en) * 2005-04-07 2007-12-26 Nxp B.V. Method and device for three-dimensional rendering
US7636126B2 (en) 2005-06-22 2009-12-22 Sony Computer Entertainment Inc. Delay matching in audio/video systems
JP4630149B2 (ja) * 2005-07-26 2011-02-09 シャープ株式会社 画像処理装置
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
EP1967016B1 (en) * 2005-12-19 2012-09-26 Koninklijke Philips Electronics N.V. 3d image display method and apparatus
WO2007085950A2 (en) 2006-01-27 2007-08-02 Imax Corporation Methods and systems for digitally re-mastering of 2d and 3d motion pictures for exhibition with enhanced visual quality
US7856125B2 (en) * 2006-01-31 2010-12-21 University Of Southern California 3D face reconstruction from 2D images
US7880746B2 (en) 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
US7965859B2 (en) 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
CA2653815C (en) 2006-06-23 2016-10-04 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
GB0613352D0 (en) * 2006-07-05 2006-08-16 Ashbey James A Improvements in stereoscopic imaging systems
US8885208B2 (en) * 2006-07-21 2014-11-11 Adobe Systems Incorporated Progressive refinement of an edited image using secondary high resolution image processing
KR100864826B1 (ko) * 2006-09-29 2008-10-23 한국전자통신연구원 디지털 방송기반의 3차원 정지영상 서비스 방법 및 장치
US8330801B2 (en) * 2006-12-22 2012-12-11 Qualcomm Incorporated Complexity-adaptive 2D-to-3D video sequence conversion
EP2106564A2 (en) * 2007-01-15 2009-10-07 Humaneyes Technologies Ltd. A method and a system for lenticular printing
KR100873638B1 (ko) * 2007-01-16 2008-12-12 삼성전자주식회사 영상 처리 방법 및 장치
JP5202546B2 (ja) * 2007-02-25 2013-06-05 ヒューマンアイズ テクノロジーズ リミテッド マルチ画像表示を較正および/または視覚化しかつゴーストアーチファクトを低減するためのするための方法およびシステム
US8005238B2 (en) 2007-03-22 2011-08-23 Microsoft Corporation Robust adaptive beamforming with enhanced noise suppression
FR2914437A1 (fr) * 2007-04-02 2008-10-03 Artistic Images Soc Par Action Procede de traitement d'image pour la synthese d'image autostereoscopique
JP4914278B2 (ja) * 2007-04-16 2012-04-11 富士フイルム株式会社 画像処理装置、方法およびプログラム
US8005237B2 (en) 2007-05-17 2011-08-23 Microsoft Corp. Sensor array beamformer post-processor
JP5109803B2 (ja) * 2007-06-06 2012-12-26 ソニー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US7869621B1 (en) * 2007-06-07 2011-01-11 Aydin Arpa Method and apparatus for interpreting images in temporal or spatial domains
US7884823B2 (en) * 2007-06-12 2011-02-08 Microsoft Corporation Three dimensional rendering of display information using viewer eye coordinates
US9035968B2 (en) * 2007-07-23 2015-05-19 Humaneyes Technologies Ltd. Multi view displays and methods for producing the same
US8629976B2 (en) * 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
US20090094173A1 (en) * 2007-10-05 2009-04-09 Adaptive Logic Control, Llc Intelligent Power Unit, and Applications Thereof
US20090132371A1 (en) * 2007-11-20 2009-05-21 Big Stage Entertainment, Inc. Systems and methods for interactive advertising using personalized head models
PL2229784T3 (pl) * 2007-12-27 2019-10-31 Psholix Ag Sposób i urządzenie do wytwarzania w czasie rzeczywistym obrazów typu multiview
US8086004B2 (en) * 2008-01-15 2011-12-27 Accuray Incorporated Use of a single X-ray image for quality assurance of tracking
US8487963B1 (en) 2008-05-30 2013-07-16 Adobe Systems Incorporated Preview representation of pixels effected by a brush tip area
US8385557B2 (en) 2008-06-19 2013-02-26 Microsoft Corporation Multichannel acoustic echo reduction
KR20110036882A (ko) * 2008-06-24 2011-04-12 파나소닉 주식회사 기록매체, 재생장치, 집적회로, 재생방법, 프로그램
US8325909B2 (en) 2008-06-25 2012-12-04 Microsoft Corporation Acoustic echo suppression
US8203699B2 (en) 2008-06-30 2012-06-19 Microsoft Corporation System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed
US7938540B2 (en) * 2008-07-21 2011-05-10 Disney Enterprises, Inc. Autostereoscopic projection system
WO2010010331A1 (en) * 2008-07-23 2010-01-28 Atelier Vision Limited The compositional structure, mechanisms and processes for the inclusion of binocular stereo information into representational media
BRPI0917272A2 (pt) * 2008-08-22 2015-11-10 Sharp Kk aparelho de processamento de sinal de imagem, método de processamento de sinal de imagem, aparelho de exibição de imagem, receptor de televisão e dispositivo eletrônico
US20100053310A1 (en) * 2008-08-31 2010-03-04 Maxson Brian D Transforming 3d video content to match viewer position
KR20100040236A (ko) * 2008-10-09 2010-04-19 삼성전자주식회사 시각적 관심에 기반한 2차원 영상의 3차원 영상 변환기 및 변환 방법
JP5321009B2 (ja) * 2008-11-21 2013-10-23 ソニー株式会社 画像信号処理装置、画像信号処理方法および画像投射装置
WO2010071860A2 (en) * 2008-12-18 2010-06-24 3Dfusion Corporation System and method for adaptive scalable dynamic conversion, quality and processing optimization, enhancement, correction, mastering, and other advantageous processing of three dimensional media content
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
TW201028964A (en) * 2009-01-23 2010-08-01 Ind Tech Res Inst Depth calculating method for two dimension video and apparatus thereof
US8565477B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8487938B2 (en) 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US20100199231A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8448094B2 (en) 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US9172940B2 (en) 2009-02-05 2015-10-27 Bitanimate, Inc. Two-dimensional video to three-dimensional video conversion based on movement between video frames
US8395709B2 (en) * 2009-03-04 2013-03-12 ATI Technology ULC 3D video processing
US8199186B2 (en) 2009-03-05 2012-06-12 Microsoft Corporation Three-dimensional (3D) imaging based on motionparallax
US8773355B2 (en) 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US9313376B1 (en) 2009-04-01 2016-04-12 Microsoft Technology Licensing, Llc Dynamic depth power equalization
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8660303B2 (en) 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US9498718B2 (en) 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US9015638B2 (en) 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
TWI383332B (zh) * 2009-05-08 2013-01-21 Chunghwa Picture Tubes Ltd 影像處理裝置及其方法
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US9182814B2 (en) 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US8487871B2 (en) 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
GB2470759A (en) * 2009-06-03 2010-12-08 Sony Comp Entertainment Europe Displaying videogame on 3D display by generating stereoscopic version of game without modifying source code
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
WO2011014419A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene
US20110025830A1 (en) 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
WO2011017485A2 (en) * 2009-08-07 2011-02-10 Light Prescriptions Innovators, Llc 3d autostereoscopic display with true depth perception
CN101631256B (zh) * 2009-08-13 2011-02-09 浙江大学 用于三维电视系统中2d视频到3d视频的转换方法
US8264536B2 (en) 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
US9141193B2 (en) 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US9294751B2 (en) 2009-09-09 2016-03-22 Mattel, Inc. Method and system for disparity adjustment during stereoscopic zoom
US8624959B1 (en) * 2009-09-11 2014-01-07 The Boeing Company Stereo video movies
US8508919B2 (en) 2009-09-14 2013-08-13 Microsoft Corporation Separation of electrical and optical components
US8330134B2 (en) 2009-09-14 2012-12-11 Microsoft Corporation Optical fault monitoring
US8976986B2 (en) 2009-09-21 2015-03-10 Microsoft Technology Licensing, Llc Volume adjustment based on listener position
US8428340B2 (en) 2009-09-21 2013-04-23 Microsoft Corporation Screen space plane identification
US8760571B2 (en) 2009-09-21 2014-06-24 Microsoft Corporation Alignment of lens and image sensor
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US8659592B2 (en) * 2009-09-24 2014-02-25 Shenzhen Tcl New Technology Ltd 2D to 3D video conversion
US8452087B2 (en) 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US8723118B2 (en) 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US9400548B2 (en) 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US8537200B2 (en) 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data
EP2494785A1 (en) * 2009-10-27 2012-09-05 Worth Keeping APS Method for creating a 3d presentation
US8988432B2 (en) 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
JP5047344B2 (ja) * 2009-12-28 2012-10-10 キヤノン株式会社 画像処理装置及び画像処理方法
US8631355B2 (en) 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US9019201B2 (en) 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US9268404B2 (en) 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US8933884B2 (en) 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8676581B2 (en) 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8265341B2 (en) 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8891067B2 (en) 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
US8687044B2 (en) 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
US8619122B2 (en) 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8717469B2 (en) 2010-02-03 2014-05-06 Microsoft Corporation Fast gating photosurface
JP2011166264A (ja) * 2010-02-05 2011-08-25 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8499257B2 (en) * 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US8633890B2 (en) 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US8928579B2 (en) 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
EP2539759A1 (en) 2010-02-28 2013-01-02 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US8472120B2 (en) 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US8655069B2 (en) 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US8411948B2 (en) 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US8422769B2 (en) 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
US20110223995A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US20110221755A1 (en) * 2010-03-12 2011-09-15 Kevin Geisner Bionic motion
US8279418B2 (en) 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US8213680B2 (en) * 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US8514269B2 (en) 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
US8523667B2 (en) 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
US8605763B2 (en) 2010-03-31 2013-12-10 Microsoft Corporation Temperature measurement and control for laser and light-emitting diodes
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
US8994786B2 (en) 2010-04-08 2015-03-31 City University Of Hong Kong Multiple view display of three-dimensional images
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US8379919B2 (en) 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
US8284847B2 (en) 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
US8498481B2 (en) 2010-05-07 2013-07-30 Microsoft Corporation Image segmentation using star-convexity constraints
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US20110292038A1 (en) * 2010-05-27 2011-12-01 Sony Computer Entertainment America, LLC 3d video conversion
US8970672B2 (en) 2010-05-28 2015-03-03 Qualcomm Incorporated Three-dimensional image processing
US8803888B2 (en) 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US9008355B2 (en) 2010-06-04 2015-04-14 Microsoft Technology Licensing, Llc Automatic depth camera aiming
US9557574B2 (en) 2010-06-08 2017-01-31 Microsoft Technology Licensing, Llc Depth illumination and detection optics
US8330822B2 (en) 2010-06-09 2012-12-11 Microsoft Corporation Thermally-tuned depth camera light source
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
US9384329B2 (en) 2010-06-11 2016-07-05 Microsoft Technology Licensing, Llc Caloric burn determination from body movement
US8675981B2 (en) 2010-06-11 2014-03-18 Microsoft Corporation Multi-modal gender recognition including depth data
US8982151B2 (en) 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8558873B2 (en) 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US8416187B2 (en) 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
US9053562B1 (en) * 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
US9132352B1 (en) 2010-06-24 2015-09-15 Gregory S. Rabin Interactive system and method for rendering an object
KR101731343B1 (ko) 2010-07-14 2017-04-28 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9344701B2 (en) 2010-07-23 2016-05-17 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US8613666B2 (en) 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US20120058824A1 (en) 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
CN103098458B (zh) 2010-09-10 2015-11-25 富士胶片株式会社 立体成像装置和立体成像方法
US9485497B2 (en) 2010-09-10 2016-11-01 Reald Inc. Systems and methods for converting two-dimensional images into three-dimensional images
WO2012032826A1 (ja) * 2010-09-10 2012-03-15 富士フイルム株式会社 立体撮像装置および立体撮像方法
US8831273B2 (en) 2010-09-10 2014-09-09 Reald Inc. Methods and systems for pre-processing two-dimensional image files to be converted to three-dimensional image files
KR101708306B1 (ko) * 2010-09-13 2017-02-20 엘지전자 주식회사 이동 단말기 및 그의 3d 이미지 합성방법
JP5175910B2 (ja) * 2010-09-16 2013-04-03 株式会社東芝 画像処理装置、画像処理方法およびプログラム
US20120069143A1 (en) * 2010-09-20 2012-03-22 Joseph Yao Hua Chu Object tracking and highlighting in stereoscopic images
US20120068996A1 (en) * 2010-09-21 2012-03-22 Sony Corporation Safe mode transition in 3d content rendering
US8988508B2 (en) 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
JP5477349B2 (ja) * 2010-09-30 2014-04-23 カシオ計算機株式会社 画像合成装置、及び画像検索方法、プログラム
US8548270B2 (en) 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
US9305398B2 (en) * 2010-10-08 2016-04-05 City University Of Hong Kong Methods for creating and displaying two and three dimensional images on a digital canvas
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
JP5942195B2 (ja) * 2010-10-27 2016-06-29 パナソニックIpマネジメント株式会社 3次元画像処理装置、3次元撮像装置および3次元画像処理方法
US8849633B2 (en) 2010-10-29 2014-09-30 Accuray Incorporated Method and apparatus for selecting a tracking method to use in image guided treatment
US8824630B2 (en) 2010-10-29 2014-09-02 Accuray Incorporated Method and apparatus for treating a target's partial motion range
US8592739B2 (en) 2010-11-02 2013-11-26 Microsoft Corporation Detection of configuration changes of an optical element in an illumination system
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
WO2012061549A2 (en) 2010-11-03 2012-05-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
US8184068B1 (en) * 2010-11-08 2012-05-22 Google Inc. Processing objects for separate eye displays
US8667519B2 (en) 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
US10726861B2 (en) 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
US9349040B2 (en) 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
US10234545B2 (en) 2010-12-01 2019-03-19 Microsoft Technology Licensing, Llc Light source module
WO2012078124A1 (en) * 2010-12-08 2012-06-14 Thomson Licensing Complexity estimation of a 2d/3d conversion
US8553934B2 (en) 2010-12-08 2013-10-08 Microsoft Corporation Orienting the position of a sensor
US8618405B2 (en) 2010-12-09 2013-12-31 Microsoft Corp. Free-space gesture musical instrument digital interface (MIDI) controller
KR101310922B1 (ko) * 2010-12-10 2013-09-25 엘지디스플레이 주식회사 입체 영상 표시장치와 그 구동방법
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8884968B2 (en) 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US8920241B2 (en) 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US9848106B2 (en) 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US9821224B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
US9823339B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US8385596B2 (en) 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US8994718B2 (en) 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
US8274552B2 (en) 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US9123316B2 (en) 2010-12-27 2015-09-01 Microsoft Technology Licensing, Llc Interactive content creation
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
US9386294B2 (en) 2011-01-05 2016-07-05 Google Technology Holdings LLC Method and apparatus for 3DTV image adjustment
US9113153B2 (en) * 2011-01-14 2015-08-18 Kodak Alaris Inc. Determining a stereo image from video
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8730232B2 (en) 2011-02-01 2014-05-20 Legend3D, Inc. Director-style based 2D to 3D movie conversion system and method
US8724887B2 (en) 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
US20120200676A1 (en) * 2011-02-08 2012-08-09 Microsoft Corporation Three-Dimensional Display with Motion Parallax
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US8497838B2 (en) 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9113130B2 (en) 2012-02-06 2015-08-18 Legend3D, Inc. Multi-stage production pipeline system
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9483836B2 (en) 2011-02-28 2016-11-01 Sony Corporation Method and apparatus for real-time conversion of 2-dimensional content to 3-dimensional content
US9551914B2 (en) 2011-03-07 2017-01-24 Microsoft Technology Licensing, Llc Illuminator with refractive optical element
US9067136B2 (en) 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
US8571263B2 (en) 2011-03-17 2013-10-29 Microsoft Corporation Predicting joint positions
US9470778B2 (en) 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US8503494B2 (en) 2011-04-05 2013-08-06 Microsoft Corporation Thermal management system
TWI462569B (zh) * 2011-04-22 2014-11-21 Mstar Semiconductor Inc 三維影像攝相機及其相關控制方法
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US9259643B2 (en) 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
US8702507B2 (en) 2011-04-28 2014-04-22 Microsoft Corporation Manual and camera-based avatar control
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US8888331B2 (en) 2011-05-09 2014-11-18 Microsoft Corporation Low inductance light source module
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9137463B2 (en) 2011-05-12 2015-09-15 Microsoft Technology Licensing, Llc Adaptive high dynamic range camera
US8788973B2 (en) 2011-05-23 2014-07-22 Microsoft Corporation Three-dimensional gesture controlled avatar configuration interface
JP5978695B2 (ja) * 2011-05-27 2016-08-24 株式会社Jvcケンウッド 裸眼立体ディスプレイ装置及び視点調整方法
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US9594430B2 (en) 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
US8526734B2 (en) 2011-06-01 2013-09-03 Microsoft Corporation Three-dimensional background removal for vision system
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US9098110B2 (en) 2011-06-06 2015-08-04 Microsoft Technology Licensing, Llc Head rotation tracking from depth-based center of mass
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US10796494B2 (en) 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
US8597142B2 (en) 2011-06-06 2013-12-03 Microsoft Corporation Dynamic camera based practice mode
US9724600B2 (en) 2011-06-06 2017-08-08 Microsoft Technology Licensing, Llc Controlling objects in a virtual environment
US8854424B2 (en) * 2011-06-08 2014-10-07 City University Of Hong Kong Generating an aerial display of three-dimensional images from a single two-dimensional image or a sequence of two-dimensional images
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
EP2717572B1 (en) 2011-06-24 2018-08-08 LG Electronics Inc. Encoding/decoding method and apparatus using a skip mode
US9342817B2 (en) 2011-07-07 2016-05-17 Sony Interactive Entertainment LLC Auto-creating groups for sharing photos
KR101888672B1 (ko) * 2011-07-27 2018-08-16 엘지디스플레이 주식회사 입체영상 표시장치와 그 구동방법
US8786730B2 (en) 2011-08-18 2014-07-22 Microsoft Corporation Image exposure using exclusion regions
US9219903B2 (en) 2011-08-22 2015-12-22 Pixar Temporal cadence perturbation for time-division stereoscopic displays
US9247229B2 (en) * 2011-08-22 2016-01-26 Pixar Temporal cadence perturbation for time-division stereoscopic displays
US9554114B2 (en) * 2011-09-15 2017-01-24 Broadcom Corporation Depth range adjustment for three-dimensional images
JP2013073598A (ja) * 2011-09-29 2013-04-22 Sony Corp 画像処理装置、画像処理方法、及びプログラム
US9557836B2 (en) 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
US9471988B2 (en) * 2011-11-02 2016-10-18 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
US9117281B2 (en) 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
WO2013069047A1 (ja) 2011-11-07 2013-05-16 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
US8854426B2 (en) 2011-11-07 2014-10-07 Microsoft Corporation Time-of-flight camera with guided light
CN103907340B (zh) 2011-11-07 2017-03-29 索尼电脑娱乐公司 图像生成装置和图像生成方法
WO2013069049A1 (ja) 2011-11-07 2013-05-16 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
US9894272B2 (en) 2011-11-07 2018-02-13 Sony Interactive Entertainment Inc. Image generation apparatus and image generation method
KR20130054176A (ko) * 2011-11-14 2013-05-24 삼성전자주식회사 3d 영상의 안정피로 측정 방법 및 장치
US9661307B1 (en) 2011-11-15 2017-05-23 Google Inc. Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
US8724906B2 (en) 2011-11-18 2014-05-13 Microsoft Corporation Computing pose and/or shape of modifiable entities
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US8803800B2 (en) 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US8971612B2 (en) 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
US8630457B2 (en) 2011-12-15 2014-01-14 Microsoft Corporation Problem states for pose tracking pipeline
US8879831B2 (en) 2011-12-15 2014-11-04 Microsoft Corporation Using high-level attributes to guide image processing
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9342139B2 (en) 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
WO2013108314A1 (ja) * 2012-01-18 2013-07-25 パナソニック株式会社 3次元映像処理装置および方法
JP5181083B1 (ja) * 2012-01-19 2013-04-10 パナソニック株式会社 立体画像表示制御装置、立体画像表示制御方法、及びプログラム
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
US9111350B1 (en) 2012-02-10 2015-08-18 Google Inc. Conversion of monoscopic visual content to stereoscopic 3D
US9135715B1 (en) * 2012-03-22 2015-09-15 Google Inc. Local feature cameras for structure from motion (SFM) problems with generalized cameras
US9286658B2 (en) * 2012-03-22 2016-03-15 Qualcomm Incorporated Image enhancement
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
KR20130114420A (ko) 2012-04-09 2013-10-18 한국전자통신연구원 2차원 동영상의 3차원 동영상으로의 변환 방법 및 장치
US9210401B2 (en) 2012-05-03 2015-12-08 Microsoft Technology Licensing, Llc Projected visual cues for guiding physical movement
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US9628770B2 (en) * 2012-06-14 2017-04-18 Blackberry Limited System and method for stereoscopic 3-D rendering
US8644596B1 (en) 2012-06-19 2014-02-04 Google Inc. Conversion of monoscopic visual content using image-depth database
CN104395929B (zh) 2012-06-21 2017-10-03 微软技术许可有限责任公司 使用深度相机的化身构造
US9836590B2 (en) 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
US8831285B2 (en) 2012-07-26 2014-09-09 Hewlett-Packard Development Company, L.P. Detecting objects with a depth sensor
US10719967B2 (en) 2012-08-01 2020-07-21 Dreamworks Animation L.L.C. Techniques for placing masking window objects in a computer-generated scene for stereoscopic computer-animation
US9696427B2 (en) 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
US8977037B1 (en) * 2012-08-31 2015-03-10 Google Inc. Methods and systems of creating a stereoscopic image
US9250653B2 (en) * 2012-09-28 2016-02-02 City University Of Hong Kong Capturing, processing, and reconstructing audio and video content of mobile devices
US9007365B2 (en) 2012-11-27 2015-04-14 Legend3D, Inc. Line depth augmentation system and method for conversion of 2D images to 3D images
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
US8882310B2 (en) 2012-12-10 2014-11-11 Microsoft Corporation Laser die light source module with low inductance
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9251590B2 (en) 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9274606B2 (en) 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
US9674498B1 (en) 2013-03-15 2017-06-06 Google Inc. Detecting suitability for converting monoscopic visual content to stereoscopic 3D
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
US9953213B2 (en) 2013-03-27 2018-04-24 Microsoft Technology Licensing, Llc Self discovery of autonomous NUI devices
KR101729883B1 (ko) * 2013-04-09 2017-04-24 비트애니메이트 인코포레이티드 2차원 비디오를 3차원 비디오로 변환하기 위한 방법 및 시스템
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
US9442186B2 (en) 2013-05-13 2016-09-13 Microsoft Technology Licensing, Llc Interference reduction for TOF systems
CN104424649B (zh) * 2013-08-21 2017-09-26 株式会社理光 检测运动物体的方法和系统
US9462253B2 (en) 2013-09-23 2016-10-04 Microsoft Technology Licensing, Llc Optical modules that reduce speckle contrast and diffraction artifacts
US9443310B2 (en) 2013-10-09 2016-09-13 Microsoft Technology Licensing, Llc Illumination modules that emit structured light
CN103533329B (zh) * 2013-10-09 2016-04-27 上海大学 一种2d转3d的视频自动评估方法
CN103595990B (zh) * 2013-10-30 2015-05-20 清华大学 运动感知的双目立体视频舒适度获取方法
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US9769459B2 (en) 2013-11-12 2017-09-19 Microsoft Technology Licensing, Llc Power efficient laser diode driver circuit and method
US9508385B2 (en) 2013-11-21 2016-11-29 Microsoft Technology Licensing, Llc Audio-visual project generator
US9971491B2 (en) 2014-01-09 2018-05-15 Microsoft Technology Licensing, Llc Gesture library for natural user input
KR101939243B1 (ko) * 2014-06-10 2019-01-16 비트애니메이트 인코포레이티드 입체 깊이 조정 및 초점 조정
WO2015193198A1 (en) * 2014-06-19 2015-12-23 Koninklijke Philips N.V. Method and apparatus for generating a three dimensional image
US9354794B2 (en) 2014-07-07 2016-05-31 Google Inc. Method and system for performing client-side zooming of a remote video feed
US10127783B2 (en) 2014-07-07 2018-11-13 Google Llc Method and device for processing motion events
US9501915B1 (en) 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream
US10140827B2 (en) 2014-07-07 2018-11-27 Google Llc Method and system for processing motion event notifications
US9449229B1 (en) 2014-07-07 2016-09-20 Google Inc. Systems and methods for categorizing motion event candidates
US9009805B1 (en) 2014-09-30 2015-04-14 Google Inc. Method and system for provisioning an electronic device
USD782495S1 (en) 2014-10-07 2017-03-28 Google Inc. Display screen or portion thereof with graphical user interface
US9131209B1 (en) * 2014-10-27 2015-09-08 Can Demirba{hacek over (g)} Method for automated realtime conversion of 2D RGB images and video to red-cyan stereoscopic anaglyph 3D
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
KR101648673B1 (ko) * 2015-06-26 2016-08-17 동서대학교산학협력단 360° vr 영상 콘텐츠제작을 위한 유손실 이미지 복원 및 컨버팅 방법
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
US10412280B2 (en) 2016-02-10 2019-09-10 Microsoft Technology Licensing, Llc Camera with light valve over sensor array
US10257932B2 (en) 2016-02-16 2019-04-09 Microsoft Technology Licensing, Llc. Laser diode chip on printed circuit board
US10462452B2 (en) 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
US10841491B2 (en) * 2016-03-16 2020-11-17 Analog Devices, Inc. Reducing power consumption for time-of-flight depth imaging
US10506237B1 (en) 2016-05-27 2019-12-10 Google Llc Methods and devices for dynamic adaptation of encoding bitrate for video streaming
US10957171B2 (en) 2016-07-11 2021-03-23 Google Llc Methods and systems for providing event alerts
US10380429B2 (en) 2016-07-11 2019-08-13 Google Llc Methods and systems for person detection in a video feed
US10192415B2 (en) 2016-07-11 2019-01-29 Google Llc Methods and systems for providing intelligent alerts for events
CN106454320B (zh) * 2016-11-01 2018-12-18 珠海明医医疗科技有限公司 一种低延迟生成立体图像的方法及设备
US11042984B2 (en) * 2016-11-10 2021-06-22 Movea Systems and methods for providing image depth information
US10599950B2 (en) 2017-05-30 2020-03-24 Google Llc Systems and methods for person recognition data management
US11783010B2 (en) 2017-05-30 2023-10-10 Google Llc Systems and methods of person recognition in video streams
US10664688B2 (en) 2017-09-20 2020-05-26 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
US11134227B2 (en) 2017-09-20 2021-09-28 Google Llc Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment
US11209528B2 (en) 2017-10-15 2021-12-28 Analog Devices, Inc. Time-of-flight depth image processing systems and methods
US11893795B2 (en) 2019-12-09 2024-02-06 Google Llc Interacting with visitors of a connected home environment
CN113282982B (zh) * 2021-04-30 2023-04-18 杭州申昊科技股份有限公司 一种用于喷泥状况评估铁轨安全的系统和方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4925294A (en) * 1986-12-17 1990-05-15 Geshwind David M Method to convert two dimensional motion pictures for three-dimensional systems
AU599155B2 (en) 1986-10-24 1990-07-12 Grass Valley Group, Inc., The Method and apparatus for processing a video signal in three dimensions
JPH0635391A (ja) * 1992-07-20 1994-02-10 Fujitsu Ltd 立体表示装置
US5510832A (en) * 1993-12-01 1996-04-23 Medi-Vision Technologies, Inc. Synthesized stereoscopic imaging system and method
KR100358021B1 (ko) * 1994-02-01 2003-01-24 산요 덴키 가부시키가이샤 2차원영상을3차원영상으로변환시키는방법및입체영상표시시스템
JP2951230B2 (ja) * 1994-09-22 1999-09-20 三洋電機株式会社 2次元映像から3次元映像を生成する方法
DE69528946T2 (de) * 1994-09-22 2003-10-02 Sanyo Electric Co Verfahren zum Umsetzen von zweidimensionalen Bildern in dreidimensionale Bilder
DE69523723D1 (de) 1994-12-15 2001-12-13 Sanyo Electric Co Verfahren zur Umsetzung zweidimensionaler Bilder in dreidimensionale Bilder in einer Videospielkonsole
KR0154921B1 (ko) * 1994-12-30 1998-11-16 배순훈 동영상 부호화 장치에 이용하기 위한 움직임 추정기
US5777666A (en) * 1995-04-17 1998-07-07 Sanyo Electric Co., Ltd. Method of converting two-dimensional images into three-dimensional images
AU6108296A (en) * 1995-06-07 1996-12-30 David M. Geshwind An interactive computer system for creating three-dimensiona l image information and for converting two-dimensional image information for three-dimensional display systems
US5748199A (en) * 1995-12-20 1998-05-05 Synthonics Incorporated Method and apparatus for converting a two dimensional motion picture into a three dimensional motion picture
AUPN732395A0 (en) * 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
KR100255748B1 (ko) * 1997-07-19 2000-05-01 전주범 가중된 블럭 정합 알고리즘에 의한 움직임 추정 방법 및장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100682071B1 (ko) * 2005-02-17 2007-02-12 강원대학교산학협력단 화상데이터의 입체영상변환장치 및 방법
KR100792852B1 (ko) * 2006-10-25 2008-01-14 전자부품연구원 단일 카메라를 이용한 이동 로봇의 랜드 마크 거리추출방법
US8295539B2 (en) 2007-12-07 2012-10-23 Samsung Electronics Co., Ltd. Method and system of immersive sensation enhancement for video sequence displaying

Also Published As

Publication number Publication date
EP1019873A1 (en) 2000-07-19
CN1278349A (zh) 2000-12-27
WO1999012127A1 (en) 1999-03-11
AUPO894497A0 (en) 1997-09-25
KR20010023596A (ko) 2001-03-26
US20020191841A1 (en) 2002-12-19
US6496598B1 (en) 2002-12-17
JP2001515287A (ja) 2001-09-18
CA2302199A1 (en) 1999-03-11

Similar Documents

Publication Publication Date Title
KR20010023561A (ko) 영상처리 방법 및 장치
RU2704244C1 (ru) Способ генерирования изображения виртуальной точки обзора и устройство обработки изображений
RU2718119C1 (ru) Устройство обработки информации, способ генерации изображения, способ управления и носитель данных
US8928654B2 (en) Methods, systems, devices and associated processing logic for generating stereoscopic images and video
US6747610B1 (en) Stereoscopic image display apparatus capable of selectively displaying desired stereoscopic image
Yamanoue et al. Geometrical analysis of puppet-theater and cardboard effects in stereoscopic HDTV images
CN108337497B (zh) 一种虚拟现实视频/图像格式以及拍摄、处理、播放方法和装置
US5739844A (en) Method of converting two-dimensional image into three-dimensional image
US9485487B2 (en) Method and apparatus for generating a signal for a display
US9094675B2 (en) Processing image data from multiple cameras for motion pictures
JP5132690B2 (ja) テキストを3次元コンテンツと合成するシステム及び方法
US8358332B2 (en) Generation of three-dimensional movies with improved depth control
US10095953B2 (en) Depth modification for display applications
JPH08331607A (ja) 三次元表示画像生成方法
JP2000503177A (ja) 2次元映像(motion picture)を3次元映像に変換する方法及び装置
JP2010505174A (ja) メニューディスプレイ
WO1998009445A1 (en) Method for producing a synthesized stereoscopic image
US20130063576A1 (en) Stereoscopic intensity adjustment device, stereoscopic intensity adjustment method, program, integrated circuit and recording medium
Turban et al. Extrafoveal video extension for an immersive viewing experience
Naimark Elements of real-space imaging: a proposed taxonomy
JP7011728B2 (ja) 画像データ出力装置、コンテンツ作成装置、コンテンツ再生装置、画像データ出力方法、コンテンツ作成方法、およびコンテンツ再生方法
JP4183499B2 (ja) 映像ファイル処理方法及び映像処理方法
AU8964598A (en) Image processing method and apparatus
MXPA00002201A (en) Image processing method and apparatus
Yuyama et al. Stereoscopic HDTV

Legal Events

Date Code Title Description
AMDR Request for amendment
U051 Notice for disposition of invalidation