KR20190117019A - 멀티-뷰 컨텐츠를 전달하기 위한 디스플레이 시스템 및 방법 - Google Patents
멀티-뷰 컨텐츠를 전달하기 위한 디스플레이 시스템 및 방법 Download PDFInfo
- Publication number
- KR20190117019A KR20190117019A KR1020197027617A KR20197027617A KR20190117019A KR 20190117019 A KR20190117019 A KR 20190117019A KR 1020197027617 A KR1020197027617 A KR 1020197027617A KR 20197027617 A KR20197027617 A KR 20197027617A KR 20190117019 A KR20190117019 A KR 20190117019A
- Authority
- KR
- South Korea
- Prior art keywords
- beamlet
- viewing
- viewing areas
- viewing area
- image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09F—DISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
- G09F3/00—Labels, tag tickets, or similar identification or indication means; Seals; Postage or like stamps
- G09F3/02—Forms or constructions
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
- G09G3/2003—Display of colours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
- G06F3/1446—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/002—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/02—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes by tracing or scanning a light beam on a screen
- G09G3/025—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes by tracing or scanning a light beam on a screen with scanning or deflecting the beams in two directions or dimensions
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/10—Intensity circuits
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/32—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using arrays of controllable light sources; using moving apertures or moving light sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/349—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/349—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
- H04N13/351—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2300/00—Aspects of the constitution of display devices
- G09G2300/04—Structural and physical details of display devices
- G09G2300/0439—Pixel structures
- G09G2300/046—Pixel structures with an emissive area and a light-modulating area combined in one pixel
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2300/00—Aspects of the constitution of display devices
- G09G2300/04—Structural and physical details of display devices
- G09G2300/0469—Details of the physics of pixel operation
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0261—Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/028—Improving the quality of display appearance by changing the viewing angle properties, e.g. widening the viewing angle, adapting the viewing angle to the view direction
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/068—Adjustment of display parameters for control of viewing angle adjustment
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0686—Adjustment of display parameters with two or more screen areas displaying information with different brightness or colours
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/10—Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2360/00—Aspects of the architecture of display systems
- G09G2360/14—Detecting light within display terminals, e.g. using a single or a plurality of photosensors
- G09G2360/141—Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light conveying information used for selecting or modulating the light emitting or modulating element
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2360/00—Aspects of the architecture of display systems
- G09G2360/14—Detecting light within display terminals, e.g. using a single or a plurality of photosensors
- G09G2360/145—Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light originating from the display screen
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 디스플레이 시스템은:하나 이상의 멀티-뷰(MV) 픽셀로서, 각각의 MV 픽셀은 빔렛(beamlet) 좌표 시스템에서 다른 방향으로 빔렛을 방출하도록 구성되는 멀티-뷰(MV) 픽셀;동작 시에 시청 영역 좌표 시스템에서 상기 MV 픽셀에 대해 위치된 다수의 시청 영역의 사양(specification)을 수신하는 입력 노드; 및 상기 입력 노드에 연결되고 동작하는 프로세서;를 포함하고, 상기 프로세서는:다수의 컨텐츠를 각각 상기 다수의 시청 영역과 연관시키고;상기 시청 영역 좌표 시스템과 상기 빔렛 좌표 시스템 사이를 변환하는 매핑을 결정하고;상기 매핑을 사용하여 상기 다수의 컨텐츠로부터 생성된 다수의 이미지 각각에 대해 하나의 시청 영역으로 향하는 각각의 MV 픽셀로부터 상기 이미지를 형성하기 위해 빔렛 번들(bundle)을 식별하고, 여기서 하나의 이미지를 형성하기 위해 하나의 시청 영역으로 향하는 빔렛 번들은 다른 이미지를 형성하기 위해 다른 시청 영역으로 향하는 빔렛 번들과 구분되고; 그리고 MV 픽셀에 대한 제어 신호를 출력하고, 여기서 상기 제어 신호는 각각의 번들 내의 각각의 빔렛의 색상 및 밝기를 정의하여 대응되는 이미지를 대응되는 시청 영역에 투사하며;상기 MV 픽셀은 상기 프로세서로부터 상기 제어신호에 응답하여, 상기 다수의 시청 영역에 상기 다수의 이미지를 각각 투사하는,디스플레이 시스템에 관한 것이다.
Description
본 개시는 디스플레이 시스템 및 방법, 특히 하나 이상의 멀티-뷰(MV) 픽셀을 사용하여 다수의 시청 영역에서 다수의 이미지를 형성할 수 있는 디스플레이 시스템 및 방법에 관한 것이다.
디스플레이 기술이 발전함에 따라, 디스플레이 장치는 선명한 이미지로 더 작고, 얇고, 저렴해졌다. 그러나, 디스플레이 장치의 기본적인 기능은 실질적으로 동일하게 유지되었다- 디스플레이 장치는 디스플레이 장치를 볼 수 있는 모든 위치에서 시청자에게 동일하게 동시에 나타나는 이미지를 형성한다.
예시적인 실시예에 따르면, 디스플레이 시스템은 하나 이상의 멀티-뷰(MV) 픽셀을 포함하는 것을 제공하고, 각각의 MV 픽셀은 빔렛(beamlet) 좌표 시스템에서 다른 방향으로 빔렛(개별적으로 제어가능한 빔)을 방출하도록 구성된다. 디스플레이 시스템은 동작 시에, 시청 영역 좌표 시스템에서 MV 픽셀에 대해 위치된 다수의 시청 영역의 사양(specification)을 수신하는 입력 노드를 포함한다. 디스플레이 시스템은 입력 노드에 결합된 프로세서를 포함한다. 프로세서는 다수의 컨텐츠를 각각 다수의 시청 영역과 연관시킨다. 프로세스는 동작 시에, (다수의 시청 영역이 특정되는) 시청 영역 좌표 시스템과 (MV-픽셀 빔렛은 다른 방향으로 방출되는) 빔렛 좌표 시스템 사이에서 변환하는 매핑을 결정한다 (예를 들어, 확인하고, 액세스한다). 매핑을 사용하여 다수의 컨텐츠로부터 생성된 다수의 이미지 각각에 대해 하나의 시청 영역으로 향하는 각각의 MV 픽셀로부터 빔렛 번들을 식별하여 이미지를 형성한다. 하나의 이미지를 형성하기 위해 하나의 시청 영역으로 향하는 빔렛 번들은, 다른 이미지를 형성하기 위해 다른 시청 영역으로 향하는 빔렛 번들과 구분된다. 프로세서는 MV 픽셀에 대한 제어 신호를 출력하고, 제어 신호는 각각의 번들 내의 각각의 빔렛의 색상 및 밝기를 정의하여 대응되는 이미지를 대응되는 시청 영역에 투사한다. MV 픽셀(들)은 프로세서로부터 제어신호에 응답하여, 다수의 시청 영역에 다수의 이미지를 각각 투사한다.
전술한 바와 같이 구성된 디스플레이 시스템은 빔렛이 각각의 MV 픽셀로부터 다른 방향으로 방출되는 빔렛 좌표 시스템과 다수의 시청 영역이 특정된 시청 영역 좌표 시스템 사이를 변환하는 매핑을 사용한다. 다수의 컨텐츠는 각각 다수의 시청 영역과 연관된다. 디스플레이 시스템은 매핑을 사용하여 하나의 시청 영역을 향하는 각각의 MV 픽셀로부터 빔렛 번들을 식별하여 시청 영역과 연관된 컨텐츠로부터 생성된 이미지를 형성한다. 디스플레이 시스템은 다수의 시청 영역과 각각 연관된 다수의 컨텐츠로부터 생성된 다수의(예를 들어, 다른) 이미지를 투사하기 위해 다수의 시청 영역의 각각에 대해 동일한 동작을 수행할 수 있다.
본 명세서에서, "이미지(image)"는 정적 이미지, 이미지 스트림(예를 들어, 비디오), 문자 패턴(예를 들어, 메시지 신호), 광 패턴 및 인간 눈으로 가시화될 수 있는 임의의 다른 컨텐츠의 표현을 포함할 수 있다.
다양한 실시예에서, 프로세서는 다수의 컨텐츠 자체를 다수의 시청 영역과 연관시키거나 다수의 컨텐츠의 다수의 컨텐츠 디스크립터(예를 들어, 컨텐츠 제공자, 컨텐츠 타입)를 다수의 시청 영역과 연관시킴으로써, 다수의 컨텐츠를 상기 다수의 시청 영역과 연관시킨다.
다양한 실시예에서, 동작 시에 다수의 시청 영역의 조작자 사양을 수신하고, 입력 노드로 상기 다수의 시청 영역의 사양을 전송하는 사용자-인터페이스 장치를 포함할 수 있다. 사용자-인터페이스 장치는 그래픽 입력 및 텍스트 입력 중 하나 또는 모두에 응답하여, 시청 범위를 표시하고 시청 범위에서 다수의 시청 영역을 특정 할 수있는 스크린을 포함할 수 있다. 예를 들어, 조작자는 시청 영역에서 그래픽으로 다수의 시청 영역의 둘레를(예를 들어, "드로잉(drawing)" 밀봉된 박스로) 특정하거나 또는 문자적으로 시청 영역 좌표 시스템에서 다수의 시청 영역의 좌표를 특정할 수 있다.
다양한 실시예에서, 디스플레이 시스템은 다수의 시청 영역을 식별하고, 입력 노드에 다수의 시청 영역의 사양을 전송하도록 구성된 센서를 포함할 수 있다. 예를 들어, 센서는 다수의 타겟의 위치를 탐지하고, 다수의 타겟의 탐지된 위치를 다수의 시청 영역으로 특정하도록 구성될 수 있다. 다수의 센서는(예를 들어, 센서에 제스처할 수 있는) 다수의 시청자 자신 또는 다수의 시청자 대용, 즉, 시청자가 착용할 수 있는 태그, 시청자가 휴대할 수 있는 추적가능한 모바일 장치(예를 들어, 스마트 폰, 완드), 차량과 같이 시청자를 운송할 수 있는 운반물, 또는 시청자를 나타낼 수 있는 임의의 다른 유형의 마커와 같이 다수의 시청자를 위치 및/또는 추적하는데 사용되는 요소일 수 있다. 센서가 이동하고 있는 다수의 타겟의 위치를 식별하도록 사용될 때, 디스플레이 시스템의 입력노드는 이동된 다수의 타겟의 식별된 위치에 기초하여 새로운 다수의 시청 영역의 사양을 수신할 수 있다. 프로세서는 다수의 컨텐츠를 새로운 다수의 시청 영역과 연관시키고, 그리고 각각의 새로운 시청 영역을 향하여 이미지를 형성하기 위해 MV 픽셀의 각각으로부터 빔렛 번들을 식별하기 위해, 다수의 컨텐츠로부터 생성된 다수의 이미지 각각에 대해 시청 영역 좌표 시스템과 빔렛 좌표 시스템 사이에서 변환하는 매핑을 사용한다. 디스플레이 시스템은 다수의 이미지를 각각 다수의 시청 영역으로 투사할 수 있다. 새로운 다수의 시청 영역과 연관된 다수의 컨텐츠는 (기존)다수의 시청 영역과 이전에 연관된 다수의 컨텐츠로부터 업데이트될 수 있다.
다른 측면에서, 전술한 디스플레이 시스템의 동작과 일반적으로 대응되는 디스플레이 방법이 제공된다. 디스플레이방법은 일반적으로 여섯 단계를 포함한다:
1) 다수의 시청 영역은 하나이상의 멀티-뷰(MV)픽셀에 대해 위치되고, 각각의 MV 픽셀은 빔렛 좌표 시스템에서 다른 방향에서 빔렛을 방출하도록 구성되며, 시청 영역 좌표 시스템에 위치한 다수의 시청 영역의 사양을 수신하는 단계;
2) 다수의 컨텐츠를 다수의 시청 영역과 각각 연관시키는 단계;
3) 시청 영역 좌표 시스템과 빔렛 좌표 시스템 사이에서 변환되는 매핑을 판단하는 단계;
4) 매핑을 사용하여 다수의 컨텐츠로부터 생성된 다수의 이미지 각각에 대해, 하나의 시청 영역으로 향하는 각각의 MV 픽셀로부터 빔렛 번들을 식별하여 이미지를 형성하고, 하나의 이미지를 형성하기 위해 하나의 시청 영역으로 향하는 빔렛 번들은 다른 이미지를 형성하기 위해 다른 시청 영역으로 향하는 빔렛 번들과 구분되는 단계;
5) MV 픽셀에 대한 제어 신호를 생성하고, 제어 신호는 각각의 번들 내의 각각의 빔렛의 색상 및 밝기를 정의하여 대응되는 이미지를 대응되는 시청 영역에 투사하는 단계; 및
6) MV 픽셀로부터 제어신호에 응답하여, 다수의 시청 영역에 상기 다수의 이미지를 각각 투사하는 단계; 를 포함한다.
도면에서, 동일한 참조 번호는 유사한 요소를 나타낸다. 도면에서 요소의 크기 및 상대 위치는 반드시 축척대로 그려지는 것은 아니다.
도 1은 디스플레이 시스템의 실시예를 도시한다.
도 2는 디스플레이 시스템의 프로세서의 실시예를 도시한다.
도 3은 일 실시예에 따른 시청 영역 좌표 시스템을 3D로 도시한다.
도 4는 일 실시예에 따른 시청 영역 좌표 시스템을 2D로 도시한다.
도 5a는 MV 픽셀(들)에 대한 시청 영역에서 다수의 시청 영역을 특정하는데 사용 가능한 사용자 인터페이스 장치의 샘플 스크린 뷰를 도시한다.
도 5b는 센서에 의해 위치가 식별되는 다수의 타겟에 기초하여 다수의 시청 영역을 특정하기 위해 센서의 샘플 사용을 도시한다.
도 6은 일 실시예에 따른 빔렛 좌표 시스템을 도시한다.
도 7a는 대응하는 이미지를 형성하기 위해 다수의 시청 영역 각각으로 향하는 하나 이상의 MV 픽셀로부터 빔렛 번들을 식별하기 위해 시청 영역 좌표 시스템과 빔렛 좌표 시스템 사이에서 변환하는 매핑을 사용하는 샘플 프로세스를 도시한다.
도 7b는 MV 픽셀이 서로 다른 빔렛 번들을 서로 다른 시청 영역에 투사하여 시청 영역에 위치한 눈에 다른 이미지(다른 패턴을 갖는 이미지 1 및 이미지 2)를 제시하는 예를 도시한다.
도 7c는 MV 픽셀이 서로 다른 빔렛 번들을 서로 다른 시청 영역에 투사하여, 시청 영역에 위치한 눈에 다른 이미지(다른 색상을 갖는 이미지 1 및 이미지 2)를 제시하는 다른 예를 도시한다.
도 8a는 일 실시예에 따라 다수의 시청 영역의 사양을 수신하고 다수의 이미지를 다수의 시청 영역에 투사하는 디스플레이 방법을 도시하는 흐름도이다.
도 8b는 시청 영역 좌표 시스템으로부터 빔렛 좌표 시스템으로의 매핑을 적용하여 빔렛 번들을 식별하는데 사용될 수있는 샘플 알고리즘의 흐름도이다.
도 8c는 빔렛 좌표 시스템으로부터 시청 영역 좌표 시스템으로의 매핑을 적용하여 빔렛 번들을 식별하는데 사용될 수있는 샘플 알고리즘의 흐름도이다.
도 9a 및 9b는 각각 다른 방향으로 다수의 빔렛을 방출할 수있는 프로젝터 픽셀을 포함하는 프로젝터로 형성된 MV 픽셀의 실시예를 도시한다.
도 9c는 광원과 광원으로부터의 광을 다른 방향으로 다수의 빔렛으로 분할할 수있는 렌즈의 조합으로 형성된 MV 픽셀의 다른 실시예다.
도 10a 및 10b는 시청 영역이 기존 위치에서 새로운 위치로 이동함에 따라 다수의 시청 영역으로 전달되는 이미지의 업데이트를 도시한다.
도 1은 디스플레이 시스템의 실시예를 도시한다.
도 2는 디스플레이 시스템의 프로세서의 실시예를 도시한다.
도 3은 일 실시예에 따른 시청 영역 좌표 시스템을 3D로 도시한다.
도 4는 일 실시예에 따른 시청 영역 좌표 시스템을 2D로 도시한다.
도 5a는 MV 픽셀(들)에 대한 시청 영역에서 다수의 시청 영역을 특정하는데 사용 가능한 사용자 인터페이스 장치의 샘플 스크린 뷰를 도시한다.
도 5b는 센서에 의해 위치가 식별되는 다수의 타겟에 기초하여 다수의 시청 영역을 특정하기 위해 센서의 샘플 사용을 도시한다.
도 6은 일 실시예에 따른 빔렛 좌표 시스템을 도시한다.
도 7a는 대응하는 이미지를 형성하기 위해 다수의 시청 영역 각각으로 향하는 하나 이상의 MV 픽셀로부터 빔렛 번들을 식별하기 위해 시청 영역 좌표 시스템과 빔렛 좌표 시스템 사이에서 변환하는 매핑을 사용하는 샘플 프로세스를 도시한다.
도 7b는 MV 픽셀이 서로 다른 빔렛 번들을 서로 다른 시청 영역에 투사하여 시청 영역에 위치한 눈에 다른 이미지(다른 패턴을 갖는 이미지 1 및 이미지 2)를 제시하는 예를 도시한다.
도 7c는 MV 픽셀이 서로 다른 빔렛 번들을 서로 다른 시청 영역에 투사하여, 시청 영역에 위치한 눈에 다른 이미지(다른 색상을 갖는 이미지 1 및 이미지 2)를 제시하는 다른 예를 도시한다.
도 8a는 일 실시예에 따라 다수의 시청 영역의 사양을 수신하고 다수의 이미지를 다수의 시청 영역에 투사하는 디스플레이 방법을 도시하는 흐름도이다.
도 8b는 시청 영역 좌표 시스템으로부터 빔렛 좌표 시스템으로의 매핑을 적용하여 빔렛 번들을 식별하는데 사용될 수있는 샘플 알고리즘의 흐름도이다.
도 8c는 빔렛 좌표 시스템으로부터 시청 영역 좌표 시스템으로의 매핑을 적용하여 빔렛 번들을 식별하는데 사용될 수있는 샘플 알고리즘의 흐름도이다.
도 9a 및 9b는 각각 다른 방향으로 다수의 빔렛을 방출할 수있는 프로젝터 픽셀을 포함하는 프로젝터로 형성된 MV 픽셀의 실시예를 도시한다.
도 9c는 광원과 광원으로부터의 광을 다른 방향으로 다수의 빔렛으로 분할할 수있는 렌즈의 조합으로 형성된 MV 픽셀의 다른 실시예다.
도 10a 및 10b는 시청 영역이 기존 위치에서 새로운 위치로 이동함에 따라 다수의 시청 영역으로 전달되는 이미지의 업데이트를 도시한다.
후술하는 설명에서, 설명의 목적을 위해, 본 발명의 철저한 이해를 통해 제공하기 위해 수많은 특정 세부사항이 설명된다. 그러나, 본 발명이 이 특정 세부사항 없이도 실시될 수 있다는 것이 명백할 것이다. 다른 예에서, 공지된 회로, 구조 및 기술은 설명의 이해를 불필요하게 모호하게하는 것을 피하기 위해 상세하기 도시되지 않고, 단지 블록도로 도시된다. 따라서, 제시된 특정 세부사항은 단지 예시일뿐이다. 특정한 구현들은 이러한 예시적인 세부사항과는 다를 수 있으며, 여전히 본 발명의 범위 내에 있는 것으로 고려된다. "일 실시예(one embodiment)" 또는 "실시예(an embodiment)"에 대한 설명에서, 실시예와 연관하여 설명된 특정한 특징, 구조 또는 특성은 본 발명의 적어도 하나의 실시예에 포함됨을 의미한다. 본 설명의 다양한 위치에 위치한 "일 실시예에서(in one embodiment)"라는 문구가 반드시 동일한 실시예를 지칭하는 것은 아니다.
도 1은 디스플레이 시스템(10)의 실시예를 묘사하는 시스템 다이어그램이다. 디스플레이 시스템(10)은, 하나 이상의 멀티-뷰(MV) 픽셀(12)(12개의 MV 픽셀(12a-12l)이 도시된 예시에 포함된다)을 포함하고, 각각의 MV 픽셀(12)은 도 6에 묘사된 바와 같이, 빔렛 좌표 시스템(42)에서 다른 방향으로 빔렛(14)을 방출하도록 구성된다. 본 명세서에 사용되는 "빔렛(Beamlets)"은 MV 픽셀로부터 방출되는 개별적으로 제어가능한 빔을 의미한다. 도 6은 다수의 방향에서 다수의 빔렛(14)을 방출하는 MV 픽셀(12a-12l) 중 하나를 도시한다. 스크린 상에 이미지를 형성하기 위해 수많은 광빔을 방출하는 이미지 프로젝터와는 달리, 각각의 MV 픽셀(12)로부터 빔렛(14)은 다수의 시청자의 시각 상에 눈에 띄도록 의도되어, 다수의 시청자는 각각 동일한 MV 픽셀(12)로부터 기원한 다른 빔렛(예를 들어, 다른 색상 및 밝기)을 볼 수 있다. 결과적으로, 시청자의 관점으로부터 각각의 MV 픽셀(12)의 외관은 시청자가 MV 픽셀(12)을 바라보는 각도에 의존한다. 설명의 편의를 위해 도 6에서, MV 픽셀(12h)은 도 6에서 몇 개의 빔렛(14)을 방출하도록 묘사되나, MV 픽셀(12h) 및 다른 MV 픽셀(12) 중 임의의 것으로부터 더 많은 빔렛(14)이 방출될 수 있음을 이해해야한다.
다시 도 1을 참조하면, 디스플레이 시스템(10)은 도 3에 부가적으로 묘사된바와 같이, 동작 시에, 시청 영역 좌표 시스템(40)에 위치한 다수의 시청 영역(18a 및 18b)("영역 1(ZONE 1)" 및 "영역 2(ZONE 2)")의 사양을 수신한다. 입력 노드(16)는 다른 장치 또는 시스템(예를 들어, UI 장치, 센서, 저장 장치, 컨텐츠 서버)으로부터 유선 및/또는 무선 매체를 포함하는 임의의 적합한 매체를 통해, 그리고 적합한 프로토콜(예를 들어, 블루투스, 와이파이, 무선전화, 광학, 초음파)를 통해 정보, 데이터, 및/ 또는 신호를 수신하는 것을 허용한다.
도 3은 각각 3-차원 체적(예를 들어, 박스)로서 특정되고, 하나 이상의 MV 픽셀(12a-12l)에 대해 위치하는 두개의 시청 영역(18a 및 18b)를 도시한다. 각각의 시청 영역(18)은 하나 이상의 MV 픽셀(12a-12l)에 의해 형성되는 이미지가 가시화될 수 있는 관찰지점을 정의한다. 따라서, 시청 영역(18)은 3-차원 체적(3D에서 관찰지점의 집합), 2-차원 범위(2D에서 관찰지점의 집합)으로서 정의될 수 있다.
시청 영역 좌표 시스템(40)은 다수의 시청 영역이 예를 들어, 하나 이상의 MV 픽셀을 둘러싸도록 위치되는 카르테시안 좌표 시스템 또는 극 좌표 시스템과 같은 임의의 적합한 좌표 시스템일 수 있다. 임의의 적합한 3D 공간 모델링 방법은 지도, 점 클라우드, 와이어 폴리곤 메쉬 및 가공된 폴리곤 메쉬와 같은 시청 영역 좌표 시스템(40)을 정의하도록 사용될 수 있다. 일부 실시예에서, 시청 영역 좌표 시스템(40)은 다수의 시청 영역(18)이 정의되는 시청 범위의 물리적인 차원에 기초할 수 있다.
일부 실시예에서, 시청 영역 좌표 시스템(40)은 MV 픽셀에 부착되는 3D 센서(예를 들어, 깊이 센서, 스테레오스코픽 카메라)의 시야 내 일 수 있고, 시청 영역 좌표 시스템(40)은 3D 센서의 3D 좌표 시스템일 수 있다. 예를 들어, 실-생활 3D 환경은 다수의 시청 영역이 특정되는 3D 시청 영역 좌표 시스템(40)을 얻기 위해, 3D 센서(예를 들어, 스테레오스코픽 카메라)에 의해 스캔된다.
다른 실시예에서, 시청 영역은 MV 픽셀에 부착된 2D 카메라의 시청 내 일 수 있고, 2D 카메라는 다수의 시청 영역을 식별하도록 센서로서 사용된다. 이 경우, 시청 영역 좌표 시스템(40)은 2D 카메라의 2D 픽셀 좌표 시스템에 기초한다. 예를 들어, 도 4는 2D에서 2D 카메라(미도시)의 2D 픽셀 좌표 시스템에 기초하는 시청 영역 좌표 시스템(40')을 도시한다. 이 예에서, 2D 시청 영역 좌표 시스템(40')은 하나 이상의 MV 픽셀(12a-12l)로부터 거리(D)의 평면 상에 설정한다. 지점(18c) 또는 범위(18d)는 시청 영역을 나타내기 위한 2D 시청 영역 좌표 시스템(40')에서 특정될 수 있다. 2D 시청 영역 좌표 시스템(40')은 반구 또는 다른 비-평면 표면과 같은 평면 외의 다른 형태일 수 있다. 일부 실시예에서, 2D 시청 영역 좌표 시스템(40')에서 각각 점에 대해 MV 픽셀(12a-12l)에 대한 고유한 시청 각도를 갖는 것이 바람직할 수 있어서, 빔렛 번들이 각각 시청 영역을 향해 지향되고, 각각 고유한 시청 각도를 갖는 하나 이상의 이러한 지점이 고유하게 식별될 수 있다. 그러면, 2D 시청 영역 좌표 시스템(40')에서의 다수의 비-중첩 시청 영역은 상호 배타적인 빔렛 번들과 연관(또는 "히트(hit)")될 수 있다.
다수의 시청 영역(18)은 다양한 방식으로 특정될 수 있다. 일부 실시예에 따르면, 디스플레이 시스템(10)은 동작 시에, 도 1에 도시된 바와 같이 다수의 시청 영역(18)의 실행이자 사양을 수신하고, 입력 노드(16)에 다수의 시청 영역의 사양을 전송하는 사용자 인터 페이스(User Interface, UI) 장치(20)를 포함할 수 있다. 도 5a는 시청 영역 좌표 시스템(40)에서 하나 이상의 MV 픽셀(12a-12l)에 대한 시청 범위(23)의 표현을 표시할 수있는 스크린(22)(예를 들어, 터치 스크린)을 포함하는 샘플 UI 장치(20)를 도시한다. 이 실시예들에서, 샘플 UI 장치(20)는 도 5a에 묘사된 바와 같이 태블릿 컴퓨터, 랩탑 또는 데스크탑 컴퓨터, 또는 스크린을 포함하는 임의의 전자 장치(예를 들어, 스마트폰)일 수 있고, 시청 범위(23) 내 다수의 시청 영역(18)의 사양을 허용하도록 구성된 시청 영역 사양 애플리케이션을 실행할 수 있다. 조작자는 UI장치(20)의 스크린(22)(예를 들어, 터치스크린) 또는 키보드 또는 임의의 다른 입력 장치(미도시)를 통해, 시청 영역 좌표 시스템(40) 내 시청 범위(23) 내 시청 영역을 특정할 수 있다.
조작자는 각각의 시청 영역을 그래픽으로, 예를 들어 지점을 "드로잉(drawing)"하여 2D 형상(예를 들어, 폴리곤, 원형, 타원형, 자유 형상) 및/ 또는 관찰지점을 나타내거나 또는 관찰지점의 집합을 나타내는(예를 들어, 개시하는) 3D 형상(예를 들어, 박스, 구)을 특정할 수 있다. 도 5a의 도시된 예에서, 조작자는 특정한 이미지가 가시화되어야 하는 관찰지점의 집합을 개시하는 박스(24)의 3D 형상을 도시한다. 그래픽-입력 다수의 시청 영역(18)은 UI장치(20)의 스크린 상에 시청 범위(23) 상에 중첩된 형상 또는 다른 표시로서 표현될 수 있다. 추가적으로 또는 대안적으로, 조작자는 예를 들어, UI장치(20)의 키보드를 통해 각각의 시청 영역을 정의하는 박스(24)의 정점(P1-P8)의 좌표를 입력함으로서, 다수의 시청 영역(18)을 텍스트로서 특정할 수 있다.
일부 실시예에서, UI장치(20)은 예를 들어, 조작자가 다수의 시청 영역을 특정하기 위해 시청 범위의 가시화를 요구하지 않을 때, 시청 범위를 표시할 수 있는 스크린을 포함할 필요는 없다. 이러한 실시예에서, UI 장치(20)는 다수의 시청 영역의 조작자 사양을 수신하도록 구성된 구성요소만이 필요하다. 이러한 구성요소는 제한 없이, 조작자가 시청 영역에 대응하여 표시(예를 들어, 좌석 번호, 구획 번호)를 입력할 수 있는 키보드 또는 키패드; 조작자가 시청 영역의 표시을 말할 수 있는 마이크로폰; 조작자가 시청 영역의 표시를 탭/제스처할 수 있는 터치/제스처-센시티브 패드; 조작자가 각각의 시청 영역을 특정하기 위해 시청 범위를 가리킬 수 있는 광학 포인터 등일 수 있다.
다른 실시예에 따라, 디스플레이 시스템(10)은 다수의 시청 영역(18)을 식별하고 도 1에 도시된 바와 같이 입력 노드(16)에 다수의 시청 영역의 사양을 전송하도록 구성된 센서(26)를 포함할 수 있다. 도 5b는 다수의 타겟(28a 및 28b)의 위치를 식별(예를 들어, 탐지)할 수 있고, 시청 영역 좌표 시스템(40) 내 다수의 시청 영역(18a 및 18b)으로서 다수의 타겟(28a 및 28b)의 식별된 위치를 특정할 수 있는 샘플 센서(26)를 도시한다. 센서(26)는 임의의 적합한 센싱 기술에 기초하여, 제한없이 광학 센서(예를 들어, 카메라, 비디오 카메라, 적외선 센서), 활성 객체를 추적할 수 있는 전자기(ElectroMagnetic, EM) 조사 시스템 센서, 활성 객체를 추적할 수 있는 GPS시스템 센서, RF센서(예를 들어, RFID태그를 조사할 수 있는 RFID 시스템), RF 삼각 측량 기술-기반 센서, 레이더 센서를 포함할 수 있다. 일부 실시예에서, 시청 범위(23)에 특정될 수 있는 다수의 시청 영역을 식별하기 위해 서로에 대해 그리고 시청 범위(23)에 대해 적절하게 위치된 다수의 센서가 사용될 수 있다. 동일한 유형 또는 다른 유형의 다수의 센서는 함께 사용될 수 있다.
예를 들어, 적합한 렌즈 및 광을 가지는 하나 이상의 카메라는 다수의 시청 영역(18)을 대응되게 특정하기 위해 다수의 타겟(28)을 인식하고 위치시킬 수 있는 센서로서 사용될 수 있다. 일부 실시예에서, 카메라(들)는 짧은 범위를 통해 볼 수 있는 깊이맵(depth map)을 생성할 수 있는 구조화된 광 또는 TOF(Time Of Flight)카메라와 같은 깊이-인식 카메라일 수 있다. 그러면, 깊이맵은 보고있는 것의 3D 표현을 근사하도록 처리될 수 있다. 다른 실시예에서, 카메라(들)는 스테레오스코픽 카메라 및/또는 LIDAR센서일 수 있다.
도 5b의 도시된 예에서, 센서(26)는 다수의 타겟(28a 및 28b)로서 잠재적 시청자의 위치를 탐지하고, 다수의 시청 영역(18a 및 18b)으로서 시청자의 탐지된 위치를 특정한다. 예를 들어, 지점, 2D 형상 및/ 또는 3D 형상은 각각의 탐지된 타겟(28)(예를 들어, 타겟(28)을 동봉하는 3D박스)에 할당될 수 있고, 할당된 지점, 2D 형상 및/ 또는 3D 형상은 타겟(28)의 시청 영역(18)을 특정하도록 사용될 수 있다. 센서(26)에 의해 식별되는 다수의 타겟(28a, 28b)의 위치에 기초하여 다수의 시청 영역을 특정하기 위한 과정은 후술하는 바와 같이, 센서(26)의 프로세서 및/ 또는 디스플레이 시스템(10)의 프로세서(50)에 의해 수행될 수 있다.
다른 실시예에서, 센서는 오디오(예를 들어, 음성 또는 시청자 또는 시청자 대리에 의해 생성되는 다른 소리), 온도(예를 들어, 시청자 또는 시청자 대리로부터 방출되는 열) 등과 같은 시청 영역의 속성을 식별(예를 들어, 픽업)하도록 구성될 수 있다. 식별된 속성은 예를 들어, 후술되는 프로세서(50)의 영역 및 컨텐츠 연계 모듈(36)에 의해 시청 영역의 적절한 컨텐츠(예를 들어, 높은-온도 시청 영역에서의 시청자를 위해 선택된/생성된 차가은 음료 광고)를 선택하고 생성하기 위해 사용될 수 있다.
도 6은 카르테시안 좌표 시스템 및 극 좌표 시스템과 같은 적합한 좌표 시스템일 수 있는 빔렛 좌표 시스템(42)를 묘사한다. 빔렛 좌표 시스템(42)은 특정한 전파 경로를 따라가는 각각의 MV 픽셀(12)로부터 방출되는 각각의 빔렛을 식별한다. 예를 들어, 각각의 빔렛의 전파 경로는 MV 픽셀에서의 빔렛 원점 및 전파 방향을 정의하는 (단위)벡터에 의해 정의될 수 있거나, 빔렛에 의해 형성된 방위각(α) 및 고도(β)와 같은 각도의 조합에 의해 특징 지어질 수 있다. 다른 예로서, 임의의 적절한 3D 공간 모델링 방법이 빔렛 좌표 시스템(42)에서 빔렛의 전파 경로를 정의하기 위해 사용될 수 있는데, 예컨대 각각의 전파 경로를 형성하는 데이터 포인트 세트 또는 각 전파 경로를 형성하는 복셀 세트(단위 xyz 치수를 갖는 체적)를 특정하는 복셀 데이터 방법을 특정하는 점 클라우드 방법을 특정한다. 3D 맵, 와이어 폴리곤 메쉬 및 텍스처 폴리곤 메쉬와 같은 다른 3D 모델링 방법이 사용될 수 있다. 일부 실시예에서, 도 6에 도시 된 바와 같이, 빔렛 좌표 시스템(42)은 각각의 MV 픽셀(12a)에서 빔렛의 원점(15a, 15b, 15c)에 의해 각각의 빔렛을 명시적으로 식별하며, 여기서 각각의 빔렛의 원점은 그 전파 경로와 암시적으로 관련된다. 다른 실시예에서, 빔렛 좌표 시스템(42)은 빔렛의 각각의 전파 경로를 명시적으로 식별 할 수있다.
일부 실시예에서, 각각의 빔렛의 전파 경로는 하나 이상의 MV픽셀의 기하학적 모델에 기초할 수 있다. 예를 들어, MV 픽셀의 빔렛 사이의 기하학적 관계와 정의는 캘리브레이션 측량을 통해 공장 내에서 발견할 수 있고, 또는 MV 픽셀에 포함된 렌즈의 반경 수차로 알려진 것과 같은 MV 픽셀의 광-기계식 디자인으로부터 참조될 수 있다. 다양한 실시예에서, 각각의 MV 픽셀 내의 빔렛(예를 들어, 빔렛의 광원)은 기하학적 배열(예를 들어, 2D 배열, 원형 배열)로 배열된다. 기하학적 배열로 배열된 빔렛의 전파 경로는 제한 없이 선형 보간; 선형 외삽; 비-선형 보간; 비선형-외삽; 테일러-급수 근사; 기준 프레임의 선형 변화; 기준 프레임의 비-선형 변화; 다항식, 구면 및/ 또는 지수 모델; 삼각법 조작을 포함하는 임의의 적합한 수학적 기술을 사용하여 기하학적으로 정의될 수 있다. 특정한 예로서, 선택된 빔렛의 전파 경로가 기하학적으로 정의되면, 적합한 보간 기술이 기하학적으로 정의된 빔렛 사이에서 빔렛의 전파 경로를 찾기 위해 사용될 수 있다. 다른 실시예에서, 각각의 빔렛의 전차 경로는 모든 빔렛을 고유하게 인코딩하기 위해 MV 픽셀 상의 패턴을 플래싱(예를 들어, 각각의 MV 픽셀 상의 빔렛을 선택적으로 켜고 끄는 것에 의해)하고, MV 픽셀의 시청 범위에 배치된 카메라를 사용하여 플래싱 패턴의 이미지를 캡처함으로써 발견될 수 있다. 캡처된 이미지는 빔렛의 각각의 전파 경로를 기하학적으로 정의하도록 빔렛 좌표 시스템(42) 상에 구성될 수 있다. 그레이 코드 패턴, NRZ(Non-Return-to-zero) 디지털 시퀀스, ASK(Amplitude-Shift-Keyed) 비트, 최대 길이 시퀀스, 시프트 레지스터 시퀀스에 제한 없이, 이를 포함하는 다양한 인코딩 패턴이 플래싱 패턴으로서 사용될 수 있다.
빔렛(14)은 방출 방향을 나타내는 화살촉을 갖는 간단한 라인으로서 첨부 도면에 도시되어 있지만, 각도 성분을 가질 수 있고 임의의 형상일 수 있다. 따라서, 단순한 라인으로서 빔렛의 특징은 대략적이며, 이는 일부 실시예에서 유효한 모델이지만 다른 실시예에서는 빔렛은 예를 들어 서치 라이트로부터의 빔과 유사한 형상을 갖는 것으로 모델링될 수있다. 다양한 예시적인 실시예들에서, 각각의 빔렛(14)은 시청자의 양안이 빔렛(14) 내에 있을 것으로 예상되고 빔렛(14)이 시청자의 양안에 떨어지도록 충분히 넓거나/크다. 따라서, 시청자는 두 눈 모두에서 동일한 빔렛(14)(예를 들어, 동일한 색상 및 밝기)을 볼 수있다. 다른 실시예들에서, 각각의 빔렛(14)은 두 개의 다른 빔렛(14)이 각각 시청자의 두 눈에 떨어지도록 개별적으로 제어되도록 충분히 좁거나/작다. 이 경우, 시청자는 두 눈으로 각각 다른 색상 및/또는 밝기의 두 빔렛(14)을 볼 수있다.
도 1로 돌아와서, 디스플레이 시스템(10)은 입력 노드(16)에 연결된 프로세서(제어기)(50)를 포함한다. 또한 도 2를 참조하면, 프로세서(50)는 다른 작업들 중에서 운영 시스템을 실행하고, 장치 드라이버를 실행하고, 본 발명의 다양한 실시예와 함께 사용되는 특수화된 애플리케이션 소프트웨어를 실행할 수있는 범용 컴퓨터일 수 있다. 일부 실시예에서, 프로세서(50)는 특수-목적 프로세서 일 수 있다. 프로세서(50)는 단일 장치로서 도시되나, 일부 실시예에서, 프로세서(50)의 기능은 프로세서로서 특징화되거나 특징화되지 않을 수 있는 다수의 장치 사이에 분배될 수 있다.
프로세서(50)는 프로세서 액세스 가능 메모리(35)의 데이터를 채우고, 업데이트하고 사용하고 그리고 관리할 수 있으며, 이는 도 2의 프로세서(50)의 일부로서 도시되나 일부 실시예에서 프로세서(50) 외부에 제공될 수 있다. 간략하게, 메모리(35)는 휘발성 저장 장치(예를 들어, RAM) 및/또는 임의의 다른 정보 중에서도 데이터,(예를 들어, 제어 신호(54)를 하나 이상의 MV 픽셀(12)에 전송하기위한) 장치 드라이버 및 프로세서(50)가 본 개시에서 설명 된 바와 같이 다양한 계산 및 처리를 수행 할 수 있게 하는 특정된 어플리케이션 소프트웨어를 저장할 수있는 비-휘발성, 비-일시적 저장 장치(예를 들어, ROM, EPROM, EEPROM, 하드 드라이브(들), 플래시 드라이브(들) 또는 고체 상태 메모리 기술, CD-ROM, DVD)이다. 메모리(35)는 단일 장치로서 도시되어 있지만, 다양한 실시예에서, 메모리(35)는 다수의 저장 장치로 분할될 수있다.
프로세서(50)는 입력 노드(16)를 통해, 예를 들어 UI 장치(20)(도 5a 참조) 또는 센서(26)(도 5b 참조)로부터 다수의 시청 영역(18a 및 18b)의 사양을 수신한다.
프로세서(50)는 다수의 컨텐츠를 다수의 시청 영역(18a 및 18b)과 연관시킨다. 이는 다수의 컨텐츠 자체를 다수의 시청 영역(18a 및 18b)과 연관시키거나, 또는 다수의 컨텐츠 제공자(예를 들어, 케이블 채널, 영화 채널, 라이브 스트림 소스, 뉴스 웹 사이트, 소셜 웹 사이트) 또는 다수의 시청 영역(18a 및 18b)을 갖는 다수의 컨텐츠 유형과 같은 다수의 컨텐츠 디스크립터를 연관시킴으로써 수행될 수있다.
프로세서(50)는 시청 영역 좌표 시스템(40)과 빔렛 좌표 시스템(42) 사이를 변환하는 매핑을 결정(예를 들어, 식별, 액세스)한다(도 6). 다양한 실시예에서, 시청 영역 좌표 시스템(40)과 빔렛 좌표 시스템(42) 사이의 매핑은 프로세서(50)가 액세스할 수있는 메모리(35)에서 생성 및 저장(또는 사전 저장)된다. 다른 실시예들에서, 프로세서(50)는 실시간 캘리브레이션 프로세스를 사용하여 운행시간 동안 시청 영역 좌표 시스템(40)과 빔렛 좌표 시스템(42) 사이의 매핑을 생성할 수 있다.
매핑은 하나 이상의 변환 함수로 표현된 표 또는 수학 관계식과 같은 다양한 형태 중 임의의 형태를 취할 수 있다. 일부 실시예에서 매핑은 시청 영역 좌표 시스템(40) 및 빔렛 좌표 시스템(42)에 정의된 기준 표시(예를 들어, 점, 선, 형상)의 기재에 기초할 수 있다. 예를 들어, 하나 이상의 MV 픽셀(12)에 부착된 제1 카메라는 MV 픽셀(12)의 시청 범위(23)의 이미지를 캡처하는데 사용된다. 제2 카메라 및 광원(예를 들어, LED)을 포함하는 레지스트레이션 장치(미도시)가 시청 범위에 배치되고, 광원이 플래시되고, 이는 MV 픽셀(12)의 제1 카메라에 의해 포착된다. 제1 카메라에 의해 이미지화된 바와 같이 시청 범위에서의 플래싱 광의 위치는(제1 카메라의 좌표 시스템에 기초할 수 있는) 시청 영역 좌표 시스템(40)에서의 기준으로서 제공될 수 있다. 인코딩 패턴(예를 들어, 그레이 코드 패턴, NRZ(Non-Return-to-zero) 디지털 시퀀스, ASK(Amplitude-Shift-Keyed) 비트, 최대 길이 시퀀스, 시프트 레지스터 시퀀스)이 각 MV 픽셀에서 방출된 모든 빔렛을 고유하게 인코딩하기 위해(각 MV 픽셀에서 빔렛을 선택적으로 켜고 끄므로서) 하나 이상에서 플래시된다. 시청 영역에 배치된 레지스트레이션 장치의 제2 카메라에 의해 캡처된 각각의 MV 픽셀로부터의 빔렛은(각 빔렛은 고유하게 인코딩되기 때문에) 식별될 수 있고 빔렛 좌표 시스템(42)에서 기준으로서 사용될 수 있다. 레지스트레이션 장치가 시청 범위에서 다른 위치로 이동된 상태에서 동일한 프로세스가 반복되어, 시청 영역 좌표 시스템(40)에서의 기준 세트 및 빔렛 좌표 시스템(42)에서의 기준 세트를 획득 할 수 있다. 두 좌표 시스템(40 및 42) 사이에서 변환되는 매핑은 두 좌표 시스템에서 이들 두 세트의 기준을 레지스트레이션, 정렬 또는 다른 방식으로 상관시키기 위해 발견될 수있다. 자동 3D 포인트 클라우드 레지스트레이션과 같은 이미지 처리의 다른 레지스트레이션 기술도 레지스트레이션을 수행하는 데 사용될 수 있다.
도 7a에 도시된 바와 같이, 프로세서(50)는 이미지를 형성하기 위해 다수의 컨텐츠로부터 생성된 다수의 이미지 "이미지 1 및 이미지 2(IMAGE 1 and IMAGE 2)" 각각에 대해, 상기에서 결정된(예를 들어, 식별, 액세스, 생성된) 매핑을 사용(적용)하여 각각의 하나의 시청 영역(18)으로 향하는 MV 픽셀(12a-12l)로부터 빔렛 번들(14)을 식별한다. 도시된 바와 같이, 각각의 번들(52a 또는 52b)은 시청자(28a 또는 28b)의 동공(28a'또는 28b(or 28b)')을 "히팅(hitting)"하고 망막(28a "또는 28b(or 28b)")으로 확산되어 각 시청자의 뇌에서 "이미지 1(IMAGE 1)" 또는 " 이미지 2(IMAGE 2)"를 형성하는 빔렛(14)을 포함한다. 시청자(28a)의 뇌에서 하나의 이미지 "이미지 1(IMAGE 1)"을 형성하기 위해 하나의 시청 영역(18a)에서 동공(28a')으로 향하는 빔렛(14)의 번들(52a)은 시청자(28b')의 뇌에서 다른 "이미지 2(IMAGE 2)"를 형성하기 위해 다른 시청 영역(18b)에서 동공(28b')으로 향하는 빔렛(14)의 번들(52b)과 다르다. 도 1에 도시된 바와 같이, 프로세서(50)는 MV 픽셀(12a-12l)에 대한 제어 신호(54)를 출력한다. 제어 신호(54)는 대응하는 이미지를 대응하는 시청 영역(18)에 투사하기 위해 각각의 번들(52) 내의 각각의 빔렛(14)의 색상 및 밝기(및 임의의 다른 바람직한 이미지 파라미터)를 정의한다. MV 픽셀(12a-12l)은 프로세서(50)로부터의 제어 신호(54)에 응답하여, 다수의 이미지를 다수의 시청 영역에 각각 투사한다.
도 7b 및 7c는 MV 픽셀(12a-12l)이 두 개의 시청 영역에 위치한 두 명의 다른 시청자에 대해 두 개의 다른 이미지를 형성하도록 기능하는 예를 도시한다. 도 7b 및 7c에서, 각각의 MV 픽셀은 2개의 섹션(예를 들어, 12a-1 및 12a-2)으로 분할되고, 제1 섹션(12a-1, 12b-1, 12c-1 등)은 시청자(또는 시청자의 눈)(28a)가 위치하는 제1 시청 영역으로 향하는 빔렛을 방출하는 것으로 가정되는 반면, 제2 섹션(12a-2, 12b-2, 12c-2 등)은 시청자(또는 시청자의 눈)(28b)가 위치한 제2 시청 영역으로 향하는 빔렛을 방출하는 것으로 가정된다. 제어 신호(54)는 대응하는 이미지를 대응하는 시청 영역으로 투사하기 위해 각 번들 내의 빔렛(14) 각각의 색상 및 밝기를 정의한다.
도 7b에서, 직사각형 패턴(12a-12d, 12e, 12h 및 12i-12l)을 형성하는 열 개(10)의 MV셀의 제1 섹션은 시청자(28a)의 눈에 "해칭(hatching)"으로 표시되는 색상 및 밝기를 갖는 빔렛을 방출하여, 시청자(28a)는 패턴1을 가지는 이미지1을 볼 수 있다. 여섯(6) 개의 MV 픽셀(12b-12c, 12f-12g, 12i 및 12l)의 제2 섹션은 시청자(28b)에게 "블롯칭(blotching)"으로 표시되는 색상 및 밝기를 갖는 빔렛을 방출하여, 시청자(28b)가 이미지 1의 패턴 1과 다른 패턴 2를 갖는 이미지 2를 볼 수 있다.
도 7c에서, 모든 열두 개(12)의 MV 픽셀(12a-12l)의 제1 섹션은 시청자(28a)가 이미지 1을 적색으로 볼 수 있도록, 시청자(28a)의 눈에 "R"로 표시되는 색상 및 밝기를 갖는 빔렛을 방출한다. 모든 열두 개(12)의 MV 픽셀(12a-12l)의 제2 섹션은 시청자(28b)가 녹색으로 이미지 2를 볼 수 있도록 시청자(28b)에 "G"로 표시되는 색상 및 밝기를 갖는 빔렛을 방출한다.
이들 각각의 예에서, 하나의 시청 영역을 "히팅(hit)"할 빔렛(14) 번들이 식별되고, 번들 내의 각 빔렛의 색상 및 밝기는 시청 영역에서의 컨텐츠에 기초하여 이미지를 형성하기 위해 제어 신호(54)에 의해 시청 영역에 연관된 컨텐츠에 대응하도록 설정된다.
본 명세서에 사용된 바와 같이, "이미지(IMAGE)"는 하나 이상의 MV 픽셀(12)로부터의 광 패턴으로부터 발생하는 것을 의미한다. 광 패턴은 각각의 MV 픽셀(12)로부터 방출된 빔렛 각각을 "온(on)" 또는 "오프(off)" 함으로써 그리고/또는 각각의 빔렛의 색상 및 밝기(강도)를 제어함으로써 생성된다. 이미지의 비-제한적인 예는 정적 이미지, 이미지 스트림(예를 들어, 비디오), 텍스트 패턴(예를 들어, 메시지, 간판),(예를 들어, 빔렛을 개별적으로 또는 집합적으로 예를 들어, 다르거나 다양한 속도, 다른 밝기/어둠 레벨, 다른 밝기/어둠 증가 또는 감소 속도 등에서 깜빡이거나, 또는 그렇지 않으면 "온(on)" 및 "오프(off)"로 깜박이거나 플래시되는) 광 패턴 및 인간의 눈에 가시화가능한 컨텐츠 중 임의의 하나 또는 조합을 포함한다.
일부 실시예에서, 제어 신호(54)는 색상 및 밝기에 더하여 스펙트럼 조성, 편광, 빔렛 형상, 빔렛 프로파일, 초점, 공간적 일관성, 시간적 일관성 및 다른 빔렛과 중첩과 같은 빔렛(14) 각각의 다른 파라미터를 정의할 수있다. 구체적으로, 빔렛은 일반적으로 날카로운 가장자리를 갖지 않으므로 인접한 빔렛은 다소 중첩될 수이었다. 중첩 정도는 빔렛 파라미터 중 하나에 의해 제어될 수있다.
MV 픽셀(12)에 대한 제어 신호(54)는 유선 및/또는 무선 매체를 포함하는 임의의 적합한 매체를 통해, 그리고 임의의 적합한 프로토콜(예를 들어, 블루투스, 와이 파이, 셀룰러, 광학, 초음파)을 통해 프로세서(50)로부터 출력될 수 있다.
도 2는 일 실시예에 따른 디스플레이 시스템(10)의 프로세서(50)의 세부 사항을 도시하고, 도 8a는 하나 이상의 MV 픽셀(12)과 함께 프로세서(50)에 의해 실행될 수 있는 샘플 방법을 도시한 흐름도이다. 도 2의 프로세서(50)의 다양한 구성 요소(32, 34, 36 및 38)는 이하에서 상세히 설명되는 바와 같이, 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합에 의해 실현될 수 있고, 각각의 구성 요소는 회로, 범용 프로세서 또는 소프트웨어 알고리즘을 실행하는 특수-프로세서에 의해 부분적으로 또는 전체적으로 실현될 수 있다.
도 8a의 블록(81)에서, 프로세서(50)는 시청 영역 좌표 시스템(40)에 위치한 다수의 시청 영역(18)의 사양을 수신하며, 다수의 시청 영역은 하나 이상의 멀티-뷰(MV) 픽셀(12)에 대해 위치된다.
프로세서(50)에서, 시청 영역 프로세서(32)는 입력 노드(16)를 통해 수신 된 다수의 시청 영역(18)의 사양을 처리하는 역할을 한다. 일부 실시예들에서, 입력 노드(16)를 통해 수신된 다수의 시청 영역(18)은 예를 들어, 다수의 시청 영역(18)이 조작자에 의해 UI 장치(20) 상에 특정될 때, 시청 영역 좌표 시스템(40)에서 명시적으로 규정될 수 있다. 다른 실시예들에서, 입력 노드(16)를 통해 수신된 다수의 시청 영역(18)은 예를 들어, 센서(26)에 의해 식별된 바와 같이 다수의 타겟의 위치의 형태로 암시적으로 정의될 수 있다. 이들 실시예에서, 시청 영역 프로세서(32)는 식별된 각각의 위치에 대응하는 점, 2D 형상 또는 3D 형상을 정의함으로와 같이 식별된 위치에 기초하여 다수의 시청 영역(18)을 명시적으로 특정하기 위해 임의의 필요한 처리를 수행한다. 시청 영역 프로세서(32)는 스티칭/레지스트레이션, 형태적 필터링, 임계값, 픽셀 카운팅, 이미지 세분화, 얼굴 감지, 가장자리 감지 및 얼룩 감지 및 조작과 같은 센서(26)에 의해 식별된 다수의 타겟의 위치를 처리(예를 들어, 인식)하기 위해 다수의 이미지 처리 기술 중 임의의 것을 사용할 수 있다. 시청 영역 프로세서(32)는 다수의 타겟의 처리된(예를 들어, 인식된) 위치에 기초하여 다수의 시청 영역을 특정한다. 다양한 실시예에서, 다수의 시청 영역은 프로세서(50)의 다양한 구성 요소에 의해 액세스 가능하도록 메모리(35)에 저장될 수 있다.
도 8a의 블록(82)에서, 프로세서(50)는 다수의 컨텐츠를 다수의 시청 영역(18)과 각각 연관시킨다. 프로세서(50)에서, 연관 애플리케이션을 실행하는 영역-및-컨텐츠 연관 모듈(36)은 연관을 수행할 책임이 있다. 이를 위해, 메모리(35)는 다수의 컨텐츠 및/또는 다수의 컨텐츠의 컨텐츠 디스크립터를 저장할 수 있다. 예를 들어, 다수의 컨텐츠 또는 컨텐츠 디스크립터는 프로세서(50)에 의해 액세스 가능하게 메모리(35)의 일부로서 집합적으로 제공하는 함께 네트워크화된 하나 이상의 컨텐츠 서버에 저장될 수 있다.
다수의 컨텐츠 자체가(이미지가 생성될 수 있는 것에 기초하여) 저장될 수 있거나, 또는 예를 들어 컨텐츠 디스크립터(예를 들어, 컨텐츠 제공자, 컨텐츠 유형)가 저장될 수 있어, 네트워크 연결을 통해 다수의 컨텐츠에 액세스하는데 사용될 수 있다. 이들 실시예에서, 영역-및-컨텐츠 연관 모듈(36)은 각각의 시청 영역에 대한 특정한 컨텐츠 또는 컨텐츠 디스크립터를 선택할 수 있다. 다른 실시예에서, 영역-및-컨텐츠 연관 모듈(36)은 각각의 시청 영역에 대한 특정 컨텐츠를 창조(생성) 할 수있다.
영역-및-컨텐츠 연관 모듈(36)에서 실행되는 연관 프로그램은 각각 다수의 시청 영역에 대한 다수의 컨텐츠를 불러오거나 또는 생성하는 역할을 한다. 연관 프로그램은 다수의 시청 영역(18)을 다수의 컨텐츠와 연관시키기 위해 정의된 연관 규칙을 참조할 수 있다. 예를 들어, 규칙은 시청 영역의 특성에 기초하여 각각의 시청 영역에 대한 특정한 컨텐츠를 선택하거나 또는 참조하는데 사용될 수 있고, 또는 시청 영역의 특성에 기초하여 또는 센서(26)가 타겟의 특징에 기초하여 시청 영역을 특정하기 위해 타겟(예를 들어, 시청자 또는 시청자 대용)의 위치를 검출하기 위해 사용되는 경우, 각각의 시청 영역에 대한 특정 컨텐츠를 선택하거나 생성하는데 사용될 수 있다. 특정 예로서, 다수의 컨텐츠가 하나 이상의 MV 픽셀(12)에 대한 시청 영역의 위치와 연관될 수 있어서, 이러한 컨텐츠는 위치에 표시하기에 적절하게 특히 선택된 이미지를 생성하기위한기초로서 사용될 수 있다. 또 다른 예로서, 다수의 컨텐츠가 시청 영역에서 타겟(예를 들어, 시청자)과 연관되어 있어, 그 컨텐츠는 타겟에 적합하게 선택된 이미지를 생성하기 위한 기초로서 사용될 수 있다.
다른 실시예에서, 입력 노드(16)를 통해 수신된 다수의 시청 영역(18)의 사양은 각각 다수의 컨텐츠와 연관될 수있다. 예를 들어, UI 장치(20)가 다수의 시청 영역(18)을 특정하기 위해 사용될 때, UI 장치(20)는 예를 들어 UI 장치(20)에 대한 조작자 입력에 기초하여, 특정된 시청 영역(18)을 다수의 컨텐츠와 각각 연관시키기 위해 추가로 사용될 수있다. 이러한 실시예에서, 프로세서(50)의 영역-및-컨텐츠 연관 모듈(36)은 입력 노드(16)를 통해 수신된 시청 영역(18)과 다수의 컨텐츠 사이의 연관을 수신 및/또는 검증한다.
일부 실시예에서, 다수의 시청 영역(18)과 연관되는 다수의 컨텐츠는 영역-및-컨텐츠 연관 모듈(36)에 의해 실시간으로 생성될 수있다. 예를 들어, 영역-및-컨텐츠 연관 모듈(36) 상에서 실행되는 연관 애플리케이션은 예를 들어, 시청 영역의 특징의 함수로서 각각의 시청 영역에 대해 실시간으로 컨텐츠(예를 들어, 간판, 광 패턴)를 생성할 수 있다.
도 8a의 블록(83)에서, 프로세서(50)는 시청 영역 좌표 시스템(40)과 빔렛 좌표 시스템(42) 사이를 변환하는 매핑을 결정(예를 들어, 식별, 액세스, 생성)한다. 다양한 실시예에서, 프로세서(50)는 저장된 매핑에 액세스할 때, 매핑은 메모리(35) 내에 저장(또는 미리 저장)될 수 있다. 프로세서(50)에서, 매핑 엔진(34)은 매핑을 결정(예를 들어, 식별, 액세스, 생성)할 책임이 있다.
(예를 들어, 관찰 영역 좌표 시스템(40)으로부터 빔렛 좌표 시스템(42)으로 변환 그리고 빔렛 좌표 시스템(42)에서 시청 영역 좌표 시스템(40)으로 변환하는)다수의 매핑이 메모리(35)에 저장될 수 있고, 매핑 엔진(34)은 그로부터 하나 이상의 적절한 매핑(들)에 선택적으로 액세스 할 수 있다. 다양한 실시예에서, 매핑 엔진(34)은 매핑(들)을 결정(예를 들어, 액세스)하고, 후술될 빔렛 번들 식별 모듈(38)은 각각의 시청 영역에 히팅하는 빔렛 번들을 식별하기 위해 매핑(들)을 적용한다.
전술한 바와 같이, 시청 영역 좌표 시스템(40)과 빔렛 좌표 시스템(42) 사이의 매핑은 메모리(35)에 미리-저장될 수 있거나, 또는 적절한 타이밍에서 입력 노드(16)를 통해 메모리(35)로 수신될 수 있다. 예를 들어, UI 장치(20)가 다수의 시청 영역(18)을 특정하기 위해 사용될 때, UI 장치(20) 상에서 실행되는 시청 영역 사양 애플리케이션에 의해 사용되는 시청 영역 좌표 시스템(40)은 UI 장치(20)로부터 입력 노드(16)를 통해 다수의 시청 영역(18)의 사양과 함께 수신될 수 있는 매핑을 생성하는데 사용될 수 있다.
도 8a의 블록(84)에서, 블록(83)의 매핑(판정/식별/액세스/생성)을 사용하여,(영역-및-컨텐츠 연관 모듈(36)에 의해 블록(82)에서 다수의 시청 영역과 연관된) 다수의 컨텐츠로부터 생성된 다수의 이미지 각각에 대해, 매핑 엔진(34)에 의해 프로세서(50)는 하나의 시청 영역으로 향하는 각각의 MV 픽셀로부터 빔렛 번들을 식별하여 이미지를 형성한다. 프로세서(50)에서, 번들 식별 애플리케이션을 실행하는 빔렛-번들 식별 모듈(38)은 다수의 시청 영역(18a, 18b)으로 향하는 빔렛의 다수의 번들(52a, 52b)을 식별하여 다수의 이미지를 각각 형성하는 매핑을 적용하는 역할을 한다(전술한 도 7a, 7b 및 7c의 예를 참조). 일반적으로, 각각의 이미지에 대한 번들 식별 애플리케이션은 이미지를 형성하기 위해 대응하는 시청 영역 상에/내에 "히트(hit)"또는 "랜드(land)"하는 빔렛 번들을 식별한다.
도 8b는 빔렛 번들 식별 모듈(38)에 의해 시청 영역 좌표 시스템(40)으로부터 빔렛 좌표 시스템(42)으로의 매핑을 적용하여, 다수의 시청 영역 각각으로 향하는 각각의 빔렛 번들을 식별하기 위해 사용될 수 있는 샘플 알고리즘의 흐름도이다. 다수의 시청 영역 각각에 대해, 블록(87)에서, 시청 영역의 정점이 정의된다. 도 5a를 참조하면, 예를 들어 박스(24)에 의해 정의된 시청 영역에 대하여, 정점(P1-P8)이 정의된다. 블록(88)에서, 각각의 MV 픽셀에 대해(시청 영역 좌표 시스템에서 빔렛 좌표 시스템으로의) 매핑은 각각의 정점에 적용되어, 시청 영역의 각 정점을 "히트(hit)"하는 최외곽 빔렛을 식별한다. 본 명세서에 사용된 바와 같이, 최외각 수단은 MV 픽셀의 외부 주변부를 향한다. 블록(89)에서, 각각의 MV 픽셀에 대해, 정점에 히트되는 최외각 빔렛에 의해 바운드되는 임의의 다른 빔렛도 시청 영역을 "히트(hit)"하는 것으로 밝혀졌다.
도 8c는 빔렛 번들 식별 모듈(38)에 의해 빔렛 좌표 시스템(42)으로부터 시청 영역 좌표 시스템(40)으로의 매핑을 적용하여, 각각의 다수의 시청 영역을 향하는 빔렛 번들을 식별하기 위해 사용될 수 있는 샘플 알고리즘의 흐름도이다. 각각의 MV 픽셀의 빔렛 각각에 대해, 블록(90)에서, 빔렛이 "히트(hit)"하는 시청 영역을 식별하기 위해(빔렛 좌표 시스템에서 시청 영역 좌표 시스템으로의) 매핑이 적용된다. 각각의 MV 픽셀의 모든 빔렛이 평가된 후, 각각의 시청 영역은 시청 영역을 "히트(hit)"하는 MV 픽셀로부터의 빔렛 세트와 연관된다.
도 8a의 블록(85)에서, 프로세서(50)는 MV 픽셀(12a-12l)에 대한 제어 신호(54)을 생성하며, 제어 신호는 대응하는 시청 영역에 대응하는 이미지를 투사하기 위해 각각의 번들 내 빔렛의 각각의 색상 및 밝기를 정의한다. 예를 들어, 제어 신호(54)는 각각의 빔렛에 대해 투명값("α") 및 광도값("L")을 포함하는 YCbCr 또는 RGB공간(예를 들어, 가능한 컬러의 전체 팔레트) 에서 색상을 정의할 수 있다.
도 8a의 블록(86)에서, 프로세서(50)로부터 제어 신호(54)에 응답하여 하나 이상의 MV 픽셀(12a-12l)은 다수의 시청 영역에 다수의 이미지를 각각 투사한다.
일부 실시예에서, 하나의 이미지를 형성하는 빔렛번들과 다른 이미지를 형성하는 빔렛 번들은 상호 배타적이다. 예를 들어, 도7-7c를 참조하면, 시청자가 "이미지 1(IMAGE 1)"를 볼 수있는 시청 영역에 매핑되는 빔렛의 번들(52a) 및 시청자가 "이미지 2(IMAGE 2)"를 볼 수있는 시청 영역에 매핑되는 빔렛 번들(52b)은 각각 서로 상호 배타적이다. 다른 실시예에서, 빔렛의 일부는 다수의 이미지에 의해(즉, 다수의 번들에 의해) 예를 들어, 시청 영역들 사이의 차이를 피하거나 혼합 효과를 달성하기 위해 이미지 가장자리 가까이에 공유될 수 있다.
하나 이상의 MV 픽셀(12a-12l)은 임의의 다양한 구성으로 형성될 수 있다. 도 9a, 9b 및 9c는 MV 픽셀의 세 개의 비-제한적인 예시적인 구성을 도시한다. 도 9a는 각각 특정 방향으로 빔렛(14)을 각각 방출하는 다수의 프로젝터 픽셀("픽스(PIX)")을 포함하는 프로젝터(61)로 형성된 MV 픽셀(12x)의 단순화된 표현이다. 도시된 예에서, 각각 다른 방향으로 빔렛(14)을 방출하도록 구성된 스무 개(20)의 프로젝터 픽셀(PIX 1-PIX 20)이 포함된다. 따라서 열두 개의 프로젝터 픽셀(PIX 1-PIX 20)에서 각각 방출되는 열두 개의 빔렛(14-1-14-20)은 스무 개의 다른 방향으로 연장된다. 각각의 프로젝터 픽셀(PIX)로부터 각각의 빔렛의 색상 및 밝기는 독립적으로 제어 가능하다. "피코 프로젝터(pico-projector)"와 같은 임의의 적합한 프로젝터(예를 들어, LCD, DLP, LCoS)가 MV 픽셀(12x)을 형성하는데 사용될 수있다. 다양한 실시예에서, 256(= 16x16) 프로젝터 픽셀 내지 수백만 이상의 프로젝터 픽셀을 포함하는 프로젝터가 사용될 수 있으나, 이에 제한되지는 않는다:
VGA: 640 x 480 = 307,200 프로젝터 픽셀
XGA: 1024 x 768 = 786,432 프로젝터 픽셀
720p: 1280 x 720 = 921,600 프로젝터 픽셀
1080p: 1920 x 1080 = 2,073,600 프로젝터 픽셀
UHD 4K: 3840 x 2160 = 8,294,400 프로젝터 픽셀
MV 픽셀을 형성하는데 사용하기 적합한 다양한 피코-프로젝터가 상용적으로 이용가능하다. 간단하게, 피코-프로젝터는 광원(예를 들어, LED, 레이저, 백열등); 영상기에 광을 향하게하는 집광 수단; 빛을 차단하고 빛을 투사 광학계로 향하도록 디지털-디스플레이 신호를 수용하는 일반적으로 DMD(Digital Micromirror Device) 또는 디지털-디스플레이 신호를 LCOS(Liquid-Crystal-On-Silicon) 장치; 스크린 상에 디스플레이 이미지를 투사하고 또한 디스플레이 이미지의 포커싱과 같은 다른 기능을 허용하는 투사(또는 출력) 광학계; 및 광원 드라이버, 인터페이스 회로, 및 비디오 및 그래픽 프로세서를 포함하는 제어 전자장치를 포함한다. 일부 실시예에서, 상용 피코-프로젝터는, 예를 들어(빔렛(14)이 시청자의 눈에 의해 수신되도록 의도됨에 따라) 종래의 프로젝션 애플리케이션과 비교하여 밝기를 감소시키기 위해 MV 픽셀로서 사용되도록 수정될 수있다. 프로세서(50)로부터의 제어 신호(54)는 하나 이상의 MV 픽셀(12x)을 활성화하여, 각각의 빔렛의 컬러 및 밝기가 제어되면서, 다른 방향으로 전파되는 각각의 MV 픽셀로부터 빔렛(14)을 생성한다.
도 9b는 도 9a의 나타난 것보다 더 상세한 프로젝터를 형성하는 다른 MV 픽셀(12y)을 나타낸다. MV 픽셀(12y)는 프로젝터 픽셀 "픽스(PIX)", 광원(63), 및 렌즈(64)로 구성되는 프로젝터 픽셀 배열(62)을 포함한다. 도시된 실시예에서, 프로젝터 픽셀 배열(62)(예를 들어, DMD 또는 LCoS 장치)은 256(=16X16) 프로젝터 픽셀(PIX 1-PIX 256)을 포함한다. 광원(63)은 프로젝터 픽셀 배열(62) 뒤에 배치되는 것으로 묘사되나, 다른 실시예에서 광원(63)은 투사 기술의 기능이 사용되는 바와 같이 투사된 픽셀 배열(62)의 앞에 배치될 수 있다. 프로세서(50)로부터 제어 신호(54)가 선택된 투사 픽셀 "픽스(PIX)"을 활성화시키면, 이들 투사 픽셀에 충돌하는 광원(63)으로부터 광은(반사 또는 전송을 통해) 수신된 광으로부터 빔렛을 생산하는 렌즈(64)를(반사 또는 전송을 통해) 향할 수 있다. 도시된 바와 같이, 투사 픽셀(PIX 84)은 활성화되면, 광원(63)으로부터 광을 렌즈(64)를 향해 지향시키며, 이는 상당한 크기의 광의 일부를 수집하여 빔렛(BEAMLET 84)로 조준한다. 유사하게 투사 픽셀(PIX 94)은 활성화되면, 광원(63)으로부터 광을 렌즈(64)를 향해 지향시키며, 이는 상당한 크기의 광의 일부를 수집하여 빔렛(BEAMLET 94)로 조준한다. 투사 픽셀(PIX 84, PIX 94)은 렌즈(64)에 대해 다른 각도 방향(1 또는 2 방향)을 갖기 때문에, 각각의 빔렛(BEAMLET 84, BEAMLET 94)의 방출 방향은 서로 다를 것이다. 예를 들어, 투사 픽셀(PIX 84)이 활성화 될 때 청색광을 통과하면, 빔렛(BEAMLET 84)를 수용하는 눈을 가진 시청자는 청색 점을 보게될 것이다. 예를 들어, 투사 픽셀(PIX 94)가 활성화 될 때 적색 광을 통과하면, 빔렛(BEAMLET 94)을 수용하는 눈을 가진 시청자는 적색 점을 보게 될 것이다. 점의 크기/형상/외양은 렌즈(64)의 구성 및 작동의 기능에 따라 다양할 수 있다. 결과적으로, 각각의 빔렛(BEAMLET 1-BEAMLET 256)는 색상 및/또는 강도뿐만 아니라 크기, 형상 및/ 또는 외관측면에서 다른 빔렛의 일부 또는 전부와 다를 수 있다. 투사 픽셀 "픽스(PIX)" 각각이 세개의 원색(RGB) 중 하나만을 방출할 때, 확산기는 세트로부터 방출되는 광을 확산시키기 위해 투사 픽셀의 세트의 전방에 위치될 수 있고, 이에 의해 세트로부터 방출되는 광을 가능한 색상의 전체 팔레트로부터 선택된 컬러의 단일한 빔렛으로 함께 혼합한다. 다양한 실시예에서, 각각의 투사 픽셀은 세 개의 원색 "서브(sub)"픽셀로 구성되고, 확산기는 세 개의 원색 "서브(sub)"픽셀을 모두 투사 픽셀의 전체 팔레트 컬러로 혼합하는데 사용된다.
다른 실시예에서, 도 9c에 도시 된 바와 같이, MV 픽셀(12z)은 렌즈 또는 렌즈 배열(64 ')가 배치되는 디스플레이 패널(예를 들어, LED, OLED)(66)에 의해 형성될 수 있다. 각각의 디스플레이 패널 픽셀은 프로세서(50)로부터 제어 신호(54)에 의해 전기적으로 여기될 때 광을 방출하는 개별적으로 처리가능한 광원으로서 기능한다. 도시 된 예에서, 디스플레이 패널 픽셀의 4x5 배열은 스무 개의 광원(LS1-LS20)으로서 기능하고, 그 위에 스무 개의 렌즈(L1-L20)의 4x5 배열(64')가 배치된다. 디스플레이 픽셀(LS1)로부터의 광은 렌즈(L1)에 의해 빔렛(14-1) 내로 수집되고 조준되고, 디스플레이 픽셀(LS2)로부터의 광은 렌즈(L2)에 의해 빔렛(14-2) 내로 수집되고 조준되고, 디스플레이 픽셀(LS3)으로부터의 광은 렌즈(L3)에 의해 빔렛(14-3) 내로 수집되고 조준된다, 계속하여, 스무 개의 다른 방향으로 전파하는 스무 개의 빔렛(14-1 내지 14-20)을 생성한다. 개별적으로 처리 가능한 광원으로서 기능하는 디스플레이 패널 픽셀(LS1-LS20)을 포함하는 디스플레이 패널(66)은 집합적으로 광원으로서 고려될 수 있고, 렌즈 배열(64 ')는 집합적으로 렌즈로서 고려될 수있다. 도 9c의 MV 픽셀(12z)는 따라서, 광원과 렌즈의 조합으로 고려될 수 있으며, 광원으로부터의 광을 다른 방향으로 다수의 빔렛으로 분할하도록 구성된다. 광원 및 렌즈의 구성은 당업자에게 명백한 바와 같이, 도 9c에 예시 된 특정 실시예로 제한되지 않는다. 예를 들어, 디스플레이 패널(66)의 위치에 대신하여 다수의 광선을 시분할 또는 공간 분할 할 수있는 단일 광원이 사용될 수 있고, 도 9c의 렌즈 배열(64')의 위치에 대신하여 렌즈 또는 렌즈 배열의 다른 배열이 사용될 수있다. 도 9c에서, 렌즈 배열(64 ')은 공간에서 부유하는 것으로 도시되어 있고 지지 구조는 도시되어 있지 않다. 실제로, 렌즈(L1-L20)는 예를 들어 기계적 지지뿐만 아니라 불투명한 배경을 제공하는 어두운 시트에 의해 지지될 수 있고, 디스플레이 패널(66)로부터의 미광을 차단할 수 있다. 디스플레이 패널(66)로부터의 광 중에서, 렌즈(L1-L20)를 통과하는 빔렛(14)만이 시청자의 눈에 도달할 것이다.
MV 픽셀을 형성하기 위한 렌즈 배열 및 디스플레이 패널 조합은 프로젝터의 구성 방법과 개념적으로 유사하게 구현될 수이었다. 예를 들어, LCD 또는 OLED 패널이 사용될 수 있으며, 여기서 LCD/OLED 패널의 픽셀은 DLP/LCoS 프로젝터의 프로젝터 픽셀과 기능적으로 유사하다. LCD/OLED 패널을 사용하면 단일의 디스플레이 패널에서 여러 개의 "프로젝터(projector)"를 만들기 위해 하나 이상의 렌즈를 그 앞에 놓을 수 있다. 각 렌즈 아래의 디스플레이 패널 픽셀은 해당 렌즈에서 나오는 빔렛을 형성한다. 각 렌즈 아래의 디스플레이 패널 픽셀 수는 각 MV 픽셀 "프로젝터(projector)"에 대해 제어 가능한 빔렛 방향의 수를 결정한다.
여전히 또 다른 실시예에서, 각각 다른 방향으로 향하고 각각 개별적으로 처리 가능한 개별 광(예를 들어, LED, 스포트라이트)의 집합은 서로 그룹화되어 MV 픽셀을 형성 할 수 있으며, 이는 다른 광으로부터 다른 빔렛을 다른 방향으로 방출한다.
도 5b를 다시 참조하면, 센서(26)는 이동하는 다수의 타겟(예를 들어, 다수의 시청자(28a, 28b))의 위치를 탐지하고 다수의 타겟의 새로운 탐지된 위치를 새로운 다수의 시청 영역으로 특정하는데 사용될 수있다. 프로세서(50)는 다수의 컨텐츠를 업데이트하여 새로운 다수의 시청 영역에서 볼 수 있도록 업데이트 된 다수의 컨텐츠로부터 새로운 이미지가 생성될 수이었다. 도 10a 및 10b는 이러한 실시예를 도시한다.
도 10a 및 10b에서, 센서(26)에 의해 식별 된 다수의 타겟은 다수의 시청자(28a, 28b) 자체가 아니라 다수의 시청자 대용(60a, 60b), 시청자가 착용 할 수 있는 태그(예를 들어, QR 코드와 같은 수동 패턴, 깜박이는 IR LED와 같은 능동 광학 태그, RFID 태그와 같은 라디오 태그 또는 초음파 태그), 모바일 장치(예를 들어, 배지에 통합되는, 손목 밴드), 예를 들어, 시청자가 운반할 수있는 추적 가능한 물체, 차량과 같이 시청자를 운반 할 수있는 운반물, 또는 시청자를 나타낼 수있는 임의의 다른 유형의 마커로서 기능하는 스마트 폰 완드)와 같은 즉 다수의 시청자(28a, 28b)를 위치 및 / 또는 추적하는데 사용되는 요소이다. 센서(26)는 RFID 기술, EM 질문 기술 또는 GPS 기술과 같은 임의의 적절한 위치 기술 또는 기술을 사용하여 시청자 대용(60a, 60b)의 위치를 검출하도록 구성된다. 화살표(68a, 68b)로 표시된 바와 같이, 센서(26)가 도 10a의 기존 위치로부터 (시청자 대용(60a, 60b)을 통해) 도 10b의 새로운 위치로 이동하는 다수의 타겟(28a, 28b)의 위치를 탐지하기 위해 사용될 때, 디스플레이 시스템(10)의 입력 노드(16)는 새로운 탐지된 위치에 기초하여 새로운 다수의 시청 영역의 새로운 사양을 수신 할 수 있다. 프로세서(50)는 다수의 콘텐츠를 새로운 다수의 시청 영역과 각각 연관시키고, 다수의 콘텐츠로부터 생성된 다수의 이미지 각각에 대해 빔렛 좌표 시스템(42)과 시청 영역 좌표 시스템(40) 사이를 변환하는 매핑을 이용하여, 이미지를 형성하기 위해 각각의 새로운 시청 영역으로 향하는 각각의 MV 픽셀로부터의 빔렛 번들을 식별한다. 디스플레이 시스템(10)은 다수의 이미지를 각각 새로운 다수의 시청 영역으로 투사 할 수 있다.
일부 실시예에서, 새로운 다수의 시청 영역과 연관된 다수의 컨텐츠는(기존의) 다중 시청 영역과 이전에 연관된 복수의 컨텐츠로부터 업데이트될 수있다.예를 들어, 도 10a에서, 기존의 컨텐츠로부터 생성된 애벌레(70a)의 이미지는 시청자(28a)의 기존의 시청 영역으로 투영되고, 기존의 컨텐츠로부터 생성된 올챙이(70b)의 이미지는 다른 시청자(28b)의 기존의 시청 영역으로 투영된다. 시청자(28a, 28b) 모두가 도 10b와 같이 새로운 위치로 이동한 후, 업데이트 된 컨텐츠로부터 생성된 나비(80a)의 다른(업데이트 된) 이미지가 시청자(28a)의 새로운 시청 영역에 투영되고, 업데이트된 컨텐츠로부터 생성된 개구리(80b)의 다른(업데이트 된) 이미지가 다른 시청자(28b)의 새로운 시청 영역에 투영된다. 따라서, 각각의 시청자는 시청자가 하나 이상의 MV 픽셀(12)에 대해 이동함에 따라 업데이트 된 컨텐츠에 기초하여 업데이트되거나 변경되는 이미지(예를 들어, 애벌레(70a)에서 나비(80a), 올챙이(70b)에서 개구리(80b)로)를 관찰할 수 있지만, 다른 시청자(28a, 28b)는 업데이트 된 컨텐츠에 기초하여 다른(및 다르게 업데이트되거나 변경된) 이미지를 각각 관찰한다.
2017 년 3 월 24 일자로 출원 된 미국 특허 출원 제15/469,220호의 개시 내용은 그 전체가 여기에 포함된다.
전술한 다양한 실시예는 추가 실시예를 제공하기 위해 조합 될 수 있다. 상기 상세한 설명에 비추어 실시예에 대한 이들 및 다른 변경이 이루어질 수 있다. 일반적으로, 다음의 청구 범위에서, 사용 된 용어는 청구 범위를 본 명세서 및 청구 범위에 개시된 특정 실시예로 제한하는 것으로 해석되어서는 안되며, 청구범위가 부여되는 그와 동등한 등가물의 전체 범위와 함께 모든 가능한 실시예를 포함하는 것으로 해석되어야 한다. 따라서, 청구 범위는 본 개시에 의해 제한되지 않는다.
Claims (22)
- 디스플레이 시스템은:
하나 이상의 멀티-뷰(MV) 픽셀로서, 각각의 MV 픽셀은 빔렛(beamlet) 좌표 시스템에서 다른 방향으로 빔렛을 방출하도록 구성되는 멀티-뷰(MV) 픽셀;
동작 시에 시청 영역 좌표 시스템에서 상기 MV 픽셀에 대해 위치된 다수의 시청 영역의 사양(specification)을 수신하는 입력 노드; 및
상기 입력 노드에 연결되고 동작하는 프로세서;를 포함하고,
상기 프로세서는:
다수의 컨텐츠를 각각 상기 다수의 시청 영역과 연관시키고;
상기 시청 영역 좌표 시스템과 상기 빔렛 좌표 시스템 사이를 변환하는 매핑을 결정하고;
상기 매핑을 사용하여 상기 다수의 컨텐츠로부터 생성된 다수의 이미지 각각에 대해 하나의 시청 영역으로 향하는 각각의 MV 픽셀로부터 상기 이미지를 형성하기 위해 빔렛 번들(bundle)을 식별하고, 여기서 하나의 이미지를 형성하기 위해 하나의 시청 영역으로 향하는 빔렛 번들은 다른 이미지를 형성하기 위해 다른 시청 영역으로 향하는 빔렛 번들과 구분되고; 그리고
MV 픽셀에 대한 제어 신호를 출력하고, 여기서 상기 제어 신호는 각각의 번들 내의 각각의 빔렛의 색상 및 밝기를 정의하여 대응되는 이미지를 대응되는 시청 영역에 투사하며;
상기 MV 픽셀은 상기 프로세서로부터 상기 제어신호에 응답하여, 상기 다수의 시청 영역에 상기 다수의 이미지를 각각 투사하는,
디스플레이 시스템
- 제1항에 있어서,
상기 이미지는 정적 이미지, 이미지 스트림, 문자 패턴 및 광 패턴을 구성하는 그룹으로부터 선택되는,
디스플레이 시스템.
- 제1항에 있어서,
상기 프로세서는 상기 다수의 컨텐츠 자체를 상기 다수의 시청 영역과 연관시키거나 상기 다수의 컨텐츠의 다수의 컨텐츠 디스크립터를 상기 다수의 시청 영역과 연관시킴으로써, 상기 다수의 컨텐츠를 상기 다수의 시청 영역과 연관시키는,
디스플레이 시스템.
- 제1항에 있어서,
동작 시에 상기 다수의 시청 영역의 동작 사양을 수신하고, 상기 입력 노드로 상기 다수의 시청 영역의 사양을 전송하는 사용자-인터페이스 장치를 포함하는,
디스플레이 시스템.
- 제4항에 있어서,
상기 사용자-인터페이스 장치는 그래픽 입력 및 텍스트 입력 중 하나 또는 모두에 응답하여, 시청 범위를 표시하고 상기 시청 범위에서 상기 다수의 시청 영역을 특정할 수 있는 스크린을 포함하는,
디스플레이 시스템.
- 제1항에 있어서,
상기 다수의 시청 영역을 식별하고, 상기 입력 노드에 상기 다수의 시청 영역의 사양을 전송하도록 구성된 센서를 포함하는,
디스플레이 시스템.
- 제6항에 있어서,
상기 센서는 다수의 타겟의 위치를 탐지하고, 상기 다수의 타겟의 상기 탐지된 위치를 상기 다수의 시청 영역으로 특정하도록 구성되는,
디스플레이 시스템.
- 제7항에 있어서,
상기 다수의 타겟은 다수의 시청자 및 다수의 시청자 대용 중 어느 하나 또는 모두를 포함하는,
디스플레이 시스템.
- 제7항에 있어서,
동작 시에 상기 입력 노드는,
이동한 상기 다수의 타겟의 상기 탐지된 위치에 기초하여 새로운 다수의 시청 영역의 새로운 사양을 수신하고; 그리고
동작 시에 상기 프로세서는,
상기 다수의 컨텐츠를 상기 새로운 다수의 시청 영역과 각각 연관시키고,
상기 매핑을 사용하여 상기 이미지를 형성하기 위해 상기 다수의 컨텐츠로부터 생성된 상기 다수의 이미지의 각각에 대해 하나의 새로운 시청 영역을 향하는 각각의 MV 픽셀로부터 빔렛 번들을 식별하고, 그리고
상기 대응하는 이미지를 상기 대응하는 새로운 시청 영역에 투사하기 위해, 각각의 번들 내의 각각의 빔렛의 색상 및 밝기를 정의하는 새로운 제어 신호를 출력하고;
상기 MV 픽셀은 상기 새로운 제어 신호에 응답하여, 상기 다수의 이미지를 각각 새로운 다수의 시청 영역에 투사하는,
디스플레이 시스템.
- 제9항에 있어서,
상기 다수의 시청 영역에 전에 투사된 상기 다수의 이미지에 기초하여, 상기 새로운 다수의 시청 영역과 연관된 상기 다수의 컨텐츠는 상기 다수의 컨텐츠로부터 업데이트되는,
디스플레이 시스템.
- 제1항에 있어서,
하나의 이미지를 생성하는 빔렛 번들과 다른 이미지를 형성하는 빔렛 번들은 서로 상호 배타적인,
디스플레이 시스템.
- 제1항에 있어서,
각각의 MV 픽셀은 다른 방향에서 상기 빔렛을 방출하는 프로젝터 픽셀을 가지는 프로젝터인,
디스플레이 시스템.
- 제1항에 있어서,
상기 각각의 MV 픽셀은 광원과 렌즈의 조합이고, 상기 렌즈는 상기 광원으로부터의 빛을 다른 방향에서 상기 빔렛으로 분리하도록 구성되고
디스플레이 시스템.
- 디스플레이 방법은:
시청 영역 좌표 시스템에 위치한 다수의 시청 영역의 사양을 수신하는 단계로서, 상기 다수의 시청 영역은 하나이상의 멀티-뷰(MV)픽셀에 대해 위치되고, 각각의 MV 픽셀은 빔렛 좌표 시스템에서 다른 방향으로 빔렛을 방출하도록 구성되는, 다수의 시청 영역의 사양을 수신하는 단계;
다수의 컨텐츠를 상기 다수의 시청 영역과 각각 연관시키는 단계;
상기 시청 영역 좌표 시스템과 상기 빔렛 좌표 시스템 사이를 변환하는 매핑을 판단하는 단계;
상기 매핑을 사용하여 상기 다수의 컨텐츠로부터 생성된 다수의 이미지 각각에 대해, 하나의 시청 영역으로 향하는 각각의 MV 픽셀로부터 상기 이미지를 형성하기 위해 빔렛 번들을 식별하는 단계로서, 하나의 이미지를 형성하기 위해 하나의 시청 영역으로 향하는 빔렛 번들은 다른 이미지를 형성하기 위해 다른 시청 영역으로 향하는 빔렛 번들과 구분되는, 식별 단계;
MV 픽셀에 대한 제어 신호를 생성하고, 상기 제어 신호는 각각의 번들 내의 각각의 빔렛의 색상 및 밝기를 정의하여 대응되는 이미지를 대응되는 시청 영역에 투사하는 단계; 그리고
상기 MV 픽셀로부터 상기 제어신호에 응답하여, 상기 다수의 시청 영역에 상기 다수의 이미지를 각각 투사하는 단계를 포함하는,
디스플레이 방법
- 제14항에 있어서,
상기 다수의 컨텐츠를 상기 다수의 시청 영역과 연관시키는 상기 단계는, 상기 다수의 컨텐츠 자체를 상기 다수의 시청 영역과 연관시키거나 상기 다수의 컨텐츠의 다수의 컨텐츠 디스크립터를 상기 다수의 시청 영역과 연관시키는 단계를 포함하는,
디스플레이 방법
- 제14항에 있어서,
상기 다수의 시청 영역의 사양을 수신하는 상기 단계는, 상기 다수의 시청 영역의 조작자 사양을 수신할 수 있는 사용자 인터페이스 장치를 통해 상기 사양을 수신하는 단계를 포함하는,
디스플레이 방법.
- 제16항에 있어서,
상기 사용자-인터페이스 장치는 그래픽 입력 및 텍스트 입력 중 하나 또는 모두에 응답하여, 시청 영역을 표시하고 상기 시청 영역에서 상기 다수의 시청 영역을 특정할 수있는 스크린을 포함하는,
디스플레이 방법.
- 제14항에 있어서,
상기 다수의 시청 영역을 수신하는 상기 단계는, 센서에 의해 식별된 상기 다수의 시청 영역을 수신하는 것을 포함하는,
디스플레이 방법.
- 제14항에 있어서,
상기 센서는 다수의 타겟의 위치를 탐지하고 상기 다수의 타겟의 상기 탐지된 위치를 상기 다수의 시청 영역으로서 특정할 수 있는,
디스플레이 방법.
- 제19항에 있어서,
이동한 상기 다수의 타겟의 상기 탐지된 위치에 기초하여 새로운 다수의 시청 영역의 새로운 사양을 수신하는 단계;
상기 다수의 컨텐츠를 상기 새로운 다수의 시청 영역과 각각 연관시키는 단계;
상기 다수의 컨텐츠로부터 생성된 상기 다수의 이미지의 각각에 대해, 상기 매핑을 사용하여 상기 이미지를 형성하기위해 하나의 새로운 시청 영역을 향하는 각각의 MV 픽셀로부터 빔렛 번들을 식별하는 단계;
상기 대응하는 이미지를 상기 대응하는 새로운 시청 영역에 투사하기 위해, 각각의 번들 내의 각각의 빔렛의 색상 및 밝기를 정의하는 새로운 제어 신호를 생성하는 단계; 및
상기 새로운 제어 신호에 응답하여, 상기 MV 픽셀로부터 상기 다수의 이미지를 각각 새로운 다수의 시청 영역에 투사하는 단계를 포함하는,
디스플레이 방법.
- 제20항에 있어서,
상기 다수의 시청 영역에 전에 투사된 상기 다수의 이미지에 기초하여, 상기 새로운 다수의 시청 영역과 연관된 상기 다수의 컨텐츠는 상기 다수의 컨텐츠로부터 업데이트되는 단계를 포함하는,
디스플레이 방법.
- 제14항에 있어서,
상기 이미지는 정적 이미지, 이미지 스트림, 문자 패턴 및 광 패턴을 구성하는 그룹으로부터 선택되는,
디스플레이 방법.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/469,220 | 2017-03-24 | ||
US15/469,220 US10269279B2 (en) | 2017-03-24 | 2017-03-24 | Display system and method for delivering multi-view content |
PCT/US2018/024024 WO2018175886A1 (en) | 2017-03-24 | 2018-03-23 | Display system and method for delivering multi-view content |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190117019A true KR20190117019A (ko) | 2019-10-15 |
KR102268377B1 KR102268377B1 (ko) | 2021-06-25 |
Family
ID=63582851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020197027617A KR102268377B1 (ko) | 2017-03-24 | 2018-03-23 | 멀티-뷰 컨텐츠를 전달하기 위한 디스플레이 시스템 및 방법 |
Country Status (7)
Country | Link |
---|---|
US (1) | US10269279B2 (ko) |
EP (1) | EP3602262A4 (ko) |
JP (1) | JP7033606B2 (ko) |
KR (1) | KR102268377B1 (ko) |
CN (1) | CN110476148B (ko) |
CA (1) | CA3055222C (ko) |
WO (1) | WO2018175886A1 (ko) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6604326B2 (ja) * | 2014-06-24 | 2019-11-13 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10275948B2 (en) * | 2014-12-02 | 2019-04-30 | Operr Technologies, Inc. | Method and system for refilling a parking meter |
US10427045B2 (en) | 2017-07-12 | 2019-10-01 | Misapplied Sciences, Inc. | Multi-view (MV) display systems and methods for quest experiences, challenges, scavenger hunts, treasure hunts and alternate reality games |
US10565616B2 (en) | 2017-07-13 | 2020-02-18 | Misapplied Sciences, Inc. | Multi-view advertising system and method |
US10404974B2 (en) * | 2017-07-21 | 2019-09-03 | Misapplied Sciences, Inc. | Personalized audio-visual systems |
WO2019034975A1 (en) * | 2017-08-14 | 2019-02-21 | Imax Theatres International Limited | WIRELESS CONTENT DELIVERY FOR PAVED LED DISPLAY |
US10778962B2 (en) | 2017-11-10 | 2020-09-15 | Misapplied Sciences, Inc. | Precision multi-view display |
CN110989949B (zh) * | 2019-11-13 | 2023-04-11 | 浙江大华技术股份有限公司 | 一种异形拼接显示的方法及装置 |
JP7477616B2 (ja) * | 2020-01-06 | 2024-05-01 | ミスアプライド サイエンシーズ, インコーポレイテッド | 輸送ハブ情報システム |
CA3167638A1 (en) | 2020-02-18 | 2021-08-26 | Evolution Optiks Limited | Multiview system, method and display for rendering multiview content, and viewer localisation system, method and device therefor |
US11698549B2 (en) * | 2020-03-13 | 2023-07-11 | Misapplied Sciences, Inc. | Multi-view display panel |
US11474770B2 (en) | 2020-03-26 | 2022-10-18 | Misapplied Sciences, Inc. | Multi-view network bridge device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160212417A1 (en) * | 2015-01-20 | 2016-07-21 | Misapplied Sciences, Inc. | Method for calibrating a multi-view display |
WO2016201412A1 (en) * | 2015-06-11 | 2016-12-15 | Misapplied Sciences, Inc. | Multi-view architectural lighting system |
Family Cites Families (72)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2846856B2 (ja) | 1996-07-19 | 1999-01-13 | 三洋電機株式会社 | 立体映像表示装置 |
GB2317291A (en) | 1996-09-12 | 1998-03-18 | Sharp Kk | Observer tracking directional display |
AUPP496198A0 (en) | 1998-07-31 | 1998-08-20 | Resmed Limited | Switches with graphical display |
US7487112B2 (en) | 2000-06-29 | 2009-02-03 | Barnes Jr Melvin L | System, method, and computer program product for providing location based services and mobile e-commerce |
AU2001284622A1 (en) | 2000-09-25 | 2002-04-02 | The Singapore Mint | Multiple image surface |
US20030115096A1 (en) | 2001-12-17 | 2003-06-19 | Reynolds Randy B. | Computer-controlled, remotely programmed at-shelf advertising system |
AU2003210440A1 (en) | 2002-01-04 | 2003-07-24 | Neurok Llc | Three-dimensional image projection employing retro-reflective screens |
US6800031B2 (en) | 2002-04-15 | 2004-10-05 | Microsoft Corporation | Method of conducting an interactive competition |
JP3966830B2 (ja) * | 2003-03-28 | 2007-08-29 | 株式会社東芝 | 立体表示装置 |
US7001023B2 (en) | 2003-08-06 | 2006-02-21 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for calibrating projectors to arbitrarily shaped surfaces with discrete optical sensors mounted at the surfaces |
JP2005136691A (ja) | 2003-10-30 | 2005-05-26 | Fuji Photo Film Co Ltd | 画像管理システム |
US7369100B2 (en) | 2004-03-04 | 2008-05-06 | Eastman Kodak Company | Display system and method with multi-person presentation function |
US7602395B1 (en) | 2005-04-22 | 2009-10-13 | Nvidia Corporation | Programming multiple chips from a command buffer for stereo image generation |
GB2428153A (en) | 2005-07-08 | 2007-01-17 | Sharp Kk | Interactive multiple view display |
US8064414B2 (en) | 2005-12-13 | 2011-11-22 | Qualcomm, Incorporated | Range extension techniques for a wireless local area network |
CN101473262A (zh) | 2006-06-16 | 2009-07-01 | 皇家飞利浦电子股份有限公司 | 多视图显示设备 |
JP2008178075A (ja) * | 2006-12-18 | 2008-07-31 | Sony Corp | 表示制御装置、表示制御方法、及びプログラム |
CN101295618A (zh) * | 2007-04-25 | 2008-10-29 | 陈清华 | 阳极点阵显示技术 |
IL183173A (en) | 2007-05-14 | 2013-11-28 | David Eduard Sitbon | An alert system located in the aisle to indicate a safety issue |
US20120268451A1 (en) * | 2007-06-25 | 2012-10-25 | Industrial Technology Research Institute | Three-dimensional (3d) display |
WO2009013744A2 (en) | 2007-07-23 | 2009-01-29 | Humaneyes Technologies Ltd. | Multi view displays and methods for producing the same |
US8228196B1 (en) | 2008-07-25 | 2012-07-24 | Sprint Communications Company L.P. | Displaying advertisements based on electronic tags |
JP5305477B2 (ja) | 2008-09-30 | 2013-10-02 | Necディスプレイソリューションズ株式会社 | 送信端末、表示装置、これらを備える画像表示伝送システム、該システムで行われるデータ転送方法 |
KR101290013B1 (ko) | 2008-10-07 | 2013-07-30 | 엘지디스플레이 주식회사 | 다중 뷰 영상표시장치 |
JP2010191942A (ja) * | 2009-01-20 | 2010-09-02 | Nitto Denko Corp | 光学式座標入力装置を備えた表示装置 |
US8075138B2 (en) | 2009-02-23 | 2011-12-13 | Third Dimension Ip Llc | System and methods for angular slice true 3-D display |
WO2010102290A2 (en) | 2009-03-06 | 2010-09-10 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for generating autostereo three-dimensional views of a scene for a plurality of viewpoints using a pseudo-random hole barrier |
JP5202448B2 (ja) * | 2009-06-17 | 2013-06-05 | シャープ株式会社 | 画像処理システム及び方法 |
US20110242298A1 (en) | 2009-08-21 | 2011-10-06 | Microsoft Corporation | Private video presentation |
US8854531B2 (en) | 2009-12-31 | 2014-10-07 | Broadcom Corporation | Multiple remote controllers that each simultaneously controls a different visual presentation of a 2D/3D display |
US8941312B2 (en) | 2010-01-19 | 2015-01-27 | Ncp Corporation | Apparatus and method for controlling LED light strings |
US8687051B2 (en) | 2010-03-03 | 2014-04-01 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Screen and method for representing picture information |
EP2395759B1 (en) | 2010-06-11 | 2015-03-04 | Sony Ericsson Mobile Communications AB | Autostereoscopic display device and method for operating an autostereoscopic display device |
US8624960B2 (en) | 2010-07-30 | 2014-01-07 | Silicon Image, Inc. | Multi-view display system |
BR112013006364A2 (pt) | 2010-09-16 | 2016-06-28 | Specmat Inc | método, processo, e tecnologia de fabricação de células solares de silício cristalino de alta eficiência e baixo custo |
JP2012109027A (ja) * | 2010-10-18 | 2012-06-07 | Canon Inc | 電子線ディスプレイ |
JP5302285B2 (ja) | 2010-10-28 | 2013-10-02 | シャープ株式会社 | 立体映像出力装置、立体映像出力方法、立体映像出力プログラムおよびコンピュータ読み取り可能な記録媒体、ならびに、立体映像表示装置 |
US8817080B2 (en) | 2010-12-02 | 2014-08-26 | At&T Intellectual Property I, L.P. | Location based media display |
US20120218253A1 (en) | 2011-02-28 | 2012-08-30 | Microsoft Corporation | Adjusting 3d effects for wearable viewing devices |
US20130013412A1 (en) | 2011-07-08 | 2013-01-10 | Qualcomm Incorporated | Methods and Systems for Displaying GEO-Based Offers on a Mobile Advertising Display Device |
JP6017124B2 (ja) * | 2011-08-03 | 2016-10-26 | 東芝メディカルシステムズ株式会社 | 画像処理システム、画像処理装置、医用画像診断装置、画像処理方法及び画像処理プログラム |
US20130093752A1 (en) | 2011-10-13 | 2013-04-18 | Sharp Laboratories Of America, Inc. | Viewer reactive auto stereoscopic display |
US9080279B2 (en) | 2011-10-24 | 2015-07-14 | Lg Electronics Inc. | Washing machine to produce three-dimensional motion |
EP2777291B1 (en) * | 2011-11-09 | 2022-04-20 | Koninklijke Philips N.V. | Display device |
EP2611152A3 (en) | 2011-12-28 | 2014-10-15 | Samsung Electronics Co., Ltd. | Display apparatus, image processing system, display method and imaging processing thereof |
US9648308B2 (en) | 2012-03-27 | 2017-05-09 | Koninklijke Philips N.V. | Multiple viewer 3D display |
JP5657598B2 (ja) * | 2012-03-29 | 2015-01-21 | 株式会社東芝 | 画像表示装置 |
US20130282452A1 (en) | 2012-04-23 | 2013-10-24 | Jianping He | Advertisement Revenues Shared With Subscribers |
KR101507756B1 (ko) | 2012-04-24 | 2015-04-07 | 코닌클리케 필립스 엔.브이. | 육안 입체 영상 디스플레이 디바이스 및 구동 방법 |
WO2013183108A1 (ja) | 2012-06-04 | 2013-12-12 | 株式会社Pfu | 情報処理装置、方法およびプログラム |
KR20140007703A (ko) | 2012-07-10 | 2014-01-20 | 삼성전자주식회사 | 영상 디스플레이 장치 및 메뉴 디스플레이 방법 |
US20140035877A1 (en) | 2012-08-01 | 2014-02-06 | Hon Hai Precision Industry Co., Ltd. | Using a display device with a transparent display to capture information concerning objectives in a screen of another display device |
US9989206B2 (en) | 2013-03-11 | 2018-06-05 | Inception Innovations, Llc | Architectural lighting methods and apparatus |
EP3020191B1 (en) | 2013-07-11 | 2021-01-06 | Dejero Labs Inc. | Systems and methods for transmission of data streams |
US20150042771A1 (en) | 2013-08-07 | 2015-02-12 | United Video Properties, Inc. | Methods and systems for presenting supplemental content in media assets |
KR102140080B1 (ko) | 2013-09-27 | 2020-07-31 | 삼성전자주식회사 | 다시점 영상 디스플레이 장치 및 제어 방법 |
KR102220910B1 (ko) | 2014-01-10 | 2021-02-25 | 엘지전자 주식회사 | 가전제품 및 가전제품 제어방법 |
US9800845B2 (en) | 2014-02-07 | 2017-10-24 | Microsoft Technology Licensing, Llc | Projector-based crowd coordination and messaging |
US9373306B2 (en) | 2014-03-25 | 2016-06-21 | Intel Coporation | Direct viewer projection |
WO2015175818A1 (en) | 2014-05-16 | 2015-11-19 | Musco Corporation | Sports lighting to increase contrast |
US20150356912A1 (en) | 2014-06-06 | 2015-12-10 | Microsoft Corporation | Hybrid Messaging System |
US9704392B2 (en) | 2014-12-02 | 2017-07-11 | Operr Technologies, Inc. | Method and system for legal parking |
US11099798B2 (en) | 2015-01-20 | 2021-08-24 | Misapplied Sciences, Inc. | Differentiated content delivery system and method therefor |
US10928914B2 (en) | 2015-01-29 | 2021-02-23 | Misapplied Sciences, Inc. | Individually interactive multi-view display system for non-stationary viewing locations and methods therefor |
US10955924B2 (en) | 2015-01-29 | 2021-03-23 | Misapplied Sciences, Inc. | Individually interactive multi-view display system and methods therefor |
US10264247B2 (en) | 2015-02-03 | 2019-04-16 | Misapplied Sciences, Inc. | Multi-view displays |
KR102490440B1 (ko) | 2015-03-03 | 2023-01-18 | 미스어플라이드 사이언시스 인코포레이티드 | 위치 의존 콘텐츠를 디스플레이하기 위한 시스템 및 방법 |
US10362301B2 (en) | 2015-03-05 | 2019-07-23 | Misapplied Sciences, Inc. | Designing content for multi-view display |
US9715827B2 (en) | 2015-04-01 | 2017-07-25 | Misapplied Sciences, Inc. | Multi-view traffic signage |
US9784439B2 (en) | 2015-05-19 | 2017-10-10 | David W. Baker | Safety holiday light assembly and method for safe installation from the ground |
US9792712B2 (en) | 2015-06-16 | 2017-10-17 | Misapplied Sciences, Inc. | Computational pipeline and architecture for multi-view displays |
US9396588B1 (en) | 2015-06-30 | 2016-07-19 | Ariadne's Thread (Usa), Inc. (Dba Immerex) | Virtual reality virtual theater system |
-
2017
- 2017-03-24 US US15/469,220 patent/US10269279B2/en active Active
-
2018
- 2018-03-23 KR KR1020197027617A patent/KR102268377B1/ko active IP Right Grant
- 2018-03-23 CA CA3055222A patent/CA3055222C/en active Active
- 2018-03-23 EP EP18770609.8A patent/EP3602262A4/en active Pending
- 2018-03-23 WO PCT/US2018/024024 patent/WO2018175886A1/en active Application Filing
- 2018-03-23 JP JP2019548302A patent/JP7033606B2/ja active Active
- 2018-03-23 CN CN201880020820.3A patent/CN110476148B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160212417A1 (en) * | 2015-01-20 | 2016-07-21 | Misapplied Sciences, Inc. | Method for calibrating a multi-view display |
WO2016201412A1 (en) * | 2015-06-11 | 2016-12-15 | Misapplied Sciences, Inc. | Multi-view architectural lighting system |
Also Published As
Publication number | Publication date |
---|---|
EP3602262A4 (en) | 2020-09-09 |
KR102268377B1 (ko) | 2021-06-25 |
US10269279B2 (en) | 2019-04-23 |
CN110476148B (zh) | 2022-06-21 |
CA3055222A1 (en) | 2018-09-27 |
US20180277032A1 (en) | 2018-09-27 |
CN110476148A (zh) | 2019-11-19 |
JP7033606B2 (ja) | 2022-03-10 |
WO2018175886A1 (en) | 2018-09-27 |
CA3055222C (en) | 2022-12-13 |
EP3602262A1 (en) | 2020-02-05 |
JP2020515127A (ja) | 2020-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102268377B1 (ko) | 멀티-뷰 컨텐츠를 전달하기 위한 디스플레이 시스템 및 방법 | |
US11115633B2 (en) | Method and system for projector calibration | |
CN110998658B (zh) | 利用结构化光和泛光的深度图 | |
US9916681B2 (en) | Method and apparatus for selectively integrating sensory content | |
EP2824923B1 (en) | Apparatus, system and method for projecting images onto predefined portions of objects | |
US20170186166A1 (en) | Stereo depth camera using vcsel with spatially and temporally interleaved patterns | |
US8570372B2 (en) | Three-dimensional imager and projection device | |
CN104766270B (zh) | 一种基于鱼眼镜头的虚实光照融合方法 | |
CN107018392B (zh) | 投影仪优化方法和系统 | |
EP2869266A1 (en) | Method and apparatus for generating depth map of a scene | |
US9223192B1 (en) | Generating light displays using drops of a fluid | |
US9049369B2 (en) | Apparatus, system and method for projecting images onto predefined portions of objects | |
US10425625B2 (en) | Projecting images and videos onto engineered curved surfaces | |
TW200937097A (en) | Lighting device | |
WO2020237923A1 (zh) | 一种显示面板、显示方法及显示系统 | |
US20210374982A1 (en) | Systems and Methods for Illuminating Physical Space with Shadows of Virtual Objects | |
KR102185322B1 (ko) | 적외선 스테레오 카메라를 이용한 위치 검출 시스템 | |
JP5162393B2 (ja) | 照明装置 | |
EP3525458B1 (en) | Projecting images and videos onto curved fabricated surfaces | |
Ohashi et al. | Development of automatic matching and image quality improving methods for scattering 3D display | |
JP2009265916A (ja) | センサ特性シミュレーション装置及びプログラム並びに視覚特性シミュレーション装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
GRNT | Written decision to grant |