KR20190129899A - Precision multi-view display - Google Patents

Precision multi-view display Download PDF

Info

Publication number
KR20190129899A
KR20190129899A KR1020197028521A KR20197028521A KR20190129899A KR 20190129899 A KR20190129899 A KR 20190129899A KR 1020197028521 A KR1020197028521 A KR 1020197028521A KR 20197028521 A KR20197028521 A KR 20197028521A KR 20190129899 A KR20190129899 A KR 20190129899A
Authority
KR
South Korea
Prior art keywords
display
lens
viewing
pixel
lens array
Prior art date
Application number
KR1020197028521A
Other languages
Korean (ko)
Other versions
KR102235591B1 (en
Inventor
알버트 한 옹
폴 헨리 디잇츠
윌리엄 제리 던컨
매튜 스틸 라스롭
데이비드 스티븐 톰슨
Original Assignee
미스어플라이드 사이언시스 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 미스어플라이드 사이언시스 인코포레이티드 filed Critical 미스어플라이드 사이언시스 인코포레이티드
Publication of KR20190129899A publication Critical patent/KR20190129899A/en
Application granted granted Critical
Publication of KR102235591B1 publication Critical patent/KR102235591B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • G02B27/2214
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • G09F19/14Advertising or display means not otherwise provided for using special optical effects displaying different signs depending upon the view-point of the observer
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • G09F9/302Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements characterised by the form or geometrical disposition of the individual elements
    • G09F9/3026Video wall, i.e. stackable semiconductor matrix display modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/307Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/351Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B1/00Optical elements characterised by the material of which they are made; Optical coatings for optical elements
    • G02B1/10Optical coatings produced by application to, or surface treatment of, optical elements
    • G02B1/11Anti-reflection coatings
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B2207/00Coding scheme for general features or characteristics of optical elements and systems of subclass G02B, but not including elements and systems which would be classified in G02B6/00 and subgroups
    • G02B2207/123Optical louvre elements, e.g. for directional light blocking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0012Arrays characterised by the manufacturing method
    • G02B3/0031Replication or moulding, e.g. hot embossing, UV-casting, injection moulding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

정밀 멀티-뷰(MV) 디스플레이 시스템은 넓은 시야에 걸쳐 상이한 콘텐츠를 상이한 뷰어에게 정확하고 동시에 디스플레이할 수 있다. MV 디스플레이 시스템은 개별 MV 디스플레이 장치가 쉽고 효율적으로 타일링되어 더 큰 MV 디스플레이를 형성할 수 있게 하는 특징을 포함할 수 있다. 그래픽 인터페이스를 통해 사용자는 뷰잉 구역을 그래픽적으로 지정하고 해당 영역에서 볼 수 있는 콘텐츠를 간단한 방식으로 연관시킬 수 있다. 교정 절차는 정확한 뷰잉 위치에서 콘텐츠의 사양을 가능하게 한다.Precision multi-view (MV) display systems can accurately and simultaneously display different content to different viewers over a wide field of view. The MV display system may include features that allow individual MV display devices to be tiled easily and efficiently to form larger MV displays. The graphical interface allows the user to graphically specify the viewing area and to associate content viewed in that area in a simple way. The calibration procedure enables specification of the content in the correct viewing position.

Description

정밀 멀티-뷰 디스플레이Precision multi-view display

본 발명은 멀티-뷰(MV) 디스플레이 시스템에 관한 것으로, 보다 상세하게는 용이하게 지정된 위치에 임의의(예를 들어, 상이한) 콘텐츠를 제공할 수 있는 확장 가능한 정밀 MV 디스플레이 시스템에 관한 것이다.TECHNICAL FIELD The present invention relates to a multi-view (MV) display system, and more particularly to an scalable precision MV display system capable of easily providing any (eg, different) content at a designated location.

특허 또는 출원 파일은 컬러로 실행된 적어도 하나의 도면을 포함한다. 이 특허 또는 컬러 도면(들)을 갖는 특허 출원 공보의 사본은 필요한 비용의 요청 및 지불시 사무실에 의해 제공될 것이다.The patent or application file includes at least one drawing executed in color. A copy of the patent application publication with this patent or color drawing (s) will be provided by the office upon request and payment of the necessary cost.

멀티-뷰 디스플레이는 디스플레이에 대한 각각의 뷰어의 위치에 기초하여 서로 다른 콘텐츠를 다른 뷰어에게 동시에 제공한다. 신규한 렌티큘러 카드는 멀티-뷰 시스템의 간단한 예이다. 다른 각도에서 볼 때 상기 렌티큘러 카드는 다른 이미지를 드러낼 수 있다. 렌티큘러 카드는 콘텐츠의 스트라이프 위에 배치된 일련의 원통형 렌즈렛을 사용하여 각 콘텐츠 스트라이프를 고유한 각도 범위로 보낸다. 완전한 이미지는 렌즈렛 아래의 올바른 위치에 배치된 단일 이미지로부터 스트라이프를 가짐으로써 형성된다. 스트라이프 이미지는 인쇄된 시트 또는 평판 디스플레이로 제공될 수 있다.Multi-view displays simultaneously provide different content to different viewers based on the position of each viewer relative to the display. The novel lenticular card is a simple example of a multi-view system. The lenticular card can reveal different images when viewed from different angles. A lenticular card uses a series of cylindrical lenslets placed over a stripe of content to send each stripe of content in a unique angular range. The complete image is formed by having stripes from a single image placed in the correct position below the lenslet. The stripe image can be provided in a printed sheet or flat panel display.

도 26은 렌티큘러 디스플레이 시스템(2700)의 기본 동작을 도시한다. 렌티큘러 디스플레이 시스템(2700)은 2개의 원통형 렌즈 또는 렌티큘(2702)을 포함하고, 이는 단면으로 도시되어 콘텐츠의 스트라이프 어레이(2704) 위에 배치된다. 콘텐츠의 스트라이프의 어레이(2704)는 콘텐츠 스프라이프(1, 2, 3, 4, A, B, C, 및 D)을 포함한다. 뷰잉 구역(4D)에서, 뷰어는 스트라이프(D) 옆에 스트라이프(4)의 이미지를 보게될 것이다. 동시에, 뷰잉 구역(3C)의 뷰어는 스트라이프(C) 옆에 스트라이프(3)의 이미지를 보게될 것이다. 따라서, 별개의 이미지가 상이한 위치에서 상이한 뷰어에게 동시에 제공될 수 있다.26 illustrates the basic operation of the lenticular display system 2700. Lenticular display system 2700 includes two cylindrical lenses or lenticulars 2702, which are shown in cross-section and placed over stripe array 2704 of content. An array of stripe 2704 of content includes content stripe 1, 2, 3, 4, A, B, C, and D. In the viewing area 4D, the viewer will see an image of the stripe 4 next to the stripe D. At the same time, the viewer of the viewing area 3C will see the image of the stripe 3 next to the stripe C. Thus, separate images can be provided simultaneously to different viewers at different locations.

디스플레이 시스템(2700)에는 상당한 제한이 있다. 뷰잉 구역(3D)에서의 뷰어는 구역(3C) 이미지의 스트라이프-3 부분과 구역(4D) 이미지의 스트라이프-D 부분을 볼 것이다. 콘텐츠(2704)의 스트라이프의 어레이로부터 멀리 떨어져서, 구역(4D, 3C, 2B, 및 1A)은 각각 넓다. 콘텐츠(2704)의 스트라이프의 어레이에 가까워지면, 구역(3D, 2C, 및 1B)의 뷰어는 구역(4D, 3C, 2B, 및 1A)를 위해 의도된 다수의 이미지의 일부의 조합을 볼 수 있다. 인쇄된 렌티큘러 디스플레이를 설계할 때, 다수의 이미지의 일부의 조합을 제공하는 것과는 달리, 의도된 뷰잉 구역에 일관된 이미지를 제공하기 위해 이미지 스트라이프가 배열될 수 있도록 예상된 뷰잉 거리를 알아야 한다. 전자 디스플레이에 대해, 뷰어가 현재 위치한 위치에서 일관된 이미지를 생성하도록 스트라이프를 동적으로 할당할 수 있다.There is a significant limitation with the display system 2700. The viewer in the viewing zone 3D will see the stripe-3 portion of the zone 3C image and the stripe-D portion of the zone 4D image. Far from an array of stripes of content 2704, zones 4D, 3C, 2B, and 1A are wide, respectively. Close to the array of stripes of content 2704, viewers of zones 3D, 2C, and 1B can see a combination of some of the multiple images intended for zones 4D, 3C, 2B, and 1A. . When designing a printed lenticular display, it is necessary to know the expected viewing distance so that the image stripes can be arranged to provide a consistent image in the intended viewing area, as opposed to providing a combination of some of the multiple images. For electronic displays, stripes can be dynamically assigned to produce a consistent image at the location where the viewer is currently located.

각각의 렌티큘 아래에 스트라이프의 개수를 증가시켜 뷰잉 구역의 수를 증가시키려고 시도하면, 별개의 뷰잉 구역의 수가 빠르게 증가하고 각각의 크기가 줄어든다. 특정 위치로 이미지를 타겟팅하는 것이 점점 도전이 되고 있다. 이들 및 다른 제한으로 인해, 현재의 멀티-뷰 디스플레이는 전형적으로 매우 적은 수의 뷰잉 구역으로 제한된다. 2 내지 4개의 뷰잉 구역이 일반적이며 3-차원(3D) 뷰잉 응용을 위해 의도된 상업용 유닛은 렌즈렛당 작은 수십 개의 스트라이프로 최대가 되는 경향이 있다.Attempts to increase the number of viewing zones by increasing the number of stripes under each lenticule quickly increase the number of distinct viewing zones and reduce the size of each. Targeting images to specific locations is becoming increasingly challenging. Due to these and other limitations, current multi-view displays are typically limited to a very small number of viewing areas. Two to four viewing zones are common and commercial units intended for three-dimensional (3D) viewing applications tend to be maximal with a few dozen small stripes per lenslet.

평판 전자 디스플레이 픽셀은 전형적으로 다양한 컬러의 범위를 생성하기 위해 공간적으로 구별되는 서브-픽셀(예를 들어, 적색, 녹색, 및 청색 서브-픽셀)로 구성된다. 이러한 기술은 사람의 눈의 제한된 능력에 종속하여 이러한 수준의 세부 사항을 해결한다. 불행하게도, 렌티큘은 확대경으로서의 역할을 하며 서브-픽셀을 매우 분명하게 만들 수 있다. 예를 들어, 빨간색 서브-픽셀이 렌티큘 아래 스트라이프로 정렬되는 경우, 이를 촬영하는 위치에서의 뷰어는 상기 렉티큘의 구역에서 빨간색으로 볼 수 있다. 서브-픽셀 문제점을 극복하기 위해, 렌즈의 장축선을 따라 상이한 컬러 서브-픽셀을 커버하도록, 하부 패널에 대해 기울어 질 수 있다. 원통형 렌티큘은 그 치수에서 확대되지 않기 때문에, 컬러 혼합이 적절하게 작동한다.Flat panel electronic display pixels typically consist of spatially distinct sub-pixels (eg, red, green, and blue sub-pixels) to produce a range of colors. These techniques rely on the limited ability of the human eye to solve these levels of detail. Unfortunately, lenticules act as a magnifying glass and can make the sub-pixels very clear. For example, if the red sub-pixels are aligned in a stripe below the lenticule, the viewer at the location where it is photographed can see in red in the region of the reticule. To overcome the sub-pixel problem, it can be tilted with respect to the lower panel to cover different color sub-pixels along the long axis of the lens. Since cylindrical lenticules are not enlarged in their dimensions, color mixing works properly.

원통형 렌즈를 사용하는 렉티큘러 디스플레이는 단일 차원, 예를 들어 엄격하게 수평 또는 엄격하게 수직으로 뷰를 생성하는 것으로 제한된다. 소위 "점(Dot)" 또는 "플라이 아이(Fly Eye)" 렌티큘러는 2 차원 렌즈 어레이를 사용하여 콘텐츠를 양 치수로 향하게 한다. 불행하게도, 양 치수가 확대되기 때문에 서브-픽셀 혼합을 허용하기 위해 렌티큘을 기울어지게 하는 동등한 트릭은 없다.Lecticular displays using cylindrical lenses are limited to creating views in a single dimension, for example, strictly horizontally or strictly vertically. So-called "Dot" or "Fly Eye" lenticulars use two-dimensional lens arrays to direct content in both dimensions. Unfortunately, because both dimensions are enlarged, there is no equivalent trick to tilt the lenticule to allow sub-pixel mixing.

기존 렌싱에 대한 대안 기술이 있다. 예를 들어, 한 회사 인 LEIA는 회절 광학을 사용하여 64개의 뷰(각 차원에서 8개)가 있는 디스플레이를 생성한다. 시차 장벽을 사용하는 기술도 있지만 이러한 기술은 현저한 밝기를 잃는다. 시분할 다중화 디스플레이와 조합된 조향 가능한 백라이트가 또한 개시되었지만, 이러한 시스템의 관점의 수는 고속 액정 디스플레이(LCD) 패널의 부족에 의해 제한된다. 이러한 시스템을 사용하여 최대 4개의 독립적 뷰가 보고되었다.There is an alternative technique to existing lances. For example, one company, LEIA, uses diffraction optics to produce a display with 64 views (8 in each dimension). Some techniques use parallax barriers, but these techniques lose significant brightness. While steerable backlights in combination with time division multiplexed displays have also been disclosed, the number of aspects of such a system is limited by the lack of high speed liquid crystal display (LCD) panels. Up to four independent views were reported using this system.

대형 디스플레이를 만들기 위하여, 더 작은 디스플레이를 격자 형태로 타일링(tile)하는 것이 일반적이다. 비디오 벽과 대형 발광 다이오드(LED) 표지판은 종종 이런 방식으로 설계된다. 타일이 단일 대형 디스플레이보다 선적, 보관, 및 일반적으로 다루기 쉽다는 점을 포함하여, 이 방법에는 많은 장점이 있다. 또한, 타일은 많은 다른 구성으로 배열될 수 있다. 또한 타일은 전체 디스플레이를 처리하지 않고도 개별적으로 서비스하거나 교체할 수 있다. 또한, 특정 결함 밀도가 주어지면, 작은 타일은 매우 큰 디스플레이보다 결함이 없을 가능성이 훨씬 높기 때문에 타일을 제조하기가 더 쉽다. 디스플레이를 타일링하는 것보다 단순히 더 큰 디스플레이를 만드는 것은 단점이 있다. 예를 들어, 전원 및 비디오 신호는 각 타일에 대해 생성되고 전송되어야 한다. 또한 각 타일의 밝기나 컬러가 다를 수 있으며 교정을 통해 수정해야 할 수도 있다.To make large displays, it is common to tile smaller displays in a grid. Video walls and large light emitting diode (LED) signs are often designed this way. There are many advantages to this method, including that tiles are easier to ship, store, and generally handle than single large displays. In addition, the tiles can be arranged in many different configurations. Tiles can also be serviced or replaced individually without having to handle the entire display. In addition, given a certain defect density, it is easier to manufacture tiles because small tiles are much more likely to be free of defects than very large displays. It is disadvantageous to simply make a larger display than to tile the display. For example, power and video signals must be generated and transmitted for each tile. In addition, the brightness or color of each tile may be different and may need to be corrected through calibration.

전통적인 타일형 디스플레이의 요구를 충족시키기 위해 특수 장비가 만들어졌다. 예를 들어, 비디오 벽 제어기는 타일형 모니터에서 재생하기 위해 표준 비디오 스트림을 다시 설계하고 세그먼트화할 수 있다. 컬러 캘리브레이터는 타일마다 일관된 밝기와 컬러를 유지하는데 사용된다. 특수 기계식 마운팅 시스템은 타일을 제자리에 고정시키고 많은 전기 케이블을 관리하기 위한 채널을 제공한다.Special equipment has been created to meet the needs of traditional tiled displays. For example, a video wall controller can redesign and segment a standard video stream for playback on a tiled monitor. Color calibrator is used to maintain consistent brightness and color from tile to tile. Special mechanical mounting systems hold the tiles in place and provide channels for managing many electrical cables.

더 큰 디스플레이의 외관을 생성하기 위해 독립적인 멀티-뷰 디스플레이가 배열될 수 있지만, 이러한 타일형 디스플레이를 만드는데 사용되는 멀티-뷰 디스플레이는 이러한 종류의 타일형 디스플레이를 구성하기가 더 쉽고 비용이 적게 드는 특징을 포함하지 않는다.Independent multi-view displays can be arranged to create the appearance of larger displays, but the multi-view displays used to make these tiled displays are easier and less expensive to construct this type of tiled display. Does not include features

마지막으로, 대부분의 전자식 멀티-뷰 디스플레이는 자동-스테레오 응용을 대상으로 하며 임의의 콘텐츠를 여러 위치로 동시에 직접 지정하는 인터페이스를 제공하지 않는다.Finally, most electronic multi-view displays are targeted at auto-stereo applications and do not provide an interface that directly directs arbitrary content to multiple locations simultaneously.

위치 지정 미디어 경험을 지원하기 위해 임의의(예를 들어, 상이한) 콘텐츠를 용이하게 지정된 위치에 제공할 수 있는 확장 가능하고 정밀한 멀티-뷰 디스플레이 시스템이 필요하다.There is a need for a scalable and precise multi-view display system that can easily provide any (eg, different) content to a designated location to support a positioning media experience.

넓은 시야에 걸쳐 개별 뷰어에게 콘텐츠를 정확하고 동시에 타겟팅할 수 있는 정밀한 멀티-뷰 디스플레이 시스템의 다양한 양태가 개시된다. 개별 유닛을 타일링함으로써 더 큰 디스플레이가 생성될 수 있고, 타일링이 쉽고 효율적으로 하도록 설계된 다양한 기술이 개시된다. 또한, 정확한 뷰잉 위치에서 콘텐츠의 사양(specification)을 가능하게 하는 교정 절차뿐만 아니라, 사용자가 뷰잉 구역을 그래픽으로 지정하고 그 영역에서 볼 수 있는 콘텐츠를 연관시킬 수 있는 간단한 인터페이스가 개시된다.Various aspects of a precise multi-view display system are disclosed that can accurately and simultaneously target content to individual viewers over a wide field of view. Larger displays can be produced by tiling individual units, and various techniques are designed that make tiling easy and efficient. In addition, a simple interface is disclosed that allows a user to graphically specify a viewing area and associate content viewable in that area, as well as a calibration procedure that enables specification of content at the correct viewing location.

도 1은 본 개시의 하나 이상의 실시예들에 따른 정밀 MV 디스플레이 장치의 정면 사시도이고,
도 2는 본 개시의 하나 이상의 실시예들에 따른 정밀 MV 디스플레이 장치의 분해 정면도이고,
도 3은 본 개시의 하나 이상의 실시예들에 따른 정밀 MV 디스플레이 장치의 부분 분해 배면도이고,
도 4는 본 개시의 하나 이상의 실시예들에 따른 MV 디스플레이 시스템의 정면도이고,
도 5a 내지 도 5c는 각각 본 개시의 하나 이상의 실시예에 따른 서브-픽셀 패턴을 도시하고,
도 6은 본 개시의 하나 이상의 실시예에 따른 복수의 렌즈 조립체를 포함하는 렌즈 어레이 패널의 정면 사시도이고,
도 7a 내지 도 7c는 본 개시의 하나 이상의 실시예들에 따른 3개의 렌즈 어레이(제 1, 제 2, 및 제 3 렌즈 어레이)를 포함하는 렌즈 조립체의 분해 측면 사시도이고,
도 8a 내지 도 8d는 본 개시의 하나 이상의 실시예들에 따른 제 1 렌즈 어레이의 직교도이고,
도 9a 내지 도 9d는 본 개시의 하나 이상의 실시예들에 따른 제 2 렌즈 어레이의 직교도이고,
도 10a 내지 10d는 본 개시의 하나 이상의 실시예에 따른 제 3 렌즈 어레이의 직교도이고,
도 11은 본 개시의 하나 이상의 실시예에 따른 제 1 렌즈 어레이의 후방 및 제 2 렌즈 어레이의 전방을 나타내는 사시도이고,
도 12는 본 개시의 하나 이상의 실시예에 따른 제 1 렌즈 어레이의 후방 및 제 2 렌즈 어레이의 전방을 나타내는 사시도이고,
도 13a 및 도 13b는 제 2 렌즈 어레이의 측면 사시도이고 도 13c 내지 도 13e는 본 개시의 하나 이상의 실시예에 따른 제 2 렌즈 어레이 중 2개의 사시도이고,
도 14는 본 개시의 하나 이상의 실시예들에 따른 렌즈 조립체의 부분 단면도이고,
도 15a 및 15b는 본 개시의 하나 이상의 실시예들에 따른 제 1 렌즈 어레이의 단면도이고,
도 16a는 본 개시의 하나 이상의 실시예들에 따른 코팅이 적용된 제 1 렌즈 어레이의 사시도이고,
도 16b 내지 도 16d는 렌즈 어레이의 오버 몰딩을 도시하며, 이는 도 16a의 제 1 렌즈 어레이(140)를 생성하기 위해 적용된 코팅/페인팅 단계를 제거하는 역할을 하고,
도 17a는 렌즈 어레이 패널의 부분 후방 사시도이고, 도 17b는 본 개시의 하나 이상의 실시예들에 따른 제 3 렌즈 어레이의 측면 사시도이고,
도 17c는 일체형 배플 구조의 예의 사시도이고,
도 17d는 비-연속 외벽을 갖는 일체형 배플 구조의 일 예의 사시도이고,
도 18은 본 개시의 하나 이상의 실시예에 따른 확산기의 부분 사시도이고,
도 19는 본 개시의 하나 이상의 실시예에 따른 디스플레이 제어기의 블록도이고,
도 20a는 그래픽 사용자 인터페이스의 도면이고, 도 20b는 제 1 그래픽 사용자 인터페이스 방법의 흐름도이고, 도 20c는 본 개시의 하나 이상의 실시예들에 따른 제 2 그래픽 사용자 인터페이스 방법의 흐름도이고,
도 21a는 교정 절차를 수행하는 MV 디스플레이 시스템의 블록도이고, 도 21b는 교정 절차의 흐름도이고, 도 21c는 본 개시의 하나 이상의 실시예들에 따른 교정 절차 동안 디스플레이될 수 있는 이미지이고,
도 22a 및 도 22b는 각각 본 개시의 하나 이상의 실시예들에 따른 교정 절차 동안 교정 패턴을 디스플레이하는 렌즈 조립체의 정면도이고,
도 23a 내지 23f는 각각 본 개시의 하나 이상의 실시예에 따른 교정 절차 동안 렌즈 조립체의 정면도이고,
도 24a 내지 24t는 각각 본 개시의 하나 이상의 실시예들에 따른 교정 절차 동안 렌즈 조립체의 정면도이고,
도 25a 내지 도 25i는 본 개시의 하나 이상의 실시예들에 따른 개선 이미지들이고,
도 26은 종래의 렌티큘러 디스플레이 시스템의 부분도이다.
1 is a front perspective view of a precision MV display device according to one or more embodiments of the present disclosure,
2 is an exploded front view of a precision MV display device according to one or more embodiments of the present disclosure,
3 is a partially exploded back view of a precision MV display device in accordance with one or more embodiments of the present disclosure,
4 is a front view of an MV display system in accordance with one or more embodiments of the present disclosure,
5A-5C each illustrate a sub-pixel pattern according to one or more embodiments of the present disclosure,
6 is a front perspective view of a lens array panel including a plurality of lens assemblies according to one or more embodiments of the present disclosure,
7A-7C are exploded side perspective views of a lens assembly including three lens arrays (first, second, and third lens arrays) in accordance with one or more embodiments of the present disclosure;
8A-8D are orthogonal views of a first lens array in accordance with one or more embodiments of the present disclosure,
9A-9D are orthogonal views of a second lens array in accordance with one or more embodiments of the present disclosure,
10A-10D are orthogonal views of a third lens array, in accordance with one or more embodiments of the present disclosure;
11 is a perspective view illustrating a rear of a first lens array and a front of a second lens array according to one or more embodiments of the present disclosure;
12 is a perspective view illustrating a rear of a first lens array and a front of a second lens array according to one or more embodiments of the present disclosure;
13A and 13B are side perspective views of a second lens array and FIGS. 13C-13E are perspective views of two of the second lens arrays, according to one or more embodiments of the present disclosure;
14 is a partial cross-sectional view of a lens assembly according to one or more embodiments of the present disclosure,
15A and 15B are cross-sectional views of a first lens array in accordance with one or more embodiments of the present disclosure,
16A is a perspective view of a first lens array to which a coating is applied in accordance with one or more embodiments of the present disclosure,
16B-16D illustrate overmolding of the lens array, which serves to eliminate the coating / painting step applied to produce the first lens array 140 of FIG. 16A,
17A is a partial rear perspective view of the lens array panel, FIG. 17B is a side perspective view of a third lens array, in accordance with one or more embodiments of the present disclosure;
17C is a perspective view of an example of a unitary baffle structure,
17D is a perspective view of one example of a unitary baffle structure with non-continuous outer walls;
18 is a partial perspective view of a diffuser in accordance with one or more embodiments of the present disclosure;
19 is a block diagram of a display controller according to one or more embodiments of the present disclosure,
20A is a diagram of a graphical user interface, FIG. 20B is a flowchart of a first graphical user interface method, FIG. 20C is a flowchart of a second graphical user interface method, in accordance with one or more embodiments of the present disclosure,
21A is a block diagram of an MV display system performing a calibration procedure, FIG. 21B is a flowchart of a calibration procedure, FIG. 21C is an image that can be displayed during a calibration procedure in accordance with one or more embodiments of the present disclosure,
22A and 22B are front views, respectively, of a lens assembly displaying a calibration pattern during a calibration procedure according to one or more embodiments of the present disclosure;
23A-23F are front views of the lens assembly during the calibration procedure, respectively, in accordance with one or more embodiments of the present disclosure;
24A-24T are front views of a lens assembly during a calibration procedure, respectively, in accordance with one or more embodiments of the present disclosure;
25A-25I are enhancement images in accordance with one or more embodiments of the present disclosure,
26 is a partial view of a conventional lenticular display system.

도 1은 본 개시의 하나 이상의 실시예들에 따른 정밀 MV 디스플레이 장치(100)의 정면 사시도이다. MV 디스플레이 장치(100)는 멀티-뷰 픽셀(102)의 그리드를 포함하고 사변형(예를 들어, 직사각형) 형상을 갖는다. 다른 형상 및 구성은 본 개시의 범위 내에 있다. 뷰어에게, MV 디스플레이 장치(100)는 일반적인 발광 다이오드(LED) 디스플레이와 유사하다. 하나 이상의 실시예에서, MV 디스플레이 장치(100)는 다시 멀티-뷰 픽셀(102)의 그리드 위에 배치된 통합 카메라(104)를 포함한다. 카메라(104)는 MV 디스플레이 장치(100)의 시야에서 활동을 모니터링하는데 사용되는 감지 시스템의 예이다. 하나 이상의 실시예에서, 이러한 감지 시스템은 MV 디스플레이 장치(100)에 통합되지 않은 센서를 포함하거나 전체적으로 상기 센서로 구성된다.1 is a front perspective view of a precision MV display apparatus 100 in accordance with one or more embodiments of the present disclosure. The MV display apparatus 100 includes a grid of multi-view pixels 102 and has a quadrilateral (eg, rectangular) shape. Other shapes and configurations are within the scope of the present disclosure. For the viewer, the MV display device 100 is similar to a typical light emitting diode (LED) display. In one or more embodiments, the MV display device 100 again includes an integrated camera 104 disposed over a grid of multi-view pixels 102. Camera 104 is an example of a sensing system used to monitor activity in the field of view of MV display device 100. In one or more embodiments, such a sensing system includes or consists entirely of a sensor that is not integrated into the MV display device 100.

도 2는 본 개시의 하나 이상의 실시예들에 따른 정밀 MV 디스플레이 장치(100)의 분해 정면도이다. MV 디스플레이 장치(100)는 후방 커버(106) 및 전방 커버(108)를 포함한다. 고해상도 평판 디스플레이(FPD)(110)는 후방 커버(106)에 대해 놓인다. 하나 이상의 실시예에서, 평판 디스플레이(110)는 LCD 패널 및 백라이팅 유닛을 포함한다. 다른 유형의 평판 디스플레이(110)는 본 개시의 범위를 벗어나지 않고 사용될 수 있다. 평판 디스플레이(110)는 이하에서 더 상세히 설명되는 바와 같이 평판 디스플레이(110)의 디스플레이 서브-픽셀의 컬러를 국부적으로 혼합하는 역할을 하는 확산기(162)(도 18 참조)에 의해 커버될 수있다. 확산기(162)는 렌즈 어레이 패널(112)에 의해 덮여있다.2 is an exploded front view of a precision MV display apparatus 100 in accordance with one or more embodiments of the present disclosure. The MV display apparatus 100 includes a rear cover 106 and a front cover 108. A high resolution flat panel display (FPD) 110 lies against the back cover 106. In one or more embodiments, flat panel display 110 includes an LCD panel and a backlighting unit. Other types of flat panel displays 110 may be used without departing from the scope of the present disclosure. The flat panel display 110 may be covered by a diffuser 162 (see FIG. 18) which serves to locally mix the colors of the display sub-pixels of the flat panel display 110 as described in more detail below. The diffuser 162 is covered by the lens array panel 112.

렌즈 어레이 패널(112)은 더 작은 렌즈 조립체(132)(도 6 및 7a 내지 7c 참조)로 구성되며, 각각 멀티-뷰 픽셀(102)를 위한 복수의 다중 요소 렌즈 시스템을 생성하도록 적층된 3개의 렌즈 어레이(140, 142, 144)를 포함한다(이러한 16개의 렌즈 시스템은 렌즈 조립체(132)에 포함된다). 멀티-뷰 픽셀들(102) 사이의 크로스토크를 방지하기 위해, 렌즈 어레이 패널(112)은 확산기(162)와 렌즈 어레이 패널(112)의 렌즈들 사이에 놓이는 배플(150, 152)(도 17a 참조)을 포함한다. 레일(134 및 136)(도 6 참조)을 포함하는 레일 시스템은 멀티 뷰 픽셀(102)을 단단히 패킹할 수 있는 방식으로 렌즈 조립체(132)를 함께 유지한다. 전방 커버(108)는 멀티-뷰 픽셀(102)의 외관을 개선하는 복수의 구멍(aperture)(108a)을 포함한다. 렌즈 어레이 패널(112)의 구성 요소는 도 5 내지 도 17c을 참조하여 아래에서 더 상세하게 설명된다.Lens array panel 112 consists of a smaller lens assembly 132 (see FIGS. 6 and 7A-7C), each of which is stacked to create a plurality of multi-element lens systems for multi-view pixels 102. Lens arrays 140, 142, and 144 (such sixteen lens systems are included in lens assembly 132). To prevent crosstalk between the multi-view pixels 102, the lens array panel 112 is placed between the diffuser 162 and the lenses of the lens array panel 112 (baffles 150, 152) (FIG. 17A). Reference). The rail system, including the rails 134 and 136 (see FIG. 6), holds the lens assembly 132 together in a manner capable of tightly packing the multi-view pixel 102. The front cover 108 includes a plurality of apertures 108a that improve the appearance of the multi-view pixel 102. Components of the lens array panel 112 are described in more detail below with reference to FIGS. 5 through 17C.

도 3은 본 개시의 하나 이상의 실시예들에 따른 정밀 MV 디스플레이 장치(100)의 부분 분해 배면도이다. 도 3에서, 후방 커버(106)의 패널(106a)은 제 1 구동기 보드(114) 및 제 2 구동기 보드(116)를 노출시키도록 제거된다. 제 1 구동기 보드(114)는 특별히 멀티-뷰 응용을 지지하도록 설계된 픽셀 처리 유닛(172)(도 19 참조)을 포함한다. 제 1 구동기 보드(114)는 또한 MV 디스플레이 장치(100) 내에서 전원 커넥터(118)에 연결된 전원 케이블을 통해 수신된 전력을 분배하는 전력 제어기(180)(도 19 참조)를 포함한다. 또한, 제 1 구동기 보드(114)는 데이터 커넥터(120)에 연결된 데이터 케이블을 통해 데이터를 송수신하는 네트워크 제어기(178)(도 19 참조)를 포함한다. 도 3에 도시된 바와 같이, 제 2 구동기 보드(116)는 또한 전력 제어기(180)에 결합된 전력 커넥터(118) 및 네트워크 제어기(178)에 결합된 데이터 커넥터(120)를 포함한다. 하나 이상의 실시예에서, 데이터 커넥터(120)는 이더넷® 커넥터이고 네트워크 제어기(178)는 이더넷® 데이터 통신 표준에 따라 데이터를 송수신한다. MV 디스플레이 장치(100)의 좌측 및 우측 모두에 전력 커넥터(118) 및 데이터 커넥터(120)를 제공하는 것은 다수의 디스플레이 장치(100)가 상호 연결되어 타일형 디스플레이 장치를 형성할 때 편리하고 깔끔한 케이블링을 가능하게 한다.3 is a partially exploded rear view of a precision MV display apparatus 100 in accordance with one or more embodiments of the present disclosure. In FIG. 3, the panel 106a of the rear cover 106 is removed to expose the first driver board 114 and the second driver board 116. The first driver board 114 includes a pixel processing unit 172 (see FIG. 19) specifically designed to support multi-view applications. The first driver board 114 also includes a power controller 180 (see FIG. 19) that distributes power received via a power cable connected to the power connector 118 within the MV display device 100. The first driver board 114 also includes a network controller 178 (see FIG. 19) for transmitting and receiving data via a data cable connected to the data connector 120. As shown in FIG. 3, the second driver board 116 also includes a power connector 118 coupled to the power controller 180 and a data connector 120 coupled to the network controller 178. In one or more embodiments, data connector 120 is an Ethernet® connector and network controller 178 transmits and receives data in accordance with the Ethernet® data communication standard. Providing the power connector 118 and the data connector 120 on both the left and right sides of the MV display device 100 is a convenient and neat cable when multiple display devices 100 are interconnected to form a tiled display device. Enable the ring.

더 많은 멀티-뷰(MV) 픽셀로 더 큰 디스플레이를 생성하기 위해, MV 디스플레이 장치(100)는 도 4에 도시된 바와 같이 타일링 구성으로 사용될 수 있다. 도 4는 본 개시의 하나 이상의 실시예들에 따른 MV 디스플레이 시스템(122)의 정면도이다. MV 디스플레이 시스템(122)은, 이하에 상세히 설명되는 바와 같이, 상이한 이미지가 상이한 뷰잉 구역에서 뷰어에게 제공되도록 그들의 MV 픽셀(102)이 광을 방출하게 하는 제어 신호가 함께 결합되고 제공되는 복수의 MV 디스플레이 장치(100)를 포함한다. 도 4에 도시된 예시적인 MV 디스플레이 시스템(122)은 9개의 MV 디스플레이 장치(100)를 포함하지만; MV 디스플레이 시스템(122)의 다른 실시예는 상이한 수량의 MV 디스플레이 장치(100)를 포함할 수 있다.In order to produce a larger display with more multi-view (MV) pixels, the MV display device 100 can be used in a tiling configuration as shown in FIG. 4. 4 is a front view of an MV display system 122 in accordance with one or more embodiments of the present disclosure. The MV display system 122 includes a plurality of MVs that are coupled together and provided with control signals that cause their MV pixels 102 to emit light so that different images are presented to the viewer in different viewing zones, as described in detail below. The display device 100 is included. The example MV display system 122 shown in FIG. 4 includes nine MV display devices 100; Other embodiments of the MV display system 122 may include different quantities of the MV display device 100.

MV 디스플레이 장치(100)는 타일링을 보다 쉽고 더 효과적으로 만드는 많은 특징들을 포함한다. 하나 이상의 실시예에서, 후방 커버(106) 및 전방 커버(108)의 측면 에지에 제공된 돌출부, 벤트, 및 케이블 커넥터가 없으며, 이는 MV 디스플레이 장치(100)가 서로 물리적으로 맞닿을 수 있게 한다. 장착 지점은 MV 디스플레이 장치(100)의 후면에 제공되므로(도 3 참조), 이는 타일링을 방해하지 않는다. 디스플레이 에지와 픽셀 사이의 공간인 베젤이 최소화되어 외관이 개선된다. 전력 커넥터(118) 및 데이터 커넥터(120)는 MV 디스플레이 장치(100)가 데이지 체인 방식으로 연결될 수 있는 위치(예를 들어, 그의 반대측)에서 후방 커버(106) 상에 제공되며, 이는 타일 시스템, 예를 들어 MV 디스플레이 시스템(122)을 구동하는데 필요한 케이블의 양을 크게 감소시킨다. 또한, MV 디스플레이 장치(100)의 동작을 제어하는 응용 소프트웨어는 MV 디스플레이 시스템(122)이 하나의 대형 디스플레이로 취급될 수 있게 하여, 종래의 MV 디스플레이 장치를 교정 및 사용이 용이하게 한다.The MV display apparatus 100 includes many features that make tiling easier and more effective. In one or more embodiments, there are no protrusions, vents, and cable connectors provided at the side edges of the rear cover 106 and the front cover 108, which allows the MV display device 100 to be in physical contact with each other. Since the mounting point is provided at the rear of the MV display device 100 (see FIG. 3), this does not interfere with tiling. The bezel, the space between the display edge and the pixels, is minimized to improve appearance. The power connector 118 and the data connector 120 are provided on the rear cover 106 at a location (eg, opposite) to which the MV display device 100 can be daisy chained, which is a tile system, For example, the amount of cables required to drive the MV display system 122 is greatly reduced. In addition, application software that controls the operation of the MV display device 100 allows the MV display system 122 to be treated as one large display, thereby facilitating calibration and use of conventional MV display devices.

의도된 멀티-뷰 기능을 제공하기 위해 함께 작동하는 MV 디스플레이 시스템(122)의 많은 측면이 있다. 예를 들어, MV 디스플레이 시스템(122)은 의도된 멀티-뷰 기능성을 제공하기 위해 함께 작동하는, 광학 시스템(멀티-뷰 응용에 특히 최적화된 광 필드 디스플레이의 유형임), 디스플레이 제어기, 교정, 및 그래픽 인터페이스를 포함하는 다수의 서브시스템을 포함한다. 의도된 멀티-뷰 기능을 제공한다. 이러한 각 측면은 아래에서 더 자세히 설명된다.There are many aspects of the MV display system 122 working together to provide the intended multi-view functionality. For example, MV display system 122 is an optical system (a type of light field display specifically optimized for multi-view applications), display controllers, calibrations, and which work together to provide intended multi-view functionality. It includes a number of subsystems, including a graphical interface. Provide the intended multi-view function. Each of these aspects is described in more detail below.

광학 시스템Optical system

MV 디스플레이 장치(100)는 일종의 라이트 필드 디스플레이이다. 종래의 디스플레이의 각각의 픽셀은 한 번에 하나의 컬러 및 광의 강도를 디스플레이하도록 설계되며, 이는 디스플레이의 시야에 캐스트된다. 대조적으로, MV 디스플레이 장치(100)의 각각의 멀티-뷰(MV) 픽셀(102)은 다양한 뷰잉 구역에 상이한 컬러 및 광의 강도를 동시에 투영한다. 이와 관련하여, MV 픽셀(102)은 개별적으로 제어되는 광의 빔렛을 다수의 방향으로 동시에 보내는 프로젝터와 더 유사하다.The MV display apparatus 100 is a kind of light field display. Each pixel of a conventional display is designed to display the intensity of one color and light at a time, which is cast to the field of view of the display. In contrast, each multi-view (MV) pixel 102 of the MV display device 100 simultaneously projects different color and light intensities in various viewing zones. In this regard, the MV pixel 102 is more like a projector that simultaneously sends beamlets of individually controlled light in multiple directions.

본 개시의 하나 이상의 실시예들에서, MV 디스플레이 장치(100)의 렌즈 어레이 패널(112)은 디스플레이 픽셀의 어레이를 포함하여, 디스플레이 픽셀 어레이를 포함하는 평판 디스플레이(FPD)(110) 위에 배치될 광학 요소들의 어레이(다중-요소 렌즈 시스템의 어레이)를 포함한다. 렌즈 어레이 패널(112)의 다중-요소 렌즈 시스템은 디스플레이 픽셀(예를 들어, 100x100=10,000 디스플레이 픽셀)의 서브-어레이 위에 배치되어 하나의 멀티-뷰(MV) 픽셀(102)을 집합적으로 형성하며, 여기서 각 빔렛은 하나의 디스플레이 픽셀에 대응한다. 이 예에서, 각각의 MV 픽셀(102)은 10,000개의 디스플레이 픽셀에 기초하여 10,000개의 빔렛을 방출할 수 있으며, 각 빔렛의 방향, 컬러, 및 밝기는 독립적으로 제어 가능하다. 따라서, MV 픽셀(102)의 어레이는 소형 프로젝터의 어레이로서 간주될 수 있고, 각각은 평판 디스플레이(110)의 서브섹션을 이미징 장치로서 사용한다. 대안적으로, 구성은 평판 디스플레이(110) 상에 배치된 확대경 어레이(즉, 다중 요소 렌즈 시스템의 어레이)로서 간주될 수 있다. 각각의 렌즈 시스템은 멀티-요소 렌즈 시스템의 동공을 채우도록 각각의 디스플레이 픽셀을 확대한다. 뷰어가 확대되는 것으로 보이는 디스플레이 픽셀은 뷰잉 각도 또는 디스플레이 픽셀 위에 배치된 렌즈 시스템의 광축에 대한 뷰어의 각도에 종속한다. 즉, 확대경을 통해 표시되는 디스플레이 픽셀은 뷰잉 각도에 따라 다르다. 따라서, 확대는 시청할 수 있는 픽셀(뷰잉 각도를 통해)의 선택 및 뷰어의 관점에서 더 크게 커버하기 위한 선택된 가시 픽셀의 확대 모두를 허용한다.In one or more embodiments of the present disclosure, the lens array panel 112 of the MV display device 100 includes an array of display pixels, such that the optical to be placed over a flat panel display (FPD) 110 that includes a display pixel array. An array of elements (an array of multi-element lens systems). The multi-element lens system of the lens array panel 112 is disposed above a sub-array of display pixels (eg, 100 × 100 = 10,000 display pixels) to collectively form one multi-view (MV) pixel 102. Where each beamlet corresponds to one display pixel. In this example, each MV pixel 102 can emit 10,000 beamlets based on 10,000 display pixels, and the direction, color, and brightness of each beamlet are independently controllable. Thus, the array of MV pixels 102 can be considered as an array of small projectors, each using a subsection of flat panel display 110 as the imaging device. Alternatively, the configuration may be considered as an array of magnifiers (ie, an array of multi-element lens systems) disposed on flat panel display 110. Each lens system enlarges each display pixel to fill the pupil of the multi-element lens system. The display pixel in which the viewer appears to be magnified depends on the viewing angle or the viewer's angle relative to the optical axis of the lens system disposed above the display pixel. That is, the display pixels displayed through the magnifying glass vary depending on the viewing angle. Thus, magnification allows both the selection of viewable pixels (via the viewing angle) and the magnification of the selected visible pixel to cover larger from the viewer's point of view.

FPD-기반 접근법(즉, 렌즈 어레이 패널(112)과 FPD(110)의 조합)은 이산형 프로젝터 어레이를 사용하는 것에 비해 몇 가지 장점을 제공한다. 개별 프로젝터 설계를 위해, 구동 전자 기기는 각각의 MV 픽셀에 대해 개별적으로 생성되어야 하지만, FPD 기반 접근법에서, FPD(110)상의 모든 MV 픽셀은 공유 전자 기기를 사용할 수 있다. 고정된 수의 빔렛(1차까지)이 고정된 수의 디스플레이 픽셀에 의해 각각 제공되는 FPD-기반 접근법에 의해, MV 픽셀(102)의 수 또는 공간 해상도를 MV 디스플레이 장치(100)의 각도 해상도와 상쇄할 수 있다.The FPD-based approach (ie, the combination of lens array panel 112 and FPD 110) provides several advantages over using discrete projector arrays. For the individual projector design, the drive electronics must be created separately for each MV pixel, but in an FPD based approach, all MV pixels on the FPD 110 can use shared electronics. By an FPD-based approach in which a fixed number of beamlets (up to the primary) are each provided by a fixed number of display pixels, the number or spatial resolution of the MV pixels 102 is matched with the angular resolution of the MV display device 100. Can be offset.

디스플레이 "서브-픽셀"Display "sub-pixel"

많은 FPD는 서로 다른 컬러의 서브-픽셀(예: 빨강, 녹색, 및 파랑 서브-픽셀)을 사용하여 컬러를 생성한다. 즉, 각 디스플레이 픽셀의 컬러는 디스플레이 픽셀을 집합적으로 형성하는 상이한 컬러의 디스플레이 "서브-픽셀"을 사용하여 설정될 수 있다. 충분히 멀리서 보면, 디스플레이 서브-픽셀을 개별적으로 해결할 수 없으므로, 대응하는 디스플레이 픽셀에 대해 개별 컬러를 함께 혼합하는 효과를 생성한다. MV 응용에서, 개별 디스플레이 서브-픽셀을 볼 수 있게 할 수 있지만, 렌즈 시스템의 배율은 뚜렷한 각도 해상도를 제공하도록 높게 설정될 수 있다. 뷰어가 주어진 디스플레이 서브-픽셀의 빔렛의 경로에 있고 디스플레이 픽셀을 형성하는 다른 디스플레이 서브-픽셀의 경로에 있지 않으면, 뷰어는 그 디스플레이 서브-픽셀의 컬러(예를 들어, 적색, 녹색, 또는 청색) 만을 볼 수 있지만, 디스플레이 픽셀을 위해 의도된 혼합 컬러를 볼 수 없다. 디스플레이 서브-픽셀 사이에 갭이 있는 흑백 디스플레이에서도 유사한 문제가 발생할 수 있다.Many FPDs generate colors using sub-pixels of different colors (eg, red, green, and blue sub-pixels). That is, the color of each display pixel can be set using a display “sub-pixel” of different colors that collectively form the display pixel. Viewed far enough, the display sub-pixels cannot be solved individually, creating the effect of mixing the individual colors together for the corresponding display pixel. In MV applications, it is possible to see individual display sub-pixels, but the magnification of the lens system can be set high to provide distinct angular resolution. If the viewer is in the path of a beamlet of a given display sub-pixel and not in the path of another display sub-pixel that forms the display pixel, the viewer is the color of the display sub-pixel (eg, red, green, or blue). You can only see, but not the blended colors intended for the display pixels. Similar problems can occur in black and white displays with gaps between display sub-pixels.

이 문제를 해결하기 위해, MV 디스플레이 장치(100)는 평판 디스플레이(110)의 디스플레이 서브-픽셀들 사이의 컬러를 대응하는 디스플레이 픽셀에 효과적으로 혼합하는 확산기(162)(도 18 참조)를 사용한다. 일부 실시예들에 따르면, 각각의 확산기가 그 디스플레이 픽셀의 디스플레이 서브-픽셀들만을 함께 혼합하도록, 상이한 디스플레이 픽셀들에 대해 별개의(다른) 확산기들이 각각 제공될 수 있다. 그러나, 이것은 확산기(162)를 평판 디스플레이(110)의 서브-픽셀에 정확하게 정렬할 필요가 있다. 따라서, 다른 실시예에서, 단일 확산기 층이 전체 평판 디스플레이(110) 위에 제공되어, 각각의 디스플레이 픽셀에 대해 충분한 국부적 혼합을 생성한다.To solve this problem, the MV display apparatus 100 uses a diffuser 162 (see FIG. 18) that effectively mixes the colors between the display sub-pixels of the flat panel display 110 to the corresponding display pixels. According to some embodiments, separate (different) diffusers may be provided for different display pixels, respectively, such that each diffuser mixes together only the display sub-pixels of that display pixel. However, this requires precisely aligning the diffuser 162 to the sub-pixels of the flat panel display 110. Thus, in another embodiment, a single diffuser layer is provided over the entire flat panel display 110 to produce sufficient local mixing for each display pixel.

적절한 확산기(162)를 선택하는 데에는 엔지니어링 균형점(tradeoff)이 있을 수 있다. 넓은 측면 혼합을 제공하는 확산기는 컬러를 잘 혼합하지만, 번짐으로 인해 디스플레이의 달성 가능한 각도 해상도를 제한할 것이다.There may be an engineering tradeoff in selecting an appropriate diffuser 162. Diffusers that provide wide lateral mixing will mix colors well, but smearing will limit the attainable angular resolution of the display.

FPD(110)에 사용되는 서브-픽셀 패턴은 다양하다. 전형적인 패턴이 도 5a에 도시되어 있다. 도 5a에서, 서브-픽셀 패턴(124)은 사각형 패턴으로 RGB(수직) 스트라이프로 배열된 복수의 서브-픽셀(126)을 포함한다. 예를 들어, 적색 디스플레이 서브-픽셀은 반복하기 전에 공간의 약 1/3을 수평으로 차지한다. 따라서, 확산기(162)는 큰 갭에 걸쳐 있어야 한다. 수직적으로 상황은 상당히 다르다. 도 5a에서, 디스플레이 서브-픽셀(126) 사이에는 갭이 거의 없으므로, 매우 적은 확산이 요구된다. 다양한 예시적인 실시예에서, 확산기(162)는 비대칭 확산기로서, 수평 및 수직 치수에서 적절한 양의 확산을 제공한다. 각 축선을 독립적으로 최적화하면 대칭 확산기를 사용했을 때보다 시스템이 더 나은 각도 분해능을 유지할 수 있다. 하나 이상의 실시예들에서, 평판 디스플레이(110)는 도 5a에 도시된 서브-픽셀 패턴(124)으로 배열된 서브-픽셀들(126)을 포함한다. 이 평판 디스플레이(110)와 함께, 비대칭 확산기(162)가 사용될 수 있으며, 이는 수평 축선을 따라 더 많은 확산을 제공하고 수직 축선을 따라 더 적은 확산을 제공하는데, 이는 도 18을 참조하여 아래에서 더 상세히 설명 될 것이다.The sub-pixel patterns used for the FPD 110 vary. A typical pattern is shown in FIG. 5A. In FIG. 5A, the sub-pixel pattern 124 includes a plurality of sub-pixels 126 arranged in RGB (vertical) stripes in a square pattern. For example, the red display sub-pixel occupies about one third of the space horizontally before repeating. Thus, the diffuser 162 must span a large gap. Vertically the situation is quite different. In FIG. 5A, there is little gap between the display sub-pixels 126, so very little diffusion is required. In various exemplary embodiments, diffuser 162 is an asymmetric diffuser, providing an appropriate amount of diffusion in horizontal and vertical dimensions. Optimizing each axis independently allows the system to maintain better angular resolution than with symmetric diffusers. In one or more embodiments, flat panel display 110 includes sub-pixels 126 arranged in sub-pixel pattern 124 shown in FIG. 5A. With this flat panel display 110, an asymmetric diffuser 162 can be used, which provides more diffusion along the horizontal axis and less diffusion along the vertical axis, which is further described below with reference to FIG. Will be explained in detail.

도 5b는 정사각형 모자이크 패턴으로 배열된 복수의 서브-픽셀(126)을 포함하는 서브-픽셀 패턴(126)을 도시한다. 하나 이상의 실시예에서, 평판 디스플레이(110)는 도 5b에 도시된 서브-픽셀 패턴(126)으로 배열된 서브-픽셀(126)을 포함한다.5B shows a sub-pixel pattern 126 that includes a plurality of sub-pixels 126 arranged in a square mosaic pattern. In one or more embodiments, flat panel display 110 includes sub-pixels 126 arranged in sub-pixel pattern 126 shown in FIG. 5B.

도 5c는 사각형 빨강, 녹색, 파랑, 흰색(RGBW) 패턴으로 배열된 복수의 서브-픽셀(126)을 포함하는 서브-픽셀 패턴(128)을 도시한다. 하나 이상의 실시예에서, 평판 디스플레이(110)는 도 5c에 도시된 서브-픽셀 패턴(128)으로 배열된 서브-픽셀(126)을 포함한다.5C shows a sub-pixel pattern 128 including a plurality of sub-pixels 126 arranged in a square red, green, blue, white (RGBW) pattern. In one or more embodiments, flat panel display 110 includes sub-pixels 126 arranged in sub-pixel pattern 128 shown in FIG. 5C.

미래의 FPD는 확산기의 필요성을 감소시킬 수 있는 보다 적절한 컬러 혼합 기술(예를 들어, 필드 순차 컬러)을 포함할 수 있다. 따라서, 전형적인 컬러 필터링된 서브-픽셀 채널을 사용하는 FPD에서 확산기의 사용이 바람직하며, 일반적으로 이 확산기는 비대칭 산란 프로파일을 가질 것이다.Future FPDs may include more suitable color mixing techniques (eg, field sequential colors) that may reduce the need for diffusers. Thus, the use of diffusers in FPDs using typical color filtered sub-pixel channels is desirable, and generally these diffusers will have an asymmetric scattering profile.

렌즈 설계 및 내부 배열 기계적 정렬 및 고정 장치 기능Lens design and internal arrangement Mechanical alignment and fixture features

다양한 예시적인 실시예에서, 다중-요소 렌즈(또는 다중-요소 렌즈 시스템)가 사용된다. 다중 요소를 사용하여 렌즈 시스템을 구성하면 초점, 시야, 및 필 팩터(fill factor) 사이에서 훨씬 더 나은 균형점을 달성할 수 있다. 미광이 MV 픽셀(102) 사이에서 교차하는 것을 방지하기 위한 배플(baffle)을 제공하는 것을 포함하여 각각의 다중-요소 렌즈를 독립적으로 조립한 다음, 이를 평판 디스플레이(110)의 상부에 배열할 수 있다. 이러한 기술은 엄청나게 비쌀 수 있다. 대안적으로, 렌티큘러 렌즈 시트의 예를 사용하여, 개별 렌즈 요소를 병렬로 생성하기 위해 렌즈 시트를 적층하는 것을 상상할 수 있다.In various exemplary embodiments, a multi-element lens (or multi-element lens system) is used. Constructing a lens system using multiple elements can achieve a much better balance between focus, field of view, and fill factor. Each multi-element lens can be assembled independently, including providing a baffle to prevent stray light from intersecting between MV pixels 102, and then arranged it on top of flat panel display 110. have. Such techniques can be incredibly expensive. Alternatively, using the example of a lenticular lens sheet, one can imagine stacking lens sheets to produce individual lens elements in parallel.

나이브 렌즈(naive lens) 시트 접근법에는 여러 가지 문제가 있을 수 있다. 먼저, 광축선을 따라 렌즈들 사이에 적절한 간격을 유지하는 것이 어려울 수 있다. 둘째, 차동 열팽창으로 인해 온도 변화에 따라 렌즈를 올바른 디스플레이 픽셀의 중앙에 유지하기가 어려울 수 있다. 예를 들어, 렌즈 시트가 평판 디스플레이(110)의 하나의 에지에 고정된 경우, 열 팽창은 구속된 에지의 것보다 훨씬 더 반대쪽 비 고정 에지의 MV 픽셀(102)을 이동시킬 것이다. 셋째, 광학 재료로 만들어진 시트는 미광이 평판 디스플레이(110)에 평행하게 통과하여 하나의 MV 픽셀(102)로부터 다른 MV 픽셀(102)로 통과하는 경로를 제공할 수 있다. 마지막으로, 양면에 임의의 표면을 갖는 대형 정밀 렌즈 시트를 성형하는데 상당한 제조 문제가 있을 수 있다. 후술하는 바와 같이, 본 발명에 따른 MV 디스플레이 장치(100)는 이러한 문제를 극복한다.There are a number of problems with the naive lens sheet approach. First, it may be difficult to maintain proper spacing between the lenses along the optical axis. Second, due to differential thermal expansion, it can be difficult to keep the lens in the center of the correct display pixel as the temperature changes. For example, if the lens sheet is fixed to one edge of the flat panel display 110, thermal expansion will move the MV pixel 102 of the far non-fixed edge far more than that of the constrained edge. Third, the sheet made of optical material may provide a path through which stray light passes parallel to the flat panel display 110 and from one MV pixel 102 to another. Finally, there can be significant manufacturing problems in molding large precision lens sheets with arbitrary surfaces on both sides. As will be described later, the MV display apparatus 100 according to the present invention overcomes this problem.

여러 장의 렌즈를 서로 일정한 거리를 유지하는 것은 어려울 수 있다. FPD는 상당히 클 수 있으며, 그 크기의 시트는 현저한 처짐을 나타낼 수 있다. 이는 시트를 에지에서 높은 장력으로 유지하여 어느 정도 극복할 수 있다. 그러나 이러한 해결책은 렌즈 시트의 신축 및 타일 시스템에서 큰 간격을 유발할 수 있는 큰 기계식 프레임의 필요성을 포함하여 자체 문제를 일으킨다. 본 개시는 정확한 정렬을 유지하는 것을 돕는 렌즈들 사이의 영역에 자체 정렬 기능들을 포함시킴으로써 이러한 두 가지 문제를 극복한다. 이러한 특징들은 도 6 내지 도 14을 참조하여 아래에서 상세하게 설명 될 것이다.It can be difficult to keep several lenses at a certain distance from each other. FPDs can be quite large and sheets of that size can show significant sagging. This can be overcome to some extent by keeping the sheet in high tension at the edges. However, this solution poses its own problems, including the need for a large mechanical frame that can cause large gaps in the stretching and tile system of the lens sheet. The present disclosure overcomes these two problems by including self-aligning functions in the area between the lenses to help maintain correct alignment. These features will be described in detail below with reference to FIGS. 6 to 14.

처짐을 방지하는 한 가지 방법은 시트의 크기를 작은 것으로 제한한 다음 이 조각들을 함께 타일링하는 것이다. 예시적인 실시예에서, 렌즈는 도 6 및 도 7a 내지 도 7c에 도시된 바와 같이 지지 레일(134, 136)의 시스템을 통해 제자리에 유지되는 4x4 렌즈 조립체(132)로 구성된다.One way to prevent sagging is to limit the size of the sheet to small ones and then tile these pieces together. In an exemplary embodiment, the lens consists of a 4x4 lens assembly 132 that is held in place through the system of support rails 134, 136 as shown in FIGS. 6 and 7A-7C.

도 6은 본 개시의 하나 이상의 실시예들에 따른 렌즈 어레이 패널(112)의 정면 사시도이다. 렌즈 어레이 패널(112)은 각각 16개의 MV 픽셀(102)을 포함하는 렌즈 어셈블리의 타일형 어레이(132)를 포함한다. 도 6에 도시된 예에서, 렌즈 어레이 패널(112)은 각각 4개의 렌즈 어셈블리(132)를 포함하는 7개의 열을 포함하고; 그러나 지지 기계 구조가 보이도록 두 개의 컬럼이 제거된다. 렌즈 어레이 패널(112)은 본 개시의 범위를 벗어나지 않고 다른 구성으로 배열된 다른 수량의 렌즈 어셈블리(132)를 포함할 수 있다. 기계적 지지 구조는 그 크기 및 형태가 렌즈 조립체(132) 자체 및 렌즈 조립체(132) 사이에서 이용 가능한 공간에 의해 안내되도록 구체적으로 설계되었다. 이는 렌즈 구멍을 최대화할 수 있게 한다.6 is a front perspective view of a lens array panel 112 in accordance with one or more embodiments of the present disclosure. The lens array panel 112 includes a tiled array 132 of lens assemblies comprising 16 MV pixels 102 each. In the example shown in FIG. 6, the lens array panel 112 includes seven rows each comprising four lens assemblies 132; However, two columns are removed to show the supporting machine structure. Lens array panel 112 may include different quantities of lens assemblies 132 arranged in different configurations without departing from the scope of the present disclosure. The mechanical support structure is specifically designed such that its size and shape is guided by the space available between the lens assembly 132 itself and the lens assembly 132. This makes it possible to maximize the lens aperture.

하나 이상의 실시예에서, 지지 구조물은 복수의 수직 레일(134) 및 복수의 수평 레일(136)을 포함한다. 예를 들어, 수직 및 수평 레일(134, 136)은 일체로 형성되거나 함께 납땜될 수 있다. 각각의 수직 레일(134)은 그 안에 형성된 복수의 구멍을 가지며, 복수의 내부 나사산이 각각의 개구에 형성된다. 렌즈 어셈블리(132)는 외부 나사산을 갖는 복수의 나사(138)를 사용하여 수직 레일(134)에 결합된다. 렌즈 조립체(132)가 수직 및 수평 레일(134, 136) 상에 배치된 후, 스크류(138)는 수직 레일(134)에 형성된 개구 내로 삽입되고 회전되어, 스크류(138)의 헤드가 스크류(138)의 헤드가 렌즈 어셈블리(132)와 접촉하여 렌즈 어셈블리를 수직 레일(134)에 단단히 체결(고정)한다.In one or more embodiments, the support structure includes a plurality of vertical rails 134 and a plurality of horizontal rails 136. For example, the vertical and horizontal rails 134, 136 may be integrally formed or soldered together. Each vertical rail 134 has a plurality of holes formed therein, and a plurality of internal threads are formed in each opening. Lens assembly 132 is coupled to vertical rail 134 using a plurality of screws 138 having external threads. After the lens assembly 132 is disposed on the vertical and horizontal rails 134, 136, the screw 138 is inserted into the opening formed in the vertical rail 134 and rotated so that the head of the screw 138 is screw 138. ) Heads contact the lens assembly 132 to securely fasten (fix) the lens assembly to the vertical rail 134.

하나 이상의 실시예에서, 다수의 렌즈 조립체(132)가 함께 타일링되어 평판 디스플레이(110)를 덮는 렌즈 어레이 패널(112)을 형성한다. 렌즈 어레이 패널(112)은 렌즈 조립체(132)의 정렬을 돕는 특징을 포함한다. 다른 크기의 어레이 및 형상의 특정 세부 형상은 수정될 수 있고 본 개시의 범위 내에 속한다.In one or more embodiments, multiple lens assemblies 132 are tiled together to form lens array panel 112 covering flat display 110. The lens array panel 112 includes features to help align the lens assembly 132. Certain detail shapes of arrays and shapes of other sizes may be modified and are within the scope of the present disclosure.

도 7a, 7b, 및 7c는 본 개시의 하나 이상의 실시예에 따른 렌즈 조립체(132)의 분해 측면 사시도이다. 렌즈 어셈블리(132)는 3개의 요소, 4x4 렌즈 어레이를 갖는 광학 시스템이며, 3개의 요소는 제 1 렌즈 어레이(140), 제 2 렌즈 어레이(142), 및 제 3 렌즈 어레이(144)를 포함한다. 제 1 렌즈 어레이(140)는 제 1 측부(140a) 및 상기 제 1 렌즈 어레이(140)의 제 1 측부(140a)와 대향하는 제 2 측부(140b)를 포함한다. 제 1 렌즈 어레이(140)는 또한 4x4 어레이로 배열된 16개의 렌즈(140c)를 포함한다. 제 2 렌즈 어레이(142)는 제 1 측부(142a) 및 제 2 렌즈 어레이(142)의 제 1 면(142a)과 대향하는 제 2 측부(142b)를 포함한다. 제 2 렌즈 어레이(142)는 또한 4x4 어레이로 배열된 16개의 렌즈(142c)를 포함한다. 제 3 렌즈 어레이(144)는 제 1 측부(144a) 및 제 3 렌즈 어레이(144)의 제 1 측부(144a)와 대향하는 제 2 측부(144b)를 포함한다. 제 3 렌즈 어레이(144)는 또한 4x4 어레이로 배열된 16개의 렌즈(144c)를 포함한다. 조립될 때, 렌즈 어셈블리(132)는 16개의 MV 픽셀(102)을 포함하고, 각각의 MV 픽셀(102)은 제 1 렌즈 어레이(140)의 렌즈(140c) 중 하나, 제 2 렌즈 어레이(142)의 렌즈(142c) 중 하나, 및 서로 상부에 적층되는 제 3 렌즈 어레이(144)의 렌즈(144c)들 중 하나에 의해, 그리고 3 개의 렌즈(140c, 142c, 144c)의 적층을 기본으로 하는 디스플레이 픽셀의 서브-어레이에 의해 형성된다. 본 설명에서, 개별 렌즈(140c, 142c 및 144c)는 도면에 도시된 어레이 표면 및 도면의 시야각에 따라 도시되거나 그렇지 않을 수 있는 대응하는 반대면에 의해 형성된다.7A, 7B, and 7C are exploded side perspective views of lens assembly 132 according to one or more embodiments of the present disclosure. Lens assembly 132 is an optical system having three elements, a 4x4 lens array, wherein the three elements include a first lens array 140, a second lens array 142, and a third lens array 144. . The first lens array 140 includes a first side 140a and a second side 140b opposite the first side 140a of the first lens array 140. The first lens array 140 also includes sixteen lenses 140c arranged in a 4x4 array. The second lens array 142 includes a first side 142a and a second side 142b opposite the first side 142a of the second lens array 142. The second lens array 142 also includes sixteen lenses 142c arranged in a 4x4 array. The third lens array 144 includes a first side 144a and a second side 144b opposite the first side 144a of the third lens array 144. The third lens array 144 also includes sixteen lenses 144c arranged in a 4x4 array. When assembled, the lens assembly 132 includes 16 MV pixels 102, each MV pixel 102 being one of the lenses 140c of the first lens array 140, the second lens array 142. Based on one of the lenses 142c, and one of the lenses 144c of the third lens array 144 stacked on top of each other, and the stack of three lenses 140c, 142c, and 144c. Formed by a sub-array of display pixels. In the present description, the individual lenses 140c, 142c, and 144c are formed by the array surface shown in the figure and the corresponding opposite surface that may or may not be shown depending on the viewing angle of the figure.

MV 디스플레이 장치(100)가 조립될 때, 평판 디스플레이(110)는 이미징 평면에서 또는 이미징 평면 근처에서 제 3 렌즈 어레이(144)의 제 2 측부(144b) 뒤에 위치되고; 뷰어는 제 1 렌즈 어레이(140)의 제 1 측부(140a)의 전방에 위치된다. 후술하는 바와 같이, 제 1 렌즈 어레이(140), 제 2 렌즈 어레이(142), 및 제 3 렌즈 어레이(144)는 다중 요소(트리플렛) 광학 시스템(또는 렌즈 시스템)을 형성한다.When the MV display apparatus 100 is assembled, the flat panel display 110 is positioned behind the second side 144b of the third lens array 144 at or near the imaging plane; The viewer is located in front of the first side 140a of the first lens array 140. As described below, the first lens array 140, the second lens array 142, and the third lens array 144 form a multi-element (triplet) optical system (or lens system).

도 8a 내지 도 8d는 본 개시의 하나 이상의 실시예에 따른 제 1 렌즈 어레이(140)의 직교도이다. 도 9a 내지 도 9d는 본 개시의 하나 이상의 실시예에 따른 제 2 렌즈 어레이(142)의 직교도이다. 도 10a 내지 도 10d는 본 개시의 하나 이상의 실시예에 따른 제 3 렌즈 어레이(144)의 직교도이다.8A-8D are orthogonal views of the first lens array 140 in accordance with one or more embodiments of the present disclosure. 9A-9D are orthogonal views of second lens array 142 in accordance with one or more embodiments of the present disclosure. 10A-10D are orthogonal views of third lens array 144 in accordance with one or more embodiments of the present disclosure.

각각의 렌즈 조립체(132)는 다른 렌즈 조립체(132)뿐만 아니라 평판 디스플레이(110)에 대해 제약된 기계적 자유도를 가져야 한다. 이는 여러 특징을 사용하여 달성된다. 도 6을 참조하여 전술한 바와 같은 레일 시스템은 각각의 렌즈 조립체(132)의 롤링(roll), 피칭(pitch), 및 요잉(yaw)(각각 x, y 및 z 축선에 대한 회전)뿐만 아니라 FPD-대-렌즈 간격 모두를 제한하는데 사용된다. 레일 시스템은 또한 인클로저 내의 렌즈 조립체(132)(즉, 후방 커버(106) 및 전방 커버(108))를 기계적으로 고정하는 역할을 한다. 레일 시스템 설계는 이 볼륨이 광학 시스템에 의해 점유되지 않을 수 있으므로 물리적 볼륨을 최소화하기 위해 부분적으로 동기가 부여된다. 렌즈 구멍은 가능한 한 큰 필 팩터(모든 렌즈 어셈블리(132)에 의해 커버되는 FPD(110)의 양) 및 처리량을 용이하게 하도록 유지될 수 있다.Each lens assembly 132 should have constrained mechanical degrees of freedom for the flat panel display 110 as well as other lens assemblies 132. This is accomplished using several features. The rail system as described above with reference to FIG. 6 can be adapted to the FPD as well as the rolling, pitching, and yaw (rotation about the x, y, and z axes, respectively) of each lens assembly 132. Used to limit both lens-to-lens spacing. The rail system also serves to mechanically secure the lens assembly 132 (ie, rear cover 106 and front cover 108) in the enclosure. Rail system design is partially motivated to minimize physical volume since this volume may not be occupied by the optical system. The lens aperture can be maintained to facilitate the largest fill factor (amount of FPD 110 covered by all lens assemblies 132) and throughput as possible.

가능한 가장 큰 필 팩터를 갖는 설계 목표를 달성하기 위해, 렌즈 조립체(132) 내의 개별 렌즈는 매우 밀접하게 접한다. 이것은 어레이 내의 각 렌즈 사이에 공간을 거의 남기지 않는 효과를 가질 수 있고, 이는 렌즈 조립체 내에서 공간을 거의 차지하지 않는 장착 시스템에 대한 필요성을 유발한다. 또한, 렌즈 조립체(132)는 많은 렌즈 조립체(132)가 "랜드락(landlock)"되는 방식으로 타일링되는데, 이는 이들이 다른 렌즈 조립체(132)에 의해 완전히 둘러싸인 것을 의미한다. 예시적인 실시예에서, 렌즈 조립체(132)를 위한 장착 시스템은 전체적으로 평판 디스플레이(110)를 가로 질러 연장되는 한 세트의 레일(134, 136)(도 6 참조)을 포함한다. 렌즈 조립체(132)는 레일(134, 136)의 꼭대기에 놓여 전술한 바와 같이 이들에 후속적으로 고정된다. 렌즈 어셈블리(132)를 장착하기 위한 다른 가능성은 인클로저의 전방 커버(108)에 의해 제공되는 전면 구멍 어레이에 고정시키는 것을 포함한다. 이와 같은 고정 장치는 본 발명의 범위 내에서 고려된다.In order to achieve the design goal with the largest fill factor possible, the individual lenses in lens assembly 132 abut very closely. This can have the effect of leaving little space between each lens in the array, which leads to the need for a mounting system that takes up little space in the lens assembly. In addition, the lens assembly 132 is tiled in such a way that many lens assemblies 132 are “landlocked”, meaning that they are completely surrounded by other lens assemblies 132. In an exemplary embodiment, the mounting system for the lens assembly 132 includes a set of rails 134, 136 (see FIG. 6) that extend across the flat panel display 110 as a whole. The lens assembly 132 is placed on top of the rails 134, 136 and subsequently secured to them as described above. Another possibility for mounting the lens assembly 132 includes securing to the front hole array provided by the front cover 108 of the enclosure. Such fastening devices are contemplated within the scope of the present invention.

운동학적 장착 특징부는 렌즈 어레이(140, 142, 144) 쌍 사이의 인터페이스에 통합된다. 도 11은 제 1 렌즈 어레이(140)의 후면 또는 제 2 측부(140b) 및 제 2 렌즈 어레이(142)의 전면 또는 제 1 측부(142a)를 도시하는 사시도이다. 도 11에 도시된 제 1 렌즈 어레이(140)는 16개의 렌즈(140c)를 포함하지만, 제 1 렌즈 어레이(140)는 본 개시의 범위를 벗어나지 않으면서 상이한 양의 렌즈(140c)를 포함할 수 있다. 복수의 보스 또는 포스트(140d)는 제 1 렌즈 어레이(140)의 제 2 측부(140b)의 표면으로부터 연장된다. 정합 표면(140e)은 각 포스트(140d)의 원위 단부에 배치된다. 포스트들(140d) 각각은 그 안에 형성된 구멍(140f)을 갖는다.Kinematic mounting features are integrated at the interface between pairs of lens arrays 140, 142, 144. FIG. 11 is a perspective view illustrating the rear surface or the second side 140b of the first lens array 140 and the front side or the first side 142a of the second lens array 142. Although the first lens array 140 shown in FIG. 11 includes sixteen lenses 140c, the first lens array 140 may include different amounts of lenses 140c without departing from the scope of the present disclosure. have. The plurality of bosses or posts 140d extend from the surface of the second side 140b of the first lens array 140. The mating surface 140e is disposed at the distal end of each post 140d. Each of the posts 140d has a hole 140f formed therein.

제 2 렌즈 어레이(142)에 포함된 렌즈(142c)의 수량은 제 1 렌즈 어레이(140)에 포함된 렌즈(140c)의 개수와 동일하다. 복수의 원통형 또는 절두 원추형 원통형 구멍(142d)이 제 2 렌즈 어레이(142)의 제 1 측부(142a)에서 표면 내로 연장한다. 정합 표면(142e)은 각각의 홀(142d)의 바닥에 배치된다. 제 1 렌즈 어레이(140)의 포스트(140d)는 정합 표면(140e, 142e)이 서로 맞닿을 때까지 제 2 렌즈 어레이(142)의 대응하는 구멍(142d)에 삽입되어, 렌즈 어레이(140, 142)의 z-축선(또는 광학 축선)을 따른 움직임, 롤링(x-축선을 중심으로 한 회전), 및 피칭(y-축선을 중심으로 한 회전) 자유도을 제한한다.The number of lenses 142c included in the second lens array 142 is equal to the number of lenses 140c included in the first lens array 140. A plurality of cylindrical or truncated conical cylindrical holes 142d extend into the surface at the first side 142a of the second lens array 142. The mating surface 142e is disposed at the bottom of each hole 142d. The posts 140d of the first lens array 140 are inserted into the corresponding holes 142d of the second lens array 142 until the mating surfaces 140e and 142e abut each other, thereby providing lens arrays 140 and 142. Movement along the z-axis (or optical axis), rolling (rotation about the x-axis), and pitching (rotation about the y-axis) degrees of freedom.

도 12는 제 1 렌즈 어레이(140)의 후면 또는 제 2 측부(140b) 및 제 2 렌즈 어레이(142)의 전면 또는 제 1 측부(142a)를 도시하는 사시도이다. 포스트(140d) 중 하나는 외부 원통형 정합 표면(140g)을 포함하고 다른 포스트(140d)는 외부 원통형 정합 표면(140h)을 포함한다. 각각의 구멍(142d)은 그 안에 형성된 구멍(142f)을 갖는다. 구멍(142d) 중 하나는 내부 원통형 정합 표면(142g)을 포함하고, 구멍(142d) 중 다른 하나는 2 개의 평평한 정합 표면(142h)(그 중 하나만이 도 12에서 볼 수 있음)을 갖는 내부 절두 원통형 표면을 포함한다.FIG. 12 is a perspective view illustrating a rear side or second side 140b of the first lens array 140 and a front side or first side 142a of the second lens array 142. One of the posts 140d includes an outer cylindrical mating surface 140g and the other post 140d includes an outer cylindrical mating surface 140h. Each hole 142d has a hole 142f formed therein. One of the holes 142d includes an inner cylindrical mating surface 142g and the other of the holes 142d has an inner truncation with two flat mating surfaces 142h (only one of which can be seen in FIG. 12). It includes a cylindrical surface.

제 1 렌즈 어레이(140)의 포스트(140d)가 제 2 렌즈 어레이(142)의 대응하는 구멍(142d)에 삽입될 때, 외부 원통형 정합 표면(140g)은 내부 원통형 정합 표면(142g)과 맞닿아, 이들 두 개의 렌즈 어레이(140, 142) 사이의 x-및 y-축선 자유도를 제한한다. 추가로, 외부 원통형 정합 표면(140h)은 정합 표면(142h)과 맞닿아서, 2 개의 렌즈 어레이(140, 142) 사이에서 요잉(yaw) 또는 z-축선(광학 축선)을 중심으로 회전하는 것을 제한한다.When the post 140d of the first lens array 140 is inserted into the corresponding hole 142d of the second lens array 142, the outer cylindrical mating surface 140g abuts against the inner cylindrical mating surface 142g. This limits the x- and y-axis degrees of freedom between these two lens arrays 140, 142. In addition, the outer cylindrical mating surface 140h abuts against the mating surface 142h to rotate about the yaw or z-axis (optical axis) between the two lens arrays 140, 142. Restrict.

도 13a 및 13b는 제 2 렌즈 어레이(142)의 측면 사시도이고, 도 13c, 13d 및 13e는 본 개시의 하나 이상의 실시예들에 따른 2개의 제 2 렌즈 어레이(142)의 사시도이다. 도 13a에 도시된 바와 같이, 복수의 보스 또는 포스트(142i)는 제 2 렌즈 어레이(142)의 제 2 측면(142b)에서 표면으로부터 바깥쪽으로 연장된다. 포스트(142i) 각각에는 한 쌍의 구멍(142j)이 형성된다. 한 쌍의 원통형 돌출부(142k)는 제 2 렌즈 어레이(142)의 제 1 측면(142l)으로부터 연장된다. 도 13b에 도시된 바와 같이, 제 1 오목부(142m) 및 제 2 오목부(142n)는 제 2 렌즈 어레이(142)의 제 2 측면(142o)에 형성된다. 제 1 측면(142l) 및 제 2 측면(142o)은 제 2 렌즈 어레이(142)의 대향하는 측부 상에 있다. 하나 이상의 실시예에서, 제 1 오목부(142m)는 "V" 형상을 가지며, 제 2 오목부(142n)는 그 바닥에 편평한 표면을 갖는다. 도 13c, 13d 및 13e에 도시된 제 2 렌즈 어레이(142)는 서로 거의 정합되게 도시되고 책처럼 개방된다. 제 2 렌즈 어레이(142)가 서로 정합될 때, 원통형 돌출부(142k)는 제 1 오목부(142m) 및 제 2 오목부(142n) 내에 배치된다.13A and 13B are side perspective views of the second lens array 142, and FIGS. 13C, 13D and 13E are perspective views of two second lens arrays 142 according to one or more embodiments of the present disclosure. As shown in FIG. 13A, the plurality of bosses or posts 142i extend outwardly from the surface at the second side 142b of the second lens array 142. A pair of holes 142j are formed in each post 142i. The pair of cylindrical protrusions 142k extend from the first side 142l of the second lens array 142. As shown in FIG. 13B, the first recess 142m and the second recess 142n are formed in the second side surface 142o of the second lens array 142. The first side 142l and the second side 142o are on opposite sides of the second lens array 142. In one or more embodiments, the first recess 142m has a "V" shape and the second recess 142n has a flat surface at its bottom. The second lens array 142 shown in Figs. 13C, 13D, and 13E is shown almost in conformity with each other and is opened like a book. When the second lens array 142 is mated with each other, the cylindrical protrusion 142k is disposed in the first recess 142m and the second recess 142n.

전술한 레일 시스템(도 6 참조)은 렌즈 조립체(132)의 z-및 y-축선을 장착, 구속하고 롤링, 피칭, 및 요잉을 구속하는 역할을 한다. vee-평면-실린더 특징부(142m 및 142n)는 렌즈 조립체의 x-축선을 구속할 뿐만 아니라 임의의 2개의 인접한 렌즈 조립체(132)(열 방향으로)가 동일한 롤링, 피칭, 및 요잉을 갖도록 구속하는 역할을 한다. 이들 특징부의 다른 배치 및 구성은 동일한 목표를 달성할 수 있으며 본 개시의 범위 내에서 고려된다는 점에 유의해야 한다.The rail system described above (see FIG. 6) serves to mount and restrain the z- and y-axis of the lens assembly 132 and to restrain rolling, pitching, and yawing. The vee-plane-cylinder features 142m and 142n constrain the x-axis of the lens assembly as well as any two adjacent lens assemblies 132 (in the column direction) to have the same rolling, pitching, and yawing. It plays a role. It should be noted that other arrangements and configurations of these features can achieve the same goal and are considered within the scope of the present disclosure.

도 14는 본 개시의 하나 이상의 실시예들에 따른 렌즈 조립체(132)의 부분 단면도이다. 제 1 렌즈 어레이(140)의 포스트(140d)가 제 2 렌즈 어레이(142)의 대응하는 구멍(142d)에 삽입되고, 제 3 렌즈 어레이(144)의 포스트(144d)가 제 2 렌즈 어레이(142)의 포스트(142i)의 구멍(142j)에 삽입된 후, 3 개의 나사(146)가 제 3 렌즈 어레이(144)의 제 2 측부(144b)로부터 삽입되고, 제 2 렌즈 어레이(142)를 통과하여 제 1 렌즈 어레이(140)의 포스트(140d)의 내부 보어에 나사 결합된다. 이는 축 방향 압축력이 3 개의 렌즈 어레이(140, 142 및 144)에 적용될 수 있게 하여, 정확한 정렬을 제한한다. 렌즈 조립체(132)의 렌즈 어레이(140, 142 및 144)를 유지하는 나사(146) 중 하나가 도 14에 도시되어 있다.14 is a partial cross-sectional view of a lens assembly 132 in accordance with one or more embodiments of the present disclosure. The post 140d of the first lens array 140 is inserted into the corresponding hole 142d of the second lens array 142, and the post 144d of the third lens array 144 is the second lens array 142. After being inserted into the hole 142j of the post 142i of), three screws 146 are inserted from the second side 144b of the third lens array 144 and pass through the second lens array 142. And screwed into the inner bore of the post 140d of the first lens array 140. This allows the axial compression force to be applied to the three lens arrays 140, 142 and 144, thus limiting accurate alignment. One of the screws 146 holding the lens arrays 140, 142, and 144 of the lens assembly 132 is shown in FIG. 14.

마지막으로, 임의의 광학 시스템에서와 같이, 초점을 조정하는 능력이 바람직할 수 있다. 일부 실시예에서, 평판 디스플레이(110)와 렌즈 어레이 패널(112) 사이의 거리는 평판 디스플레이(110) 장착 특징부 및 각각의 시트 사이에 심(shim)의 배치에 의해 조정될 수 있다. MV 디스플레이 장치(100)의 인클로저에서, 평판 디스플레이(110)는 평판 디스플레이(110)가 평평하게 유지되도록 강성 플레이트에 장착된다. 이러한 강판은 그 후 인클로저 자체(예를 들어, 후방 커버(106))에 장착된다. 초점을 조정하기 위해 또는 렌즈 어레이 패널(112)의 렌즈 조립체(132)와 평판 디스플레이(110) 사이의 거리를 조정하기 위해 이러한 기계적 연결부에 심이 추가되거나 제거될 수있다.Finally, as with any optical system, the ability to adjust the focus may be desirable. In some embodiments, the distance between flat panel display 110 and lens array panel 112 may be adjusted by the placement of shims between the flat panel display 110 mounting features and each sheet. In the enclosure of the MV display device 100, the flat panel display 110 is mounted to a rigid plate so that the flat panel display 110 remains flat. This steel sheet is then mounted to the enclosure itself (eg rear cover 106). Shims may be added or removed from these mechanical connections to adjust focus or to adjust the distance between the lens assembly 132 of the lens array panel 112 and the flat panel display 110.

미광 관리 기법Stray light management techniques

내부 inside 배플baffler

많은 광학 시스템은 원하는 광학 성능을 달성하기 위해 서로 축방향으로 배치된 일련의 렌즈로 구성된다. 이 시나리오에서, 렌즈는 종종 흑색 배럴에 배치된다. 흑색 배럴은 원치 않는 빛이 광학 시스템으로 들어가는 것을 막는 데 도움이 되며, 이로 인해 고스트 이미지, 핫스팟, 및 콘트라스트(contrast) 감소를 도입할 수 있다. 예시적인 실시예들에서, 렌즈들의 어레이(예를 들어, 렌즈 어셈블리(132))가 사용되며, 이들은 함께 적층된 다수의(예를 들어, 3개의) 렌즈 어레이들(140, 142, 144)로 형성되며, 16개의 렌즈(또는 16개 렌즈 시스템)의 4x4 어레이 각각에 대한 흑색 배럴 구조를 제공하기 어려울 수 있다. 렌즈 조립체(132)에서 미광을 위한 하나의 가능한 방법은 렌즈 조립체(132)의 표면으로 입사하여 도파관처럼 내부적으로 전파된 다음 렌즈 조립체(132)의 다른 표면을 빠져나가는 광이다. 이제 정확한 원점을 알 수 없으므로 보정할 수 없는 공간 내로 전파하는 빔이 있기 때문에, 바람직하지 않다. 이러한 "채널 크로스토크(channel crosstalk)"를 감소시키기 위해, 일부 실시예는 렌즈 조립체(132)를 위한 내부 배플로서 작용하는 일련의 홈 또는 리세스(140i)를 사용한다.Many optical systems consist of a series of lenses disposed axially with each other to achieve the desired optical performance. In this scenario, the lens is often placed in a black barrel. The black barrels help prevent unwanted light from entering the optical system, which can introduce ghost images, hot spots, and contrast reduction. In exemplary embodiments, an array of lenses (eg, lens assembly 132) is used, which are comprised of multiple (eg, three) lens arrays 140, 142, 144 stacked together. It may be difficult to provide a black barrel structure for each 4x4 array of 16 lenses (or 16 lens systems). One possible method for stray light in the lens assembly 132 is light that enters the surface of the lens assembly 132, propagates internally like a waveguide, and then exits the other surface of the lens assembly 132. This is undesirable because there is now a beam propagating into a space that cannot be corrected because the exact origin is unknown. To reduce this “channel crosstalk,” some embodiments use a series of grooves or recesses 140i that act as internal baffles for the lens assembly 132.

도 15a 및 도 15b는 본 발명의 일 이상의 실시예에 따른 제 1 렌즈 어레이(140)의 단면도이다. 보다 구체적으로, 도 15a는 제 1 렌즈 어레이(140)의 단면도이고, 도 15b는 도 15a에 도시된 단면의 사시도이다. 도 15b에 도시된 바와 같이, 제 1 렌즈 어레이(140)는 제 1 렌즈 어레이(140)의 제 2 측부(140b)에서 표면 내로 형성된 복수의 홈 또는 리세스(140i)를 포함한다. 홈(140i) 중 하나는 제 1 렌즈 어레이(140)의 각 쌍의 인접 렌즈(140c) 사이에 배치된다.15A and 15B are cross-sectional views of the first lens array 140 in accordance with one or more embodiments of the present invention. More specifically, FIG. 15A is a cross-sectional view of the first lens array 140, and FIG. 15B is a perspective view of the cross section shown in FIG. 15A. As shown in FIG. 15B, the first lens array 140 includes a plurality of grooves or recesses 140i formed into the surface at the second side 140b of the first lens array 140. One of the grooves 140i is disposed between each pair of adjacent lenses 140c of the first lens array 140.

아래에서 더 깊이 논의될 특정 표면의 페인팅과 함께, 리세스(140i)에 의해 제공되는 이러한 내부 배플은 렌즈 조립체(132)의 슬래브 내에서 바람직하지 않은 방식으로 전파되는 광을 차단한다. 이는 제 1 렌즈 어레이(140)의 재료 내에서, 이러한 홈/리세스(140i)가 제 1 렌즈 어레이(140)의 제 2 측부(140b)에서 표면으로부터 외측으로 연장한다. 이는 채널 크로스토크 관점에서 제 1 렌즈 어레이(140) 내의 각 렌즈(140c)를 광학적으로 격리시키는 효과를 갖는다. 이들 내부 배플(140i)에 대해 다른 형상 및 구성이 가능하며 본 발명의 범위 내에서 고려된다는 점에 유의해야 한다.This inner baffle provided by recess 140i, along with the painting of a particular surface to be discussed further below, blocks light propagating in an undesirable manner within the slab of lens assembly 132. This in the material of the first lens array 140, such grooves / recesses 140i extend outwardly from the surface at the second side 140b of the first lens array 140. This has the effect of optically isolating each lens 140c in the first lens array 140 in terms of channel crosstalk. It should be noted that other shapes and configurations for these inner baffles 140i are possible and contemplated within the scope of the present invention.

표면 페인팅Surface painting

미광뿐만 아니라 시각적인 외관을 추가로 해결하기 위해, 이것은 본래 시각 기구이기 때문에, 제 1 렌즈 어레이(140)의 몇몇 표면은 광-흡수 코팅(148), 예를 들어 흑색 페인트로 코팅될 수 있다. 하나 이상의 실시예에서, 광-흡수 코팅(148)은 그 위에 입사되는 광의 특정 부분, 예를 들어 적색 페인트 또는 코팅, 또는 그 위에 입사되는 광의 상당 부분, 예를 들어 흑색 페인트 또는 코팅을 흡수한다.To further address the stray light as well as the visual appearance, some of the surfaces of the first lens array 140 may be coated with a light-absorbing coating 148, for example black paint, as this is an intrinsic visual aid. In one or more embodiments, the light-absorbing coating 148 absorbs a particular portion of light incident thereon, such as red paint or coating, or a substantial portion of light incident thereon, such as black paint or coating.

도 16a는 본 개시의 하나 이상의 실시예들에 따른, 제 2 측부(140b) 상에 광-흡수 코팅(148)이 적용된 제 1 렌즈 어레이(140)의 사시도이다. 광-흡수 코팅(148)에 의해 코팅된 표면은 제 1 렌즈 어레이(140)의 에지(140j), 렌즈(140c)가 만나는 제 2 측부(140b)의 평평한 표면, 내부 배플/홈(140i), 및 보스(140d)(내부 및 외부 보어 모두)를 포함한다.16A is a perspective view of first lens array 140 with light-absorbing coating 148 applied on second side 140b, in accordance with one or more embodiments of the present disclosure. The surface coated by the light-absorbing coating 148 may include the edge 140j of the first lens array 140, the flat surface of the second side 140b where the lens 140c meets, the inner baffle / groove 140i, And boss 140d (both inner and outer bores).

유사한 목적을 달성하기 위한 대안적인 방법은 이들 표면에 흑색 물질의 본딩 및 본 발명의 범위 내에서 고려되는 2-파트 사출 성형을 포함한다.Alternative methods for achieving similar objects include bonding of black materials to these surfaces and two-part injection molding contemplated within the scope of the present invention.

표면의 페인팅은 원하는 효과를 얻을 수 있지만, 렌즈 어레이의 특정 영역을 페인팅하는 공정은 어려울 수 있다. 성형 렌즈 영역에서 흑색 표면을 달성할 수 있는 다른 방법은 아래에 설명된 "오버몰딩(overmolding)" 및 "인-몰드 장식(in-mold decorating)"을 포함한다.Painting the surface can achieve the desired effect, but the process of painting a specific area of the lens array can be difficult. Other ways of achieving a black surface in the molded lens region include "overmolding" and "in-mold decorating" described below.

렌즈 어레이의 오버 몰딩 및 인-Overmolding and In-Lens of the Lens Array 몰드Mold 장식 decoration

일 실시예에서, (렌즈 어레이의)부분은 투명하지 않은 매체로부터 성형될 수 있고, 그 후 그 광학 표면이 그 부분의 주위에 투명 매체로부터 성형될 수 있다. 이 공정은 동일한 성형 공정에서 두 단계로 수행될 수 있거나, 이후에 제 1 공정에서 성형된 부품이 제 2 공정을 위한 몰드에 배치되는 별도의 성형 공정으로서 수행될 수 있다.In one embodiment, the portion (of the lens array) may be molded from a non-transparent medium, and then the optical surface may be molded from the transparent medium around the portion. This process can be carried out in two steps in the same molding process, or as a separate molding process in which parts molded in the first process are placed in a mold for the second process.

다른 실시예에서, 플라스틱 어레이와 같은 부품을 제조하기 위해 몰드에 중합체 플라스틱과 같은 성형 매체가 증착될 때, 몰드가 폐쇄되기 전에 불투명 필름이 몰드에 배치될 수 있어 필름이 정합되어 성형 부품에 부착될 수 있다. 당업자는 성형된 플라스틱 소비재에 장식을 적용하기 위한 이러한 기술을 인식할 것이다. 전형적으로, 필름은 몰드가 개방되고 진공 시스템을 사용하여 몰드의 일측에 고정되는 시간 동안 롤(roll)로부터 롤(roll)까지 공급된다. 일반적으로 렌즈 어레이의 각 광학 장치에 대해 정확한 구멍을 형성하려면 정확한 정합이 필요하다.In another embodiment, when a forming medium, such as polymer plastic, is deposited in a mold to produce a component such as a plastic array, an opaque film can be placed in the mold before the mold is closed so that the film is mated and attached to the molded part. Can be. Those skilled in the art will recognize these techniques for applying decorations to molded plastic consumer goods. Typically, the film is fed from roll to roll for the time that the mold is open and fixed to one side of the mold using a vacuum system. In general, accurate matching is required to form the correct apertures for each optical device in the lens array.

도 16b 내지 도 16d는 렌즈 어레이의 오버몰딩을 도시하며, 이는 도 16a의 제 1 렌즈 어레이(140)를 생성하기 위해 적용된 코팅/페인팅 단계를 제거하는 역할을 한다.16B-16D illustrate overmolding of the lens array, which serves to eliminate the coating / painting steps applied to create the first lens array 140 of FIG. 16A.

도 16b 및 도 16c는 각각 불투명 부분(141a) 및 투명 부분(141b)으로 구성된 제 1 렌즈 어레이(140)의 측면도 및 사시도이다. 불투명 매체로 성형된 불투명 부분(141a)은 전술한 운동 학적 장착 특징부를 포함한다. 투명 부분(141b)은 불투명 부분(141a) 위에 또는 그 주위에 투명 매체를 성형함으로써 형성된다.16B and 16C are side and perspective views, respectively, of the first lens array 140 composed of an opaque portion 141a and a transparent portion 141b. Opaque portion 141a molded from an opaque medium includes the kinematic mounting features described above. The transparent portion 141b is formed by molding a transparent medium on or around the opaque portion 141a.

도 16d는 도 16b 및 도 16c에 도시된 오버-몰딩된 제 1 렌즈 어레이(140)의 단면도이다. 불투명 매체로 성형된 불투명 부분(141a)의 상부 및 주변에는 제 1 렌즈 어레이(140)에서 각각의 렌즈의 광학 표면을 형성하기 위해 투명 매체로부터 오버-몰딩된 투명 부분(141b)이 있다. 도 16d는 제 1 렌즈 어레이(140)에서 일련의 렌즈의 중심에서 취해진다. 불투명 부분(141a)과 투명 부분(141b)의 상이한 상대 두께는 본 발명의 범위 내에 있다.16D is a cross-sectional view of the over-molded first lens array 140 shown in FIGS. 16B and 16C. Above and around the opaque portion 141a molded from the opaque medium is a transparent portion 141b over-molded from the transparent medium to form the optical surface of each lens in the first lens array 140. 16D is taken at the center of the series of lenses in the first lens array 140. Different relative thicknesses of the opaque portion 141a and the transparent portion 141b are within the scope of the present invention.

반사-방지 코팅 전 도색All paints with anti-reflective coating

광학 시스템을 제조하는 동안, 전술한 바와 같이, 일련의 렌즈가 전형적으로 흑색 원통형 하우징에 배치된다. 다중-요소 렌즈 어셈블리는 일반적인 문제에 대한 다양한 접근 방식을 사용한다. 이것의 일례는 렌즈 요소의 정상적인 제조에 있으며, 렌즈는 예로서 유리 또는 플라스틱으로 분쇄되거나 성형된다. 이어서 광학 요소는 광학 코팅이 적용될 수 있다. 예를 들어, 반사-방지(AR) 코팅 또는 특정 대역 통과 코팅이 적용될 수 있다. 마지막으로 렌즈의 에지가 흑색으로 칠해져 있을 수 있다. 렌즈를 흑색 하우징에 배치하는 것이 일반적이지만 렌즈 에지를 흑색으로 칠하면 미광 문제를 해결하는 데 도움이된다.During fabrication of the optical system, as described above, a series of lenses are typically placed in a black cylindrical housing. Multi-element lens assemblies use a variety of approaches to common problems. One example of this is in the normal manufacture of lens elements, the lenses being for example crushed or molded into glass or plastic. The optical element may then be applied with an optical coating. For example, anti-reflective (AR) coatings or specific band pass coatings may be applied. Finally, the edges of the lens may be painted black. It is common to place the lens in a black housing, but painting the lens edges in black will help solve the stray light problem.

본 개시에서, 전형적인 동작 순서는 바람직하지 않은 효과를 야기할 수 있다. 따라서 규범적인 작업 순서를 변경하는 것이 바람직할 수 있다. 즉, 일부 예시적인 실시예에서, 렌즈 조립체(132)의 요소(예를 들어, 제 1 렌즈 어레이(140))는 그 형상이 먼저 정의되고, 그 후 광-흡수 코팅 재료의 모든 도장 작업이 수행되고, 최종적으로 광학(예: 반사-방지 또는 대역 통과) 코팅이 적용된다. 가시 스펙트럼에 대한 매우 낮은 반사율의 전형적인 특성을 갖는 AR 코팅의 경우, 이는 적은 광이 반사되어 관찰자에게 다시 반사시킬 때 렌즈 조립체(132)를 볼 때 시각적으로 더 어두운 흑색을 생성하는 효과를 갖는다. AR 코팅을 먼저 적용한 다음 표면 페인팅을 수행하면 컬러 아티팩트(color artifact)가 존재할 수 있으며 주어진 컬러로 칠해진 표면이 다르게 나타날 수 있다. 이는 예를 들어 AR 코팅과 흑색 페인트 사이에 만들어진 광학 인터페이스 때문이다. 이것은 다른 코팅 및 표면 마무리 해결책에 적용될 수 있는 일반적인 기술이라는 점에 주목해야 한다.In the present disclosure, a typical sequence of operations can cause undesirable effects. Therefore, it may be desirable to change the normative order of work. That is, in some exemplary embodiments, the elements of the lens assembly 132 (eg, the first lens array 140) are first defined in shape, and then all painting operations of the light-absorbing coating material are performed. Finally, an optical (eg anti-reflective or band pass) coating is applied. For AR coatings with typical properties of very low reflectance for the visible spectrum, this has the effect of producing a visually darker black when looking at the lens assembly 132 when less light is reflected and reflected back to the viewer. If you apply an AR coating first and then perform a surface painting, color artifacts may be present and surfaces painted with a given color may appear different. This is due to, for example, the optical interface made between the AR coating and the black paint. It should be noted that this is a general technique that can be applied to other coating and surface finishing solutions.

구멍 어레이Hole array

불투명 개구는 미광을 관리하고 광학 시스템의 구멍 스톱 및 동공을 정의하기 위해 사용될 수 있다. MV 디스플레이 장치(100)는 도 7b 및 도 7c에 도시된 바와 같이 렌즈 어셈블리(132)에 통합된 3개의 구멍 어레이(220, 222, 224)를 이용할 수 있다. 이러한 구멍 어레이(220, 222, 224)는 창조적인 형상 및 배치로 제조 문제를 극복한다. 도 7c에 도시된 바와 같이, 구멍 어레이(222)는 제 2 렌즈 어레이(142)의 제 2 측부(142b)에서 표면에 본딩될 수 있다. 구멍 어레이는 렌즈 어셈블리(132)에서 16개의 광학 시스템(즉, 렌즈(140c, 142c, 144c)의 각 스택(140c)에 의해 형성된 16개의 복합 렌즈)의 구멍 스톱으로서 기능한다. 도 7b에서 부가적을 예시된 바와 같이, 2개의 다른 구멍 어레이(220, 224)는 제 2 렌즈 어레이(142)의 제 1 측부(142a) 및 제 3 렌즈 어레이(144)의 제 1 측부(144a) 위에 각각 배치되어, 렌즈 조립체(132)를 통한 미광 경로가 차단된다. 이러한 목표를 달성하기 위한 다른 방법은 각각의 서브-광학 시스템(예를 들어, 각각의 렌즈 조립체(132))에 대한 개별 개구의 배치, 특정 표면을 흑색으로 도장 또는 코팅하고, 2-샷 사출 성형과 같은 2 개의 제조 단계에서 상이한 재료를 사용하는 것이다.Opaque openings can be used to manage stray light and define hole stops and pupils in the optical system. The MV display apparatus 100 may use three hole arrays 220, 222, and 224 integrated into the lens assembly 132 as shown in FIGS. 7B and 7C. These hole arrays 220, 222, 224 overcome manufacturing issues with creative shapes and arrangements. As shown in FIG. 7C, the aperture array 222 may be bonded to the surface at the second side 142b of the second lens array 142. The aperture array functions as a hole stop of 16 optical systems (ie 16 composite lenses formed by each stack 140c of lenses 140c, 142c, 144c) in lens assembly 132. As illustrated additionally in FIG. 7B, the two other hole arrays 220, 224 may comprise a first side 142a of a second lens array 142 and a first side 144a of a third lens array 144. Respectively disposed above, the stray light path through the lens assembly 132 is blocked. Other methods to achieve this goal include the placement of individual openings for each sub-optical system (eg, each lens assembly 132), painting or coating certain surfaces in black, and two-shot injection molding It is to use different materials in two manufacturing steps such as:

도 7b 및 도 7c에 도시된 바와 같이, 렌즈 조립체(132)는 4x4 어레이로 배열된 복수의 구멍(220a)을 포함하는 제 1 구멍 어레이(220)를 포함한다. 렌즈 어셈블리(132)는 또한 4x4 어레이로 배열된 복수의 구멍(222a)을 포함하는 제 2 구멍 어레이(222)를 포함한다. 또한, 렌즈 어셈블리(132)는 4x4 어레이로 배열된 복수의 구멍(224a)을 포함하는 제 3 구멍 어레이(224)를 포함한다. 이들 내부 구멍 어레이(220, 222, 224)는 얇은 흑색 플라스틱으로 제조될 수 있지만, 다른 재료 선택이 본 발명의 범위 내에서 고려된다. 또한, 도 7b 및 도 7c에 도시된 것 이외의 다른 형태의 구멍이 가능하며 본 발명의 범위 내에서 고려된다.As shown in FIGS. 7B and 7C, the lens assembly 132 includes a first hole array 220 comprising a plurality of holes 220a arranged in a 4 × 4 array. Lens assembly 132 also includes a second aperture array 222 that includes a plurality of apertures 222a arranged in a 4x4 array. The lens assembly 132 also includes a third hole array 224 that includes a plurality of holes 224a arranged in a 4x4 array. These inner hole arrays 220, 222, 224 can be made of thin black plastic, but other material choices are contemplated within the scope of the present invention. In addition, other types of holes other than those shown in FIGS. 7B and 7C are possible and contemplated within the scope of the present invention.

어셈블리(132)의 개별 렌즈 어레이(140, 142, 144)는 구멍 어레이(220, 222, 224)의 지지, 고정, 및 위치 결정을 위한 고유한 특징부를 포함한다. 도 10b에 도시된 바와 같이, 예를 들어, 복수의 원통형 제 1 보스 또는 포스트(144d) 및 복수의 원통형 제 2 보스 또는 포스트(144e)는 제 3 렌즈 어레이(144)의 제 1 측면(144a)으로부터 외측으로 연장된다. 구멍(144f)은 각각의 제 2 포스트(144e)에 형성된다. 제 1 포스트(144d)는 제 2 렌즈 어레이(142)와 제 3 렌즈 어레이(144) 사이에 놓이는 제 3 구멍 어레이(224)를 지지하고 위치시키는데 사용된다. 제 3 구멍 어레이(224)는 예를 들어 접착 아교를 사용하여 제 1 포스트(144d)에 본딩될 수 있다. 제 2 구멍 어레이(222)는 예를 들어 접착 아교를 사용하여 제 2 렌즈 어레이(142)의 제 2 측부(142b)에서 표면에 본딩될 수 있다. 제 1 구멍 어레이(220)는 예를 들어 접착 아교를 사용하여 제 2 렌즈 어레이(142)의 제 1 측부(142a)에서 표면에 본딩될 수있다.Individual lens arrays 140, 142, 144 of assembly 132 include unique features for supporting, securing, and positioning hole arrays 220, 222, 224. As shown in FIG. 10B, for example, the plurality of cylindrical first bosses or posts 144d and the plurality of cylindrical second bosses or posts 144e are formed on the first side 144a of the third lens array 144. Extends outwardly. Holes 144f are formed in each second post 144e. The first post 144d is used to support and position the third hole array 224 that lies between the second lens array 142 and the third lens array 144. The third hole array 224 can be bonded to the first post 144d using, for example, adhesive glue. The second hole array 222 may be bonded to the surface at the second side 142b of the second lens array 142 using, for example, an adhesive glue. The first hole array 220 can be bonded to the surface at the first side 142a of the second lens array 142 using, for example, an adhesive glue.

제 3 렌즈 어레이(144)의 제 1 포스트(144d)는 제 3 구멍 어레이(224)의 몇 개의 자유도; 즉, 롤링, 피칭, 및 요잉뿐만 아니라 z-축선을 따른 모션을 제한한다. 제 3 렌즈 어레이(144)의 제 2 포스트(144e)는 제 2 렌즈 어레이(142) 및 제 3 렌즈 어레이(144)를 서로에 대해 위치시키고 장착하는데 사용된다. 도 7b에 도시된 바와 같이, 제 3 구멍 어레이(224)에 형성된 구멍(224b)은 제 2 포스트(144e) 위에 끼워 맞춤된다. 구멍(224b) 및 제 2 포스트(144e)는 x 및 y 축선 방향으로 제 3 렌즈 어레이(144)를 구속한다.The first post 144d of the third lens array 144 has several degrees of freedom of the third hole array 224; That is, it limits rolling, pitching, and yawing as well as motion along the z-axis. The second post 144e of the third lens array 144 is used to position and mount the second lens array 142 and the third lens array 144 relative to each other. As shown in FIG. 7B, a hole 224b formed in the third hole array 224 is fitted over the second post 144e. The hole 224b and the second post 144e constrain the third lens array 144 in the x and y axis directions.

배플baffler

이상적으로, 각각의 다중-요소 렌즈(또는 렌즈 어셈블리)(132)는 그것에 할당된 평판 디스플레이(110)의 섹션으로부터만 광을 수신한다. 이론적으로 렌즈 시스템이 특정 이미지 높이/시야를 위해 설계된 경우, 영역 외부에서 발산되는 빛이 시스템을 통과하지 않을 것이라고 가정할 수 있다. 그러나 실제로는 이러한 광선이 시스템을 통과하는 산란된 미광을 발생시키고 콘트라스트 감소를 유발할 수 있기 때문에 이러한 가정은 사실이 아닐 수 있다. 대부분의 FPD는 방출 프로파일이 매우 크기 때문에 필드 정지만으로는 이러한 문제를 해결하기에 충분하지 않다. 하나의 해결책은 하나의 렌즈의 FPD 영역으로부터의 광이 다른 렌즈로 전달될 수 없도록 불투명한 벽을 갖는 평판 디스플레이(110) 근처의 각각의 렌즈 시스템(예를 들어, 각각의 렌즈 어셈블리(132))을 차단하는 것이다. 이를 달성하기 위해, 도 17a에 도시된 바와 같이, 배플(150, 152)은 평판 디스플레이(110)와 제 3 렌즈 어레이(144)의 제 2 측부(144b) 사이에 구성될 수 있다. 배플(150, 152)은 주어진 어레이의 각 렌즈 채널을 다른 렌즈 채널로부터 격리시키는 역할을 한다. 제 3 렌즈 어레이(144)의 제 2 측부(144b)는 도 17b에 도시된 바와 같이 배플(150, 152)을 제 3 렌즈 어레이(144)에 위치시키고 고정하기 위한 고정구 특징부(154)를 포함한다.Ideally, each multi-element lens (or lens assembly) 132 receives light only from the section of flat panel display 110 assigned to it. In theory, if the lens system is designed for a specific image height / field of view, it can be assumed that light emitted outside the area will not pass through the system. In practice, however, this assumption may not be true because such rays can cause scattered stray light through the system and cause contrast reduction. Most FPDs have very large emission profiles, so field fields alone are not sufficient to solve this problem. One solution is for each lens system (eg, each lens assembly 132) near the flat panel display 110 having an opaque wall such that light from the FPD region of one lens cannot be transmitted to another lens. To block. To achieve this, as shown in FIG. 17A, the baffles 150, 152 may be configured between the flat panel display 110 and the second side 144b of the third lens array 144. Baffles 150 and 152 serve to isolate each lens channel of a given array from other lens channels. Second side 144b of third lens array 144 includes fixture features 154 for positioning and securing baffle 150, 152 to third lens array 144 as shown in FIG. 17B. do.

도 17a는 본 개시의 하나 이상의 실시예들에 따른 렌즈 어레이 패널(112)의 부분 후면 사시도이다. 바꾸어 말하면, 도 17a에 도시된 렌즈 어레이 패널(112)의 측부는 평판 디스플레이(110)에 의해 보여지는 측부이다. 복수의 제 1 배플(150) 및 복수의 제 2 배플(152)은 제 3 렌즈 어레이(144)의 제 2 측부(144b)에 결합된다.17A is a partial rear perspective view of lens array panel 112 in accordance with one or more embodiments of the present disclosure. In other words, the side of the lens array panel 112 shown in FIG. 17A is the side shown by the flat panel display 110. The plurality of first baffles 150 and the plurality of second baffles 152 are coupled to the second side 144b of the third lens array 144.

도 17b는 본 개시의 하나 이상의 실시예들에 따른 제 3 렌즈 어레이(144)의 제 2 측부(144b)의 사시도이다. 복수의 제 1 고정구(154)가 제 3 렌즈 어레이(144)의 제 2 측부(144b)의 표면 상에 제공된다. 각각의 고정구(154)는 제 2 측부(144b)로부터 연장되는 4 개의 벽(156)으로 구성되며, 각각은 1/4의 고체 실린더 형상을 갖는다. 제 1 및 제 2 배플(150, 152)을 수용하기 위해 인접한 쌍의 벽(156) 사이에 슬롯(158)이 형성된다. 배플(150, 152)은 특징부에 강성 구조를 추가하는 것을 돕기 위해 연동된다.17B is a perspective view of a second side 144b of the third lens array 144 in accordance with one or more embodiments of the present disclosure. A plurality of first fixtures 154 are provided on the surface of the second side 144b of the third lens array 144. Each fixture 154 consists of four walls 156 extending from the second side 144b, each having a quarter solid cylinder shape. Slots 158 are formed between adjacent pairs of walls 156 to accommodate the first and second baffles 150, 152. Baffles 150 and 152 are interlocked to help add rigid structures to the features.

하나 이상의 실시예에서, 제 1 배플(150) 각각은 복수의 제 1 슬롯을 포함하고, 각각의 제 1 슬롯은 제 1 배플(150)의 높이의 대략 절반을 통해 연장한다. 또한, 제 2 배플(152) 각각은 제 2 슬롯을 포함하고, 상기 제 2 슬롯은 제 2 배플(152)의 높이의 절반을 통해 연장한다. 각각의 제 1 배플(150)은 복수의 제 2 배플(152)과 연동된다. 제 1 및 제 2 배플(150, 152)은 제 1 및 제 2 슬롯의 위치에서 연동되어 각각의 제 1 슬롯에 인접한 제 1 배플(150)의 일부가 제 2 배플(152) 중 하나의 일부 주위에 배치되고, 제 2 슬롯에 인접한 각각의 제 2 배플(152)의 일부가 제 1 배플(150)의 일부 주위에 배치된다.In one or more embodiments, each of the first baffles 150 includes a plurality of first slots, each first slot extending through approximately half of the height of the first baffle 150. In addition, each of the second baffles 152 includes a second slot, which extends through half of the height of the second baffle 152. Each first baffle 150 is associated with a plurality of second baffles 152. The first and second baffles 150, 152 are interlocked at the positions of the first and second slots such that a portion of the first baffle 150 adjacent to each first slot is around a portion of one of the second baffles 152. And a portion of each second baffle 152 adjacent to the second slot is disposed around a portion of the first baffle 150.

슬롯(158)의 폭은 벽(156)이 배플(150, 152)을 제자리에 단단히 유지하도록 배플(150, 152)의 폭과 대략 동일한 크기이다. 고정구(154) 각각에 대해, 제 1 배플(150)은 고정구(154)의 2 개의 동일선상 슬롯(158)에 삽입되고, 제 2 배플(152)은 고정구(154)의 다른 2 개의 동일선상 슬롯(158)에 삽입된다. 일 실시예에서, 제 1 배플(150)은 수평 슬롯(158) 내로 행으로서 삽입되고, 제 2 배플(152)은 도 17b에 도시된 수직 슬롯(158)에 부분적인 열로서 삽입된다. 고정구(154)가 제공되지 않는 렌즈(144c) 사이의 위치에서 추가의 제 2 배플(152)이 제 1 배플(150)에 의해 제자리에 유지된다.The width of the slot 158 is approximately the same size as the width of the baffles 150, 152 such that the wall 156 holds the baffles 150, 152 firmly in place. For each fixture 154, a first baffle 150 is inserted into two collinear slots 158 of the fixture 154, and a second baffle 152 is inserted into two other collinear slots of the fixture 154. 158 is inserted. In one embodiment, the first baffle 150 is inserted as a row into the horizontal slot 158 and the second baffle 152 is inserted as a partial column in the vertical slot 158 shown in FIG. 17B. An additional second baffle 152 is held in place by the first baffle 150 at a position between the lenses 144c where the fixture 154 is not provided.

각각의 광 채널을 분리하는 다른 방법은 도 17c에 도시된 바와 같이 배플(150, 152)을 포함하는 단일-피스 배플 구조(151)를 제조하는 것이다. 단일-피스 배플 구조(151)는 사출 성형 또는 벌집형 구조를 가공함으로써 달성될 수 있다.Another method of separating each optical channel is to fabricate a single-piece baffle structure 151 comprising baffles 150 and 152 as shown in FIG. 17C. The single-piece baffle structure 151 can be achieved by machining an injection molded or honeycomb structure.

단일-피스 배플 구조(151)는 렌즈 조립체(132)와 관련된 특정 형상으로 형성될 수 있다. 도 17c는 다른 구성이 본 발명의 범위 내에 있지만 4x4 렌즈 어레이를 갖는 렌즈 조립체(132)를 위해 준비된 단일-피스 배플 구조(151)의 예를 도시한다. 4x4 배플 어레이를 갖는 단일-피스 배플 구조(151)에서, 외벽 두께는 내벽의 절반일 수 있으며, 이들 배플 구조(151)가 렌즈 어레이 피치를 증가시키거나 서로 간섭하지 않고 효율적으로 타일링될 수 있게 한다. 이러한 특정 실시예에서, 배향 마커(151a)는 타일링 목적을 위해 단일-피스 배플 구조물(151)의 배향, 예컨대 특정 방향을 가리키는 화살표(도 17c에 도시된 바와 같은), 비-연속 외벽(예를 들어, 외벽의 더 작은 두께를 갖는 4개의 임의의 측면 중 적어도 일부는 타일링될 인접한 배플 구조(151)에서 더 큰 두께를 갖는 대응하는 부분과 정합될 수 있음)을 나타내기 위해 제공된다. 도 17d는 비-연속 외벽을 갖는 단일-피스 배플 구조의 예를 도시하며, 이는 용이한 타일링 및 배향 목적을 위해 보다 큰(전체) 두께를 갖는 2개의 다른 인접한 외벽(151b) 및 보다 작은(0) 두께를 갖는 2개의 인접한 외벽(151c)으로 구성된다. 비-연속 외벽은 타일링 구성을 허용하면서도 모든 측부에 완전한 두께의 벽을 제공한다. 다른 방향 지시기 및 벽 구성도 또한 본 발명의 범위 내에 있다. 예를 들어, 배향 표시자로서, 하나의 보스(수직 선형 섹션의 교차점에서 둥근 영역)는 배플 구조(151)의 적절한 배향을 나타 내기 위해 다른 보스에 비해 증가된 크기를 가질 수 있다.The single-piece baffle structure 151 may be formed in a particular shape associated with the lens assembly 132. 17C shows an example of a single-piece baffle structure 151 prepared for lens assembly 132 having a 4x4 lens array, although other configurations are within the scope of the present invention. In single-piece baffle structures 151 with a 4x4 baffle array, the outer wall thickness can be half the inner wall, allowing these baffle structures 151 to be tiled efficiently without increasing the lens array pitch or interfering with each other. . In this particular embodiment, the orientation marker 151a is used for tiling purposes such as the orientation of the single-piece baffle structure 151, for example an arrow pointing to a particular direction (as shown in FIG. 17C), a non-continuous outer wall (eg For example, at least some of the four arbitrary sides with the smaller thickness of the outer wall may be matched with corresponding portions having a greater thickness in the adjacent baffle structure 151 to be tiled. FIG. 17D shows an example of a single-piece baffle structure with non-continuous outer walls, which is two different adjacent outer walls 151b and smaller (0) having a larger (total) thickness for easy tiling and orientation purposes. ) Two adjacent outer walls 151c having a thickness. Non-continuous exterior walls provide a full thickness wall on all sides while allowing for tiling configurations. Other direction indicators and wall configurations are also within the scope of the present invention. For example, as an orientation indicator, one boss (rounded area at the intersection of the vertical linear section) may have an increased size relative to the other boss to indicate the proper orientation of the baffle structure 151.

인클로저Enclosure 전면 구멍 Front hole

다시 도 2에 도시된 바와 같이, MV 디스플레이 장치(100)의 전방 커버(108)는 여러 기술적 특징을 포함한다. 먼저, 전방 커버(108)는 나머지 인클로저(예를 들어, 후방 커버(106))의 것보다 훨씬 더 얇은 재료로 만들어진다. 렌즈 요소가 가능한 한 밀접하게 포장되는 것이 바람직하기 때문에, 구조적 무결성을 유지하기 위해 전방 커버(108)의 구멍(108a) 사이에 충분한 재료가 없을 수 있다. 재료가 두꺼울수록, 개구(108a)가 커야하므로 시야에 걸친 시야 및 상대 밝기 모두에서 광학 성능을 제한하지 않아야 한다. 제로 두께 재료의 한계에서, 전방 커버(108)의 구멍(108a)의 어레이는 최소한 기본 광학 표면과 동일한 직경일 필요가 있을 것이다. 재료 두께가 제로 두께로부터 증가함에 따라, 개구(108a)의 직경은 비네트(vignette)(또는 차단) 광선이 되지 않도록 증가해야 한다. 렌즈 조립체(132)와 장착 하드웨어 사이의 갭이 보일 수 있기 때문에, 이것은 전방 커버(108)를 포함하지 않을 수 있지만, 이는 MV 디스플레이 장치(100)의 시각적 외관에 부정적인 영향을 미칠 것이다.As shown again in FIG. 2, the front cover 108 of the MV display apparatus 100 includes several technical features. First, front cover 108 is made of a much thinner material than that of the remaining enclosures (eg, rear cover 106). Since the lens elements are preferably packaged as closely as possible, there may not be enough material between the holes 108a of the front cover 108 to maintain structural integrity. The thicker the material, the larger the aperture 108a should be, so as not to limit optical performance in both the field of view and the relative brightness. At the limit of zero thickness material, the array of holes 108a of the front cover 108 will need to be at least the same diameter as the primary optical surface. As the material thickness increases from zero thickness, the diameter of the opening 108a must increase so as not to be a vignette (or blocking) light. Since the gap between the lens assembly 132 and the mounting hardware may be visible, this may not include the front cover 108, but this will negatively affect the visual appearance of the MV display device 100.

전방 커버(108)의 개구(108a)에 대한 다른 고려 사항은 시각적인 외관이다. 렌즈 조립체(132)의 렌즈는 광학 코팅이 적용되거나 적용되지 않을 수 있다. AR 코팅과 같은 광학 코팅의 존재는 렌즈 요소 자체의 외관을 크게 변화시킨다. MV 디스플레이 장치(100)의 전면의 비지니스(busyness)의 시각적 영향을 감소시키기 위해, 전방 커버(108)의 개구(108a)는 광학 요소와 시각적으로 유사한 어두운 컬러 및 반사율을 갖는 것이 바람직할 수 있다. MV 디스플레이 장치(100)는 본질적으로 뷰어에게 정보를 디스플레이하도록 설계된 시각적 장치이기 때문에, 광학 요소 또는 MV 픽셀(102)로부터 산란되는 특징은 또한 MV 디스플레이 장치(100)의 기능을 산란하게 한다.Another consideration for the opening 108a of the front cover 108 is the visual appearance. The lens of the lens assembly 132 may or may not be applied with an optical coating. The presence of an optical coating, such as an AR coating, greatly changes the appearance of the lens element itself. In order to reduce the visual impact of the busyness of the front side of the MV display device 100, it may be desirable for the opening 108a of the front cover 108 to have a dark color and reflectance visually similar to the optical element. Since MV display device 100 is essentially a visual device designed to display information to a viewer, the features scattered from optical elements or MV pixels 102 also scatter the function of MV display device 100.

확산기Diffuser

컬러 필터링된 디스플레이에서, 컬러 필터는 다른 디스플레이 서브-픽셀 위에 배치되어 더 큰 디스플레이 픽셀을 만든다. 대부분의 FPD는 이 체제에서 작동한다. 각각의 디스플레이 서브-픽셀로부터 방출된 방사 발산도는 디스플레이 서브-픽셀의 원색과 다른 컬러를 생성하도록 변조될 수 있다. 많은 다른 디스플레이 서브-픽셀 구성이 있지만, 적색, 녹색 및 청색(RGB) 의 원색 디스플레이 서브-픽셀 구조의 3가지 상이한 예가 도 5a 내지 5c에 도시된다.In color filtered displays, color filters are placed over other display sub-pixels to create larger display pixels. Most FPDs work with this system. The emission divergence emitted from each display sub-pixel may be modulated to produce a color different from the primary color of the display sub-pixel. There are many different display sub-pixel configurations, but three different examples of primary color display sub-pixel structures of red, green and blue (RGB) are shown in FIGS. 5A-5C.

전자 이미징 장치를 사용하는 프로젝션 시스템을 설계하는 한 가지 접근법은 확산기가 필요하지 않다고 가정하고, 이미지를 원하는 평면으로 투영하기 위해 이미징 장치로부터 적절한 거리에 렌즈를 간단히 배치하는 것이다. 스트라이프 RGB 컬러 필터 FPD(도 5a 참조)의 특정한 경우에, 이것은 적절한 이미지를 제공하지 않을 것이다. 결과적인 이미지가 확대되면 개별 디스플레이 서브-픽셀을 표시하는 컬러 분리가 나타날 것이다. 시각 시스템, 즉 사람의 눈으로 보는 시스템의 경우, 이 효과가 현저하게 나타날 수 있다. 이는 때때로 "스크린 도어 효과(screen door effect)"라고도 한다.One approach to designing a projection system using an electronic imaging device is to assume that no diffuser is needed, and simply place the lens at an appropriate distance from the imaging device to project the image to the desired plane. In the particular case of the stripe RGB color filter FPD (see FIG. 5A) this will not provide a proper image. As the resulting image is magnified, color separation will appear, indicating the individual display sub-pixels. In the case of the visual system, ie the system of the human eye, this effect can be prominent. This is sometimes referred to as the "screen door effect".

보다 정교한 접근 방식은 이미징 장치와 렌즈 사이에 배치된 확산기 또는 산란기를 사용하여 공간적으로 구별되는 원색 영역을 혼합하거나 서브-픽셀을 표시한다. 이러한 목적으로 사용될 수 있는 확산기의 예로는 젖빛 유리, 분쇄 유리, 젖빛 유리와 시각적으로 유사한 확산기 필름 등이 있다. 이들 확산기는 종종 그들의 제조에 사용된 확률적 공정으로부터 발생하는 원형 대칭인 산란 프로파일을 나타낸다. 이 접근 방식은 고유한 균형점을 통해 투영된 이미지의 특정 영역에서보다 더 균일한 컬러로 이어질 수 있다. 확산기가 자연적으로 이미지 평면에서 공간 충실도의 손실을 야기하기 때문에 감소된 공간 해상도의 형태로 균형점이 형성될 수 있다.More sophisticated approaches use diffusers or scatterers disposed between the imaging device and the lens to mix spatially distinct primary color regions or to display sub-pixels. Examples of diffusers that can be used for this purpose include frosted glass, ground glass, diffuser films visually similar to frosted glass, and the like. These diffusers often exhibit circular symmetry scattering profiles resulting from the stochastic processes used in their manufacture. This approach can lead to more uniform color than in certain areas of the projected image through inherent balance points. Since the diffuser naturally causes a loss of spatial fidelity in the image plane, a balance point can be formed in the form of reduced spatial resolution.

다양한 예시적인 실시예는 도 18에 도시된 바와 같이 비-원형 대칭 산란 프로파일을 갖는 공학적 확산기(162)를 사용한다. 그러한 확산기(162)가 컬러 필터링된 전자 이미징 장치 위에 배치될 때, 산란 각도는 2개의 직교 평면 내 각도로 구별될 수 있다. 이는 이미징 장치의 각 특성 축선을 따라 상이한 컬러 확산을 허용하기 때문에 유리하다. 스트라이프형 RGB 디스플레이 픽셀 구조의 예에서, 수직 방향(도 5a의 y-축선)에서의 컬러 확산 요구는 수평 방향(도 5a의 x-축선)에서의 컬러 확산 요구보다 훨씬 적다. 수직 방향에서, 확산기(162)의 목적은 임의의 2개의(컬러와 같은) 디스플레이 서브-픽셀들 사이의 비활성, 비 발광 영역, 즉 도 5a의 디스플레이 서브-픽셀들(126) 사이의 흑색 영역의 외관을 최소화하는 것이다. 수평 방향에서, 확산기(162)는 하나의 디스플레이 서브-픽셀, 즉 적색 서브-픽셀로부터의 광을 인접한 디스플레이 서브-픽셀로부터 나오는 광이 충분히 혼합될 수 있는 각도로 산란하는 임무를 갖는다. FPD가 약간의 배율로 이미지화될 때 충분한 혼합이 발생하는 경우, 적색, 청색 및 녹색 서브-픽셀은 공간적으로 색차적으로 구별되는 서브-픽셀이 아닌 흰색 픽셀로 나타날 것이다.Various exemplary embodiments use an engineered diffuser 162 having a non-circular symmetric scattering profile as shown in FIG. 18. When such a diffuser 162 is placed over the color filtered electronic imaging device, the scattering angle can be distinguished by two orthogonal in-plane angles. This is advantageous because it allows different color diffusion along each characteristic axis of the imaging device. In the example of the striped RGB display pixel structure, the color spreading request in the vertical direction (y-axis in Fig. 5A) is much less than the color spreading request in the horizontal direction (x-axis in Fig. 5A). In the vertical direction, the purpose of the diffuser 162 is to define an inactive, non-light emitting area between any two (such as color) display sub-pixels, i.e. a black area between the display sub-pixels 126 of FIG. 5A. Minimize appearance. In the horizontal direction, the diffuser 162 has the task of scattering light from one display sub-pixel, ie the red sub-pixel, at an angle at which light from the adjacent display sub-pixels can be sufficiently mixed. If sufficient blending occurs when the FPD is imaged at a slight magnification, the red, blue and green sub-pixels will appear as white pixels rather than spatially chrominally separated sub-pixels.

평판 디스플레이(110)의 백라이트 구성 또는 방출 프로파일은 또한 확산기(162)의 이상적인 산란 각도를 결정하는 역할을 할 수 있다. 스트라이프 스타일의 픽셀 구조를 갖는 예시적인 평판 디스플레이(110)에서, 사용될 수 있는 백라이트의 2 가지 예는 시준되고 시준되지 않는다. 시준된 백라이트는 투과성 FPD의 후면에 임박한 단일 방향으로 크게 진행하는 광을 생성할 수 있다. 시준되지 않은 백라이트는 더 큰 원뿔 또는 입체각으로 빛을 방출한다. 이 두 가지 예는 크게 다른 확산기 산란 프로파일을 요구한다. 따라서, 평판 디스플레이(110)의 방출 프로파일은 확산기 산란 프로파일의 설계에서 중요한 입력이다.The backlight configuration or emission profile of the flat panel display 110 may also serve to determine the ideal scattering angle of the diffuser 162. In an exemplary flat panel display 110 having a stripe style pixel structure, two examples of backlights that may be used are collimated and uncollimated. The collimated backlight can produce light that travels largely in a single direction imminent on the backside of the transmissive FPD. Uncollimated backlights emit light in larger cones or solid angles. These two examples require significantly different diffuser scattering profiles. Thus, the emission profile of the flat panel display 110 is an important input in the design of the diffuser scattering profile.

일반적으로, 공학적 확산기(162)의 산란 프로파일은 타원형이다. 확산기(162)의 장축선과 단축선은 평판 디스플레이(110)의 서브-픽셀 구조의 특징 축선에 정렬될 수 있다. 스트라이프 서브-픽셀 어레이체에서, 산란 프로파일의 장축선은 도 5a 내지 도 5c의 x-축선으로 정렬되고, 산란 프로파일의 단축선은 도 5a 내지 도 5c의 y-축선과 정렬될 것이다. 적절하게 설계되고 디스플레이 서브-픽셀 구조에 정렬될 때 이러한 유형의 산란 확산기(162)의 사용은 원형 대칭 산란 프로파일을 갖는 확산기의 것에 비해 유리하다. 여전히 공간 충실도의 일부 고유 손실이 있지만 손실이 감소된다. 스트라이프형 서브-픽셀 구조를 갖는 예시적인 평면 스크린 디스플레이(110)에서, 수직 방향으로의 공간 충실도의 손실은 원형 대칭 산란 프로파일을 갖는 표준 확산기의 것과 비교하여 타원형 산란 대칭을 갖는 확산기(162)에 의해 상당히 적을 수 있다.In general, the scattering profile of the engineered diffuser 162 is elliptical. The long axis and short axis of the diffuser 162 may be aligned with the feature axis of the sub-pixel structure of the flat panel display 110. In the stripe sub-pixel array body, the long axis of the scattering profile will be aligned with the x-axis of FIGS. 5A-5C and the short axis of the scattering profile will be aligned with the y-axis of FIGS. 5A-5C. The use of this type of scattering diffuser 162 when properly designed and aligned to the display sub-pixel structure is advantageous over that of a diffuser with a circular symmetric scattering profile. There is still some inherent loss of space fidelity, but the loss is reduced. In an exemplary flat screen display 110 having a striped sub-pixel structure, the loss of spatial fidelity in the vertical direction is caused by the diffuser 162 with elliptical scattering symmetry compared to that of a standard diffuser with a circular symmetric scattering profile. It can be quite small.

렌즈 어셈블리(132)가 상부에 배치된 스트라이프 RGB 평판 디스플레이(110)로 구성된 다중-뷰 디스플레이 장치(100)와 관련하여, 확산기(162)는 중요한 역할을 할 수 있다. 스트라이프 RGB 평판 디스플레이(110)는 공간적으로 분리된 컬러 서브-픽셀을 갖는 디스플레이 픽셀로 구성되므로, 이들 서브-픽셀로부터의 광은 렌즈에 의해 상이한 각도 방향으로 지향될 것이다. 따라서, 이 렌즈를 관찰하는 관찰자는 개별 디스플레이 서브-픽셀의 확대 부분을 볼 수 있고, 따라서 관찰자에게 디스플레이할 수 있는 컬러를 컬러 필터의 원색의 컬러로 제한한다. 확산기(162)의 실제 응용 및 목적은 개별 디스플레이 서브-픽셀로부터 광을 산란시켜 3개의 RGB 디스플레이 서브-픽셀의 블렌딩을 허용하는 것이다. 앞서 논의한 바와 같이, 이것은 공간 해상도 또는 MV 픽셀의 각도 충실도의 감소를 의미한다. 실제적인 관점에서, 필요한 양의 확산 또는 블렌딩은 개별 디스플레이 픽셀을 넘어서서 디스플레이 서브-픽셀을 함께 블렌딩한다. 평판 디스플레이(110) 위에 배치된 확산기는 실제로, 주어진 디스플레이 픽셀의 디스플레이 서브-픽셀 이상을 블렌딩할 것이다. 적색 서브-픽셀에서 다음 적색 서브-픽셀로의 디스플레이 서브-픽셀 간격이 수직 및 수평 방향에서 상이하기 때문에, 수직 및 수평 방향으로 상이한 컬러 확산을 적용하는 것이 바람직할 수 있다.With respect to the multi-view display device 100 consisting of a stripe RGB flat panel display 110 with a lens assembly 132 disposed thereon, the diffuser 162 may play an important role. Since the striped RGB flat panel display 110 consists of display pixels having spatially separated color sub-pixels, the light from these sub-pixels will be directed in different angular directions by the lens. Thus, an observer observing this lens can see an enlarged portion of the individual display sub-pixels, thus limiting the colors that can be displayed to the viewer to the color of the primary color of the color filter. The actual application and purpose of the diffuser 162 is to scatter the light from the individual display sub-pixels to allow blending of the three RGB display sub-pixels. As discussed above, this means a reduction in spatial resolution or angular fidelity of MV pixels. In practical terms, the required amount of diffusion or blending blends the display sub-pixels together beyond the individual display pixels. The diffuser disposed above the flat panel display 110 will actually blend more than the display sub-pixels of a given display pixel. Since the display sub-pixel spacing from the red sub-pixel to the next red sub-pixel is different in the vertical and horizontal directions, it may be desirable to apply different color spreads in the vertical and horizontal directions.

확산기(162)의 최적 설계에서 백라이트 설계와 함께 또 다른 고려 사항은 평판 디스플레이(110)의 물리적 구조이다. 많은 디스플레이 패널은 여러 층의 편광판, 커버 글래스 등을 포함한다. 평면 디스플레이(110) 내에서 개별 디스플레이 서브-픽셀의 컬러를 최적으로 블렌딩할 수 있는 확산기(162)의 설계가 고려된다.Another consideration with the backlight design in the optimal design of the diffuser 162 is the physical structure of the flat panel display 110. Many display panels include multiple layers of polarizers, cover glasses, and the like. A design of the diffuser 162 is contemplated that can optimally blend the colors of the individual display sub-pixels within the flat panel display 110.

도 18은 본 개시의 하나 이상의 실시예에 따른 타원형 확산기(162)의 부분 사시도이다. 확산기(162)는 평판 디스플레이(110)의 디스플레이 서브-픽셀(126) 앞에 배치되는 것으로 도시되어 있다. 이 예에서 평판 디스플레이(110)는 시준된 백라이팅을 제공한다. 도 18은 적색 서브-픽셀(126)로부터의 단일 축상 빔(164), 녹색 서브-픽셀(126)로부터의 단일 축상 빔(166), 및 청색 서브-픽셀(126)로부터의 단일 축상 빔(168)을 도시한다. 확산기(162)는 빔(164)으로부터 적색광(164a)의 원뿔, 빔(166)으로부터 녹색광(166a)의 원뿔, 및 빔(168)으로부터 청색광(168a)의 원뿔을 생성한다. 각각의 원뿔은 단면이 타원형이며, 확산기(162)의 타원형 산란 프로파일을 도시한다.18 is a partial perspective view of an elliptical diffuser 162 in accordance with one or more embodiments of the present disclosure. Diffuser 162 is shown disposed in front of display sub-pixel 126 of flat panel display 110. In this example flat panel display 110 provides collimated backlighting. 18 shows a single axial beam 164 from a red sub-pixel 126, a single axial beam 166 from a green sub-pixel 126, and a single axial beam 168 from a blue sub-pixel 126. ). Diffuser 162 generates a cone of red light 164a from beam 164, a cone of green light 166a from beam 166, and a cone of blue light 168a from beam 168. Each cone is elliptical in cross section and shows the elliptical scattering profile of the diffuser 162.

디스플레이 제어기Display controller

도 19는 본 개시의 하나 이상의 실시예에 따른 디스플레이 제어기(170)의 블록도이다. 일부 실시예에서, 디스플레이 제어기(170)는 MV 디스플레이 장치(100)의 인클로저에 장착된 구동기 보드(114 및 116)로 구현될 수 있다(도 3 참조). 디스플레이 제어기(170)는 휘발성 메모리(174), 비-휘발성 메모리(176), 네트워크 제어기(178), 및 전력 제어기(180)에 연결된 픽셀 처리부(172)를 포함한다. 디스플레이 제어기(170)는 다른 장치, 예를 들면 호스트 컴퓨터(182)와의 네트워크 접속 1 및 전력 접속 1을 지지하도록 제 1 세트의 네트워크 및 전력 커넥터(120, 118)(도 3 참조)에 결합된 제 1 인터페이스(179a)를 포함한다. 디스플레이 제어기(170)는 또 다른 장치, 예를 들어 현재의 MV 디스플레이 장치(100)(도 4 참조)에 데이지-체인 연결될 수 있는 다른 MV 디스플레이 장치(100)와의 네트워크 접속(2) 및 전력 접속(2)을 지지하도록, 제 2 세트의 네트워크 및 전력 커넥터(120, 118)(도시되지 않았지만, 도 3의 제 2 구동기 보드(116) 상)에 결합되는 제 2 인터페이스(179B)를 부가적으로 포함할 수 있다.19 is a block diagram of a display controller 170 in accordance with one or more embodiments of the present disclosure. In some embodiments, display controller 170 may be implemented with driver boards 114 and 116 mounted in an enclosure of MV display device 100 (see FIG. 3). The display controller 170 includes a volatile memory 174, a non-volatile memory 176, a network controller 178, and a pixel processor 172 connected to the power controller 180. Display controller 170 is coupled to a first set of network and power connectors 120, 118 (see FIG. 3) to support network connection 1 and power connection 1 with other devices, such as host computer 182. 1 interface 179a. The display controller 170 is connected to another device, for example a network connection 2 and a power connection with another MV display device 100 that may be daisy-chained to the current MV display device 100 (see FIG. 4). 2) additionally includes a second interface 179B coupled to a second set of network and power connectors 120, 118 (not shown, on the second driver board 116 of FIG. 3). can do.

디스플레이 제어기(170)는, 예를 들어, 네트워크 제어기(178)를 통해 호스트 컴퓨터(182)로부터 데이터를 수신하고, 후술하는 바와 같이, 뷰잉 구역(들)을 향하는 이미지를 생성하는 빔렛을 생성하기 위해 평판 디스플레이(110)를 구동한다. MV 디스플레이 장치(100)가 데이지 체인으로 연결된 많은 MV 디스플레이 장치(100) 중 하나인 경우(도 4 참조), 데이터는 호스트 컴퓨터(182)가 아니라 현재의 MV 디스플레이 장치(100)의 "업스트림(upstream)"인 다른 MV 디스플레이 장치(100)로부터 수신될 수 있다.Display controller 170 receives data from host computer 182 via, for example, network controller 178 and generates a beamlet for generating an image towards the viewing area (s), as described below. The flat panel display 110 is driven. If the MV display device 100 is one of many MV display devices 100 daisy-chained (see FIG. 4), the data is not upstream of the current MV display device 100, but rather the host computer 182. ) May be received from another MV display apparatus 100.

픽셀 처리 유닛Pixel processing unit

픽셀 처리 유닛(PPU)(172)은 평판 디스플레이(110)에서 빔렛 패턴을 계산 및 렌더링하여 적절한 뷰잉 구역에 적절한 이미지를 보여줄 수 있다. 즉, PPU(172)는 FPD(110)상의 제 1 세트의 디스플레이로부터 유래하고 제 1 뷰어의 뇌에서 제 1 이미지를 형성하도록 제 1 뷰잉 구역에서 제 1 뷰어의 동공을 향하는 제 1 번들의 빔렛 및 제 2 세트의 디스플레이 픽셀(제 1 세트의 디스플레이 픽셀과 상이함)로부터 유래되고 제 2 뷰어의 뇌에서 제 2 이미지를 형성하도록 제 2 뷰잉 구역 내의 제 2 뷰어의 동공을 향하는 제 2 번들의 빔렛을 식별한다.The pixel processing unit (PPU) 172 may calculate and render the beamlet pattern on the flat panel display 110 to show the appropriate image in the appropriate viewing area. That is, the PPU 172 is derived from the first set of displays on the FPD 110 and beamlets of the first bundle facing the pupil of the first viewer in the first viewing zone to form a first image in the brain of the first viewer and Beamlets of the second bundle originating from the second set of display pixels (different from the first set of display pixels) and facing the pupil of the second viewer in the second viewing area to form a second image in the brain of the second viewer. To identify.

다양한 실시예에서, PPU(172)는 제 1 및 제 2 뷰잉 구역의 위치를 정의하는 뷰잉 구역 좌표 데이터, 제 1 및 제 2 이미지를 형성하는데 사용되는 콘텐츠 스트림 데이터, 상이한 콘텐츠를 상이한 뷰잉 구역에 연관시키는 뷰잉 구역 대 콘텐츠 스트림 맵핑, 각각, MV 디스플레이 장치(100)를 교정하는데 사용되는 교정 파라미터 및/또는 적절한 빔렛 패턴을 생성하는 평판 디스플레이(110) 상에 이미지를 렌더링하기 위한 호스트 컴퓨터(182)로부터의 컬러 팔레트 파라미터를 수신한다.In various embodiments, PPU 172 is associated with viewing zone coordinate data defining the location of the first and second viewing zones, content stream data used to form the first and second images, and associating different content to different viewing zones. From the host computer 182 to render the image on the flat panel display 110 to generate a viewing area to content stream mapping, calibration parameters used to calibrate the MV display device 100 and / or appropriate beamlet patterns, respectively. Receives the color palette parameter.

다양한 실시예들에서, 뷰잉 구역들은 MV 디스플레이 장치(100)가 사용되는 환경을 바라 보는 카메라(예를 들어, 카메라(104))의 좌표계와 같은 뷰잉 구역 좌표계에서 설명된다. 한편, 평판 디스플레이(110)에 의해 생성된 빔렛은 평판 디스플레이(110)의 디스플레이 픽셀의 X-Y 디스플레이 픽셀 좌표 또는 부동 소수점 뷰포트(view port) 좌표와 같은 빔렛 좌표계로 기술된다. PPU(172)는 뷰잉 구역 좌표계와 빔렛 좌표계 사이에서 수학적 변환을 적용하여 뷰잉 구역에 대한 대응하는 빔렛 좌표를 계산한다. 즉, PPU(172)는 뷰잉 구역 좌표계에서 대응하는 위치(뷰잉 구역)에서 볼 수 있는 빔렛을 생성하기 위해 활성화할 서브-픽셀을 디스플레이하는 결정할 뷰잉 구역 좌표계와 빔렛 좌표계 사이에 수학적 변환을 적용한다.In various embodiments, the viewing zones are described in a viewing zone coordinate system, such as the coordinate system of a camera (eg, camera 104) looking at the environment in which the MV display device 100 is used. On the other hand, the beamlets generated by the flat panel display 110 are described in beamlet coordinate systems such as X-Y display pixel coordinates or floating point view port coordinates of the display pixels of the flat panel display 110. PPU 172 applies a mathematical transformation between the viewing zone coordinate system and the beamlet coordinate system to calculate the corresponding beamlet coordinates for the viewing zone. That is, the PPU 172 applies a mathematical transformation between the determining viewing area coordinate system and the beamlet coordinate system to display the sub-pixels to activate to produce a beamlet visible at the corresponding position (viewing region) in the viewing area coordinate system.

PPU(172)에 의해 제어되는 각각의 멀티-뷰(MV) 픽셀(102)은 2개의 좌표계 사이의 고유한 맵핑을 가지며, 이는 연관된 세트의 교정 파라미터(p0, p1,..., p15)에 포함된다. 교정 파라미터(p0, p1,..., p15)를 사용하는 뷰잉 구역 좌표계(X, Y, Z)와 빔렛 좌표계(U, V) 사이의 수학적 맵핑의 일 실시예는 아래 방정식 1 내지 5에 제공된다. PPU(172)는 방정식 1 내지 5를 사용하여 뷰잉 구역 좌표계(X, Y, Z)와 빔렛 좌표계(U, V) 사이를 맵핑한다.Each multi-view (MV) pixel 102 controlled by the PPU 172 has a unique mapping between two coordinate systems, which is associated with the associated set of calibration parameters p0, p1, ..., p15. Included. One embodiment of the mathematical mapping between the viewing zone coordinate system (X, Y, Z) and the beamlet coordinate system (U, V) using the calibration parameters (p0, p1, ..., p15) is given in equations 1-5 below. do. PPU 172 uses equations 1-5 to map between the viewing zone coordinate system (X, Y, Z) and the beamlet coordinate system (U, V).

Figure pct00001
방정식 1
Figure pct00001
Equation 1

Figure pct00002
방정식 2
Figure pct00002
Equation 2

Figure pct00003
방정식 3
Figure pct00003
Equation 3

Figure pct00004
방정식 4
Figure pct00004
Equation 4

Figure pct00005
방정식 5
Figure pct00005
Equation 5

하나 이상의 실시예들에서, PPU(172)는 PPU(172)가 뷰잉 구역 좌표계에서 좌표 세트에 관한 정보를 수신하고, 방정식 1 내지 5를 평가함으로써 빔렛 좌표계에서 대응 좌표 세트를 결정하고 평판 디스플레이(110)를 구동하기 위해 사용되는 빔렛 좌표계에서 대응하는 좌표 세트에 관한 정보를 출력하는 프로세서 및 메모리 저장 명령어를 포함한다.In one or more embodiments, the PPU 172 determines that the PPU 172 receives information about the coordinate set in the viewing zone coordinate system, evaluates equations 1 through 5 to determine the corresponding coordinate set in the beamlet coordinate system and the flat panel display 110. And a processor and a memory storage instruction for outputting information about a corresponding set of coordinates in the beamlet coordinate system used to drive.

당업자는 뷰잉 구역 좌표계와 빔렛 좌표계 사이의 맵핑을 생성하는데 사용될 수 있는 많은 대안적인 수학적 모델 및 파라미터 세트가 있음을 인식할 것이다. 각각의 멀티-뷰(MV) 픽셀에 대한 교정 파라미터는 후술하는 바와 같이 교정 절차에 의해 계산된다.Those skilled in the art will appreciate that there are many alternative mathematical models and parameter sets that can be used to generate mappings between the viewing area coordinate system and the beamlet coordinate system. The calibration parameter for each multi-view (MV) pixel is calculated by the calibration procedure as described below.

콘텐츠 스트림 및 프레임 버퍼에 대한 데이터 대역폭 및 저장 요건을 감소시키기 위해, 컬러 비트 폭은 평판 디스플레이(110)의 고유 컬러 비트 폭보다 작을 수 있다. 일부 실시예에서, 컬러 값은 8 비트를 사용하여 표현되지만, 평판 디스플레이(110)는 24-비트 컬러 값으로 구동된다. PPU(172)는 저장된 컬러 비트 폭과 고유의 평판 디스플레이(110) 비트 폭 사이를 변환하는 컬러 팔레트를 저장한다. 예를 들어, 저장된 8-비트 컬러는 0-255 회색 스케일, 3:3:2 RGB(즉, 빨간색의 경우 3 비트, 녹색의 경우 3 비트, 파란색의 경우 2 비트) 또는 대체 컬러 표현으로 표시될 수 있다. 각 패널의 컬러 팔레트를 조정하여 여러 패널간에 컬러 일치를 제공할 수도 있다.To reduce data bandwidth and storage requirements for the content stream and frame buffer, the color bit width may be less than the intrinsic color bit width of flat panel display 110. In some embodiments, the color value is represented using 8 bits, but flat panel display 110 is driven with a 24-bit color value. PPU 172 stores a color palette that converts between the stored color bit width and the unique flat panel display 110 bit width. For example, a stored 8-bit color can be represented by a 0-255 gray scale, 3: 3: 2 RGB (i.e. 3 bits for red, 3 bits for green, 2 bits for blue) or alternate color representation Can be. You can also adjust the color palette of each panel to provide color matching across multiple panels.

다양한 실시예들에서, PPU(172)는 필드 프로그램 가능 게이트 어레이(FPGA) 또는 주문형 반도체(ASIC)에서 구현된다. 당업자는 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU), 또는 하이브리드 프로세서를 포함하여 많은 다른 대안적인 구현이 있음을 인식할 것이다. 또한, PPU(172)의 작업을 수행하기 위해 다수의 프로세서가 함께 사용될 수 있다.In various embodiments, PPU 172 is implemented in a field programmable gate array (FPGA) or application specific semiconductor (ASIC). Those skilled in the art will recognize that there are many other alternative implementations, including a central processing unit (CPU), graphics processing unit (GPU), or hybrid processor. In addition, multiple processors may be used together to perform the tasks of the PPU 172.

PPU(172)는 휘발성 메모리(174) 및/또는 비-휘발성 메모리(176)와 통신하여 그 작업을 수행한다. 휘발성 메모리(174)는 예를 들어 동적 랜덤-액세스 메모리(DRAM) 및/또는 정적 랜덤-액세스 메모리(SRAM)를 포함할 수 있다. 비-휘발성 메모리(176)는 플래시, 전기적 소거 가능 프로그램가능한 리드-온리 메모리(EEPROM) 및/또는 디스크 드라이브를 포함할 수 있다. 다양한 실시예들에서, PPU(172)는 휘발성 메모리(174)와 통신하여 뷰잉 구역 데이터, 콘텐츠 스트림 데이터, 뷰잉 구역 대 콘텐츠 스트림 맵핑, 및/또는 프레임 버퍼 데이터를 포함하지만 이에 한정되지 않는 동적 런-타임 데이터를 저장한다. PPU(172)는 비-휘발성 메모리(176)와 통신하여 교정 파라미터, 컬러 팔레트, 펌웨어, 식별 번호, 및/또는 버전 번호를 포함하지만 이에 한정되지 않는 정적 데이터를 저장한다. PPU(172)는 또한 예를 들어 저장된 파라미터를 설정하거나 펌웨어를 업데이트하기 위해 비-휘발성 메모리(176)의 내용을 수정할 수 있다. 즉석에서 펌웨어를 업데이트하는 능력은 추가 프로그래머 케이블을 꽂지 않고 호스트 컴퓨터(182)에서 특수 소프트웨어를 실행할 필요없이 쉽게 업그레이드할 수 있다.PPU 172 communicates with volatile memory 174 and / or non-volatile memory 176 to perform its tasks. Volatile memory 174 may include, for example, dynamic random-access memory (DRAM) and / or static random-access memory (SRAM). Non-volatile memory 176 may include flash, electrically erasable programmable read-only memory (EEPROM), and / or disk drive. In various embodiments, PPU 172 is in communication with volatile memory 174 to provide dynamic run-in, including but not limited to viewing zone data, content stream data, viewing zone to content stream mapping, and / or frame buffer data. Save the time data. PPU 172 communicates with non-volatile memory 176 to store static data, including but not limited to calibration parameters, color palettes, firmware, identification numbers, and / or version numbers. PPU 172 may also modify the contents of non-volatile memory 176 to set stored parameters or update firmware, for example. The ability to update firmware on the fly can be easily upgraded without plugging in additional programmer cables and without running special software on the host computer 182.

PPU(172)는 시스템에서 버퍼링을 제공하여 비-이상적인 상황에서 적절한 성능 저하를 허용한다. 일반적으로 LCD와 같은 디스플레이의 경우, 비디오 데이터는 일정한 속도(예: 30Hz, 60Hz)로 일관되게 전송되어야 한다. 그러나, 호스트 컴퓨터(182)로부터의 비-결정적 계산, 렌더링 및 데이터 전송으로 인해, PPU(172)는 고정되지 않은 속도로 데이터를 생성할 수 있다. 따라서, PPU(172)는 예를 들어 데이터가 너무 느린 경우 마지막 프레임의 상태를 유지하거나 데이터가 너무 빠른 경우 프레임을 드롭하도록 평판 디스플레이(110)를 제어할 때 버퍼링을 포함한다.PPU 172 provides buffering in the system to allow adequate performance degradation in non-ideal situations. In general, for displays such as LCDs, video data must be transmitted consistently at a constant rate (eg 30Hz, 60Hz). However, due to non-deterministic computation, rendering, and data transfer from the host computer 182, the PPU 172 may generate data at an unfixed rate. Thus, the PPU 172 includes buffering, for example, when controlling the flat panel display 110 to maintain the state of the last frame if the data is too slow or drop the frame if the data is too fast.

PPU(172)는 FPD 커넥터(184)를 통해 평판 디스플레이(110)를 구동한다. 다양한 실시예에서, FPD 커넥터(184)는 임베디드 디스플레이포트(eDP) 인터페이스이다. 당업자는 디스플레이포트(DisplayPort), 고화질 멀티미디어 인터페이스(HDMI), 디지털 비주얼 인터페이스(DVI), 및 비디오 그래픽스 어레이(VGA)를 포함하지만 이에 제한되지 않는 많은 대체 디스플레이 인터페이스가 있음을 인식할 것이다. 하나 이상의 실시예에서, FPD 커넥터(184)는 평판 디스플레이(110)의 백라이트를 전력 공급, 제어, 및/또는 변조하기 위한 연결부를 추가로 포함한다.The PPU 172 drives the flat panel display 110 through the FPD connector 184. In various embodiments, FPD connector 184 is an embedded DisplayPort (eDP) interface. Those skilled in the art will recognize that there are many alternative display interfaces, including but not limited to DisplayPort, High Definition Multimedia Interface (HDMI), Digital Visual Interface (DVI), and Video Graphics Array (VGA). In one or more embodiments, the FPD connector 184 further includes a connection for powering, controlling, and / or modulating the backlight of the flat panel display 110.

PPU(172)는 네트워크 제어기(178)를 통해 호스트 컴퓨터(182) 및/또는 (다른 MV 디스플레이 장치(100)의) 다른 디스플레이 제어기(170)와 통신한다. PPU(172)는 뷰잉 구역 정보, 콘텐츠 스트림 데이터, 뷰잉 구역 대 콘텐츠 스트림 맵핑, 교정 파라미터, 컬러 팔레트 파라미터, 식별 정보, 어드레싱 정보, 상태 정보, 및/또는 다른 구성 정보를 포함하지만 이에 제한되지 않는 네트워크를 통한 데이터를 송신 및/또는 수신한다. 다양한 실시예들에서, 네트워크는 이더넷® 네트워크이고, 네트워크 제어기(178)는 이더넷® 물리 계층 인터페이스를 제공한다. 당업자는 범용 직렬 버스(USB), PCI(Peripheral Component Interconnect), Infiniband® 및/또는 Thunderbolt®를 포함하지만 이에 제한되지 않는 많은 대체 데이터 인터페이스가 있다는 것을 인식할 것이다. 특정 상황에서는 일부 데이터 인터페이스가 다른 인터페이스보다 선호될 수 있다. 예를 들어, 이더넷®은 일반적으로 USB보다 더 긴 물리적 거리에 걸쳐 있을 수 있으며, 이는 많은 설치 구성에서 유리할 수 있다.The PPU 172 communicates with the host computer 182 and / or other display controller 170 (of the other MV display device 100) via the network controller 178. PPU 172 may include, but is not limited to, viewing zone information, content stream data, viewing zone to content stream mapping, calibration parameters, color palette parameters, identification information, addressing information, status information, and / or other configuration information. Send and / or receive data via. In various embodiments, the network is an Ethernet® network, and network controller 178 provides an Ethernet® physical layer interface. Those skilled in the art will recognize that there are many alternative data interfaces, including but not limited to Universal Serial Bus (USB), Peripheral Component Interconnect (PCI), Infiniband® and / or Thunderbolt®. In certain situations, some data interfaces may be preferred over others. For example, Ethernet® can generally span longer physical distances than USB, which can be advantageous in many installation configurations.

멀티-MV 디스플레이 장치 Multi-MV Display Device 타일링Tiling 기능 function

디스플레이 제어기(170)의 여러 특징은 다수의 MV 디스플레이 장치(100)의 타일링을 용이하게 하여 더 큰 디스플레이를 형성한다. 예를 들어, 다양한 실시예들에서, 호스트 컴퓨터(182)에 의해 요구되는 포트의 수를 줄이고, 케이블 길이를 줄이고, 설치를 단순화하기 위해, 특징들은 데이지 체인으로 다수의 MV 디스플레이 장치(100)를 연결하는데 사용될 수 있다. 당업자는 버스, 나무, 별, 및/또는 메시를 포함하지만 이에 제한되지 않는 많은 대안적인 연결 구조가 있음을 인식할 것이다.Several features of display controller 170 facilitate tiling of multiple MV display devices 100 to form larger displays. For example, in various embodiments, to reduce the number of ports required by the host computer 182, reduce cable lengths, and simplify installation, features may be used to daisy-chain multiple MV display devices 100 in a daisy chain. Can be used to connect. Those skilled in the art will recognize that there are many alternative connection structures, including but not limited to buses, trees, stars, and / or meshes.

네트워크 제어기(178)는 수신된 데이터를 다운스트림 MV 디스플레이 장치(100)로의 통과를 허용하기 위해 각각의 데이터 커넥터(120)에 결합된 2개의 네트워크 인터페이스(179a 및 179b)를 포함한다. 다양한 실시예에서, 네트워크 제어기(178)는 이중 기가비트 이더넷®트랜시버를 포함한다. PPU(172)는 제 1 네트워크 인터페이스(179a)로부터 데이터를 수신하고 데이터를 제 2 인터페이스(179b)로 및 그 반대로 전송할 수 있다. 제 2 인터페이스(179b)상의 전송된 데이터는 제 1 인터페이스(179a)상의 수신된 데이터의 직접 복사, 수신된 데이터의 필터링된 버전, 수신된 데이터의 변환된 버전, 또는 완전히 독립적인 데이터일 수있다.The network controller 178 includes two network interfaces 179a and 179b coupled to each data connector 120 to allow passage of the received data to the downstream MV display device 100. In various embodiments, network controller 178 includes a dual Gigabit Ethernet® transceiver. PPU 172 may receive data from first network interface 179a and transmit data to second interface 179b and vice versa. The transmitted data on the second interface 179b may be a direct copy of the received data on the first interface 179a, a filtered version of the received data, a converted version of the received data, or completely independent data.

예를 들어, 다양한 실시예에서, 호스트 컴퓨터(182)에 의해 전송된 뷰잉 구역 데이터는 MV 디스플레이 시스템(122)(도 4 참조) 내의 모든 MV 디스플레이 장치(100)에 의해 소비되도록 의도된 반면, 콘텐츠 스트림 데이터의 상이한 부분은 MV 디스플레이 시스템(122)의 특정 MV 디스플레이 장치(100)에 의해 소모되도록 의도된다. 네트워크 제어기(178)의 제 1 네트워크 인터페이스(179a)는 모든 MV 디스플레이 장치(100)에 대한 뷰잉 구역 및 콘텐츠 스트림 데이터를 수신하고, PPU(172)는 MV 디스플레이 장치(100)와 관련되는 데이터에만 작동한다. 모든 뷰잉 구역 및 콘텐츠 스트림 데이터는 네트워크 제어기(178)의 제 2 네트워크 인터페이스(179b)로 직접 복사되어 다운스트림 MV 디스플레이 장치(100)로 전송된다. 대안적인 실시예에서, 다른 MV 디스플레이 장치(100)가 그 데이터를 사용하지 않기 때문에, PPU(172)는 MV 디스플레이 장치(100)를 위해 의도된 콘텐츠 스트림 데이터를 전달하지 않는다. 이것은 MV 디스플레이 시스템(122) 내의 전체 데이터 트래픽을 감소시킨다.For example, in various embodiments, viewing zone data sent by the host computer 182 is intended to be consumed by all MV display devices 100 in the MV display system 122 (see FIG. 4), while content Different portions of the stream data are intended to be consumed by the particular MV display device 100 of the MV display system 122. The first network interface 179a of the network controller 178 receives the viewing area and content stream data for all MV display devices 100, and the PPU 172 operates only on data associated with the MV display device 100. do. All viewing zone and content stream data is copied directly to the second network interface 179b of the network controller 178 and transmitted to the downstream MV display apparatus 100. In an alternative embodiment, the PPU 172 does not carry the content stream data intended for the MV display device 100 because no other MV display device 100 uses that data. This reduces the overall data traffic in the MV display system 122.

네트워크 제어기(178)의 네트워크 인터페이스(179a, 179b)의 방향성은 즉시 프로그래밍될 수 있다. 이러한 다중 방향성은 설치 구성에 유연성을 허용한다. 예를 들어, 하나의 상황은 호스트 컴퓨터(182)가 MV 디스플레이 장치(100)의 왼쪽에 데이지 체인 내에 배치될 것을 요구할 수 있는 반면, 다른 상황은 컴퓨터(182)가 MV 디스플레이 장치(100)의 오른쪽에 데이지 체인 내에 배치될 것을 요구할 수 있다. 이 지향성 프로그래밍은 수동적으로 또는 능동 명령으로 수행될 수 있다. 전자의 예에서, 네트워크 제어기(178)의 어느 하나의 네트워크 인터페이스상에서 수신된 임의의 데이터는 네트워크 제어기(178)의 다른 인터페이스상에서 작동되고 네트워크 제어기(178)의 다른 인터페이스로 전달될 수 있다. 후자의 예에서, 네트워크 제어기(178)의 하나의 네트워크 인터페이스 는 업스트림 인터페이스로 지정되는 반면, 다른 인터페이스는 다운스트림 인터페이스로 지정된다. 다운스트림 인터페이스에서 "방향 설정(set direction)"명령이 수신되면 업스트림/다운스트림 지정이 뒤집힐 수 있다.The directivity of the network interfaces 179a and 179b of the network controller 178 can be programmed immediately. This multidirectionality allows flexibility in the installation configuration. For example, one situation may require the host computer 182 to be placed in a daisy chain on the left side of the MV display device 100, while another situation may require the computer 182 to be placed on the right side of the MV display device 100. May be required to be placed in a daisy chain. This directional programming can be performed manually or with active instructions. In the former example, any data received on either network interface of network controller 178 may be operated on another interface of network controller 178 and transferred to another interface of network controller 178. In the latter example, one network interface of network controller 178 is designated an upstream interface, while the other interface is designated a downstream interface. Upstream / downstream designations may be reversed when a "set direction" command is received at the downstream interface.

일부 명령은 체인으로 모든 디스플레이 제어기(170)에 방송될 수 있다. 예를 들어, 다양한 실시예에서, 모든 디스플레이 제어기(170)는 모든 디스플레이 제어기(170)에 방송되는 동일한 세트의 뷰잉 구역 데이터 상에서 동작한다. 그러나 데이지 체인 내의 다른 디스플레이 제어기(170)가 다른 데이터에 대해 작동하게 하기 위해, 디스플레이 제어기(170)는 별개의 주소를 가질 필요가 있을 수 있다. 예를 들어, 각각의 디스플레이 제어기(170)는 자체의 교정 파라미터 세트를 사용할 수 있고 자체의 콘텐츠 스트림의 부분으로부터 렌더링할 수 있다. 별개의 주소를 할당하는 간단한 방법은 각 디스플레이 제어기(170)가 전역 고유 ID를 갖는 것이다. 예를 들어, 사전 프로그래밍된 전역 고유 ID를 갖는 직렬 EEPROM은 PPU(172)에 의해 판독될 수 있다. 다른 예로서, 고유 ID 번호가 비-휘발성 메모리(176)에 저장될 수 있다. 호스트 컴퓨터(182)는 이들의 고유 ID에 대해 데이지 체인으로 디스플레이 제어기(170)를 조회할 수 있고 고유 ID로 콘텐츠 스트림 부분을 맵핑한다. 그러나 이러한 기술에는 별도의 ID 메모리 또는 부기 단계가 필요한다.Some commands may be broadcast to all display controllers 170 in a chain. For example, in various embodiments, all display controllers 170 operate on the same set of viewing zone data broadcast to all display controllers 170. However, in order for the other display controller 170 in the daisy chain to operate on different data, the display controller 170 may need to have a separate address. For example, each display controller 170 can use its own set of calibration parameters and render from a portion of its content stream. A simple way of assigning separate addresses is that each display controller 170 has a globally unique ID. For example, a serial EEPROM with a pre-programmed global unique ID can be read by the PPU 172. As another example, a unique ID number may be stored in non-volatile memory 176. The host computer 182 can query the display controller 170 by daisy chaining to their unique ID and map the content stream portion to the unique ID. However, this technique requires a separate ID memory or bookkeeping step.

다양한 실시예에서, 임시 고유 ID 번호는 런-타임에 할당된다. 예를 들어, 호스트 컴퓨터(182)는 기본 주소 및 증분 값을 갖는 "주소 설정(set address)" 명령을 데이지 체인의 제 1 디스플레이 제어기(170)에 전송한다. 제 1 디스플레이 제어기(170)는 자신의 주소를 주어진 기본 주소로 설정한다. 이후, 제 1 디스플레이 제어기(170)는 증분 값이 추가된 기본 주소를 증분 값과 함께 데이지 체인의 제 2 디스플레이 제어기(170)로 전송한다. 제 2 디스플레이 제어기(170)는 그 주소를 증분된 기본 주소로 설정하고, 주소를 다시 증분시키고, 데이지 체인 내의 제 3 디스플레이 제어기(170) 등으로 새로운 주소 및 증분 값을 전송한다. 이러한 방식으로, 각 디스플레이 제어기(170)는 데이지 체인 내에 알려진 고유 주소를 런-타임에 할당한다.In various embodiments, the temporary unique ID number is assigned at run time. For example, host computer 182 sends a " set address " command with a base address and incremental value to first display controller 170 in the daisy chain. The first display controller 170 sets its address to the given base address. Thereafter, the first display controller 170 transmits the base address to which the increment value is added to the second display controller 170 of the daisy chain along with the increment value. The second display controller 170 sets its address to the incremented base address, increments the address again, and sends a new address and increment value to the third display controller 170, etc. in the daisy chain. In this way, each display controller 170 assigns at run-time a unique address known within the daisy chain.

호스트 컴퓨터(182)는 런-타임에 체인 내의 디스플레이 제어기(170)의 수를 결정하기 위한 질의를 수행할 수 있다. 예를 들어, 디스플레이 제어기(170)는 고유한 주소로 핑 명령(Ping command)에 응답하도록 설계될 수 있다. 핑 명령은 호스트 컴퓨터(182)에 의해 체인 내의 모든 디스플레이 제어기(170)에 방송되고, 모든 디스플레이 제어기(170)는 그들의 고유한 주소로 핑 명령에 응답한다. 그 후, 호스트 컴퓨터(182)는 단순히 핑 응답의 수를 카운팅 또는 체크하여 체인 내의 디스플레이 제어기(170)의 수 및 주소를 결정할 수 있다. 이러한 방식으로, 응용은 고정된 수의 MV 디스플레이 장치(100)를 요구하지 않고 체인 내의 다수의 MV 디스플레이 장치(100)에 적응될 수 있다.The host computer 182 may perform a query to determine the number of display controllers 170 in the chain at run-time. For example, display controller 170 may be designed to respond to a ping command with a unique address. The ping command is broadcast by the host computer 182 to all display controllers 170 in the chain, and all display controllers 170 respond to the ping command with their unique addresses. Thereafter, the host computer 182 may simply count or check the number of ping responses to determine the number and address of the display controller 170 in the chain. In this way, the application can be adapted to multiple MV display devices 100 in a chain without requiring a fixed number of MV display devices 100.

네트워크 인터페이스 외에도, 전력 제어기(180)의 전력 인터페이스는 데이지 체이닝을 허용하도록 배열될 수 있다. 예를 들어, 전력은 전력 제어기(180)의 제 1 인터페이스(179a)로부터 수신되어 전력 제어기(180)의 제 2 인터페이스(179b)로 전송될 수 있다. 대안적으로, 전력 제어기(180)의 제 1 및 제 2 인터페이스는 전력이 어느 한 방향으로 전송되어 더 유연한 설치를 허용하도록 직접 연결될 수있다.In addition to the network interface, the power interface of the power controller 180 may be arranged to allow daisy chaining. For example, power may be received from the first interface 179a of the power controller 180 and transmitted to the second interface 179b of the power controller 180. Alternatively, the first and second interfaces of power controller 180 may be directly connected to allow power to be transmitted in either direction to allow for more flexible installation.

프로그래밍 인터페이스Programming interface

다양한 실시예에서, MV 디스플레이 장치(100)를 제어하는 주요 방법은 이더넷을 통해 MV 디스플레이 장치(100)의 디스플레이 제어기(170)에 부착된 호스트 컴퓨터(182)상에서 실행되는 응용 프로그램밍 인터페이스(API)를 통하는 것이다. API는 프로그래머가 MV 디스플레이 장치(100)를 제어하기 위해 사용되도록 의도된다. API의 주요 목적은 사용자가 (i) 뷰잉 구역 좌표계에서 뷰잉 구역을 생성 및 업데이트(즉, 크기 조정, 이동 등)하고, (ii) 뷰잉 구역에 보여질 수 있는 콘텐츠 스트림을 생성 및 업데이트(즉, 컬러, 텍스트, 스크롤 방향, 이미지 변경)하고, (iii) 뷰잉 구역을 콘텐츠 스트림에 할당하는, 세 가지 작업을 수행할 수 있게 하는 것이다.In various embodiments, the primary method of controlling the MV display device 100 is via an application programming interface (API) running on a host computer 182 attached to the display controller 170 of the MV display device 100 via Ethernet. It works. The API is intended to be used by the programmer to control the MV display device 100. The main purpose of the API is to allow the user to (i) create and update (i.e. resize, move, etc.) a viewing zone in the viewing zone coordinate system, and (ii) create and update a content stream that can be viewed in the viewing zone. Color, text, scroll direction, image change), and (iii) assign a viewing area to the content stream.

API를 통해 사용자는 이러한 작업을 정적으로 동적으로 수행할 수 있다. 아래에는 이러한 세 가지 기본 기능을 사용하여 만들 수 있는 다양한 경험을 설명하는 데 도움이 되는 정적 및 동적 작업의 몇 가지 예가 나와 있다.The API allows users to do this statically and dynamically. Below are some examples of static and dynamic tasks that can help illustrate the various experiences that can be created using these three basic features.

정적 작업을 사용하여 지정된 위치에 뷰잉 구역을 만들고 뷰어의 위치에 따라 뷰어에게 콘텐츠를 표시할 수 있다. 예를 들어, 하나 이상의 MV 디스플레이 장치(100)는 거리의 다른 측면에 상이한 광고를 보여 주거나, 신호등으로부터 멀어지고 특정 거리에 걸쳐 자동차에 적색광을 표시하고, 더 가까운 자동차에 녹색광을 표시하도록 정적으로 구성될 수 있다. 또한, 하나 이상의 MV 디스플레이 장치(100)는 바닥에 세계지도를 사용하여 뷰어가 서있는 국가의 모국어로 텍스트를 뷰어에게 표시하도록 정적으로 구성될 수 있다.You can use static actions to create a viewing area at a specified location and display content to the viewer based on the viewer's location. For example, the one or more MV display devices 100 are statically configured to show different advertisements on different sides of the street, display red light on a car over a certain distance away from traffic lights, and green light on a closer car. Can be. In addition, the one or more MV display apparatus 100 may be statically configured to display the text to the viewer in the native language of the country in which the viewer stands, using the world map on the floor.

동적 조작은 동적 콘텐츠 및 정적 뷰잉 구역을 사용할 수 있다. 뷰잉 구역은 특정 위치에 생성될 수 있으며, 외부 데이터는 어떤 뷰잉 구역에 어떤 콘텐츠를 보여줄지를 결정하는데 사용될 수 있다. 예를 들어, 사람은 연단 뒤에 걸어가서 사인 상의 콘덴츠를 보고 연단의 다이얼을 사용하여 사람에게 표시되는 정보 언어를 선택할 수 있다. 또한 영화관의 좌석에 앉아 있는 사람들은 전화기를 사용하여 좌석 번호 및 자막 기본 설정(즉: 자막, 영어, 스페인어, 독일어 등)을 입력할 수 있다. 이 경우 뷰잉 구역은 각 좌석에 정적으로 설정되지만 사용자 입력에 따라 콘텐츠가 변경된다. 어떤 상호 작용 장치(예를 들어, 다이얼, 전화, 리모컨, 제스처, 얼굴 인식)는 의자와 같은 정적 위치에 어떤 콘텐츠가 표시되는지를 변경하는데 사용될 수 있다.Dynamic manipulation can use dynamic content and static viewing zones. Viewing zones can be created at specific locations, and external data can be used to determine which content to show in which viewing zones. For example, a person can walk behind a podium, view the content on a sign, and use the podium's dial to select the language of information displayed to the person. In addition, people sitting in the cinema's seats can use the phone to enter seat number and subtitle preferences (ie, subtitles, English, Spanish, German, etc.). In this case, the viewing area is set statically for each seat, but the content changes according to user input. Some interactive devices (eg, dials, phones, remotes, gestures, facial recognition) can be used to change what content is displayed in a static location such as a chair.

동적 작업은 정적 콘텐츠 및 동적 뷰잉 구역을 사용할 수도 있다. 뷰잉 구역은 외부 데이터를 기반으로 변경되지만 내용은 내부 데이터만 사용하여 설정된다. 예를 들어, API는 3D 뷰잉 구역을 생성하고 이들에 콘텐츠를 할당하기 위해 사용될 수 있고, 디스플레이 제어기(170)는 뷰잉 구역 내에서 종결되는 빔렛만을 켠다(후술될 실시간 포인트 클라우드, 비과 시간 카메라, 또는 다른 3D 센서에 기초하여 결정될 수 있음). 이는 뷰잉 구역이 뷰잉 구역 내에 서있는 사람의 정확한 크기가 되도록 뷰잉 구역을 동적으로 업데이트하는 효과가 있다. 예를 들어, 사용자는 3D 영역을 뷰잉 구역의 경계 박스가 되도록 정적으로 설정할 수있다. 한 명 이상의 사람들이 경계 박스에 들어가면, 뷰잉 구역이 뷰잉 구역의 사람들에게 정확하게 맞도록 업데이트된다. 즉, 3D 뷰잉 구역은 정적으로 설정되고 동적으로 업데이트될 수 있다. 또한, 지팡이, 배지, 전화, 모션 캡처 시스템, 차량 또는 시각적 태그 등을 사용하여 사람들을 추적 할 수 있으며 외부 데이터없이(즉, 위치에 따라) 콘텐츠가 할당된다.Dynamic tasks may use static content and dynamic viewing zones. The viewing area changes based on external data, but the contents are set using only internal data. For example, the API can be used to create 3D viewing zones and assign content to them, and display controller 170 turns on only the beamlets that terminate within the viewing zone (the real-time point cloud, non-time camera, or later described, or Can be determined based on other 3D sensors). This has the effect of dynamically updating the viewing area such that the viewing area is the exact size of the person standing within the viewing area. For example, the user can statically set the 3D area to be the bounding box of the viewing area. When one or more people enter the bounding box, the viewing area is updated to exactly match the people of the viewing area. That is, the 3D viewing zone can be statically set and dynamically updated. In addition, people can be tracked using canes, badges, phones, motion capture systems, vehicles or visual tags, and content is assigned without external data (ie, based on location).

또한, 동적 동작은 완전히 동적일 수 있으며, 뷰잉 구역은 동적으로 생성되고 콘텐츠는 외부 데이터에 기초하여 동적으로 이루어진다. 예를 들어, 지팡이, 배지, 전화, 모션 캡처 시스템, 차량, 비주얼 태그 등을 사용하여 사람들을 추적할 수 있으며, 사람이 누구인지 또는 사람이 시스템에 입력했는지에 따라 콘텐츠가 할당된다(예: 사람이 쇼핑몰로 들어가서 특정 품목을 보기 시작한다). 또한, 뷰어의 얼굴의 컴퓨터 보조 얼굴 인식은 얼굴 주위의 뷰잉 구역을 설정하고, 뷰어가 누구인지를 식별하고, 뷰어의 신원에 기초하여 뷰어 특정 콘텐츠를 보여주기 위해 사용될 수 있다.In addition, the dynamic operation can be completely dynamic, the viewing area is created dynamically and the content is made dynamically based on external data. For example, you can track people using canes, badges, phones, motion capture systems, vehicles, visual tags, and so on, and content is assigned based on who the person is or whether the person has entered the system. Enter this mall and start looking at certain items). In addition, computer-assisted face recognition of the viewer's face can be used to set a viewing area around the face, identify who the viewer is, and show viewer specific content based on the viewer's identity.

세 가지 기본 기능 외에도, 후술될 (a) 자동 검색, (b) 콘텐츠 버퍼-대-디스플레이 패널 맵핑을 수동으로 지정, (c) 보정된 영역을 기준으로 뷰잉 구역 필터링, 및 (d) 단일-뷰 모드를 포함하는 더 용이한 작동을 허용한다.In addition to the three basic functions, (a) automatic discovery, (b) manually specifying content buffer-to-display panel mapping, (c) filtering viewing areas based on the corrected area, and (d) single-view Allows for easier operation including mode.

(a) 자동-검색(a) auto-discovery

호스트 컴퓨터(182)는 어떤 MV 디스플레이 장치(100)가 연결되어 있고 어떻게 서로 플러그 연결되어 있는지를 발견하기 위해 자동-검색 공정을 수행하기 위해 소프트웨어를 실행한다. 이 데이터가 없으면, 조작자는 각각의 MV 디스플레이 장치(100)에 대한 주소를 수동으로 프로그래밍한 다음 API에게 MV 디스플레이 장치(100)의 주소를 알려야 한다. 대신에, API는 시작시, 부착된 모든 MV 디스플레이 장치(100)를 찾고 각각에 주소를 할당한다. 이는 MV 디스플레이 장치(100)가 플러그 연결되는 순서가 변경되지 않는 경우, 각 MV 디스플레이 장치(100)의 주소가 동일하게 유지되도록 프로그램적이고 반복 가능한 방식으로 이를 수행한다. 이는 API가 MV 디스플레이 장치(100)에 할당된 주소에 기초하여 콘텐츠를 분할하기 때문에 콘텐츠를 정확하게 보여줄 수 있는 이점이 있다. 공장에서 각각의 MV 디스플레이 장치(100)에 대한 고유 식별자(ID)를 설정하는 것과 같은 지속적 주소 할당을 달성하는 다른 많은 방법이 있지만, 자동-검색 방법보다 덜 효율적일 수 있고, 이는 고유 ID가 미리 할당될 필요가 없다. The host computer 182 runs software to perform an auto-search process to find out which MV display devices 100 are connected and how they are plugged together. Without this data, the operator must manually program the address for each MV display device 100 and then inform the API of the address of the MV display device 100. Instead, the API finds all attached MV display devices 100 at start up and assigns an address to each. If the order in which the MV display apparatuses 100 are plugged is not changed, this is done in a programmatic and repeatable manner so that the addresses of the respective MV display apparatuses 100 remain the same. This is an advantage that the content can be accurately displayed because the API divides the content based on the address assigned to the MV display apparatus 100. There are many other ways to achieve persistent address assignment, such as setting a unique identifier (ID) for each MV display device 100 at the factory, but can be less efficient than the auto-discovery method, which is pre-assigned by the unique ID. Need not be.

(b) 콘텐츠 버퍼-대-디스플레이 패널 맵핑을 수동으로 지정(b) Manually specify content buffer-to-display panel mapping

멀티-뷰 디스플레이 장치(100)에 대한 콘텐츠를 생성할 때, 단일 이미지(또는 프레임 버퍼)를 생성한 다음 MV 디스플레이 장치(100)의 물리적 배열에 기초하여 각각의 개별 MV 디스플레이 장치(100) 상에 디스플레이될 이미지의 일부를 할당할 수 있을 것으로 기대할 수 있다. MV 디스플레이 장치(100)의 주소는 그들이 플러그 연결된 순서에 의존하고, 사용자는 원하는 방식으로 MV 디스플레이 장치(100)를 플러그 연결할 수 있기 때문에, 인접한 주소는 반드시 인접한 패널에 대응할 필요는 없다. 다양한 실시예에서, MV 디스플레이 시스템(122)은 사용자가 프레임 버퍼의 어느 부분이 어느 주소에 맵핑되는지를 수동으로 지정할 수 있다. 예를 들어, 사용자는 멀티-뷰(MV) 픽셀(0,0) 내지 (27,15)에 의해 전달된 콘텐츠가 제 1 MV 디스플레이 장치(100)에 맵핑되는 반면, MV 픽셀 (28,0) 내지 (56, 16)에 의해 전달된 콘텐츠가 제 2 MV 디스플레이 장치(100) 등에 맵핑한다. 사용자가 이러한 방식으로 콘텐츠의 일부를 할당할 수 있게 하면 사용자에게 더 큰 창의적 자유가 부여된다. 대안적으로, MV 디스플레이 장치(100)가 특정 방식으로 플러그 연결되어 있고 콘텐츠의 특정 영역을 MV 디스플레이 장치(100)에 자동 할당하는 것으로 가정할 수 있지만, 이는 사용자가 MV 디스플레이 장치(100)에 어떻게 연결하는지에 대해 신중하게 생각하게 할 수 있다. 장착 등의 물리적 제약 등이 주어지면 요구되는 구성으로 MV 디스플레이 장치(100)를 플러그인하는 것조차 불가능할 수 있다. When generating content for the multi-view display device 100, a single image (or frame buffer) is generated and then on each individual MV display device 100 based on the physical arrangement of the MV display device 100. One can expect to be able to allocate a portion of the image to be displayed. Since the addresses of the MV display apparatus 100 depend on the order in which they are plugged in, and the user can plug in the MV display apparatus 100 in a desired manner, adjacent addresses do not necessarily correspond to adjacent panels. In various embodiments, the MV display system 122 may allow the user to manually specify which portion of the frame buffer is mapped to which address. For example, the user may have the content delivered by the multi-view (MV) pixels (0,0) through (27,15) mapped to the first MV display device 100, while the MV pixel (28,0) To (56, 16) is mapped to the second MV display device 100 or the like. Allowing the user to allocate some of the content in this manner gives the user greater creative freedom. Alternatively, it can be assumed that the MV display device 100 is plugged in a particular way and automatically assigns a specific area of content to the MV display device 100, but this is how the user assigns to the MV display device 100. You can be cautious about connecting. Given physical constraints such as mounting, etc., it may not even be possible to plug the MV display device 100 into the desired configuration.

(c) 교정된 영역을 기준으로 뷰잉 구역 필터링(c) Filtering viewing area based on the corrected area

사용자에게는 MV 디스플레이 장치(100)가 어디에서 교정되었는지(즉, 각각의 MV 픽셀로부터의 빔렛이 종료되는 것으로 알려진 뷰잉 구역 좌표계에서의 정확한 위치) 그리고 교정되지 않았는지를 정확히 아는 것이 때때로 어렵다. 일반적으로 MV 디스플레이 장치(100)는 교정이 수행된 영역(예를 들어, 교정 장치(210)가 교정 동안 교정 장치(210)가 배치된 모든 지점의 볼록 외피 내부, 도 21a 참조) 내에서 더 잘 수행한다. 결과적으로, 뷰잉 구역 좌표계의 어떤 장소가 교정되고 어떤 장소가 교정되지 않는지를 이해하도록 사용자를 돕는 것이 유리하다. 다양한 실시예들에서, 이것은 교정 영역 외부에 배치된 뷰잉 구역의 영역들을 선택적으로 필터링하고 거기에 콘텐츠를 표시하지 않음으로써 달성된다. 대안적으로, 사용자는 표시될 수 있는 뷰잉 구역이 보정된 볼륨 밖에 있다고 통지될 수 있다. It is sometimes difficult for a user to know exactly where the MV display device 100 has been calibrated (ie, the exact location in the viewing area coordinate system where the beamlet from each MV pixel is known to end) and is not calibrated. In general, the MV display device 100 is better within the area where the calibration has been performed (e.g., within the convex hull of all points where the calibration device 210 is placed during calibration, see FIG. 21A). To perform. As a result, it is advantageous to help the user to understand which places in the viewing area coordinate system are calibrated and which places are not calibrated. In various embodiments, this is accomplished by selectively filtering out areas of the viewing area disposed outside the calibration area and not displaying content there. Alternatively, the user may be informed that the viewing area that can be displayed is outside the corrected volume.

(d) 단일-뷰 모드(d) single-view mode

설계자가 MV 디스플레이 장치(100)를 사용하고 콘텐츠를 미리 보려고 할 때, 우측 뷰잉 구역에서 우측 콘텐츠가 가시적임을 확인하기 위해, 설계자는 호스트 컴퓨터(182)로부터 일어나서 뷰잉 구역에 물리적으로 서서 콘텐츠를 볼 필요가 있을 수 있다. 설계 부담을 완화하기 위해, MV 디스플레이 시스템(122)은 "단일 뷰(single view)" 모드를 포함할 수 있다. 이 모드에서, 설계자는 MV 디스플레이 장치(100)의 시야 내에 있는 한 물리적으로 어디에 있든 단일 콘텐츠 스트림을 볼 수 있다. 이 모드는 설계자와 프로그래머를 지원하도록 설계되었지만, MV 디스플레이 장치(100)를 보는 모든 사람들이 동일한 것을 볼 수 있는 순간들을 가능하게 하기 위해 MV 디스플레이 시스템(122)(도 4 참조)의 궁극적인 동작에 사용될 수도 있다. 예를 들어, 다른 뷰잉 구역에 있는 뷰어는 정상적으로 다른 이미지를 볼 수 있지만, 응급 상황의 경우 각 뷰어가 어떤 뷰잉 구역에 관계없이 동일한 긴급 경보 내용이 모든 뷰어에게 표시될 수 있다. When the designer uses the MV display device 100 and tries to preview the content, in order to confirm that the right content is visible in the right viewing area, the designer needs to get up from the host computer 182 and physically stand in the viewing area to see the content. There can be. To ease the design burden, MV display system 122 may include a "single view" mode. In this mode, designers can view a single content stream wherever they are physically as long as they are within the field of view of MV display device 100. Although this mode is designed to assist designers and programmers, it may be necessary for the ultimate operation of the MV display system 122 (see FIG. 4) to enable moments where everyone viewing the MV display device 100 can see the same. May be used. For example, viewers in different viewing zones can normally see different images, but in an emergency situation, the same emergency alert content can be displayed to all viewers regardless of which viewing zone each viewer is in.

그래픽 사용자 인터페이스Graphical user interface

덜 기술적인 사용자가 MV 디스플레이 장치(100)를 사용할 수 있도록 하기 위해, 도 20a에 도시된 바와 같이 그래픽 사용자 인터페이스(186)가 사용될 수 있다. 다양한 실시예들에서, 그래픽 사용자 인터페이스(186)는 2가지 주요 목적을 제공한다. 첫째, 사용자는 기본 기능으로 빠르게 시작하고 실행할 수 있다. 또한 자체 코드를 작성하는 고급 사용자가 자신의 코드에 사용할 뷰잉 구역을 빠르게 배치할 수 있다. 하나 이상의 실시예들에서, 호스트 컴퓨터(182)는 그래픽 사용자 인터페이스(186)가 디스플레이 장치 상에 디스플레이되게 하는 소프트웨어를 실행한다.In order to allow a less technical user to use the MV display device 100, a graphical user interface 186 can be used as shown in FIG. 20A. In various embodiments, graphical user interface 186 serves two main purposes. First, users can get up and running quickly with basic features. In addition, advanced users who write their own code can quickly place the viewing area for their own code. In one or more embodiments, host computer 182 executes software that causes graphical user interface 186 to be displayed on a display device.

도 20a는 본 개시의 하나 이상의 실시예들에 따른 그래픽 사용자 인터페이스(186)의 도면이다. 하나 이상의 실시예에서, 그래픽 사용자 인터페이스(186)는 메인 윈도우 및 뷰잉 구역 정보 페인(pain; 188), 콘텐츠 할당 페인(190), 및 뷰잉 구역 좌표계 페인(192)을 포함하는, 메인 윈도우 내의 복수의 페인들을 포함한다. 뷰잉 구역 정보 페인(188)은 조작자가 뷰잉 구역 좌표계 페인(192)에 도시된 다양한 뷰잉 구역의 이름을 지정할 수 있게 한다. 콘텐츠 할당 페인(190)은 조작자가 뷰잉 구역 좌표계 페인(192)을 사용하여 생성되는 다양한 뷰잉 구역에 콘텐츠를 할당할 수 있게 한다. 예를 들어, 콘텐츠 할당 페인(190)은 조작자가 뷰잉 구역 좌표계 페인(192)에 도시된 각각의 뷰잉 구역에 표시되는 콘텐츠를 포함하는 이미지 파일 또는 영화 파일의 이름을 지정할 수 있게 한다.20A is a diagram of a graphical user interface 186 in accordance with one or more embodiments of the present disclosure. In one or more embodiments, graphical user interface 186 includes a main window and viewing zone information pane 188, a content allocation pane 190, and a viewing zone coordinate system pane 192. Contains panes. The viewing zone information pane 188 allows the operator to name the various viewing zones shown in the viewing zone coordinate system pane 192. The content allocation pane 190 allows an operator to assign content to various viewing zones created using the viewing zone coordinate system pane 192. For example, the content allocation pane 190 allows an operator to name an image file or movie file that contains the content displayed in each viewing zone shown in the viewing zone coordinate system pane 192.

그래픽 사용자 인터페이스(186)는 조작자가 뷰잉 구역 좌표계 페인(192)에서 뷰잉 공간 표현(194)을 특정하고 표시할 수 있게 한다. 예를 들어, 뷰잉 공간 표현(194)은 MV 디스플레이 장치(100)가 사용되는 룸의 3D 모델일 수 있다. 운영자가 호스트 컴퓨터(182)의 포인팅 장치(예를 들어, 마우스)를 사용하여 호스트 컴퓨터(182)의 디스플레이 장치에 대한 그래픽 동작을 수행할 때, 호스트 컴퓨터(182)는 디스플레이 장치상의 위치를 뷰잉 구역 좌표계(예를 들어, MV 디스플레이 시스템(122)이 사용될 룸의 좌표계)의 대응하는 위치로 변환한다. 그래픽 사용자 인터페이스(186)는 또한 조작자가 뷰잉 구역 좌표계 페인(192) 내에 뷰잉 구역을 배치하고 조작할 수 있게 한다. 예를 들어, 조작자는 포인팅 장치를 사용하여 뷰잉 구역 좌표계 페인(192) 내의 제 1 뷰잉 구역 표현(196a), 제 2 뷰잉 구역 표현(196b), 및 제 3 뷰잉 구역 표현(196c)을 드로잉, 사이즈 변경, 및 이동시킬 수있다. 하나 이상의 실시예에서, 각각의 뷰잉 구역 표현(196a 내지 196c)은 3차원 경계 박스로서 나타난다. 사용자가 뷰잉 구역 표현(196a 내지 196c)으로 3개의 뷰잉 구역을 지정한 후, 그래픽 사용자 인터페이스(186)를 디스플레이하는 호스트 컴퓨터(182)는 뷰잉 구역 표현(196a 내지 196c)의 경계 좌표를 경계의 3개의 뷰잉 구역 좌표계에서 대응하는 좌표로 변환하고 나서 뷰잉 구역의 좌표를 저장한다.The graphical user interface 186 allows the operator to specify and display the viewing space representation 194 in the viewing zone coordinate system pane 192. For example, the viewing space representation 194 may be a 3D model of the room in which the MV display device 100 is used. When an operator performs a graphical operation on a display device of the host computer 182 using a pointing device (eg, a mouse) of the host computer 182, the host computer 182 may view a location on the display device. Convert to a corresponding position in the coordinate system (eg, the coordinate system of the room in which MV display system 122 is to be used). The graphical user interface 186 also allows the operator to place and manipulate the viewing area within the viewing area coordinate system pane 192. For example, an operator may use a pointing device to draw, size, and draw a first viewing zone representation 196a, a second viewing zone representation 196b, and a third viewing zone representation 196c in a viewing zone coordinate system pane 192. Change, and can be moved. In one or more embodiments, each viewing zone representation 196a-196c appears as a three-dimensional bounding box. After the user specifies three viewing zones with the viewing zone representations 196a through 196c, the host computer 182 displaying the graphical user interface 186 displays the boundary coordinates of the viewing zone representations 196a through 196c as the three coordinates of the boundary. The coordinates of the viewing area are stored after conversion to the corresponding coordinates in the viewing area coordinate system.

뷰잉 구역 좌표계 페인(192)에서 뷰잉 구역 좌표계의 시각적 표현을 제공하는 것은 사람들이 MV 디스플레이 장치(100)를 사용하는 방법을 이해하는데 도움이 될수 있다. 시각적 표현의 형태는 MV 디스플레이 장치(도 1 참조)에 사용되는/ MV 디스플레이 장치와 함께 사용되는 센서(104)에 종속한다. 예를 들어, 센서가 2D 카메라(104)인 경우, 그래픽 사용자 인터페이스(186)는 단순히 카메라(104)로부터의 라이브 피드를 표시할 수 있다. 그러나, 일부 경우에, 인간은 디스플레이 센서의 출력을 쉽게 보고 이해하지 못할 수 있다. 이에 대한 예는 IR 광선을 사용하는 추적 시스템일 수 있다. IR 추적 시스템에 사용되는 카메라(104)는 가시 광선을 차단하여 사람이 IR 추적 시스템의 출력을 이해하기가 더 어려워질 수 있다. 대안으로서, MV 디스플레이 시스템(122)은 데이터 출력(즉, 추적 된 디스플레이 시스템(122)이 데이터 출력(즉, 추적된 객체의 위치)을 취하여 이전에 구축된 환경의 3D 모델에 오버레이 할 수 있다. 이 개념의 특정 구현이 도 20a에 도시되어 있다. 그래픽 사용자 인터페이스(186)는 뷰잉 구역 좌표 공간을 공간 및 실시간 포인트 클라우드(198)의 사전 구축된 3D 모델로서 도시한다. 도시된 예에서, 실시간 포인트 클라우드(198)는 뷰잉 공간에 서있는 사람의 위치를 그래픽으로 나타낸다. 포인트 클라우드(198)는 스테레오 카메라 센서의 출력의 시각적 표현이다. 이미지의 각 기능에 대해 두 이미지 간의 차이로부터 깊이가 계산된다. 주어진 특징에 대한 대응하는 이미지 픽셀은 이미지에서의 위치와 특징의 계산된 깊이에 따라 적절한 지점에서 3D 공간으로 렌더링된다. 포인트 클라우드가 시각적으로 이해하기가 다소 어려울 수 있기 때문에, 포인트 클라우드(198)는 도 20a의 뷰잉 공간의 3D 모델 위에 겹쳐져 있다. 사용자는 자신이 보고 있는 것이 중앙의 룸 앞에 서있는 사람이라는 것을 보다 쉽게 이해할 수 있다. 포인트 클라우드(198)가 모델의 상황없이 표시되었다면, 사용자가 그래픽 사용자 인터페이스(186)에서 보는 것과 실제 세계 사이의 상관 관계를 파악하는 것이 더 어려울 수 있다. 이 특정 모델은 먼저 Matterport® 카메라와 같은 3D 카메라로 공간을 스캔한 다음 생성된 모델을 디스플레이 장치(100)가 교정되는 스테레오 카메라로 교정하고 최종적으로 정렬된 모델과 포인트 클라우드(198)를 모두 표시함으로써 생성되었다. 그러나, 컴퓨터-보조 드래프팅(CAD), Project Tango® 등과 같은 다른 룸 모델링 기술을 사용하여 이 작업을 수행할 수도 있다.Providing a visual representation of the viewing zone coordinate system in the viewing zone coordinate system pane 192 may help people understand how to use the MV display device 100. The form of visual representation depends on the sensor 104 used in the MV display device (see FIG. 1) / used with the MV display device. For example, if the sensor is a 2D camera 104, the graphical user interface 186 may simply display a live feed from the camera 104. In some cases, however, humans may not easily see and understand the output of the display sensor. An example of this may be a tracking system using IR rays. The camera 104 used in the IR tracking system may block visible light, making it more difficult for a person to understand the output of the IR tracking system. Alternatively, MV display system 122 may take the data output (ie, tracked display system 122) and take the data output (ie, the location of the tracked object) and overlay it on the 3D model of the previously built environment. A particular implementation of this concept is shown in Figure 20A.The graphical user interface 186 shows the viewing zone coordinate space as a pre-built 3D model of the space and the real time point cloud 198. In the example shown, the real time point The cloud 198 graphically represents the position of the person standing in the viewing space The point cloud 198 is a visual representation of the output of the stereo camera sensor The depth is calculated from the difference between the two images for each function of the image. The corresponding image pixel for the feature is rendered in 3D space at the appropriate point, depending on its position in the image and the calculated depth of the feature. C. Because the point cloud can be somewhat difficult to visually understand, the point cloud 198 is superimposed on the 3D model of the viewing space of Fig. 20. The user sees what he sees as a person standing in front of the central room. It is easy to understand, if the point cloud 198 is displayed without the context of the model, it may be more difficult for the user to see the correlation between what the user sees in the graphical user interface 186 and the real world. It was created by scanning a space with a 3D camera such as a ® camera and then calibrating the generated model with a stereo camera whose display device 100 was calibrated and displaying both the finally aligned model and the point cloud 198. However, the computer Use other room modeling techniques such as secondary drafting (CAD), Project Tango®, and more It may be open to perform this task.

카메라 피드, 포인트 클라우드 등의 형태로 일반 좌표계를 도시하는 것 외에도, 그래픽 사용자 인터페이스(186)는 최대 교정된 경계가 무엇인지를 보여줄 수 있다(위에서 설명한 "(c) 교정 영역을 기준으로 뷰잉 구역 필터링" 참조). 센서가 특정 지역에서 감지할 수 있다는 사실이 반드시 뷰잉 구역을 배치할 필요는 없다. 이는 사용자가 디스플레이 센서(104)의 시야 내에서 전체 시야 공간을 교정하지 않았기 때문이다. 사용자가 어느 영역이 교정되고 어떤 영역이 교정되지 않았는지를 이해하도록 돕기 위해, 그래픽 사용자 인터페이스(186)는 뷰잉 구역 좌표계 시각화를 통해 교정된 영역/볼륨의 렌더링을 오버레이하는 특징을 포함한다. 다양한 실시예들에서, 이것은 음영 2D/3D 박스일 수 있다.In addition to showing the general coordinate system in the form of a camera feed, point cloud, etc., the graphical user interface 186 can also show what the maximum calibrated boundary is (viewing zone filtering based on “(c) calibration area described above). " Reference). The fact that the sensor can detect in a specific area does not necessarily have to locate the viewing area. This is because the user has not calibrated the entire field of view within the field of view of the display sensor 104. To help the user understand which areas have been corrected and which areas have not been corrected, the graphical user interface 186 includes a feature that overlays the rendering of the corrected area / volume through the viewing area coordinate system visualization. In various embodiments, this may be a shaded 2D / 3D box.

뷰잉 구역 좌표계의 표현으로, 뷰잉 구역이 그 내에 배치되고 조작될 수 있다. 2D에서, 이것은 단순히 MV 디스플레이 장치(100)가 교정되는 카메라 피드 위에 직사각형(또는 잠재적으로 다른 2D 형상)을 그리고 조작하는 것일 수 있다. 3D에서, 이는 더 복잡할 수 있다. 3D 사례의 경우, 콘텐츠가 표시되는 공간의 볼륨을 정의해야 한다. 다양한 실시예에서, 임의의 3D 볼륨이 사용될 수 있지만, 축선-정렬 바운딩 박스(즉, 좌표계의 축선에 평행한 모든 측부를 갖는 직사각형 프리즘)가 계산 속도를 높이기 위해 사용될 수 있다. 2D 컴퓨터 모니터의 3D 공간에서 3D 볼륨을 이동하고 조작하는 것이 2D 경우보다 더 어려울 수 있지만 표준 CAD 방법을 사용하여 수행될 수 있다.In the representation of the viewing zone coordinate system, the viewing zone can be disposed within and manipulated. In 2D, this may simply be that the MV display device 100 draws and manipulates a rectangle (or potentially another 2D shape) over the camera feed to be calibrated. In 3D, this can be more complicated. For 3D cases, you need to define the volume of space in which the content is displayed. In various embodiments, any 3D volume can be used, but an axis-aligned bounding box (ie, a rectangular prism with all sides parallel to the axis of the coordinate system) can be used to speed up the computation. Moving and manipulating 3D volumes in the 3D space of a 2D computer monitor can be more difficult than the 2D case, but can be done using standard CAD methods.

도 20b는 본 개시의 하나 이상의 실시예들에 따른 제 1 그래픽 사용자 인터페이스 방법(300)의 흐름도이다. 방법(300)은 302에서 시작한다. 예를 들어, 사용자는 호스트 컴퓨터(182)에 의해 디스플레이되는 사용자 인터페이스 객체를 선택하고, 이로 인해 호스트 컴퓨터(182)는 네트워크를 통해 MV 디스플레이 장치(100)에 메시지를 전송한다.20B is a flowchart of a first graphical user interface method 300 in accordance with one or more embodiments of the present disclosure. The method 300 begins at 302. For example, the user selects a user interface object displayed by the host computer 182, which causes the host computer 182 to send a message to the MV display device 100 over a network.

304에서, 디스플레이 센서(예를 들어, 104)는 MV 디스플레이 장치(100)를 볼 수 있는 공간의 센서 데이터를 캡처한다. 예를 들어, 호스트 컴퓨터(182)로부터의 메시지에 응답하여, MV 디스플레이 장치(100)의 카메라(104)는 MV 디스플레이 장치(100)의 뷰어가 위치하는 방의 일부의 센서 데이터를 캡처한다.At 304, a display sensor (eg, 104) captures sensor data in the space where the MV display device 100 can be seen. For example, in response to a message from the host computer 182, the camera 104 of the MV display device 100 captures sensor data of a portion of the room where the viewer of the MV display device 100 is located.

306에서, 센서 데이터가 수신된다. 예를 들어, 호스트 컴퓨터(182)는 MV 디스플레이 장치(100)의 네트워크 제어기(178)로부터 전송되는 네트워크를 통해 카메라(104)에 의해 캡처된 센서 데이터를 수신한다. 하나 이상의 실시예에서, 센서 데이터는 범용 직렬 버스를 통해 송신될 수 있다.At 306, sensor data is received. For example, the host computer 182 receives sensor data captured by the camera 104 via a network transmitted from the network controller 178 of the MV display device 100. In one or more embodiments, sensor data may be transmitted over a universal serial bus.

308에서, 센서 데이터 및 뷰잉 구역 데이터는 디스플레이 장치상에 렌더링된다. 예를 들어, 호스트 컴퓨터(182)의 메모리는 프로세서에 의해 실행될 때 호스트 컴퓨터(182)로 하여금 카메라(104)에 의해 캡처된 센서 데이터를 처리하게 하고 대응하는 처리된 데이터를 호스트 컴퓨터에 결합된 디스플레이 장치로 전송하게 하는 소프트웨어 명령을 저장한다. 디스플레이 장치로 전송된 데이터는 디스플레이 장치로 하여금 도 20a에 도시된 그래픽 사용자 인터페이스(186)를 디스플레이하게 하는 포맷이며, 상기 포맷은 뷰잉 공간 표현(194)으로서 표시되는 렌더링된 센서 데이터(예를 들어, 포인트 클라우드 데이터(198)) 및 뷰잉 구역 표현(196a, 196b, 196c)을 포함하여 표시되는 뷰잉 구역 데이터(예를 들어, 뷰잉 공간의 3D 모델)를 포함한다.At 308, sensor data and viewing zone data are rendered on the display device. For example, the memory of the host computer 182 may cause the host computer 182 to process sensor data captured by the camera 104 when executed by a processor and display the corresponding processed data coupled to the host computer. Stores software instructions for sending to the device. The data sent to the display device is a format that causes the display device to display the graphical user interface 186 shown in FIG. 20A, which format is rendered sensor data (eg, displayed as viewing space representation 194). And viewing area data (eg, a 3D model of the viewing space) displayed, including the point cloud data 198 and the viewing area representations 196a, 196b, 196c.

센서 데이터 및 뷰잉 구역 데이터가 308에서 디스플레이 장치상의 그래픽 사용자 인터페이스(186)에 렌더링된 후, 사용자는, 디스플레이 장치에 표시되는, 디스플레이 센서 데이터의 맥락에서 뷰잉 구역 표현(196a, 196b, 196c)에 의해 표현된 뷰잉 구역을 시각화할 수 있다. 그래픽 사용자 인터페이스(186)에 디스플레이된 정보를 보고난 후에, 사용자는 예를 들어, 뷰잉 구역 표현(196a)에 의해 표현된 뷰잉 구역이 이동 및 크기 조정에 의해 조정될 필요가 있다고 결정할 수 있다. 그 후, 사용자는 호스트 컴퓨터(182)에 연결된 포인팅 장치(예를 들어, 마우스)를 사용하여 그래픽 작업을 수행하여 뷰잉 구역 표현(196a)을 선택한 다음, 이를 디스플레이 장치상에서 크기 조정 및 이동시킬 수 있다.After the sensor data and viewing zone data are rendered to the graphical user interface 186 on the display device at 308, the user is displayed by the viewing zone representations 196a, 196b, 196c in the context of the display sensor data, displayed on the display device. Visualized viewing zones can be visualized. After viewing the information displayed in the graphical user interface 186, the user may determine that the viewing area represented by the viewing area representation 196a needs to be adjusted by moving and resizing, for example. The user can then perform a graphical operation using a pointing device (eg, a mouse) connected to the host computer 182 to select the viewing zone representation 196a and then resize and move it on the display device. .

310에서, 사용자 입력이 수신된다. 예를 들어, 호스트 컴퓨터(182)는 뷰잉 구역 표현(196a)이 크기 조정되고 디스플레이 장치상에서 이동되게 하는 사용자에 의해 이루어진 그래픽 동작에 대응하는 데이터를 수신한다.At 310, user input is received. For example, host computer 182 receives data corresponding to graphical operations made by a user that cause viewing area representation 196a to be resized and moved on the display device.

312에서, 하나 이상의 뷰잉 구역의 새로운 좌표가 결정된다. 예를 들어, 호스트 컴퓨터(182)의 메모리는 프로세서에 의해 실행될 때, 호스트 컴퓨터(182)가 310에서 수신된 사용자 입력에 기초하여, 뷰잉 구역 표시(196a)에 의해 표시되는 뷰잉 구역의 새로운 좌표를 뷰잉 구역 좌표계에서 결정하게 하는 소프트웨어 명령을 저장한다.At 312, new coordinates of one or more viewing areas are determined. For example, the memory of the host computer 182, when executed by the processor, causes the host computer 182 to generate new coordinates of the viewing area displayed by the viewing area display 196a based on the user input received at 310. Stores software instructions for determining in the viewing area coordinate system.

314에서, 응용 프로그래밍 인터페이스가 통지된다. 예를 들어, 호스트 컴퓨터(182)의 메모리는 프로세서에 의해 실행될 때, 프로세서로 하여금 뷰잉 구역 표현(196a)에 의해 표현된 뷰잉 구역의 좌표의 변경을 나타내는 메시지를 호스트 컴퓨터(182)에서 실행하는 응용 프로그래밍 인터페이스로 전송하게 하는 소프트웨어 명령을 저장한다.At 314, an application programming interface is informed. For example, the memory of the host computer 182, when executed by the processor, causes the processor to execute a message on the host computer 182 that indicates a change in the coordinates of the viewing area represented by the viewing area representation 196a. Stores software instructions for transmission to the programming interface.

316에서, 뷰잉 구역 데이터가 업데이트된다. 예를 들어, 호스트 컴퓨터(182)상에서 실행되는 응용 프로그래밍 인터페이스는 312에서 결정된 뷰잉 구역 표현(196a)에 의해 표현된 뷰잉 구역의 새로운 좌표에 대응하는 데이터가 호스트 컴퓨터(182)의 메모리에 저장되게 한다.At 316, the viewing zone data is updated. For example, an application programming interface running on the host computer 182 causes data corresponding to the new coordinates of the viewing area represented by the viewing area representation 196a determined at 312 to be stored in the memory of the host computer 182. .

318에서, 업데이트된 데이터가 디스플레이 장치로 전송된다. 예를 들어, 호스트 컴퓨터(182)상에서 실행되는 응용 프로그래밍 인터페이스는 312에서 결정된 뷰잉 구역 표현(196a)에 의해 표현된 뷰잉 구역의 새로운 좌표에 대응하는 데이터가 MV 디스플레이 장치(100)로 전송되게 한다.At 318, the updated data is sent to the display device. For example, an application programming interface running on the host computer 182 causes data corresponding to the new coordinates of the viewing area represented by the viewing area representation 196a determined at 312 to be transmitted to the MV display device 100.

320에서, 방법(300)이 종료된다. 예를 들어, MV 디스플레이 장치(100)의 디스플레이 제어기(170)는 뷰잉 구역 표현(196a)에 의해 표시되는 뷰잉 구역의 새로운 좌표에 대응하는 데이터를 저장하고 이 데이터를 이용하여 평판 디스플레이(100)의 어느 디스플레이 픽셀이 빔렛으로 하여금 뷰잉 구역 표현(196a)에 의해 표현된 뷰잉 구역으로 방출되도록 하는지를 결정한다.At 320, method 300 ends. For example, the display controller 170 of the MV display apparatus 100 stores data corresponding to the new coordinates of the viewing area represented by the viewing area representation 196a and uses this data to display the flat panel display 100. Determine which display pixel causes the beamlet to be emitted into the viewing area represented by the viewing area representation 196a.

그래픽 사용자 인터페이스(186)의 하나의 특징은 콘텐츠를 생성하고 뷰잉 구역에 할당하는 능력이다. 콘텐츠 설계자는 다른 소프트웨어 프로그램에서 멀티-뷰 디스플레이용 이미지 및 비디오를 설계한 다음 상기 이미지 및 비디오를 가져올 수 있다. 그러나, 사용자는 그래픽 사용자 인터페이스(186)를 사용하여 스크롤 및 정적 텍스트와 같은 간단한 콘텐츠를 생성할 수 있다. 콘텐츠가 생성되면, 콘텐츠 군에 할당될 수 있다. 콘텐츠 군에는 하나의 콘텐츠가 할당되어 있고 하나 또는 다수의 뷰잉 구역이 있다. 이것을 뷰잉 구역에 콘텐츠를 할당하는 것으로 생각할 수도 있지만, 다양한 실시예에서 뷰잉 구역보다 훨씬 적은 콘텐츠 스트림이 지원되기 때문에 뷰잉 구역을 콘텐츠에 할당하는 것에 대해 생각하는 것이 더 유리할 수 있다. 합리적인 수의 MV 픽셀(102)을 갖는 임의의 합리적인 크기의 MV 디스플레이 장치(100)에 대해, 콘텐츠 스트림은 호스트 컴퓨터(182)로부터 디스플레이 제어기(170)로 통신될 때 뷰잉 구역보다 더 많은 데이터 대역폭을 차지하기 때문이다. 상술된 바와 같이, 다양한 실시예에서, 사용자는 모든 콘텐츠 스트림에 대한 군을 생성한다. 사용자는 군간에 뷰잉 구역을 이동하여 어떤 뷰잉 구역에 표시할 콘텐츠를 변경할 수 있다.One feature of graphical user interface 186 is the ability to create content and assign it to a viewing area. Content designers can design images and videos for multi-view displays in other software programs and then import the images and videos. However, the user can use the graphical user interface 186 to create simple content such as scrolling and static text. Once the content is created, it can be assigned to the content group. There is one content assigned to the content group and one or multiple viewing zones. While this may be thought of as assigning content to the viewing zone, it may be more advantageous to think about assigning the viewing zone to content because in many embodiments much less content streams are supported than the viewing zone. For any reasonable sized MV display device 100 having a reasonable number of MV pixels 102, the content stream may have more data bandwidth than the viewing area when communicated from the host computer 182 to the display controller 170. Because it occupies. As mentioned above, in various embodiments, a user creates a group for all content streams. The user can move the viewing area between groups to change the content to display in any viewing area.

각각의 "구성(configuration)" 또는 어느 뷰잉 구역이 어느 위치에 위치하고 어떤 뷰잉 구역이 어떤 콘텐츠(또는 콘텐츠 군)에 할당되는지를 정의하는 상태를 저장할 수도 있다. 그래픽 사용자 인터페이스(186)는 모든 저장된 구성이 빠르고 쉽게 전환될 수 있도록 순서대로 배치된 구성 리스트를 제공한다. 구성 리스트를 사용하여, 그래픽 사용자 인터페이스(186)는 사용자가 외부 트리거에 기초하여 구성 사이를 전환할 수 있게 한다. 예를 들어, 환경에서 버튼이 눌려질 때(예를 들어, 유원지에서 방문자가 MV 디스플레이 장치(100) 근처에 위치한 버튼을 누름), MV 디스플레이 시스템(122)은 상이한 콘텐츠 세트를 갖는 다음 구성으로 이동할 수 있다. 조명 콘솔, 다양한 센서, 타이머, 또는 미디어 서버와 같은 다른 시스템으로부터의 트리거도 수신될 수 있다. 그래픽 사용자 인터페이스(186)로부터 구성 정보를 저장하는 능력의 다른 사용은 단지 뷰잉 구역 위치를 저장하는 것이다. 이전 예제를 확장하면 프로그래머가 버튼이 눌러질 때 표시되는 콘텐츠를 동적으로 변경하려는 경우 프로그래머는 응용 프로그래밍 인터페이스를 사용하여 프로그램을 작성할 수 있다. 다른 예로서, 프로그래머는 그래픽 사용자 인터페이스(186)에서 뷰잉 구역을 설정하고, 뷰잉 구역(예를 들어, "버튼 1", "버튼 2" 등)을 명명한 다음, 그 파일을 프로그래밍 인터페이스에 로딩할 수 있어 동적 콘텐츠를 뷰잉 구역에 할당한다.Each "configuration" or state may be stored which defines which viewing area is located at which location and which viewing area is assigned to which content (or content group). Graphical user interface 186 provides a list of configurations arranged in order so that all stored configurations can be quickly and easily switched. Using the configuration list, graphical user interface 186 allows the user to switch between configurations based on external triggers. For example, when a button is pressed in the environment (e.g., a visitor presses a button located near MV display device 100 at an amusement park), MV display system 122 moves to the next configuration with a different set of content. Can be. Triggers from other systems, such as lighting consoles, various sensors, timers, or media servers may also be received. Another use of the ability to store configuration information from the graphical user interface 186 is simply to store the viewing area location. Extending the previous example, if the programmer wants to dynamically change the content that is displayed when the button is pressed, the programmer can write the program using the application programming interface. As another example, a programmer may set up a viewing area in the graphical user interface 186, name the viewing area (eg, "button 1", "button 2", etc.), and then load the file into the programming interface. To assign dynamic content to the viewing zone.

도 20c는 본 개시의 하나 이상의 실시예들에 따른 제 2 그래픽 사용자 인터페이스 방법(330)의 흐름도이다. 방법(330)은 332에서 시작한다. 예를 들어, 사용자는 호스트 컴퓨터(182)가 그에 결합된 디스플레이 장치 상에 그래픽 사용자 인터페이스(186)를 디스플레이하게 하는 입력을 제공한다.20C is a flowchart of a second graphical user interface method 330 in accordance with one or more embodiments of the present disclosure. Method 330 begins at 332. For example, the user provides input to cause the host computer 182 to display the graphical user interface 186 on a display device coupled thereto.

334에서, 제 1 구성 데이터가 생성된다. 예를 들어, 사용자는 호스트 컴퓨터(182)에 결합된 포인팅 장치(예를 들어, 마우스)를 사용하여 그래픽 사용자 인터페이스(186)의 뷰잉 구역 좌표계 페인(192)에서 뷰잉 구역 표현(196a) 및 뷰잉 구역 표현(196b)을 생성하는 그래픽 동작을 수행한다. 호스트 컴퓨터(182)의 메모리는 프로세서에 의해 실행될 때, 호스트 컴퓨터(182)로 하여금 제 1 뷰잉 구역 및 제 2 뷰잉 구역의 경계를 나타내는 뷰잉 구역 데이터를, 사용자에 의해 수행된 그래픽 동작을 나타내는 데이터에 기초하여, 뷰잉 구역 좌표계로 생성 및 저장하게 하는 소프트웨어 명령을 저장한다.At 334, first configuration data is generated. For example, a user may use a pointing device (eg, a mouse) coupled to host computer 182 to view viewing zone representation 196a and viewing zone in viewing zone coordinate system pane 192 of graphical user interface 186. Perform a graphics operation to generate representation 196b. When the memory of the host computer 182 is executed by a processor, it causes the host computer 182 to display the viewing zone data representing the boundary of the first viewing zone and the second viewing zone to data representing the graphical operation performed by the user. Store the software instructions for creation and storage in the viewing zone coordinate system.

사용자는 또한 포인팅 장치 및 그래픽 사용자 인터페이스(186)의 콘텐츠 할당 페인(192)을 사용하여 제 1 콘텐츠 스트림을 제 1 콘텐츠 군에 할당하고, 제 2 콘텐츠 스트림을 제 2 콘텐츠 군에 할당하기 위해 그래픽 동작을 수행한다. 또한, 사용자는 뷰잉 구역 표현(196a)으로 표현된 제 1 뷰잉 구역을 제 1 콘텐츠 군에 할당하고, 뷰잉 구역 표현(196b)으로 표현된 제 2 뷰잉 구역을 제 2 콘텐츠 군에 할당하기 위해 포인팅 장치를 사용하여 그래픽 동작을 수행한다.The user may also use the content allocation pane 192 of the pointing device and graphical user interface 186 to assign the first content stream to the first content group and to assign the second content stream to the second content group. Do this. In addition, the user assigns the first viewing zone, represented by the viewing zone representation 196a, to the first content group and the second viewing zone, represented by the viewing zone representation 196b, for assigning the second content zone. Perform graphical operations using.

하나 이상의 실시예에서, 호스트 컴퓨터(182)의 메모리는 프로세서에 의해 실행될 때, 호스트 컴퓨터(182)로 하여금 제 1 및 제 2 뷰잉 구역의 경계를 나타내는 뷰잉 구역 데이터를 포함하는 제 1 구성, 제 1 콘텐츠 군에 포함된 콘텐츠 아이템을 나타내는 데이터, 제 2 콘텐츠 군에 포함된 콘텐츠 아이템을 나타내는 데이터, 제 1 뷰잉 구역이 제 1 콘텐츠 군에 할당되었음을 나타내는 데이터, 및 제 2 뷰잉 구역이 제 1 콘텐츠 군에 할당되었는지를 나타내는 데이터를 생성하게 하는 소프트웨어 명령을 저장한다.In one or more embodiments, the memory of the host computer 182, when executed by a processor, causes the host computer 182 to include viewing zone data indicative of boundaries of the first and second viewing zones, the first configuration of which includes: Data representing a content item included in the content group, data representing a content item included in the second content group, data indicating that a first viewing zone has been assigned to the first content group, and a second viewing zone in the first content group. Stores software instructions that cause data to be generated indicating whether they have been assigned.

예를 들어, 호스트 컴퓨터(182)의 메모리는 프로세서에 의해 실행될 때, 호스트 컴퓨터(182)가 제 1 구성 데이터를 제 1 뷰잉 구역의 경계의 좌표를 나타내는 데이터가 제 1 뷰잉 구역(예를 들면, "구역 1")의 식별자와 연관되고, 제 2 뷰잉 구역의 경계의 좌표를 나타내는 데이터가 제 2 뷰잉 구역(예를 들면, "구역 2")의 식별자와 연관되고, 제 1 콘텐츠 스트림(예를 들면, 파일명 1)의 식별자가 제 1 콘텐츠 군(예를 들면, "군 1")의 식별자와 연관되고, 제 2 콘텐츠 스트림(예를 들면, 파일명 2)의 식별자가 제 2 콘텐츠 군(예를 들면, "군 2")의 식별자와 연관되고, 제 1 뷰잉 구역(예를 들면, "구역 1")의 식별자가 제 1 콘텐츠 군(예를 들면, "군 1")의 식별자와 연관되고, 그리고 제 2 뷰잉 구역(예를 들면, "구역 2")의 식별자가 제 2 콘텐츠 군(예를 들면, "군 2")의 식별자와 연관되는 테이블 또는 다른 적절한 데이터 구조에 제 1 구성 데이터를 저장하게 하는 명령을 저장한다.For example, when the memory of the host computer 182 is executed by a processor, the host computer 182 may display the first configuration data in the first viewing area (eg, in the coordinates of the boundary of the first viewing area). Data associated with the identifier of the "viewing zone 1", the coordinates of the boundary of the second viewing zone, associated with the identifier of the second viewing zone (e.g., "zone 2"), and the first content stream (e.g., For example, an identifier of file name 1 is associated with an identifier of a first content group (eg, "group 1"), and an identifier of a second content stream (eg, file name 2) is associated with a second content group (eg, For example, an identifier of "Group 2"), an identifier of a first viewing zone (eg, "Zone 1") is associated with an identifier of a first content group (eg, "Group 1"), And the identifier of the second viewing zone (eg, "zone 2") is equal to the identifier of the second content group (eg, "group 2"). Stores the instructions to store a first configuration data in the table tube or other suitable data structure.

336에서, 제 2 구성 데이터가 생성된다. 예를 들어, 사용자는 제 3 및 제 4 뷰잉 구역 데이터를 생성하고, 제 3 콘텐츠 스트림을 제 3 콘텐츠 군에 할당하고, 제 4 콘텐츠 스트림을 제 4 콘텐츠 군에 할당하고, 제 3 뷰잉 구역을 제 3 콘텐츠 군에 할당하고, 그리고 제 4 뷰잉 구역을 제 4 콘텐츠 군에 할당하도록 상술된 것과 유사한 그래픽 작동을 수행한다. 그 후, 호스트 컴퓨터(182)는 제 3 및 제 4 뷰잉 구역의 경계를 나타내는 뷰잉 구역 데이터, 제 3 및 제 4 콘텐츠 군의 콘텐츠를 나타내는 데이터, 제 3 뷰잉 구역이 제 3 콘텐츠에 할당되었음을 나타내는 데이터, 및 제 4 뷰잉 구역이 제 4 콘텐츠 군에 할당되었음을 나타내는 데이터를 포함하는 제 2 구성 데이터를 생성한다.At 336, second configuration data is generated. For example, a user generates third and fourth viewing zone data, assigns a third content stream to a third content group, assigns a fourth content stream to a fourth content group, and assigns a third viewing zone to the third content zone. Assigning to the third content group, and performing a graphical operation similar to that described above to assign the fourth viewing area to the fourth content group. Host computer 182 then displays viewing zone data representing the boundaries of the third and fourth viewing zones, data representing the content of the third and fourth content groups, and data indicating that the third viewing zone has been assigned to the third content. And second configuration data comprising data indicating that the fourth viewing zone has been assigned to the fourth content group.

338에서, 제 1 및 제 2 뷰잉 구역 데이터가 전송된다. 예를 들어, 호스트 컴퓨터(182)의 메모리는 프로세서에 의해 실행될 때, 호스트 컴퓨터(182)로 하여금 제 1 구성 데이터에서 식별된 제 1 및 제 2 뷰잉 구역 데이터를 MV 디스플레이 장치(100)로 전송하게 하는 소프트웨어 명령을 저장한다.At 338, first and second viewing zone data are transmitted. For example, the memory of the host computer 182, when executed by the processor, causes the host computer 182 to transmit the first and second viewing zone data identified in the first configuration data to the MV display device 100. Stores software instructions.

340에서, 제 1 및 제 2 뷰잉 스트림이 전송된다. 예를 들어, 호스트 컴퓨터(182)의 메모리는 프로세서에 의해 실행될 때, 호스트 컴퓨터(182)로 하여금 제 1 구성 데이터에서 식별된 제 1 및 제 2 뷰잉 스트림을 MV 디스플레이 장치(100)로 전송하게 하는 소프트웨어 명령을 저장한다.At 340, first and second viewing streams are transmitted. For example, the memory of the host computer 182, when executed by the processor, causes the host computer 182 to transmit the first and second viewing streams identified in the first configuration data to the MV display device 100. Save the software command.

MV 디스플레이 장치(100)의 디스플레이 제어기(170)는 338에서 전송된 제 1 및 제 2 뷰잉 구역 데이터 및 340에서 전송된 제 1 및 제 2 뷰잉 스트림을 사용하여 평판 디스플레이의 좌표계에서 어느 빔렛(또는 대응하는 디스플레이 픽셀)을 결정하여 제 1 뷰잉 구역의 뷰어가 제 1 콘텐츠 스트림을 볼 수 있고 제 2 뷰잉 구역의 뷰어가 제 2 콘텐츠 스트림을 시청할 수 있도록 구동한다.The display controller 170 of the MV display apparatus 100 uses the first and second viewing zone data transmitted at 338 and the first and second viewing stream transmitted at 340 to determine which beamlets (or corresponding) in the coordinate system of the flat panel display. Display pixels) to drive the viewer of the first viewing zone to view the first content stream and the viewer of the second viewing zone to watch the second content stream.

342에서, 트리거 데이터가 수신된다. 예를 들어, 342에서, 호스트 컴퓨터(182)는 센서 장치로부터의 신호 또는 MV 디스플레이 장치(100)가 위치한 방에 위치한 통신 장치로부터의 메시지를 수신한다. 하나 이상의 실시예에서, 호스트 컴퓨터(182)는 특정 구성 데이터를 식별하는 데이터를 포함하는 메시지를 수신한다. 예를 들어, 342에서, 호스트 컴퓨터(182)는 제 2 구성 데이터를 식별하거나 이와 관련된 데이터(예를 들어, "제 2 구성")를 포함하는 메시지를 수신한다.At 342, trigger data is received. For example, at 342, host computer 182 receives a signal from a sensor device or a message from a communication device located in a room in which MV display device 100 is located. In one or more embodiments, host computer 182 receives a message that includes data identifying particular configuration data. For example, at 342, the host computer 182 receives a message that includes or identifies the second configuration data (eg, “second configuration”).

344에서, 응용 프로그래밍 인터페이스가 통지된다. 예를 들어, 호스트 컴퓨터(182)의 메모리는 프로세서에 의해 실행될 때, 호스트 컴퓨터(182)로 하여금 제 2 구성 데이터를 식별하는 구성 데이터의 변경을 나타내는 메시지를 호스트 컴퓨터(182)에서 실행하는 응용 프로그래밍 인터페이스로 보내는 소프트웨어 명령을 저장한다.At 344, the application programming interface is notified. For example, when the memory of the host computer 182 is executed by a processor, the application programming causes the host computer 182 to execute a message in the host computer 182 indicating a change in the configuration data identifying the second configuration data. Stores software commands sent to the interface.

346에서, 제 3 및 제 4 뷰잉 구역 데이터가 전송된다. 예를 들어, 호스트 컴퓨터(182)상에서 실행되는 응용 프로그래밍 인터페이스는, 예를 들어, 제 2 구성 데이터를 식별하거나 제 2 구성 데이터의 식별자와 연관되는 식별자를 포함하는, 구성 데이터에서의 변경을 나타내는 메시지를 344에서 수신하는 것에 응답하여, 호스트 컴퓨터(182)로 하여금 제 2 구성 데이터에 포함된 뷰잉 구역 데이터를 MV 뷰잉 장치(100)로 송신하게 한다. 하나 이상의 실시예에서, 제 3 및 제 4 뷰잉 구역 데이터는 디스플레이 제어기(170)에게 평판 디스플레이(110)의 디스플레이 서브-픽셀의 구동을 중지하고 비-휘발성 메모리(176)에 현재 저장되는 뷰잉 구역 데이터를 삭제하도록 지시하는 하나 이상의 명령을 따라 전송된다.At 346, third and fourth viewing zone data are transmitted. For example, an application programming interface running on host computer 182 may include a message indicating a change in configuration data, including, for example, an identifier that identifies the second configuration data or is associated with an identifier of the second configuration data. Responsive to receiving at 344, cause the host computer 182 to transmit the viewing zone data included in the second configuration data to the MV viewing apparatus 100. In one or more embodiments, the third and fourth viewing zone data causes the display controller 170 to stop driving the display sub-pixels of the flat panel display 110 and viewing zone data currently stored in the non-volatile memory 176. Is sent along with one or more instructions instructing it to delete it.

하나 이상의 실시예에서, 제 3 및 제 4 뷰잉 구역 데이터는 제 3 및 제 4 뷰잉 구역 데이터를 비-휘발성 메모리(176)에 저장하고, 제 3 콘텐츠 군의 컨텐츠 스트림의 식별자가 비-휘발성 메모리(176)에 저장된 테이블 또는 다른 적절한 데이터 구조의 제 3 콘텐츠 군의 식별자와 연관시키고, 제 4 콘텐츠 군의 콘텐츠 스트림의 식별자가 비-휘발성 메모리(176)에 저장된 테이블 또는 다른 적절한 데이터 구조의 제 4 콘텐츠 군의 식별자와 연관되도록 디스플레이 제어기(170)에게 지시하는 하나 이상의 명령에 따라 전송된다.In one or more embodiments, the third and fourth viewing zone data store the third and fourth viewing zone data in non-volatile memory 176, and wherein the identifier of the content stream of the third content group is non-volatile memory ( Associated with the identifier of the third content group of the table or other suitable data structure stored in 176, and wherein the identifier of the content stream of the fourth content group is the fourth content of the table or other suitable data structure stored in non-volatile memory 176. Sent according to one or more instructions instructing display controller 170 to be associated with the group identifier.

348에서, 제 3 및 제 4 뷰잉 스트림이 전송된다. 예를 들어, 호스트 컴퓨터(182)상에서 실행되는 응용 프로그래밍 인터페이스는 호스트 컴퓨터(182)가 342에서 수신된 구성 데이터에서의 변화를 마타내는 메시지를 344에서 수신하는 것에 응답하여, 제 2 구성 데이터에서 식별된 제 3 및 제 4 뷰잉 스트림을 348에서 전송하게 한다.At 348, third and fourth viewing streams are transmitted. For example, an application programming interface running on host computer 182 may be identified in the second configuration data in response to the host computer 182 receiving a message at 344 indicating a change in configuration data received at 342. The third and fourth viewing streams at 348.

350에서, 방법(330)이 종료된다. 예를 들어, MV 디스플레이 장치(100)의 디스플레이 제어기(170)는 뷰잉 구역 좌표계에 있는 346에서 전송된 제 3 및 제 4 뷰잉 구역 데이터에 포함된 좌표를 평판 디스플레이(110)의 빔렛 좌표계에서 대응하는 좌표로 변환하여, 평판 디스플레이(110)를 구동시키기 위해, 제 3 뷰잉 구역의 뷰어가 제 3 콘텐츠 스트림을 볼 수 있고, 제 4 뷰잉 구역 내의 뷰어가 제 4 콘텐츠 스트림을 볼 수 있도록 한다.At 350, method 330 ends. For example, the display controller 170 of the MV display apparatus 100 may correspond to coordinates included in the third and fourth viewing zone data transmitted at 346 in the viewing zone coordinate system in the beamlet coordinate system of the flat panel display 110. Converted to coordinates, to drive the flat panel display 110, the viewer of the third viewing zone can see the third content stream and the viewer in the fourth viewing zone can see the fourth content stream.

교정correction

MV 디스플레이 장치(100)는 교정 공정을 요구한다. 이는 사용자가 뷰잉 구역 좌표계에서 위치를 지정하고, MV 디스플레이 장치(100)가 각각의 MV 픽셀(102)에 대해 어떤 빔렛이 비추어야 하는지 알아야 하기 때문이다. 정확한 방식으로 빛이 각 렌즈에서 구부러지고, 디스플레이 센서(즉, 카메라(104))에 대한 각 렌즈의 정확한 위치 및 하부 디스플레이 패널에 대한 렌즈의 정확한 위치가 알려진 경우, 교정 공정은 이론적으로 제거될 수 있다. 실제로, 이러한 측정은 얻기가 어렵고 주어진 뷰잉 구역 좌표에 대해 올바른 빔렛을 켜기 위해 실시간으로 사용하기가 더 어려울 수 있다.The MV display apparatus 100 requires a calibration process. This is because the user specifies the position in the viewing area coordinate system, and the MV display apparatus 100 needs to know which beamlet should shine for each MV pixel 102. If the light is bent in each lens in the correct manner and the exact position of each lens relative to the display sensor (ie camera 104) and the correct position of the lens relative to the underlying display panel are known, then the calibration process can theoretically be eliminated. have. In practice, such measurements can be difficult to obtain and more difficult to use in real time to turn on the correct beamlet for a given viewing area coordinate.

다양한 실시예에서, 단순화된 수학적 모델은 주어진 뷰잉 구역 좌표에 대해 어떤 빔렛이 켜지는지를 근사화하는데 사용된다. 최악의 경우, 근사값은 의도된 빔렛과 실제 빔렛 사이에 몇 개의 디스플레이 픽셀 순서로 오류가 있으며 이는 정상적인 상황에서 허용된다. 평균적으로 오류는 약 0.5 디스플레이 픽셀에서 훨씬 좋다.In various embodiments, a simplified mathematical model is used to approximate which beamlet is turned on for a given viewing area coordinate. In the worst case, the approximation is in error in the order of several display pixels between the intended beamlet and the actual beamlet, which is acceptable under normal circumstances. On average, the error is much better at about 0.5 display pixels.

교정 공정은 수학적 모델에서 관측 영역 좌표계에서 빔렛 좌표계로의 위치의 투영/맵핑을 근사화하는 계수 및 상수를 결정한다. 계수 및 상수를 결정하기 위해, 교정 장치는 뷰잉 구역 좌표계와 빔렛 좌표계 사이의 일부 지상 진리 맵핑(ground truth mapping)을 캡처한다. 수집된 데이터와 비-선형 옵티마이저는 방정식에서 계수와 상수를 찾는데 사용된다. 계수 및 상수가 얻어지면, 뷰잉 구역 좌표가 주어진 새로운 맵핑이 효율적으로 생성될 수 있다.The calibration process determines coefficients and constants that approximate the projection / mapping of the position from the observation area coordinate system to the beamlet coordinate system in the mathematical model. To determine the coefficients and constants, the calibration device captures some ground truth mapping between the viewing area coordinate system and the beamlet coordinate system. Collected data and non-linear optimizers are used to find coefficients and constants in equations. Once the coefficients and constants are obtained, a new mapping can be efficiently generated given the viewing area coordinates.

물리적 설정Physical setting

계수를 풀기 위해 지면 진리 맵핑을 수집하려면 일부 하드웨어가 필요하다. 다양한 실시예들에서, 적어도 3 개의 장치, MV 디스플레이 장치(100); 시야 영역 좌표 공간(예를 들어, 카메라, 스테레오 카메라, 광 탐지 및 거리 측정기(Light Detection and Ranging; LIDARL), 비과 시간 카메라, 라인 스캔 카메라, 등)을 생성하는 MV 디스플레이 장치(100)에 부착된 디스플레이 센서(226)(예를 들어, 카메라(104)); 및 MV 디스플레이 장치(100)를 볼 수 있고, 환경 주위로 이동될 수 있고, 도 21a에 도시된 바와 같이 디스플레이 센서(226)에 의해 발견될 수 있는 카메라(교정 장치(210))가 사용된다. 도 21a에서, 점선은 교정 절차 동안 "보여진(shown)" 데이터를 나타내고, 실선은 교정 절차 중에 송신된 데이터를 나타낸다.Some hardware is required to collect the ground truth mapping to solve the coefficients. In various embodiments, at least three devices, the MV display device 100; Attached to the MV display device 100 for generating a viewing area coordinate space (eg, camera, stereo camera, light detection and ranging (LIDARL), non-time camera, line scan camera, etc.). Display sensor 226 (eg, camera 104); And a camera (calibration device 210) that can see the MV display device 100, can be moved around the environment, and can be found by the display sensor 226 as shown in FIG. 21A. In FIG. 21A, the dashed line represents data "shown" during the calibration procedure and the solid line represents data transmitted during the calibration procedure.

하나의 구현예에서, 교정 장치(210)는 체커보드 및 태블릿 컴퓨터(예를 들어, 태블릿 컴퓨터가 교정 절차를 수행하게 하는 프로세서 및 메모리 저장 명령을 포함함)가 부착된 카메라의 형태를 취하고 디스플레이 센서(226)는 2D 카메라이다. 대안적인 구현예에서, 교정 장치(210)는 적외선(IR) LED가 부착된 카메라 및 태블릿 컴퓨터이고, 디스플레이 센서(226)는 IR 감지 스테레오 카메라이다. 어쨌든, 교정 장치(210)는 디스플레이 센서(예를 들어, 카메라(104))에 의해 뷰잉 구역 좌표계에서 발견될 수 있어야 한다. 교정 장치/디스플레이 센서 조합의 소정의 다른 예로는 체커보드/스테레오 카메라, 기타 인쇄 패턴 또는 태그/카메라(또는 스테레오 카메라), 가시 광선 LED/카메라(또는 스테레오 카메라) 등이 있다. MV 디스플레이 장치(100)를 제어하는데 호스트 컴퓨터가 부가적으로 사용될 수 있으며, 무선 네트워크는 교정 장치(210)와 호스트 컴퓨터(182)가 교정 절차 동안 통신할 수 있게 한다. 일부 실시예에서, 하나의 컴퓨터를 사용하여 태블릿을 제거할 수 있지만, 이는 잠재적으로 카메라가 호스트 컴퓨터(182)에 케이블 런(cable run)을 갖도록 요구할 수 있다. 디스플레이 제어기(170)는 교정 장치(카메라)(210)와 직접 인터페이싱할 수 있다.In one embodiment, the calibration device 210 takes the form of a camera attached to a checkerboard and a tablet computer (e.g., includes a processor and memory storage instructions that cause the tablet computer to perform a calibration procedure) and displays a display sensor. 226 is a 2D camera. In an alternative embodiment, the calibration device 210 is a camera and tablet computer with an infrared (IR) LED attached, and the display sensor 226 is an IR sensing stereo camera. In any case, the calibration device 210 should be able to be found in the viewing area coordinate system by a display sensor (eg, camera 104). Certain other examples of calibration device / display sensor combinations include checkerboard / stereo cameras, other printed patterns or tags / cameras (or stereo cameras), visible light LEDs / cameras (or stereo cameras), and the like. A host computer can additionally be used to control the MV display device 100, and the wireless network allows the calibration device 210 and the host computer 182 to communicate during the calibration procedure. In some embodiments, one computer may be used to remove the tablet, but this may potentially require the camera to have a cable run on the host computer 182. The display controller 170 can interface directly with the calibration device (camera) 210.

교정 절차Calibration procedure

도 21a는 본 개시의 하나 이상의 실시예들에 따른 교정 절차를 수행하는 MV 디스플레이 시스템(122)의 블록도이다. MV 디스플레이 시스템(122)은 호스트 컴퓨터(182)에 통신 가능하게 결합된 MV 디스플레이 장치(100)를 포함한다. 예를 들어, MV 디스플레이 장치(100)는 이더넷® 기반 근거리 통신망을 통해 호스트 컴퓨터(182)에 연결된다. MV 디스플레이 시스템(122)은 또한 교정 장치(210) 및 호스트 컴퓨터(182)에 통신 가능하게 결합된 디스플레이 센서(226)(예를 들어, 카메라(104))를 포함한다. 예를 들어, 교정 장치(210) 및 호스트 컴퓨터(182)는 IEEE 802.11n 기반 근거리 통신망을 통해 상호 연결되고, 디스플레이 센서(226)(예를 들어, 카메라(104)) 및 호스트 컴퓨터(182)는 범용 직렬 버스를 통해 상호 연결된다.21A is a block diagram of an MV display system 122 performing a calibration procedure in accordance with one or more embodiments of the present disclosure. The MV display system 122 includes an MV display apparatus 100 communicatively coupled to a host computer 182. For example, the MV display device 100 is connected to the host computer 182 via an Ethernet® based local area network. The MV display system 122 also includes a display sensor 226 (eg, a camera 104) communicatively coupled to the calibration device 210 and the host computer 182. For example, the calibration device 210 and the host computer 182 are interconnected via an IEEE 802.11n based local area network, and the display sensor 226 (eg, the camera 104) and the host computer 182 are connected to each other. Interconnected via a universal serial bus.

교정 절차 동안, 호스트 컴퓨터(182)는 디스플레이 패턴 데이터(228)를 MV 디스플레이 장치(100)로 전송한다. 이에 응답하여, MV 디스플레이 장치(100)는 디스플레이 패턴 데이터(228)에 대응하는 광 형성 디스플레이 패턴(230)을 방출한다. MV 디스플레이 장치(100)로부터 어느 빔렛이 수신되는지를 교정 장치(210)가 기록한다. 한편, 교정 장치(210)는 체커보드 패턴(232)을 포함한다(예를 들어, 교정 장치(210)의 스크린 상에 디스플레이 가능하거나 교정 장치(210)에 인쇄 및 부착). 교정 장치(210)가 디스플레이 센서(226)의 시야 내에 있는 경우(즉, 디스플레이 센서(226)는 교정 장치(210)의 체커보드 패턴(232)를 감지 또는 검출할 수 있는 경우), 디스플레이 센서(226)는 교정 장치 위치 데이터(234)를 호스트 컴퓨터(182)로 전송한다. 하나 이상의 실시예에서, 교정 장치 위치 데이터(234)는 검출된 체커보드 패턴(232)에 기초한 뷰잉 구역 좌표계에서 교정 장치(210)의 좌표를 나타낸다. 교정 장치(210)는 호스트 컴퓨터(182)에 의해 저장되는 빔렛 좌표 데이터(236)를 호스트 컴퓨터(182)에 전송한다. 후술하는 바와 같이, 호스트 컴퓨터(182)는 저장된 교정 장치 위치 데이터(234) 및 빔렛 좌표 데이터(236)를 사용하여 교정 파라미터(p0, p1,..., p15)를 계산한다. MV 디스플레이 장치(100)에 의해 뷰잉 구역 좌표계의 좌표를 평판 디스플레이(110)의 빔렛(또는 디스플레이 픽셀) 좌표 시스템의 대응하는 좌표로 변환하는데 사용되어 MV 디스플레이 장치(100)는 상이한 뷰잉 구역에 위치된 상이한 뷰어에게 상이한 콘텐츠를 제시할 수 있다.During the calibration procedure, the host computer 182 transmits the display pattern data 228 to the MV display device 100. In response, the MV display apparatus 100 emits the light shaping display pattern 230 corresponding to the display pattern data 228. The calibration apparatus 210 records which beamlet is received from the MV display apparatus 100. The calibration device 210, on the other hand, includes a checkerboard pattern 232 (eg, displayable on the screen of the calibration device 210 or print and attach to the calibration device 210). If the calibration device 210 is within the field of view of the display sensor 226 (ie, the display sensor 226 can detect or detect the checkerboard pattern 232 of the calibration device 210), the display sensor ( 226 sends calibration device location data 234 to host computer 182. In one or more embodiments, calibration device location data 234 represents the coordinates of calibration device 210 in the viewing zone coordinate system based on the detected checkerboard pattern 232. The calibration device 210 transmits the beamlet coordinate data 236 stored by the host computer 182 to the host computer 182. As described below, host computer 182 calculates calibration parameters p0, p1, ..., p15 using stored calibration apparatus position data 234 and beamlet coordinate data 236. It is used by the MV display device 100 to convert the coordinates of the viewing zone coordinate system to the corresponding coordinates of the beamlet (or display pixel) coordinate system of the flat panel display 110 so that the MV display device 100 is located in different viewing zones. Different content can be presented to different viewers.

하나 이상의 실시예들에서, 교정 장치(210)는 태블릿 컴퓨터의 프로세서에 의해 실행될 때 태블릿 컴퓨터가 교정 절차의 양태들을 수행하게 하는 소프트웨어 명령들을 저장하는 메모리를 갖는 태블릿 컴퓨터를 포함한다. 또한, 호스트 컴퓨터(182)의 메모리는 호스트 컴퓨터(182)의 프로세서에 의해 실행될 때 호스트 컴퓨터로 하여금 교정 절차의 다른 양태들을 수행하게 하는 소프트웨어 명령을 저장한다.In one or more embodiments, the calibration device 210 includes a tablet computer having a memory that stores software instructions that, when executed by a processor of the tablet computer, cause the tablet computer to perform aspects of the calibration procedure. In addition, the memory of host computer 182 stores software instructions that, when executed by a processor of host computer 182, cause the host computer to perform other aspects of the calibration procedure.

교정 절차는 뷰잉 구역 좌표계의 공간 1D/2D/3D 포인트와, 작동시킬 때 세상에서 공간 좌표 위치를 조명하는, 빔렛 좌표계의 빔렛 사이에서 MV 픽셀 당 여러 개의 맵핑을 캡처한다. 다양한 실시예에서, 이러한 캡처된 맵핑은 MV 디스플레이 장치(100)를 보기 위해 사용될 전체 영역 주위에 퍼져 있다. 이들 맵핑을 캡처하기 위해, MV 디스플레이 시스템(122)은 두 가지 일을 해야 한다: 뷰잉 구역 좌표 공간에서 교정 장치(210)를 찾고 빔렛이 현재 위치에서 닿는 것을 교정 장치(210)가 기록할 수 있게 한다.The calibration procedure captures several mappings per MV pixel between the spatial 1D / 2D / 3D points of the viewing area coordinate system and the beamlets of the beamlet coordinate system that illuminate the spatial coordinate position in the world when actuated. In various embodiments, this captured mapping is spread around the entire area that will be used to view the MV display device 100. To capture these mappings, the MV display system 122 must do two things: find the calibration device 210 in the viewing area coordinate space and allow the calibration device 210 to record that the beamlet is touching at its current location. do.

다양한 실시예에서, 교정 장치(210)는 디스플레이 센서(226)의 피드에 체커보드 패턴(232)을 위치시킴으로써 발견된다. 이는 교정 장치(210)의 현재 위치를 나타내며 교정 장치 위치 데이터(234)에 포함되는 뷰잉 구역 좌표계에서 공간 좌표를 제공한다. 앞서 언급한 바와 같이, 디스플레이 센서(226)(예를 들어, 카메라(104))는 1D, 2D, 또는 3D 센서일 수 있다. 이들 각각은 MV 디스플레이 장치(100)가 어떻게 동작하는지에 관한 암시를 갖는다. 디스플레이 센서(226)의 치수는 최종 사용자가 뷰잉 구역을 정의할 수 있는 좌표 공간의 치수를 결정한다. 따라서, MV 디스플레이 장치(100)가 2D 디스플레이 센서(226)로 교정되면, 뷰잉 구역은 2D 표면의 영역으로만 정의될 수 있고, 교정 장치(210)가 배치되는 모든 위치는 그 2D 표면 내에 있어야 한다. 2D 또는 1D인 디스플레이 센서(226)를 사용하는 것에 대한 단점은, 수학적 모델이 뷰어가 그 평면 또는 라인에 서있다고 가정하기 때문에 MV 디스플레이 장치(100)는 대응하는 평면 또는 라인에서만 잘 작동할 수 있다는 것이다. MV 디스플레이 장치(100)로부터의 뷰어의 거리와 비교하여 MV 디스플레이 장치(100)가 작으면, 평면상에서 및 평면 밖에서 뷰어를 타격하는 빔렛들 간의 차이가 작고 무시될 수 있다. 그러나, MV 디스플레이 장치(100)가 커짐에 따라(예를 들어, 다수의 MV 디스플레이 장치(100)가 함께 타일링됨), 교정된 표면에 서있는 사람과 그로부터 떨어져 있는 사람에 대한 빔렛들 사이의 차이는 작지 않을 수 있고 일부 MV 픽셀이 뷰어에게 켜져 있는 것으로 보인다. 이 문제를 해결하기 위해, 다양한 실시예에서, 디스플레이 센서(226)는 2D 카메라를 포함할 수 있고, 교정 장치(210)와 디스플레이 센서(226) 사이의 거리를 측정하는 것이 가능하다. 그런 다음, 거리는 제 3 좌표로서 사용되어 2D 디스플레이 센서(226)를 3D 센서로 효과적으로 전환시키는 추가적인 차원을 부가한다. 따라서 사용자는 2D 이미지의 영역과 카메라와의 거리를 지정할 수 있다.In various embodiments, the calibration device 210 is found by placing the checkerboard pattern 232 in the feed of the display sensor 226. This represents the current position of the calibration device 210 and provides spatial coordinates in the viewing zone coordinate system included in the calibration device location data 234. As mentioned above, display sensor 226 (eg, camera 104) may be a 1D, 2D, or 3D sensor. Each of these has an hint as to how the MV display apparatus 100 operates. The dimensions of the display sensor 226 determine the dimensions of the coordinate space in which the end user can define the viewing area. Thus, if the MV display device 100 is calibrated with the 2D display sensor 226, the viewing area can be defined only as an area of the 2D surface, and all locations where the calibration device 210 is placed must be within that 2D surface. . The disadvantage of using the display sensor 226 which is 2D or 1D is that the MV display device 100 can only work well in the corresponding plane or line because the mathematical model assumes that the viewer is standing on that plane or line. will be. If the MV display device 100 is small compared to the viewer's distance from the MV display device 100, the difference between beamlets hitting the viewer on and off the plane can be small and neglected. However, as the MV display device 100 grows (eg, multiple MV display devices 100 are tiled together), the difference between beamlets for a person standing on the calibrated surface and a person away from it It may not be small and some MV pixels appear to be turned on for the viewer. To solve this problem, in various embodiments, the display sensor 226 may comprise a 2D camera and it is possible to measure the distance between the calibration device 210 and the display sensor 226. The distance is then used as the third coordinate to add an additional dimension to effectively convert the 2D display sensor 226 into a 3D sensor. Therefore, the user can designate the distance between the area of the 2D image and the camera.

도 21b는 본 개시의 하나 이상의 실시예들에 따른 교정 절차(360)의 흐름도이다. 교정 절차(360)는 362에서 시작한다. 예를 들어, 사용자는 호스트 컴퓨터(182), 교정 장치(210), 및 디스플레이 센서(226)로 하여금 그들의 각각의 메모리에 저장된 소정의 소프트웨어 명령을 실행하게하는 입력을 제공한다.21B is a flowchart of a calibration procedure 360 in accordance with one or more embodiments of the present disclosure. Calibration procedure 360 begins at 362. For example, the user provides input to cause the host computer 182, the calibration device 210, and the display sensor 226 to execute certain software instructions stored in their respective memory.

364에서, 교정 장치(210)는 MV 디스플레이 장치(100)의 시야 내에 위치된다. 교정 장치(210)는 디스플레이 센서(226)에 의해 정의된 뷰잉 구역 좌표계 내의 임의의 지점에 위치될 수 있다.At 364, the calibration device 210 is located within the field of view of the MV display device 100. The calibration device 210 may be located at any point within the viewing zone coordinate system defined by the display sensor 226.

366에서, 디스플레이 센서(226)는 교정 장치(210)의 위치를 결정한다. 하나 이상의 실시예에서, 디스플레이 센서(226)의 메모리는 프로세서에 의해 실행될 때 디스플레이 센서(226)로 하여금 교정 장치(210)에 의해 디스플레이되는 체커보드 패턴(232)의 이미지를 캡쳐하고 대응하는 이미지 데이터를 처리하고, 이미지 데이터에 기초하여 뷰잉 구역 좌표계에서 교정 장치(210)의 좌표를 결정하고, 그리고 결정된 좌표를 포함하는 교정 장치 위치 데이터(234)를 호스트 컴퓨터(182)로 전송하게 하는 명령을 저장한다. 일부 실시예들에서, 디스플레이 센서(226)는 센서 데이터를 호스트 컴퓨터(182)에 전송하고, 호스트 컴퓨터(182)는 뷰잉 구역 좌표계에서 교정 장치(210)의 좌표를 결정하기 위해 센서 데이터를 처리한다.At 366, display sensor 226 determines the location of calibration device 210. In one or more embodiments, the memory of the display sensor 226 causes the display sensor 226 to capture an image of the checkerboard pattern 232 displayed by the calibration device 210 and corresponding image data when executed by the processor. And determine the coordinates of the calibration device 210 in the viewing zone coordinate system based on the image data, and store the instructions to send the calibration device location data 234 including the determined coordinates to the host computer 182. do. In some embodiments, the display sensor 226 sends sensor data to the host computer 182, which processes the sensor data to determine the coordinates of the calibration device 210 in the viewing zone coordinate system. .

368에서, MV 디스플레이 장치(100)의 MV 픽셀(102)은 교정 장치(210)에 의해 위치된다. 하나 이상의 실시예에서, 호스트 컴퓨터(182)는 MV 디스플레이 장치(100)가 MV 픽셀 모두를 켜고나서 MV 픽셀(102) 모두를 끄는 디스플레이 패턴 데이터(228)를 생성한다(도 22a 및 22b 참조). 교정 장치(210)의 카메라는 MV 픽셀(102) 모두가 켜지고 꺼질 때 MV 디스플레이 장치(100)의 이미지를 캡처한다. 교정 장치(210)의 메모리는 프로세서에 의해 실행될 때, 교정 장치(210)로 하여금 이미지에 대응하는 이미지 데이터를 처리하고, 이미지 데이터를 비교하고, 이미지 데이터의 비교에 기초하여 각각의 MV 픽셀에 대응하는 이미지에서의 위치를 결정하게하는 소프트웨어 명령을 저장한다.At 368, MV pixel 102 of MV display device 100 is positioned by calibration device 210. In one or more embodiments, the host computer 182 generates display pattern data 228 that turns off all of the MV pixels 102 after the MV display device 100 turns on all of the MV pixels (see FIGS. 22A and 22B). The camera of the calibration device 210 captures an image of the MV display device 100 when both MV pixels 102 are turned on and off. The memory of the calibration device 210 when executed by the processor causes the calibration device 210 to process image data corresponding to the image, compare the image data, and correspond to each MV pixel based on the comparison of the image data. Stores a software instruction that allows you to determine the position in the image.

370에서, 각각의 MV 픽셀(102)이 식별된다. 하나 이상의 실시예에서, 호스트 컴퓨터(182)는 MV 디스플레이 장치(100)가 각각의 MV 픽셀(102)에 할당되거나 연관되는 고유 코드에 따라 MV 픽셀(102) 각각을 켜고 끄도록 하는 디스플레이 패턴 데이터(228)를 생성한다(도 23a 내지 23f 참조). 교정 장치(210)의 카메라는 MV 디스플레이 장치(100)의 이미지를 캡처하는 반면, MV 디스플레이 장치(100)는 고유 코드에 따라 각각의 MV 픽셀(102)을 켜고 끈다. 교정 장치(210)의 메모리는 프로세서에 의해 실행될 때, 교정 장치(210)가 각각의 MV 픽셀(102)을 식별하기 위해 고유 코드를 사용하여 이미지에 대응하는 이미지 데이터를 처리하게 하는 소프트웨어 명령을 저장한다.At 370, each MV pixel 102 is identified. In one or more embodiments, host computer 182 may display display pattern data (MV display device 100) to turn on and off each of MV pixels 102 in accordance with a unique code that is assigned or associated with each MV pixel 102. 228) (see FIGS. 23A-23F). The camera of the calibration device 210 captures an image of the MV display device 100, while the MV display device 100 turns each MV pixel 102 on and off according to a unique code. The memory of the calibration device 210 stores software instructions that, when executed by a processor, cause the calibration device 210 to process image data corresponding to the image using a unique code to identify each MV pixel 102. do.

372에서, 교정 장치(210)의 위치에 대응하는 디스플레이 픽셀 ID(또는 빔렛 ID)가 결정된다. 하나 이상의 실시예에서, 호스트 컴퓨터(182)는 MV 디스플레이 장치(100)가 각각의 빔렛에 할당된 고유 코드에 따라 각각의 빔렛을 켜고 끄도록 하는 디스플레이 패턴 데이터(228)를 생성한다. 이것은 교정 장치(210)의 위치에 대응하는 빔렛이 켜고 끌 때 MV 픽셀(102)의 "켜짐" 및 "꺼짐"(도 24a 내지 24t 참조)을 보는 것을 교정 장치(210)로 만든다. 교정 장치(210)는 MV 디스플레이 장치(100)의 이미지를 캡쳐하는 한편, MV 디스플레이 장치(100)는 자신에게 할당된 고유 코드에 따라 각 빔렛을 켜고 끈다. 교정 장치(210)의 메모리는 프로세서에 의해 실행될 때, 교정 장치(210)로 하여금 각각의 빔렛에 할당된 고유 코드를 사용하여 이미지에 대응하는 이미지 데이터를 처리하여 교정 장치(210)의 위치에 대응하는 디스플레이 픽셀 ID(또는 빔렛 ID)를 결정하게 하는 소프트웨어 명령을 저장한다.At 372, a display pixel ID (or beamlet ID) corresponding to the location of the calibration device 210 is determined. In one or more embodiments, host computer 182 generates display pattern data 228 that causes MV display device 100 to turn each beamlet on and off in accordance with a unique code assigned to each beamlet. This makes the calibration device 210 view the “on” and “off” of the MV pixel 102 (see FIGS. 24A-24T) when the beamlet corresponding to the position of the calibration device 210 is turned on and off. The calibration device 210 captures an image of the MV display device 100, while the MV display device 100 turns each beamlet on and off according to a unique code assigned to it. When the memory of the calibration device 210 is executed by a processor, the calibration device 210 processes image data corresponding to the image using a unique code assigned to each beamlet to correspond to the location of the calibration device 210. Store a software instruction to determine a display pixel ID (or beamlet ID).

일 실시예에서 372의 이 단계에서, 목적은 각각의 MV 픽셀 아래에서 ~10,000개의 빔렛 중 어느 것을 발견하는 것이며, 예를 들어, 교정 장치(210)가 배치되는 곳마다 MV 픽셀(102)이 "켜짐"으로 나타나기 위해 MV 디스플레이 장치(100)가 켜질 필요가 있다. 이상적인 경우에, MV 픽셀(102)은 빔렛들 중 어느 하나만 켜질 때 "꺼짐"으로 보일 것이지만, 하나의(올바른) 빔렛이 켜질 때 "켜짐"으로 나타난다. MV 디스플레이 장치(100)는 각각의 빔렛에 대한 ID를 인코딩하는 패턴을 평판 디스플레이(110) 상에 디스플레이한다. 따라서, 뷰잉 구역 좌표계에서의 주어진 MV 픽셀 및 위치에 대해, 교정 장치(210)는 도 24a 내지 도 24t에 도시된 바와 같은 패턴을 볼 것이다.In this embodiment of step 372 in one embodiment, the goal is to find any of ˜10,000 beamlets under each MV pixel, for example, wherever MV pixel 102 is placed wherever calibration device 210 is placed. MV display device 100 needs to be turned on to appear on. In an ideal case, the MV pixel 102 would appear to be "off" when only one of the beamlets is on, but appears to be "on" when one (correct) beamlet is on. The MV display apparatus 100 displays a pattern encoding the ID for each beamlet on the flat panel display 110. Thus, for a given MV pixel and position in the viewing zone coordinate system, the calibration device 210 will see the pattern as shown in FIGS. 24A-24T.

374에서, 정제 공정이 도 25a 내지 도 25i를 참조하여 후술되는 바와 같이 수행될 수 있다.At 374, the purification process may be performed as described below with reference to FIGS. 25A-25I.

376에서, 교정 파라미터는 후술되는 바와 같이 결정된다.At 376, calibration parameters are determined as described below.

도 21c는 본 개시의 하나 이상의 실시예들에 따른 교정 절차 동안 디스플레이될 수 있는 이미지(200)를 도시한다. 이미지(200)는 MV 디스플레이 장치(100)가 사용될 방에 해당한다. 이미지(200)는 디스플레이 센서(226)(즉, 스테레오 카메라(104))가 렌더링된 포인트 3D 포인트 클라우드 내에서 교정 장치(210)의 체커보드 패턴(232)을 캡처한 복수의 위치(202)의 마커를 포함한다. 교정 절차(360)의 다양한 양태는 도 22a 내지 도 25i를 참조하여 아래에서 더 상세히 설명된다.21C shows an image 200 that can be displayed during a calibration procedure in accordance with one or more embodiments of the present disclosure. The image 200 corresponds to a room in which the MV display apparatus 100 is to be used. Image 200 shows a plurality of locations 202 of the display sensor 226 (ie, stereo camera 104) that captured the checkerboard pattern 232 of the calibration device 210 within the point 3D point cloud where it was rendered. It includes a marker. Various aspects of the calibration procedure 360 are described in more detail below with reference to FIGS. 22A-25I.

교정 장치(210)의 위치가 발견되면, MV 디스플레이 시스템(122)은 각각의 MV 픽셀의 빔렛이 교정 장치(210)에 충돌하는지를 결정해야 한다. 이를 달성하기 위해, 호스트 컴퓨터(182)는 MV 디스플레이 장치(100)에 일련의 패턴을 디스플레이하게 할 수 있다. 각각의 패턴은 교정 장치(210)에 특정 정보를 제공하기 위해 사용된다. 패턴은 하나의 예시적인 실시예의 순서로 아래에 나열되지만, 다른 순서가 사용될 수 있다.Once the location of the calibration device 210 is found, the MV display system 122 must determine whether the beamlet of each MV pixel impinges on the calibration device 210. To accomplish this, the host computer 182 may cause the MV display device 100 to display a series of patterns. Each pattern is used to provide specific information to the calibration device 210. The patterns are listed below in the order of one exemplary embodiment, but other orders may be used.

보정 단계 1: MV 픽셀 위치가 발견된다.Correction Step 1: The MV pixel position is found.

도 22a 및 도 22b는 본 발명의 실시예에 따른 하나의 렌즈 조립체(132)를 포함하는 MV 디스플레이 장치(100)의 정면도이다. 도시된 예에서 MV 디스플레이 장치(100)는 16개의(4x4) MV 픽셀(102)을 포함한다. MV 픽셀(102) 중 어느 것도 도 22a에 조명되어 있지 않지만, MV 픽셀(102) 모두가 도 22b에 조명되어 도시되어 있다. MV 디스플레이 장치(100)는 도 21b 및 21a에 도시된 바와 같이 모든 MV 픽셀(102)을 각각 플래시 온 및 오프한다. 이것은 조명 패턴을 캡처하는 교정 장치(210)가 이미지의 어떤 영역이 MV 픽셀(102)을 포함하고 더 큰 에러 검사를 허용 하는지를 결정하는 것을 가능하게 한다.22A and 22B are front views of the MV display apparatus 100 including one lens assembly 132 according to an embodiment of the present invention. In the example shown, the MV display apparatus 100 includes sixteen (4x4) MV pixels 102. None of the MV pixels 102 are illuminated in FIG. 22A, but all of the MV pixels 102 are shown illuminated in FIG. 22B. The MV display apparatus 100 flashes on and off all MV pixels 102 as shown in FIGS. 21B and 21A, respectively. This allows the calibration device 210 to capture the illumination pattern to determine which areas of the image contain the MV pixels 102 and allow for greater error checking.

보정 단계 2: MV 픽셀 ID가 발견된다.Correction step 2: MV pixel ID is found.

도 23a 내지 도 23f 각각은 전술된 도 22a 및 도 22b에서와 같이 단일 렌즈 어셈블리(132)를 포함하는 MV 디스플레이 장치(100)의 정면도이다. 도 23a 내지 도 23f는 각각의 MV 픽셀의 MV 픽셀 ID를 인코딩하는 일련의 이미지를 나타내며, 도시된 이미지는 리틀-엔디안 순서(little-endian order)로 배열된다.23A through 23F are front views of the MV display apparatus 100 including the single lens assembly 132 as in FIGS. 22A and 22B described above. 23A-23F show a series of images encoding the MV pixel ID of each MV pixel, with the images shown arranged in little-endian order.

호스트 컴퓨터(182)에 의해 전송된 디스플레이 패턴 데이터(228)는 MV 디스플레이 장치(100)가 MV 픽셀(102)을 사용하여 교정 장치(210)에 일련의 이미지(패턴)를 디스플레이하게 한다. 도 23a 내지 도 23f는 MV 디스플레이 장치(100)에서 각각의 개별 MV 픽셀(102)에 대한 특정 ID 번호를 인코딩한다. 다양한 실시예에서, ID는 모든 MV 픽셀 ID를 인코딩하는데 필요한 이미지의 수를 감소시키기 위해 이진 포맷으로 인코딩되지만, 다른 인코딩 방식도 사용될 수 있다. 예를 들어, MV 픽셀 ID를 인코딩하기 위해 컬러를 사용하거나 그 목적을 위해 회색 코드를 사용할 수 있다.Display pattern data 228 transmitted by host computer 182 causes MV display device 100 to display a series of images (patterns) on calibration device 210 using MV pixels 102. 23A to 23F encode specific ID numbers for each individual MV pixel 102 in the MV display apparatus 100. In various embodiments, the ID is encoded in binary format to reduce the number of images needed to encode all MV pixel IDs, although other encoding schemes may be used. For example, you can use color to encode MV pixel IDs or use gray codes for that purpose.

다양한 실시예에서, 각각의 도 23a 내지 도 23f는 하나의 MV 픽셀 ID를 나타내는 이진 인코딩에서 숫자의 1 비트를 나타낸다. 이미지(또는 패턴)에서 특정 MV 픽셀(102)이 꺼져 있으면, 해당 MV 픽셀에 대해 이미지에 0이 할당되고, 특정 MV 픽셀(102)이 켜져 있으면, 해당 MV 픽셀에 대해 이미지(또는 패턴)에 1이 할당된다. 그런 다음 일련의 비트가 해당 ID 번호로 변환된다.In various embodiments, each of FIGS. 23A-23F represents one bit of a number in binary encoding representing one MV pixel ID. If a particular MV pixel 102 is turned off in an image (or pattern), 0 is assigned to the image for that MV pixel, and if a particular MV pixel 102 is turned on, 1 is assigned to the image (or pattern) for that MV pixel. Is assigned. Then a series of bits are converted into corresponding ID numbers.

예를 들어, 도 23a 내지 도 23f에서 원형 MV 픽셀(102)은 000111의 이진 인코딩을 가지며, ID 번호는 7이다. 000111은 원형 MV 픽셀(102)이 도 23a 내지 도 23c(오른쪽의 "111")의 3개의 제 1 이미지에서 켜지는 것(즉, 1의 값이 할당됨) 및 도 23d 내지 도 23f(왼쪽의 "000") 의 3개의 후자의 이미지에서 꺼지는 것(0의 값이 할당됨)에 기초한다. 다른 예로서, 원형 MV 픽셀의 좌측에 있는 MV 픽셀은 000110(ID 번호 6)의 이진 인코딩을 가지며, 원형 MV 픽셀의 우측에 있는 MV 픽셀은 001000(ID 번호 8)의 이진 인코딩을 갖는다 .For example, in Figures 23A-23F, the circular MV pixel 102 has a binary encoding of 000111, with an ID number of seven. 000111 shows that the circular MV pixel 102 is turned on (ie assigned a value of 1) in the three first images of FIGS. 23A-23C ("111" on the right) and FIGS. 23D-23F (left) Based on being turned off (assigned a value of 0) in the three latter images of "000". As another example, the MV pixel to the left of the circular MV pixel has a binary encoding of 000110 (ID No. 6), and the MV pixel to the right of the circular MV pixel has a binary encoding of 001000 (ID No. 8).

교정 장치(210)는 교정 절차(360)의 370에서 도 23a 내지 도 23f에 대응하는 이미지를 캡처한다. 이는 교정 장치(210)가 이미지의 어느 영역이 어느 MV 픽셀(102)에 속하는지 알 수 있게 한다. 교정 장치(210)가 이미지의 어느 영역이 어느 MV 픽셀(102)들에 각각 속하는지를 알기 때문에, 맵핑은 한번에 MV 디스플레이 장치(100)의 모든 MV 픽셀(102)에 대해 캡처될 수 있다. 이것은 MV 디스플레이 장치(100)마다 수행될 수 있지만, 다수의 MV 디스플레이 장치(100)를 포함하는 전체 MV 디스플레이 시스템(122)에 걸쳐 이를 수행하는 예시적인 실시예가 있다. MV 디스플레이 시스템(122)의 모든 MV 픽셀(102)에는 자신의 고유 ID가 할당된다.Calibration device 210 captures an image corresponding to FIGS. 23A-23F at 370 of calibration procedure 360. This allows the calibration device 210 to know which region of the image belongs to which MV pixel 102. Since the calibration device 210 knows which region of the image belongs to which MV pixels 102 respectively, the mapping can be captured for all MV pixels 102 of the MV display device 100 at a time. This may be done per MV display device 100, but there is an exemplary embodiment that does this across the entire MV display system 122 including multiple MV display devices 100. Every MV pixel 102 of the MV display system 122 is assigned its own ID.

교정 단계 3: 디스플레이 픽셀 ID가 발견된다.Calibration Step 3: The Display Pixel ID is Found.

도 24a 내지 도 24t는 도 22a 내지 도 23f에서와 같이, 16개(4x4)의 MV 픽셀(102)을 갖는 렌즈 어셈블리(132)를 포함하는 MV 디스플레이(100)의 정면도이다. 보다 구체적으로, 도 24a 내지 도 24j는 빔렛 ID(또는 디스플레이 픽셀 ID)의 X 그레이 코딩 동안 MV 디스플레이 장치(100)의 정면도이고 도 24k 내지 도 24t는 빔렛 ID(또는 디스플레이 픽셀 ID)의 Y 그레이 코딩 동안 MV 디스플레이 장치(100)의 정면도이다. 도시된 이미지는 리틀-엔디안 순서로 정렬된다. 교정 장치(210)는 교정 절차(360)의 372에서 도 24a 내지 도 24t의 이미지를 캡처한다.24A-24T are front views of an MV display 100 including a lens assembly 132 having sixteen (4 × 4) MV pixels 102, as in FIGS. 22A-23F. More specifically, FIGS. 24A-24J are front views of the MV display apparatus 100 during X gray coding of beamlet IDs (or display pixel IDs) and FIGS. 24K-24T are Y gray coding of beamlet IDs (or display pixel IDs). While is a front view of the MV display device 100. The illustrated images are arranged in little-endian order. The calibration device 210 captures the image of FIGS. 24A-24T at 372 of the calibration procedure 360.

교정 장치(210)의 메모리는 교정 장치(210)의 프로세서에 의해 실행될 때, 교정 장치(210)로 하여금 디스플레이 장치(100)의 MV 픽셀(102) 각각에 대한 빔렛(또는 빔렛 ID)의 디스플레이 픽셀 ID를 결정하도록 도 24a 내지 도 24t에 도시된 MV 디스플레이 장치(100)의 이미지에 대응하는 이미지 데이터를 처리하게 하는 소프트웨어 명령을 저장한다.When the memory of the calibration device 210 is executed by the processor of the calibration device 210, the calibration device 210 causes the display pixels of the beamlets (or beamlet IDs) to each of the MV pixels 102 of the display device 100. Stores a software command to process image data corresponding to the image of the MV display device 100 shown in FIGS. 24A-24T to determine the ID.

이 단계에서, 하나의 예시적인 실시예는 각각의 빔렛이 고유 ID인 특정 시퀀스를 플래시하도록 회색 코드 인코딩(다시, 다른 인코딩이 사용될 수 있음)을 사용한다. ID 번호는 단순히 x-빔렛 좌표 다음에 y-빔렛 좌표이다. 주어진 MV 픽셀(102)에 대해, 교정 장치(210)의 위치를 가장 잘 비추는 하나의 "최상의" 빔렛이 존재한다. 이 단계에서, "최상의" 빔렛이 꺼지거나 켜져 있고, 데이터가 그 빔렛의 ID를 디코딩하는데 사용된다는 것을 의미하는, MV 픽셀(102)이 교정 장치(210)에 꺼지거나 켜지는 것을(즉, 임계 휘도 값 아래 또는 위)를 나타나는 것인 경우가 가정된다. 이에 따라, 도 24a 내지 24t에서, 원형 MV 픽셀(102)은 x 이미지 0, 4, 및 7 및 y 이미지 2, 3, 4, 6, 및 8에서 "켜짐"으로 판독되었다. 이는 0010010001(우측에서 좌측으로) 그리고 y의 경우 0101011100(우측에서 좌측으로)의 회색 코드 인코딩을 제공한다. 이들 인코딩을 이진 인코딩으로 변환하기 위해, 교정 장치(210)의 메모리는 교정 장치(210)의 프로세서에 의해 실행될 때 교정 장치(210)가 표준 회색 코드를 이진 방정식(즉, 방정식 6 내지 15)에 사용하여 회색 코드 인코딩의 이진 표현이 x의 경우 0011100001이고 y의 경우 0110010111임을 결정하도록 하는 소프트웨어 명령을 저장한다. 이것은 225의 x 좌표 및 407의 y 좌표와 동일시한다.In this step, one exemplary embodiment uses gray code encoding (again, other encodings may be used) to flash a particular sequence where each beamlet is a unique ID. The ID number is simply the x-beamlet coordinates followed by the y-beamlet coordinates. For a given MV pixel 102, there is one "best" beamlet that best illuminates the location of the calibration device 210. At this stage, the MV pixel 102 is turned off or on at the calibration device 210 (i.e., critical), meaning that the "best" beamlet is off or on and that data is used to decode the ID of the beamlet. It is assumed that the case appears below or above the luminance value. Thus, in Figures 24A-24T, circular MV pixel 102 has been read "ON" in x images 0, 4, and 7 and y images 2, 3, 4, 6, and 8. This provides gray code encoding of 0010010001 (right to left) and 0101011100 (right to left) for y. To convert these encodings into binary encoding, the memory of the calibration device 210 is executed by the processor of the calibration device 210 so that the calibration device 210 converts the standard gray code into a binary equation (ie, equations 6-15). Store a software instruction to determine that the binary representation of the gray code encoding is 0011100001 for x and 0110010111 for y. This equates to the x coordinate of 225 and the y coordinate of 407.

이진법[9] = 회색 코드[9] 방정식 6Binary Method [9] = Gray Code [9] Equation 6

이진법[8] = 이진법[9]

Figure pct00006
회색 코드[8] 방정식 7Binary Method [8] = Binary Method [9]
Figure pct00006
Gray code [8] Equation 7

이진법[7] = 이진법[8]

Figure pct00007
회색 코드[7] 방정식 8Binary Method [7] = Binary Method [8]
Figure pct00007
Gray code [7] Equation 8

이진법[6] = 이진법[7]

Figure pct00008
회색 코드[6] 방정식 9Binary Method [6] = Binary Method [7]
Figure pct00008
Gray code [6] Equation 9

이진법[5] = 이진법[6]

Figure pct00009
회색 코드[5] 방정식 10Binary Method [5] = Binary Method [6]
Figure pct00009
Gray code [5] Equation 10

이진법[4] = 이진법[5]

Figure pct00010
회색 코드[4] 방정식 11Binary Method [4] = Binary Method [5]
Figure pct00010
Gray code [4] Equation 11

이진법[3] = 이진법[4]

Figure pct00011
회색 코드[3] 방정식 12Binary Method [3] = Binary Method [4]
Figure pct00011
Gray code [3] Equation 12

이진법[2] = 이진법[3]

Figure pct00012
회색 코드[2] 방정식 13Binary Method [2] = Binary Method [3]
Figure pct00012
Gray code [2] Equation 13

이진법[1] = 이진법[2]

Figure pct00013
회색 코드[1] 방정식 14Binary Method [1] = Binary Method [2]
Figure pct00013
Gray code [1] Equation 14

이진법[0] = 이진법[1]

Figure pct00014
회색 코드[0] 방정식 15Binary Method [0] = Binary Method [1]
Figure pct00014
Gray code [0] Equation 15

교정 단계 4: 교정 개선Calibration Step 4: Improve Calibration

실제로, 교정 장치(210)는 2개(또는 심지어 4개) 빔렛 사이에 있을 수 있다. 이것은 MV 디스플레이 장치(100) 상에 렌즈의 초점이 열악할 때 더욱 가능성이 높아지며, 이 경우 도 21b의 372에서 이상적으로 하나의 빔렛만을 "최상의" 빔렛으로 보는(또는 식별하는) 교정 장치(210)는 다수의 빔렛을 볼 수 있다. 이 문제를 완화시키기 위해, 선택적으로, "개선" 단계는 교정 절차(360)의 374에서 수행된다.In practice, the calibration device 210 may be between two (or even four) beamlets. This is more likely when the lens is poorly focused on the MV display device 100, in which case the calibration device 210 ideally sees (or identifies) only one beamlet as the “best” beamlet in 372 of FIG. 21B. Can see multiple beamlets. To mitigate this problem, optionally, an "improvement" step is performed at 374 of the calibration procedure 360.

상술된 바와 같이, MV 픽셀 위치, MV 픽셀 ID, 및 디스플레이 픽셀 ID(또는 빔렛 ID)가 각각 368, 370 및 372에서 발견된 후, 교정 장치(210)는 어느 빔렛이 교정 장치(210)의 현재 위치에 최상으로 대응하는지를 평가하기에 충분한 정보를 갖는다. 추정의 정확성을 검증하기 위해, 374에서의 개선 단계에서, 교정 장치(210)는 빔렛 좌표 데이터(236)를 호스트 컴퓨터(182)(도 21a 참조)로 송신하며, 여기서 빔렛 좌표는 데이터(236)는 각각의 MV 픽셀(102)에 대한 최상의 빔렛의 초기 추정에 관한 정보를 포함한다. 그 후, 호스트 컴퓨터(182)는 MV 디스플레이 장치(100)가 추정된 "최상의" 디스플레이 픽셀(추정된 "최상의" 디스플레이 픽셀 자체 포함) 주위의 9개의 디스플레이 픽셀을 하나씩 차례로 켜는 디스플레이 패턴 데이터(228)를 전송한다.As described above, after the MV pixel location, MV pixel ID, and display pixel ID (or beamlet ID) have been found at 368, 370, and 372, respectively, the calibration device 210 determines which beamlets are present in the calibration device 210. Have enough information to evaluate whether it best corresponds to the location. To verify the accuracy of the estimate, in an improvement step at 374, the calibration apparatus 210 sends beamlet coordinate data 236 to the host computer 182 (see FIG. 21A), where the beamlet coordinates are the data 236. Contains information regarding the initial estimation of the best beamlet for each MV pixel 102. Thereafter, the host computer 182 displays the display pattern data 228 in which the MV display device 100 turns on nine display pixels one by one around the estimated "best" display pixel (including the estimated "best" display pixel itself). Send it.

도 25a 내지 25i는 본 개시의 하나 이상의 실시예들에 따른 개선 이미지들이다. 도 25a 내지 도 25i에 포함된 각각의 이미지는 교정 장치(210)에 의해 캡처되는 MV 픽셀(102)상의 하나의 빔렛(216)을 도시한다. 도시된 바와 같이, 각각의 MV 픽셀(102)은 그 안에 포함된 복수의 디스플레이 픽셀(215)로부터 복수의(예를 들어, 14x14 = 196) 빔렛을 방출한다.25A-25I are enhancement images in accordance with one or more embodiments of the present disclosure. Each image included in FIGS. 25A-25I shows one beamlet 216 on the MV pixel 102 captured by the calibration device 210. As shown, each MV pixel 102 emits a plurality of (eg, 14x14 = 196) beamlets from a plurality of display pixels 215 contained therein.

교정 장치(210)는 각각의 MV 픽셀(102)에 대해 도 25a 내지 도 25i에 도시된 9 개의 개선 이미지 중 어느 것을 결정하며 이는 전술된 바와 같이, MY 픽셀 위치 및 MV 픽셀 ID를 결정한다. 즉, 교정 장치(210)는 도 25a 내지 도 25i에 도시된 9개의 빔렛(216) 중 어느 것이 최고인지를 결정한다. 일단 도 21a에 도시된 바와 같이 최상의 빔렛(216)이 결정되면, 교정 장치(210)는 추가 처리를 위해 각각의 MV 픽셀(102)에 대한 빔렛 좌표 데이터(236)를 다시 호스트 컴퓨터(182)로 전송한다. 전술한 바와 같이, 하나 이상의 실시예에서, 각각의 빔렛(216)은 디스플레이 픽셀(215) 중 하나에 대응하고, 각각의 디스플레이 픽셀(215)은 복수의(예를 들어, RGB) 디스플레이 서브-픽셀(126)로 구성된다(도 5a 내지 도 5c 참조). 도시된 실시예에서, 각각의 MV 픽셀(102)은 각각 복수의 디스플레이 서브-픽셀(126)로 구성되는 196(=14x14) 디스플레이 픽셀(215)을 포함한다. 따라서, 각각의 MV 픽셀(102)은 196개의 디스플레이 픽셀(215)로부터 196개의 상이한 방향으로 상이한 컬러/휘도를 갖는 196개의 빔렛을 각각 방출할 수 있다.The calibration device 210 determines for each MV pixel 102 any of the nine enhancement images shown in FIGS. 25A-25I, which, as described above, determine the MY pixel location and the MV pixel ID. That is, the calibration device 210 determines which of the nine beamlets 216 shown in FIGS. 25A-25I is the best. Once the best beamlet 216 is determined, as shown in FIG. 21A, the calibration apparatus 210 returns the beamlet coordinate data 236 for each MV pixel 102 back to the host computer 182 for further processing. send. As noted above, in one or more embodiments, each beamlet 216 corresponds to one of the display pixels 215, and each display pixel 215 is a plurality of (eg, RGB) display sub-pixels. 126 (see Figs. 5A to 5C). In the illustrated embodiment, each MV pixel 102 includes 196 (= 14 × 14) display pixels 215 each comprised of a plurality of display sub-pixels 126. Thus, each MV pixel 102 may emit 196 beamlets each having a different color / luminance in 196 different directions from 196 display pixels 215.

또한 개선하는 다수의 대안적인 방법이 있다. 예를 들어, 상기 예시된 실시예는 추정된 최상의 디스플레이 픽셀 주위에서 8개의 디스플레이 픽셀을 선택하지만, 9 개의 디스플레이 픽셀 영역(3x3) 대신 추정된 최고의 디스플레이 픽셀을 중심으로 하는 25개의 디스플레이 픽셀 영역(5x5)이 사용될 수도 있다. 개선 공정에 필요한 이미지의 수를 감소시키기 위한 인코딩 방법이 또한 사용될 수 있다. 그러한 인코딩 중 하나는 각각의 디스플레이 픽셀 대신에 각각의 행 및 열을 순차적으로 도시하는 것을 수반한다. 9개의 디스플레이 픽셀 영역(3x3)의 경우, 그러한 인코딩 방법을 사용하면 필요한 이미지 수가 9개에서 6개로 감소된다. 이 방법은 MV 픽셀의 위치에서 어떤 행 이미지가 가장 밝고 어떤 열 이미지가 가장 밝은지를 찾는다. 이러한 정보에 기초하여, 어느 디스플레이 픽셀이 MV 픽셀에 대해 가장 밝은지(즉, 가장 밝은 열 및 행에 위치되는 디스플레이 픽셀)가 고유하게 결정될 수 있다.There are also a number of alternative ways to improve. For example, the illustrated embodiment selects eight display pixels around the estimated best display pixel, but instead of nine display pixel regions 3x3, 25 display pixel regions (5x5) centered around the estimated highest display pixel. ) May be used. Encoding methods can also be used to reduce the number of images needed for the improvement process. One such encoding involves sequentially showing each row and column instead of each display pixel. In the case of nine display pixel regions (3x3), using such an encoding method reduces the number of images required from nine to six. This method finds which row image is the brightest and which column image is the brightest at the position of the MV pixel. Based on this information, it can be uniquely determined which display pixel is the brightest for the MV pixel (ie, the display pixel located in the brightest column and row).

교정 절차 후, MV 디스플레이 시스템(122)은 어느 빔렛(216)이 교정 장치(210)의 위치에 대응하는지 및 뷰잉 구역 좌표계에서 어느 좌표가 교정 장치(210)의 위치에 대응하는지를 안다. 다양한 실시예에서, 교정 절차(도 21b의 364 내지 374)는 교정 공간 주위에 퍼져 있는 다수의 상이한 위치(예를 들어, 최소값은 약 11이고 최대값은 거의 50 임)에서 교정 장치(210)로 여러 번 실행되고, 수학적 모델의 계수 및 상수는 376에서 추정될 수 있다. 다양한 실시예에서, 이것은 그 안에 저장된 모든 뷰잉 구역 좌표/빔렛 맵핑 모두를 갖는 호스트 컴퓨터(182)상에서 수행된다. 수집된 맵핑 및 식 1-5에 의해 주어진 것과 같은 목적 함수, 예를 들어, 다수의 알려지지 않은 계수 및 상수(예를 들어, 식 1-5에서와 같이 교정 파라미터(p0, p1,..., p15))는 비-선형 솔버(non-linear solver)에 입력한다. 비선형 솔버는 데이터를 사용하여 제공된 데이터의 "최적합"에 반복적으로 수렴하려고 한다. 본 개시의 관점에서, 당업자는 이 작업을 완료하기 위해 비-선형 솔버를 적용하는 방법을 이해할 것이다. 일단 계수 및 상수가 발견되면, (이제 각각의 MV 픽셀(102)에 대해 결정된 계수 및 상수를 갖는) 수학적 모델은 뷰잉 구역 좌표를 입력으로서 취하고 대응하는 빔렛의 ID를 리턴할 수 있다. 다양한 실시예들에서, 이 모델은 뷰잉 구역 좌표계에서의 좌표들을 평판 디스플레이(110)의 빔렛 좌표계에서의 대응하는 좌표들로 변환하는데 사용하기 위해 MV 디스플레이 장치(100)의 디스플레이 제어기(170)로 송신된다.After the calibration procedure, the MV display system 122 knows which beamlet 216 corresponds to the location of the calibration device 210 and which coordinates in the viewing zone coordinate system correspond to the location of the calibration device 210. In various embodiments, the calibration procedure (364-374 in FIG. 21B) is carried out to the calibration device 210 at a number of different locations (eg, a minimum of about 11 and a maximum of about 50) spread around the calibration space. Run many times, the coefficients and constants of the mathematical model can be estimated at 376. In various embodiments, this is performed on the host computer 182 with all of the viewing area coordinate / beamlet mappings stored therein. The collected mapping and the objective function as given by equations 1-5, for example, a number of unknown coefficients and constants (e.g., calibration parameters (p 0 , p 1 ,... ., p 15 )) is entered into the non-linear solver. The nonlinear solver attempts to iteratively converge to the "best fit" of the provided data using the data. In view of the present disclosure, those skilled in the art will understand how to apply a non-linear solver to complete this task. Once the coefficients and constants are found, the mathematical model (which now has the coefficients and constants determined for each MV pixel 102) can take the viewing area coordinates as input and return the ID of the corresponding beamlet. In various embodiments, this model transmits to the display controller 170 of the MV display device 100 for use in converting coordinates in the viewing zone coordinate system to corresponding coordinates in the beamlet coordinate system of the flat panel display 110. do.

수정Modified

설명 된 교정 절차는 시간이 많이 걸리며 노이즈가 발생하기 쉽다. 예를 들어, 하나의 구현예에서, 2D 카메라로 교정하기 위해서는 교정 장치(210)가 항상 2D 평면 내에 배치될 필요가 있을 수 있다(시스템이 임의의 2D 표면을 허용하도록 적응될 수 있기 때문에 이것이 엄격한 요건은 아닐 수도 있음). 이러한 문제 중 일부를 완화하기 위해, 결과를 개선하기 위해 공정을 약간 변경할 수 있다.The calibration procedure described is time consuming and noise prone. For example, in one implementation, the calibration device 210 may always need to be placed in the 2D plane to calibrate with a 2D camera (this is strict because the system may be adapted to allow any 2D surface). May not be required). To alleviate some of these problems, you can make minor changes to the process to improve the results.

예를 들어, 역 패턴이 사용될 수 있다. 인코딩 패턴이 캡처될 때(위에서 설명된 바와 같이 MV 픽셀 ID 및 빔렛(디스플레이 픽셀), ID를 결정하는 동안), 패턴의 역도 캡처될 수 있다. 즉, 패턴에서 MV 픽셀이 "켜짐"이면 반대 이미지에서는 "꺼짐"이되고 그 반대도 마찬가지이다. 이는 MV 디스플레이 시스템(122)이 신호 대 잡음비를 두 배로하기 위해 패턴의 이미지로부터 패턴의 역의 이미지를 공제할 수 있게 한다. 이것은 2개의 이미지가 공제될 때, 이미지의 임의의 기준선 휘도(즉, MV 디스플레이 장치(100)의 표면에서 반사되는 광)가 공제되고, MV 픽셀(102)로부터의 신호 만이 남겨지기 때문이다.For example, an inverse pattern can be used. When the encoding pattern is captured (as described above, MV pixel ID and beamlet (display pixel), while determining the ID), the inverse of the pattern can also be captured. That is, if the MV pixel is "on" in the pattern, it is "off" in the opposite image and vice versa. This allows the MV display system 122 to subtract the inverse image of the pattern from the image of the pattern to double the signal to noise ratio. This is because when two images are subtracted, any baseline luminance (i.e., light reflected from the surface of the MV display device 100) of the image is subtracted, leaving only the signal from the MV pixel 102 left.

다른 예로서, 개구 조정이 사용될 수 있다. 교정 절차가 올바르게 작동하기 위해 교정 장치(210)는 MV 픽셀(102)이 "켜짐"인 경우와 "꺼짐"인 경우사이의 차이를 말할 수 있는 것이 필요할 수 있다. "꺼짐"은 광의 완전한 부재가 아닐 수 있기 때문에(예를 들어, 백라이트로부터의 광 누출로 인해 MV 픽셀이 "켜짐"으로 보일 수 있다), 교정 장치(210)는 "꺼짐" 오프 픽셀이 꺼짐으로 판독되도록 그리고 "켜짐" MV 픽셀이 켜짐으로 판독되도록 적절한 양의 광으로 되도록 조정될 수 있다. 이를 달성하기 위해, MV 디스플레이 장치(100)는 MV 픽셀의 절반이 켜지고 다른 절반이 꺼짐인 패턴을 보여준다. 그런 다음 사용자는 꺼짐 MV 픽셀이 카메라 피드에서 꺼짐으로 나타날 때까지 카메라의 조리개 링을 조정한다.As another example, aperture adjustment may be used. In order for the calibration procedure to work correctly, the calibration device 210 may need to be able to tell the difference between when the MV pixel 102 is "on" and "off". Since “off” may not be a complete absence of light (eg, the MV pixel may appear to be “on” due to light leakage from the backlight), the calibration device 210 may turn off the “off” off pixel. It can be adjusted to read and the "on" MV pixel to be the appropriate amount of light to read on. To accomplish this, the MV display device 100 shows a pattern in which half of the MV pixels are on and the other half are off. The user then adjusts the camera's aperture ring until the off MV pixel appears off in the camera feed.

또 다른 예로서, 교정 로봇이 사용될 수 있다. 교정의 하나의 구현예는 MV 디스플레이 장치(100)에 부착된 2D 카메라(104)를 사용하기 때문에, 사용자가 MV 디스플레이 장치(100)의 카메라(104)에 대해 교정 장치(210)를 이동시킬 필요없이 MV 디스플레이 장치(100)를 카메라(104)로 교정하는 것이 효율적일 수 있다. MV 디스플레이 장치(100)는 사전 교정될 수 있다. 이러한 문제를 해결하기 위해 교정 로봇이 사용될 수 있다. 로봇은 MV 디스플레이 장치(100) 및/또는 교정 장치(210)가 로봇에 배치되도록 구성된다. 그 후 로봇은 MV 디스플레이 장치(100) 및 교정 장치(210)를 자동화된 방식으로 이동시켜, 교정 장치(210)를 배치하기 위해 공급된 원하는 위치의 목록에 기초하여 맵핑을 캡처한다. 로봇이 캡처링 맵핑을 완료하면, 계수 및 상수를 수학적 모델에서 계산할 수 있고, 후속 처리에 사용하기 위해 계수 및 상수를 저장한다.As another example, a calibration robot can be used. Since one embodiment of calibration uses the 2D camera 104 attached to the MV display device 100, the user needs to move the calibration device 210 relative to the camera 104 of the MV display device 100. It may be efficient to calibrate the MV display device 100 with the camera 104 without. The MV display apparatus 100 may be precalibrated. Orthodontic robots can be used to solve this problem. The robot is configured such that the MV display device 100 and / or the calibration device 210 are disposed on the robot. The robot then moves the MV display device 100 and the calibration device 210 in an automated manner to capture the mapping based on the list of desired locations supplied for placing the calibration device 210. Once the robot has completed the capturing mapping, the coefficients and constants can be calculated in a mathematical model and stored coefficients and constants for use in subsequent processing.

이 로봇이 구축될 수 있는 한 가지 방법은 MV 디스플레이 장치(100)를 정지 상태로 두고 교정 장치(210) 카메라를 뷰잉 공간 내에서 이동시키는 것이다. 이로 인해 방을 많이 차지해야 하는 매우 큰 로봇이 생길 수 있다. 대신에, 교정 장치(210) 카메라가 일정한 라인 내에 유지되도록 로봇이 구축될 수 있고, MV 디스플레이 장치(100)는 MV 디스플레이 장치(100) 주위를 이동하는 교정 장치(210) 카메라를 시뮬레이션하기 위해 이동되고(pan) 기울어진다(tilt). 교정 장치(210) 카메라는 MV 디스플레이 장치(100) 주위에서 캡처된 지점들이 반구가 아닌 평면 상에 있도록 하기 위해 여전히 선으로 앞뒤로 이동한다. 이러한 방식으로 로봇 기능에 필요한 액추에이터 수가 감소된다. 로봇을 구동하는 소프트웨어는 그에 공급된 물리적 위치(즉, MV 디스플레이 장치(100)로부터의 x, y, z 오프셋)를 이동, 기울기 및 거리 좌표로 변환하는 공식을 사용할 수 있다. 이것은 교정 로봇이 MV 디스플레이 장치(100)를 임의의 세트의 포인트로 교정할 수 있게 한다.One way the robot can be built is to move the calibration device 210 camera within the viewing space with the MV display device 100 stationary. This can lead to very large robots that require a lot of room. Instead, the robot can be constructed such that the calibration device 210 camera remains within a certain line, and the MV display device 100 moves to simulate the calibration device 210 camera moving around the MV display device 100. Pan and tilt. The calibration device 210 camera still moves back and forth in line to ensure that the points captured around the MV display device 100 are on a plane rather than a hemisphere. In this way, the number of actuators required for robot function is reduced. The software that drives the robot may use a formula that converts the physical location (ie, x, y, z offset from the MV display device 100) supplied to it to movement, tilt and distance coordinates. This allows the calibration robot to calibrate the MV display device 100 to any set of points.

로봇은 제어된 조명 환경에 배치되어 교정 공정의 다른 부분에 따라 조명이 변경될 수 있다. 이는 측정기의 노이즈를 감소시키기 위해 체커보드가 교정 장치(210)에서 잘 조명되도록 보장할 수 있다(따라서 디스플레이 센서(226)를 보다 쉽게 볼 수 있게 한다). 교정 장치(210)가 패턴을 캡처하는 교정 공정의 일부에 대해 조명이 꺼질 수 있으며, MV 디스플레이 장치(100)상의 반사 광을 감소시킨다.The robot can be placed in a controlled lighting environment such that the lighting can be changed according to different parts of the calibration process. This can ensure that the checkerboard is well illuminated in the calibration device 210 to reduce the noise of the meter (thus making the display sensor 226 easier to see). Illumination may be turned off for a portion of the calibration process in which the calibration device 210 captures the pattern, reducing the reflected light on the MV display device 100.

카메라(104)가 부착된 개별 MV 디스플레이 장치(100)의 경우, MV 디스플레이 장치(100)는 설치되기 전에 완전히 교정될 수 있다. 이것은 일반적으로 비교적 작은 MV 디스플레이 장치(100) 및 임의의 MV 픽셀과 관련하여 이동할 수 없는 카메라(104)에 의해 해당된다. 그러나, 복수의 MV 디스플레이 장치(100)가 사용되는 경우, 디스플레이 센서(104)에 대한 각각의 MV 디스플레이 장치(100)의 정확한 위치는 미리 알려지지 않을 수 있기 때문에(예를 들어, MV 디스플레이 장치(100)가 함께 타일링되기 전에) MV 디스플레이 장치(100)를 완전히 사전 교정하는 것이 어려울 수 있다. 다양한 실시예에서, 현장에서 교정을 완료하기 전에 MV 디스플레이 장치(100)를 부분적으로 교정하는데 로봇이 사용될 수 있다. 교정 로봇은 MV 디스플레이 장치(100)의 고유 속성을 결정하고, 현장의 고유 속성을 결정할 수 있다. 예를 들어, 다양한 실시예에서, 방사상 왜곡 계수 및 렌즈 중심 상수(즉, 렌즈(렌즈 시스템)이 오버(over)되는 픽셀을 표시하는)는 교정 로봇으로 교정되는데, 이는 MV 디스플레이 장치의 위치 또는 디스플레이 센서(104)에 대해 어떻게 배향되는지에 상관없이 변하지 않기 때문이다. 그 후, 디스플레이 카메라(104)에 대한 렌즈(렌즈 시스템)의 위치를 설명하는 분수 선형 투영 방정식이 필드에서 교정된다. 계수와 상수 중 일부가 사전 교정되기 때문에, 솔버가 나머지 계수를 결정할 때 갖는 자유도가 적다. 따라서 현장에서 전체 교정을 수행하는 것보다 적은 수의 포인트를 캡처할 수 있다. 분수 선형 투영 방정식 계수를 얻은 후에는 사전-교정된 계수와 결합하여 수학적 모델에 사용할 전체 계수 세트를 얻을 수 있다.In the case of the individual MV display apparatus 100 to which the camera 104 is attached, the MV display apparatus 100 may be fully calibrated before being installed. This is generally the case with the relatively small MV display device 100 and the camera 104 being unable to move in relation to any MV pixel. However, when a plurality of MV display devices 100 are used, since the exact position of each MV display device 100 relative to the display sensor 104 may not be known in advance (for example, the MV display device 100 It may be difficult to fully precalibrate the MV display device 100) prior to tiling together). In various embodiments, a robot may be used to partially calibrate the MV display device 100 prior to completing calibration in the field. The calibration robot may determine the unique property of the MV display apparatus 100 and determine the unique property of the site. For example, in various embodiments, the radial distortion coefficients and lens center constants (i.e., displaying pixels over which the lens (lens system) is over) are calibrated with a calibration robot, which is the location or display of the MV display device. This is because it does not change regardless of how it is oriented with respect to sensor 104. Then, the fractional linear projection equation describing the position of the lens (lens system) relative to the display camera 104 is corrected in the field. Since some of the coefficients and constants are precalibrated, the solver has less freedom in determining the remaining coefficients. This allows you to capture fewer points than performing a full calibration in the field. After obtaining the fractional linear projection equation coefficients, we can combine them with the pre-calibrated coefficients to obtain the complete set of coefficients for use in the mathematical model.

2017년 11월 10일자로 출원된 미국 특허 출원 제 15/809,147호의 개시 내용은 그 전문이 본원에 포함된다.The disclosure of US patent application Ser. No. 15 / 809,147, filed November 10, 2017, is incorporated herein in its entirety.

전술 한 다양한 실시예는 추가 실시예를 제공하기 위해 조합될 수 있다.The various embodiments described above can be combined to provide further embodiments.

상기 상세한 설명에 비추어 실시예에 대한 이들 및 다른 변경이 이루어질 수 있다. 일반적으로, 다음의 청구 범위에서, 사용된 용어는 청구 범위를 본 명세서 및 청구 범위에 개시된 특정 실시예로 제한하는 것으로 해석되어서는 안되며, 이러한 청구범위에 의해 부여된, 그와 동등한 등가물의 전체 범위와 함께 모든 가능한 실시예를 포함하는 것으로 해석되어야 한다. 따라서, 청구 범위는 본 개시에 의해 제한되지 않는다.These and other changes to the embodiments can be made in light of the above detailed description. In general, in the following claims, the terms used should not be construed as limiting the claims to the specific embodiments disclosed herein and in the claims, and the full scope of equivalents to which such claims are entitled. Should be construed as including all possible embodiments. Accordingly, the claims are not limited by this disclosure.

Claims (15)

멀티-뷰 디스플레이 장치로서,
디스플레이 픽셀의 어레이를 포함하는 디스플레이;
렌즈들의 어레이를 포함하는 렌즈 어레이 패널로서, 상기 렌즈들 및 상기 렌즈가 배치되는 상기 디스플레이 픽셀 각각은 멀티-뷰(MV) 픽셀을 형성하고, 상기 MV 픽셀은 빔렛을 상이한 방향으로 방출하여 MV 픽셀의 어레이가 각각 MV 픽셀의 상기 어레이에 대해 위치된 상이한 뷰잉 구역에서 가시적인 상이한 이미지를 형성하도록 구성되는, 렌즈 어레이 패널; 및
상기 디스플레이 및 상기 렌즈 어레이 패널을 포함하는 인클로저를 포함하는, 멀티-뷰 디스플레이 장치.
A multi-view display device,
A display comprising an array of display pixels;
A lens array panel comprising an array of lenses, each of the lenses and the display pixels on which the lenses are disposed form a multi-view (MV) pixel, wherein the MV pixels emit beamlets in different directions to produce an MV pixel. A lens array panel, wherein the array is configured to form different images, each visible in a different viewing area positioned relative to the array of MV pixels; And
And an enclosure comprising the display and the lens array panel.
제 1 항에 있어서,
상기 인클로저는 상기 디스플레이에 인접하게 배치된 후방 커버 및 상기 렌즈 어레이 패널에 인접하게 배치된 전방 커버를 포함하고,
상기 전방 커버는 상기 MV 픽셀에 각각 대응하는 구멍(aperture)을 정의하는, 멀티-뷰 디스플레이 장치.
The method of claim 1,
The enclosure includes a rear cover disposed adjacent the display and a front cover disposed adjacent the lens array panel,
And the front cover defines an aperture corresponding to each of the MV pixels.
제 1 항에 있어서,
각각의 디스플레이 픽셀은 복수의 디스플레이 서브-픽셀로 형성되고,
상기 멀티-뷰 디스플레이 장치는 상기 평판 디스플레이와 상기 렌즈 어레이 패널 사이에 배치된 확산기를 포함하고,
상기 확산기는 제 1 축선을 따라 더 많은 확산을 제공하고 상기 디스플레이의 디스플레이 서브-픽셀 구성에 따라 상기 제 1 축선과 다른 제 2 축선을 따라 더 적은 확산을 제공하도록 비대칭인, 멀티-뷰 디스플레이 장치.
The method of claim 1,
Each display pixel is formed of a plurality of display sub-pixels,
The multi-view display device comprises a diffuser disposed between the flat panel display and the lens array panel,
And the diffuser is asymmetrical to provide more diffusion along a first axis and less diffusion along a second axis different from the first axis according to the display sub-pixel configuration of the display.
제 1 항에 있어서,
사변형 형상을 갖고 상기 사변형 형상의 대향하는 양쪽 에지 상에 제공된 네트워크 및 전력 커넥터를 포함하고, 제 1 네트워크 커넥터에 결합된 제 1 네트워크 인터페이스 및 제 2 네트워크 커넥터에 결합된 제 2 네트워크 인터페이스를 포함하는 제어기를 포함하고,
상기 제 1 및 제 2 네트워크 인터페이스 중 하나는 신호를 입력하기 위한 업스트림 인터페이스로서 기능하고, 상기 제 1 및 제 2 네트워크 인터페이스 중 다른 하나는 신호를 출력하기 위한 다운스트림 인터페이스로서 기능하고,
상기 제어기는 제 1 전력 커넥터에 결합된 제 1 전력 인터페이스 및 제 2 전력 커넥터에 결합된 제 2 전력 인터페이스를 더 포함하고,
상기 제 1 및 제 2 전력 인터페이스 중 하나는 전력을 입력하기 위한 업스트림 인터페이스로서 기능하고, 제 1 및 제 2 전력 인터페이스의 다른 하나는 전력을 출력하기 위한 다운스트림 인터페이스로서 기능하는, 멀티-뷰 디스플레이 장치.
The method of claim 1,
A controller having a quadrilateral shape and provided on both opposite edges of the quadrangle shape, the network and power connector comprising a first network interface coupled to a first network connector and a second network interface coupled to a second network connector Including,
One of the first and second network interfaces serves as an upstream interface for inputting signals, the other of the first and second network interfaces serves as a downstream interface for outputting signals,
The controller further comprises a first power interface coupled to a first power connector and a second power interface coupled to a second power connector,
One of the first and second power interfaces serves as an upstream interface for inputting power and the other of the first and second power interfaces serves as a downstream interface for outputting power. .
제 1 항에 있어서,
상기 렌즈 어레이 패널은 레일로 형성된 프레임; 및
프레임에 의해 지지되고 렌즈 어레이 패널의 렌즈 어레이를 집합적으로 형성하기 위해 서로 인접하여 타일링되는 복수의 렌즈 조립체를 포함하는, 멀티-뷰 디스플레이 장치.
The method of claim 1,
The lens array panel comprises a frame formed of a rail; And
And a plurality of lens assemblies supported by the frame and tiled adjacent to each other to collectively form a lens array of the lens array panel.
제 5 항에 있어서,
상기 렌즈 어셈블리들 각각은 함께 적층된 적어도 2 개의 렌즈 어레이들을 포함하고,
상기 렌즈 어셈블리들 각각은 제 1 기계식 커플러를 포함하는 제 1 렌즈 어레이, 제 1 기계식 커플러와 연결 가능한 제 2 기계식 커플러, 및 제 3 기계식 커플러를 포함하는 제 2 렌즈 어레이, 및 제 3 기계식 커플러와 연결 가능한 제 4 기계식 커플러를 포함하는 제 3 렌즈 어레이를 포함하며,
각각의 렌즈 조립체는 미광이 MV 픽셀 중에서 교차하는 것을 차단하도록 구성된 내부 배플을 포함하고,
상기 내부 배플은 상기 렌즈 어레이에 정의된 리세스로 형성되는, 멀티-뷰 디스플레이 장치.
The method of claim 5,
Each of the lens assemblies comprises at least two lens arrays stacked together,
Each of the lens assemblies includes a first lens array comprising a first mechanical coupler, a second mechanical coupler connectable with the first mechanical coupler, and a second lens array including a third mechanical coupler, and a third mechanical coupler. A third lens array comprising a possible fourth mechanical coupler,
Each lens assembly includes an internal baffle configured to block stray light from crossing among the MV pixels,
And the inner baffle is formed with a recess defined in the lens array.
제 6 항에 있어서,
상기 렌즈 조립체의 하나 이상의 표면은 광-흡수 물질로 코팅되고,
상기 광-흡수 코팅은 반사-방지 코팅 전에 적용되거나 또는 밴드 패스 코팅이 상기 렌즈 어셈블리의 하나 이상의 표면에 적용되고,
상기 렌즈의 어레이는 불투명 매체로부터 성형된 구멍 구조의 표면 상에 투명 매체를 오버 몰딩함으로써, 또는 투명 매체로부터 성형된 렌즈의 어레이에 대한 불투명 필름의 인-몰드 본딩에 의해 형성되는, 멀티-뷰 디스플레이 장치.
The method of claim 6,
At least one surface of the lens assembly is coated with a light-absorbing material,
The light-absorption coating is applied before the anti-reflective coating or a band pass coating is applied to one or more surfaces of the lens assembly,
The array of lenses is formed by overmolding a transparent medium on the surface of a hole structure molded from an opaque medium or by in-mold bonding of an opaque film to an array of lenses molded from the transparent medium. Device.
제 1 항에 있어서,
상기 렌즈 어레이 패널과 상기 디스플레이 사이에 배치되고 미광이 상기 MV 픽셀 사이에서 교차하는 것을 차단하도록 구성되는 배플의 시트를 포함하는, 멀티-뷰 디스플레이 장치.
The method of claim 1,
And a sheet of baffle disposed between the lens array panel and the display and configured to block stray light from crossing between the MV pixels.
서로 결합된 둘 이상의 멀티-뷰(MV) 디스플레이 장치의 동작을 제어하는 방법으로서, 각각의 MV 디스플레이 장치는 MV 장치에 대해 위치된 복수의 뷰잉 구역에 복수의 이미지를 투영하도록 구성되는, 방법으로서,
상기 둘 이상의 MV 디스플레이 장치에 각각 주소를 할당하는 단계;
하나 이상의 뷰잉 구역의 사양(specification)을 수신하는 단계;
상기 하나 이상의 뷰잉 구역에 하나 이상의 이미지가 형성되는 기초가 되는 콘텐츠의 사양을 수신하는 단계; 및
하나 이상의 이미지를 하나 이상의 뷰잉 구역에 각각 투영하도록 둘 이상의 MV 디스플레이 장치를 제어하는 단계를 포함하는, 방법.
A method of controlling the operation of two or more multi-view (MV) display devices coupled to each other, wherein each MV display device is configured to project a plurality of images to a plurality of viewing areas located relative to the MV device.
Assigning addresses to the at least two MV display devices, respectively;
Receiving a specification of one or more viewing zones;
Receiving a specification of the underlying content on which one or more images are formed in the one or more viewing zones; And
Controlling two or more MV display devices to project one or more images to one or more viewing zones, respectively.
제 9 항에 있어서,
상기 콘텐츠와 둘 이상의 MV 디스플레이 장치 사이의 맵핑의 사용자 사양을 수신하는 단계를 포함하는, 방법.
The method of claim 9,
Receiving a user specification of a mapping between the content and two or more MV display devices.
제 9 항에 있어서,
상기 하나 이상의 뷰잉 구역의 사양을 수신하는 단계에서, 교정 공간 내의 뷰잉 구역과, 뷰잉 구역 좌표계 내의 비-교정 공간에서의 뷰잉 구역을 구별하는, 방법.
The method of claim 9,
In receiving a specification of the one or more viewing zones, distinguishing a viewing zone in a calibration space from a viewing zone in a non-calibration space in a viewing zone coordinate system.
제 9 항에 있어서,
단일-뷰 모드에서, 둘 이상의 MV 디스플레이 장치의 시야 내에서 모든 뷰잉 구역에서 동일한 콘텐츠를 볼 수 있게 하는, 방법.
The method of claim 9,
In single-view mode, allowing the same content to be viewed in all viewing zones within the field of view of two or more MV display devices.
제 9 항에 있어서,
상기 MV 디스플레이 장치의 뷰잉 공간의 3D 모델 및 뷰잉 구역의 표현을 중첩시키는 단계; 및
실시간으로 상기 뷰잉 공간을 나타내는 포인트 클라우드 데이터 및 상기 뷰잉 구역의 표현을 중첩하는 단계를 포함하는, 방법.
The method of claim 9,
Superimposing a representation of the viewing area and the 3D model of the viewing space of the MV display device; And
Superimposing a representation of the viewing area and point cloud data representing the viewing space in real time.
제 11 항에 있어서,
조작자가 복수의 뷰잉 구역을 생성 및/또는 조정하도록 구성된 그래픽 사용자 인터페이스를 디스플레이하는 단계;
조작자가 콘텐츠를 생성 및/또는 조정할 수 있도록 구성된 그래픽 사용자 인터페이스를 디스플레이하는 단계; 및
하나 이상의 뷰잉 구역을 하나 이상의 콘텐츠 군에 할당하는 단계를 포함하는, 방법.
The method of claim 11,
Displaying, by an operator, a graphical user interface configured to create and / or adjust a plurality of viewing zones;
Displaying a graphical user interface configured to allow an operator to create and / or adjust content; And
Assigning one or more viewing zones to one or more content groups.
제 9 항에 있어서,
MV 디스플레이 구성을 저장하는 단계로서, 각각의 MV 디스플레이 구성은 일련의 뷰잉 구역 및 어떤 뷰잉 구역이 어떤 콘텐츠 군에 할당되는지를 정의하는, 단계, 및
트리거에 기초하여 MV 디스플레이 구성 중 하나를 선택하는 단계로서, 상기 트리거는 사용자-입력 트리거, 센서-기반 트리거, 사전-프로그램된 트리거, 및 타이밍 트리거 중 하나 이상인 단계를 포함하는, 방법.
The method of claim 9,
Storing an MV display configuration, each MV display configuration defining a series of viewing zones and which viewing zones are assigned to which content groups, and
Selecting one of the MV display configurations based on a trigger, the trigger comprising one or more of a user-input trigger, a sensor-based trigger, a pre-programmed trigger, and a timing trigger.
KR1020197028521A 2017-11-10 2018-11-08 Precision multi-view display KR102235591B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/809,147 US10778962B2 (en) 2017-11-10 2017-11-10 Precision multi-view display
US15/809,147 2017-11-10
PCT/US2018/059859 WO2019094616A1 (en) 2017-11-10 2018-11-08 Precision multi-view display

Publications (2)

Publication Number Publication Date
KR20190129899A true KR20190129899A (en) 2019-11-20
KR102235591B1 KR102235591B1 (en) 2021-04-05

Family

ID=66433554

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197028521A KR102235591B1 (en) 2017-11-10 2018-11-08 Precision multi-view display

Country Status (7)

Country Link
US (3) US10778962B2 (en)
EP (1) EP3580927B1 (en)
JP (1) JP6847248B2 (en)
KR (1) KR102235591B1 (en)
CN (1) CN110495167B (en)
CA (1) CA3055436C (en)
WO (1) WO2019094616A1 (en)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD841011S1 (en) 2016-08-23 2019-02-19 Amazon Technologies, Inc. Electronic device cover
US20190179591A1 (en) * 2017-12-13 2019-06-13 Innolux Corporation Display device
TWI641871B (en) * 2018-01-12 2018-11-21 群睿股份有限公司 Stereoscopic image display device
CN108198238B (en) * 2018-01-30 2021-06-22 北京小米移动软件有限公司 Holographic projection apparatus, method, device and computer readable storage medium
US10298921B1 (en) 2018-02-27 2019-05-21 Looking Glass Factory, Inc. Superstereoscopic display with enhanced off-angle separation
USD872093S1 (en) * 2018-08-01 2020-01-07 Shenzhenshi Weimeijuguang Technology Co., Ltd Tablet case
USD868071S1 (en) * 2018-08-03 2019-11-26 Heng-Xing Liu Case for electronic device
USD860999S1 (en) * 2018-08-07 2019-09-24 Spigen Korea Co., Ltd. Case for tablet computer
USD868788S1 (en) * 2018-10-25 2019-12-03 Shenzhen Guangyipeng Technology Co., Ltd. Laptop case
USD868789S1 (en) * 2018-10-25 2019-12-03 Shenzhen Guangyipeng Technology Co., Ltd. Tablet case
USD868790S1 (en) * 2018-11-29 2019-12-03 Shenzhen Guangyipeng Technology Co., Ltd. Tablet case
USD868791S1 (en) * 2018-12-21 2019-12-03 Shenzhen Guangyipeng Technology Co., Ltd. Protective case for a tablet PC with a stand
GB2580388B (en) * 2019-01-09 2021-07-28 Jaguar Land Rover Ltd Control system for a vehicle
USD892803S1 (en) * 2019-02-01 2020-08-11 Urban Armor Gear, Llc Case for a computing device
USD906334S1 (en) * 2019-04-29 2020-12-29 Shenzhen Xizu Technology Co., Ltd. Protective case for tablet computer
KR20220010498A (en) * 2019-05-20 2022-01-25 라이트 필드 랩 인코포레이티드 Scan Line Refresh for Modular Display Systems
USD908130S1 (en) * 2019-06-07 2021-01-19 Shenzhen Zhisihui Technology Co., Ltd. Tablet case
USD892804S1 (en) * 2019-06-14 2020-08-11 Guangzhou Roiskin Electrical Technology Co. Ltd Tablet case
CN110430417B (en) * 2019-08-07 2021-04-20 中国商用飞机有限责任公司北京民用飞机技术研究中心 Multi-view stereoscopic image generation method and device, computer equipment and storage medium
CA3148748C (en) * 2019-08-27 2023-09-19 Leia Inc. Multiview backlight, display, and method employing an optical diffuser
USD905698S1 (en) * 2019-09-06 2020-12-22 Amazon Technologies, Inc. Electronic device cover
US11929602B2 (en) * 2019-10-23 2024-03-12 Cable Management Solutions Inc. Cable conveyance systems incorporating electronic visual displays
CN112929649A (en) * 2019-12-05 2021-06-08 北京芯海视界三维科技有限公司 Multi-view naked eye 3D display screen and multi-view naked eye 3D display terminal
CN110991050B (en) * 2019-12-06 2022-10-14 万翼科技有限公司 CAD (computer-aided design) image stacking method and related product
USD920336S1 (en) * 2019-12-12 2021-05-25 Shaogang Cheng Ipad case
USD883989S1 (en) * 2020-01-22 2020-05-12 Jinhua Cheng Tablet case
USD942438S1 (en) 2020-02-28 2022-02-01 Catalyst Lifestyle Limited Bumper for electronic communications device
USD941297S1 (en) * 2020-02-28 2022-01-18 Catalyst Lifestyle Limited Bumper for electronic device
US11698549B2 (en) 2020-03-13 2023-07-11 Misapplied Sciences, Inc. Multi-view display panel
CN111240034B (en) * 2020-03-25 2021-06-15 北京航空航天大学 3D display device
US11474770B2 (en) * 2020-03-26 2022-10-18 Misapplied Sciences, Inc. Multi-view network bridge device
USD923012S1 (en) * 2020-04-09 2021-06-22 Huaiwen Li Case for portable computer
USD972571S1 (en) * 2020-04-29 2022-12-13 Shenzhen Weimeijuguang Technology Co., Ltd. Protective case for tablet
USD907638S1 (en) * 2020-05-19 2021-01-12 Honglin Yang Ipad case
WO2021237065A1 (en) 2020-05-21 2021-11-25 Looking Glass Factory, Inc. System and method for holographic image display
WO2021243037A1 (en) * 2020-05-27 2021-12-02 Looking Glass Factory, Inc. System and method for holographic displays
USD902216S1 (en) * 2020-06-28 2020-11-17 Zhaohong Xu Portable electronic device case
JP1690981S (en) * 2020-07-01 2021-07-26
FR3114674A1 (en) * 2020-09-28 2022-04-01 Prismaflex International MODULE FOR DIGITAL DISPLAY PANEL AND ASSOCIATED DIGITAL DISPLAY PANEL
KR20220045862A (en) * 2020-10-06 2022-04-13 삼성전자주식회사 Method and apparatus of measuring dynamic crosstalk
US11477427B2 (en) * 2021-01-27 2022-10-18 Huawei Technologies Co., Ltd. 3D light field displays utilizing micro-LED pixel arrays and metasurface multi-lens arrays
USD943591S1 (en) * 2021-02-02 2022-02-15 Kun Zhu Tablet case
USD930002S1 (en) * 2021-02-08 2021-09-07 Huimin Zhou Tablet case
USD957405S1 (en) * 2021-02-19 2022-07-12 Zhiwei Wu Protective case for tablet
USD951959S1 (en) * 2021-05-31 2022-05-17 Hailin Qu Protective case with stand for tablet computer
FR3123999A1 (en) * 2021-06-15 2022-12-16 Idemia France Display of a 3D image in a lens display device
US20230086009A1 (en) * 2021-09-23 2023-03-23 Latch Systems, Inc. System and techniques to normalize objects in spatial imaging of spaces
US11934063B2 (en) 2022-02-07 2024-03-19 Apple Inc. Adaptive exterior display
USD964992S1 (en) * 2022-03-10 2022-09-27 ZhaoYi Xu Portable electronic device case

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6169632B1 (en) * 1997-08-12 2001-01-02 Daktronics, Inc. Display system
US20130298173A1 (en) * 2012-05-04 2013-11-07 Thales Avionics, Inc. Aircraft in-flight entertainment system with robust daisy-chained network
KR20150085012A (en) * 2012-11-16 2015-07-22 코닌클리케 필립스 엔.브이. Reflective or transflective autostereoscopic display with reduced banding effects
US20160212417A1 (en) * 2015-01-20 2016-07-21 Misapplied Sciences, Inc. Method for calibrating a multi-view display

Family Cites Families (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2846856B2 (en) 1996-07-19 1999-01-13 三洋電機株式会社 3D image display device
GB2317291A (en) 1996-09-12 1998-03-18 Sharp Kk Observer tracking directional display
US5949581A (en) 1997-08-12 1999-09-07 Daktronics, Inc. Display system
AUPP496198A0 (en) 1998-07-31 1998-08-20 Resmed Limited Switches with graphical display
KR100389249B1 (en) * 2000-04-29 2003-06-25 한국과학기술연구원 Multi-view image display system
US7487112B2 (en) 2000-06-29 2009-02-03 Barnes Jr Melvin L System, method, and computer program product for providing location based services and mobile e-commerce
AU2001284622A1 (en) 2000-09-25 2002-04-02 The Singapore Mint Multiple image surface
US20030115096A1 (en) 2001-12-17 2003-06-19 Reynolds Randy B. Computer-controlled, remotely programmed at-shelf advertising system
WO2003058979A2 (en) 2002-01-04 2003-07-17 Neurok Llc Three-dimensional image projection employing retro-reflective screens
US7492513B2 (en) 2002-01-23 2009-02-17 Sergey Fridman Autostereoscopic display and method
US6800031B2 (en) 2002-04-15 2004-10-05 Microsoft Corporation Method of conducting an interactive competition
JP3966830B2 (en) 2003-03-28 2007-08-29 株式会社東芝 3D display device
US7001023B2 (en) 2003-08-06 2006-02-21 Mitsubishi Electric Research Laboratories, Inc. Method and system for calibrating projectors to arbitrarily shaped surfaces with discrete optical sensors mounted at the surfaces
GB0322681D0 (en) 2003-09-27 2003-10-29 Koninkl Philips Electronics Nv Multi-view display
JP2005136691A (en) 2003-10-30 2005-05-26 Fuji Photo Film Co Ltd Image managing system
EP1719096A4 (en) * 2004-02-17 2007-01-17 Vistoys Australia Pty Ltd Electronic interlocking graphics panel formed of modular interconnecting parts
US7369100B2 (en) 2004-03-04 2008-05-06 Eastman Kodak Company Display system and method with multi-person presentation function
US7602395B1 (en) 2005-04-22 2009-10-13 Nvidia Corporation Programming multiple chips from a command buffer for stereo image generation
GB2428153A (en) 2005-07-08 2007-01-17 Sharp Kk Interactive multiple view display
EP1909255B1 (en) 2005-07-25 2011-04-06 Pioneer Corporation Image display device
US8064414B2 (en) 2005-12-13 2011-11-22 Qualcomm, Incorporated Range extension techniques for a wireless local area network
US20080144174A1 (en) * 2006-03-15 2008-06-19 Zebra Imaging, Inc. Dynamic autostereoscopic displays
JP2009540381A (en) 2006-06-16 2009-11-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Multi-view display device
JP2008134617A (en) * 2006-10-23 2008-06-12 Nec Lcd Technologies Ltd Display device, terminal device, display panel, and optical member
IL183173A (en) 2007-05-14 2013-11-28 David Eduard Sitbon Crossing-located alert system for indicating a safety problem
US20120268451A1 (en) 2007-06-25 2012-10-25 Industrial Technology Research Institute Three-dimensional (3d) display
US9035968B2 (en) 2007-07-23 2015-05-19 Humaneyes Technologies Ltd. Multi view displays and methods for producing the same
US8228196B1 (en) 2008-07-25 2012-07-24 Sprint Communications Company L.P. Displaying advertisements based on electronic tags
US20110169863A1 (en) 2008-09-30 2011-07-14 Yasuji Kawai Transmission terminal, display apparatus, image display transmission system provided with the transmission terminal and the display apparatus, and data transfer method implemented in the system
KR101290013B1 (en) 2008-10-07 2013-07-30 엘지디스플레이 주식회사 Multi-view Display Device
US8075138B2 (en) 2009-02-23 2011-12-13 Third Dimension Ip Llc System and methods for angular slice true 3-D display
WO2010102290A2 (en) 2009-03-06 2010-09-10 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for generating autostereo three-dimensional views of a scene for a plurality of viewpoints using a pseudo-random hole barrier
CN101846757A (en) * 2009-03-24 2010-09-29 鸿富锦精密工业(深圳)有限公司 Micro lens and micro lens array
US20110242298A1 (en) 2009-08-21 2011-10-06 Microsoft Corporation Private video presentation
US8854531B2 (en) 2009-12-31 2014-10-07 Broadcom Corporation Multiple remote controllers that each simultaneously controls a different visual presentation of a 2D/3D display
CN101800622B (en) 2010-01-08 2015-10-21 中兴通讯股份有限公司 The signaling configuration method of Physical Uplink Shared Channel and system
US8941312B2 (en) 2010-01-19 2015-01-27 Ncp Corporation Apparatus and method for controlling LED light strings
US8687051B2 (en) 2010-03-03 2014-04-01 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Screen and method for representing picture information
EP2395759B1 (en) 2010-06-11 2015-03-04 Sony Ericsson Mobile Communications AB Autostereoscopic display device and method for operating an autostereoscopic display device
US8624960B2 (en) 2010-07-30 2014-01-07 Silicon Image, Inc. Multi-view display system
EP2616401A4 (en) 2010-09-16 2017-06-28 Specmat Inc. Method, process and fabrication technology for high-efficency low-cost crytalline silicon solar cells
JP5302285B2 (en) 2010-10-28 2013-10-02 シャープ株式会社 Stereoscopic video output device, stereoscopic video output method, stereoscopic video output program, computer-readable recording medium, and stereoscopic video display device
US8817080B2 (en) 2010-12-02 2014-08-26 At&T Intellectual Property I, L.P. Location based media display
US20120218253A1 (en) 2011-02-28 2012-08-30 Microsoft Corporation Adjusting 3d effects for wearable viewing devices
US20130013412A1 (en) 2011-07-08 2013-01-10 Qualcomm Incorporated Methods and Systems for Displaying GEO-Based Offers on a Mobile Advertising Display Device
WO2013082326A1 (en) * 2011-11-30 2013-06-06 Reald Inc. Laser beam scanned display apparatus and method thereof
US20130093752A1 (en) 2011-10-13 2013-04-18 Sharp Laboratories Of America, Inc. Viewer reactive auto stereoscopic display
US9080279B2 (en) 2011-10-24 2015-07-14 Lg Electronics Inc. Washing machine to produce three-dimensional motion
EP2777291B1 (en) 2011-11-09 2022-04-20 Koninklijke Philips N.V. Display device
EP2611152A3 (en) 2011-12-28 2014-10-15 Samsung Electronics Co., Ltd. Display apparatus, image processing system, display method and imaging processing thereof
EP2615838B1 (en) 2012-01-12 2019-08-21 SeeFront GmbH Calibration of an autostereoscopic display system
TR201903727T4 (en) 2012-03-27 2019-04-22 Koninklijke Philips Nv Multi-user autostereoscopic display screen with location tracing.
US20130282452A1 (en) 2012-04-23 2013-10-24 Jianping He Advertisement Revenues Shared With Subscribers
KR101507756B1 (en) 2012-04-24 2015-04-07 코닌클리케 필립스 엔.브이. Auto-stereoscopic display device and driving method
WO2013183108A1 (en) 2012-06-04 2013-12-12 株式会社Pfu Information processing device, method, and program
KR20140007703A (en) 2012-07-10 2014-01-20 삼성전자주식회사 Image display apparatus and menu display method
US20140035877A1 (en) 2012-08-01 2014-02-06 Hon Hai Precision Industry Co., Ltd. Using a display device with a transparent display to capture information concerning objectives in a screen of another display device
US9989206B2 (en) 2013-03-11 2018-06-05 Inception Innovations, Llc Architectural lighting methods and apparatus
US9047042B2 (en) 2013-04-19 2015-06-02 Qualcomm Incorporated Modifying one or more session parameters for a coordinated display session between a plurality of proximate client devices based upon eye movements of a viewing population
WO2015003250A1 (en) 2013-07-11 2015-01-15 Dejero Labs Inc. Systems and methods for transmission of data streams
US20150042771A1 (en) 2013-08-07 2015-02-12 United Video Properties, Inc. Methods and systems for presenting supplemental content in media assets
KR102140080B1 (en) 2013-09-27 2020-07-31 삼성전자주식회사 Multi view image display apparatus and controlling method thereof
US9195281B2 (en) * 2013-12-31 2015-11-24 Ultravision Technologies, Llc System and method for a modular multi-panel display
KR102220910B1 (en) 2014-01-10 2021-02-25 엘지전자 주식회사 A home appliance and a controlling method thereof
US9800845B2 (en) 2014-02-07 2017-10-24 Microsoft Technology Licensing, Llc Projector-based crowd coordination and messaging
US9373306B2 (en) 2014-03-25 2016-06-21 Intel Coporation Direct viewer projection
JP6335623B2 (en) * 2014-05-07 2018-05-30 日本放送協会 3D image display device
US9706622B2 (en) 2014-05-16 2017-07-11 Musco Corporation Sports lighting to increase contrast of an aerial sports object relative to background
US20150356912A1 (en) 2014-06-06 2015-12-10 Microsoft Corporation Hybrid Messaging System
CN103995361B (en) * 2014-06-17 2017-01-11 上海新视觉立体显示科技有限公司 Naked eye 3D display pixel unit and multi-view naked eye 3D image display device
US9704392B2 (en) 2014-12-02 2017-07-11 Operr Technologies, Inc. Method and system for legal parking
US11099798B2 (en) 2015-01-20 2021-08-24 Misapplied Sciences, Inc. Differentiated content delivery system and method therefor
US10928914B2 (en) 2015-01-29 2021-02-23 Misapplied Sciences, Inc. Individually interactive multi-view display system for non-stationary viewing locations and methods therefor
US10955924B2 (en) 2015-01-29 2021-03-23 Misapplied Sciences, Inc. Individually interactive multi-view display system and methods therefor
US10264247B2 (en) 2015-02-03 2019-04-16 Misapplied Sciences, Inc. Multi-view displays
KR102490440B1 (en) 2015-03-03 2023-01-18 미스어플라이드 사이언시스 인코포레이티드 System and method for displaying location dependent content
US10362301B2 (en) 2015-03-05 2019-07-23 Misapplied Sciences, Inc. Designing content for multi-view display
US9715827B2 (en) 2015-04-01 2017-07-25 Misapplied Sciences, Inc. Multi-view traffic signage
US9784439B2 (en) 2015-05-19 2017-10-10 David W. Baker Safety holiday light assembly and method for safe installation from the ground
US10613699B2 (en) 2015-06-11 2020-04-07 Misapplied Sciences, Inc. Multi-view display cueing, prompting, and previewing
KR101956810B1 (en) 2015-06-11 2019-03-12 미스어플라이드 사이언시스 인코포레이티드 Multi-view architectural lighting system
US9792712B2 (en) 2015-06-16 2017-10-17 Misapplied Sciences, Inc. Computational pipeline and architecture for multi-view displays
US9396588B1 (en) 2015-06-30 2016-07-19 Ariadne's Thread (Usa), Inc. (Dba Immerex) Virtual reality virtual theater system
CN105336273B (en) * 2015-11-30 2018-05-29 合肥惠科金扬科技有限公司 A kind of mosaic screen
US10602131B2 (en) 2016-10-20 2020-03-24 Misapplied Sciences, Inc. System and methods for wayfinding and navigation via multi-view displays, signage, and lights
US10269279B2 (en) 2017-03-24 2019-04-23 Misapplied Sciences, Inc. Display system and method for delivering multi-view content
US20180357981A1 (en) 2017-06-13 2018-12-13 Misapplied Sciences, Inc. Coordinated multi-view display experiences
US10427045B2 (en) 2017-07-12 2019-10-01 Misapplied Sciences, Inc. Multi-view (MV) display systems and methods for quest experiences, challenges, scavenger hunts, treasure hunts and alternate reality games
US10565616B2 (en) 2017-07-13 2020-02-18 Misapplied Sciences, Inc. Multi-view advertising system and method
US10404974B2 (en) 2017-07-21 2019-09-03 Misapplied Sciences, Inc. Personalized audio-visual systems

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6169632B1 (en) * 1997-08-12 2001-01-02 Daktronics, Inc. Display system
US20130298173A1 (en) * 2012-05-04 2013-11-07 Thales Avionics, Inc. Aircraft in-flight entertainment system with robust daisy-chained network
KR20150085012A (en) * 2012-11-16 2015-07-22 코닌클리케 필립스 엔.브이. Reflective or transflective autostereoscopic display with reduced banding effects
US20160212417A1 (en) * 2015-01-20 2016-07-21 Misapplied Sciences, Inc. Method for calibrating a multi-view display

Also Published As

Publication number Publication date
KR102235591B1 (en) 2021-04-05
EP3580927A4 (en) 2020-12-30
WO2019094616A1 (en) 2019-05-16
EP3580927B1 (en) 2024-05-15
US20200366884A1 (en) 2020-11-19
CN110495167B (en) 2021-08-24
CN110495167A (en) 2019-11-22
EP3580927A1 (en) 2019-12-18
US20190149808A1 (en) 2019-05-16
JP2020517978A (en) 2020-06-18
CA3055436A1 (en) 2019-05-16
US11553172B2 (en) 2023-01-10
CA3055436C (en) 2021-12-14
JP6847248B2 (en) 2021-03-31
US11483542B2 (en) 2022-10-25
US10778962B2 (en) 2020-09-15
US20200366885A1 (en) 2020-11-19

Similar Documents

Publication Publication Date Title
KR102235591B1 (en) Precision multi-view display
US11269244B2 (en) System and method for calibrating a display system using manual and semi-manual techniques
TWI502269B (en) Method and apparatus for displaying 3d images
KR100864139B1 (en) Method and apparatus for displaying 3d images
KR102537692B1 (en) 3D Light Field LED Wall Display
US8310525B2 (en) One-touch projector alignment for 3D stereo display
US9357206B2 (en) Systems and methods for alignment, calibration and rendering for an angular slice true-3D display
CN102540489B (en) Aperture adjustable three-dimensional displaying device and method thereof
EP3903147A1 (en) Multiview display, system, and method having dynamic color sub-pixels remapping
US20200209806A1 (en) Active Light-Field Holographic Elements, Light-Field Display Devices, and Methods
KR101182470B1 (en) The media box having the steric effect
CN110082960B (en) Highlight partition backlight-based light field display device and light field optimization algorithm thereof
US9052186B2 (en) Correspondence mapping between an imaging system and a directional rendering system
Huang et al. Glasses-free led Holoscopic 3D wall with effective pixel mapping
KR102670407B1 (en) Autostereoscopic 3-Dimensional Display
JP2022523875A (en) Multi-view display alignment method and system
Qingxuan et al. Study on the building method of immersive virtual environments based on commodity components for virtual manufacturing
Koike et al. Integral videography display with field sequential LCD

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant