JP2020512735A - Compression method and system for near-eye display - Google Patents

Compression method and system for near-eye display Download PDF

Info

Publication number
JP2020512735A
JP2020512735A JP2019548643A JP2019548643A JP2020512735A JP 2020512735 A JP2020512735 A JP 2020512735A JP 2019548643 A JP2019548643 A JP 2019548643A JP 2019548643 A JP2019548643 A JP 2019548643A JP 2020512735 A JP2020512735 A JP 2020512735A
Authority
JP
Japan
Prior art keywords
eye
viewer
image
field
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019548643A
Other languages
Japanese (ja)
Inventor
エル−ゴロウリー,フセイン・エス
グラジオーシ,ダニーロ・ビイ
アルパスラン,ザヒール・ワイ
Original Assignee
オステンド・テクノロジーズ・インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オステンド・テクノロジーズ・インコーポレーテッド filed Critical オステンド・テクノロジーズ・インコーポレーテッド
Publication of JP2020512735A publication Critical patent/JP2020512735A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/307Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • H04N19/426Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements using memory downsizing methods
    • H04N19/428Recompression, e.g. by spatial or temporal decimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/02Handling of images in compressed format, e.g. JPEG, MPEG
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2350/00Solving problems of bandwidth in display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2018Display of intermediate tones by time modulation using two or more time intervals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2085Special arrangements for addressing the individual elements of the matrix, other than by driving respective rows and columns in combination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/93Run-length coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Discrete Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Eye Examination Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

入力帯域幅およびシステム処理リソースを低減するニアアイディスプレイシステムのための画像圧縮方法が開示される。人間の視覚システムの角度を一致させることを目的とした、高次基底変調、ダイナミック色域、光フィールド深度サンプリング、および画像データワード長の短縮および量子化を提供する圧縮入力ディスプレイの使用に結合された色および深度視力は、実質的に低減された入力インタフェース帯域幅および処理リソースにおけるモバイルアプリケーションに適したニアアイディスプレイシステムにおける高忠実度視覚体験を可能にする。An image compression method for a near-eye display system that reduces input bandwidth and system processing resources is disclosed. Combined with the use of high-order basis modulation, dynamic color gamut, optical field depth sampling, and compressed input displays that provide image data word length reduction and quantization for the purpose of matching the angles of the human visual system. Color and depth vision enable a high fidelity visual experience in near-eye display systems suitable for mobile applications with substantially reduced input interface bandwidth and processing resources.

Description

本発明は、概して、撮像システムのための圧縮方法に関し、より詳細には、画像化システムのための圧縮方法に関する、頭部装着型またはニアアイディスプレイシステムのための画像およびデータ圧縮方法を提供し、これらをまとめて、本明細書では、ニアアイディスプレイシステムと呼ぶ。   The present invention relates generally to compression methods for imaging systems, and more particularly to compression methods for imaging systems and image and data compression methods for head-mounted or near-eye display systems. These are collectively referred to as a near-eye display system in the present specification.

最近、ニアアイディスプレイ装置は広く一般に注目されている。ニアアイディスプレイ装置は新しいものではなく、多くの試作品および市販品を1960年代まで追跡することができる、発明の開示発明が解決しようとする課題しかしながら、最近の進歩は、ネットワーク化されたコンピューティング、組込み計算、ディスプレイ技術および光学設計の進歩は、そのような装置における関心を更新してきた。ニアアイディスプレイシステムは、通常、プロセッサ(埋め込みまたは外部)、データ収集のための追跡センサ、表示装置および必要な光学部品と結合されるプロセッサは、典型的には、センサから取得されたデータを処理し、ユーザの1つまたは両方の目の視野内の仮想画像として表示されるべきデータを生成する。このデータは、単純な警告メッセージまたは2d情報チャートから複雑な浮動動画3dオブジェクトへの範囲とすることができる。   Recently, near-eye display devices have received widespread attention. Near-eye display devices are not new, and many prototypes and commercial products can be traced to the 1960s. DISCLOSURE OF THE INVENTION Problems to be Solved by the Invention However, recent advances have been made in networked computing. Advances in embedded computing, display technology and optical design have renewed interest in such devices. Near-eye display systems are usually combined with a processor (embedded or external), a tracking sensor for data collection, a display and the necessary optics, and the processor typically processes the data acquired from the sensor. And generate data to be displayed as a virtual image within the field of view of one or both eyes of the user. This data can range from simple warning messages or 2d info charts to complex floating animated 3d objects.

最近では、ニアアイ用ディスプレイののクラスは、注目されている。すなわち、ニアアイ拡張現実感(AR:near−eye拡張現実感)である)仮想現実(VR)は、”生活に似た”視覚的経験を有する視聴者を提示する次世代ディスプレイとして表示する。加えて、ニアアイarディスプレイは、高解像度3dコンテンツtを有するモバイル視聴者を提示するための最終手段として見られるを視聴者の周囲現実シーンにブレンドして、視聴者の情報へのアクセスを拡張するように構成されているArディスプレイの主要な目的は、現在のモバイルディスプレイの視聴制限を伝達し、ユーザの移動度を低下させずに、モバイル機器の物理的な制限に限定されない視聴範囲を提供することである。他方、ニアアイvrディスプレイは、視聴者を視聴されたコンテンツに没入させる360°3d映画視聴体験を有する視聴者を提示することが想定されるArおよびvrの両方の表示技術は、携帯電話およびパーソナルコンピュータの連続の背後に”次のコンピューティングプラットフォーム”として見られ、モバイルユーザの情報アクセスの成長および情報市場の成長およびそれを提供するビジネスの成長を拡張する本明細書では、AR/vrディスプレイはしばしば”ニアアイ”ディスプレイと呼ばれ、本発明の方法が一般にニアアイディスプレイに適用され、それ自体にar/vrディスプレイに限定されないという事実を強調する。   Recently, the class of display for near-eye has attracted attention. That is, near-eye augmented reality (AR) virtual reality (VR) is displayed as a next-generation display that presents a viewer with a "life-like" visual experience. In addition, near-eye ar displays extend what is seen as a last resort for presenting mobile viewers with high-resolution 3d content t to the viewer's ambient reality scene, extending access to the viewer's information. The primary purpose of Ar displays configured to convey the viewing restrictions of current mobile displays is to provide viewing ranges that are not limited to the physical restrictions of mobile devices without compromising the mobility of the user. That is. On the other hand, near-eye vr displays are expected to present a viewer with a 360 ° 3d movie viewing experience that immerses the viewer in the viewed content, both Ar and vr display technologies for mobile phones and personal computers. Seen as the "next computing platform" behind the continuum of, AR / vr displays are often used herein to expand the growth of mobile users' information access and the growth of the information market and the businesses that serve it. Called a "near-eye" display, it emphasizes the fact that the method of the invention is generally applied to near-eye displays and is not limited to ar / vr displays per se.

既存のニアアイar及びvrディスプレイの主な欠点は、低リフレッシュレート表示技術によって引き起こされる運動酔いを含む;に起因する眼の歪みおよび悪心を回避し、適度に広い視野(FOV)において、眼の制限された解像度を達成することを可能にする。これらの欠点を解決するための既存の試みは、より高いリフレッシュレートを有するディスプレイを使用すること、より多くのピクセル(より高い解像度)を有するディスプレイを使用すること、または複数のディスプレイまたはイメージ平面を使用することを含むこれらの全ての試みの間の共通のテーマは、より高い入力データ帯域幅の必要性である。大型化、複雑さおよび過剰な電力消費を追加することなく、より高いデータ帯域幅に対処することができるようにする。[解決手段]。圧縮の使用は、大容量データを扱うための通常の解決策であるが、ニアアイディスプレイの要件は、従来のビデオ圧縮アルゴリズムによって達成されることができる独特なものであり、経エンドであるニアアイディスプレイ用のビデオ圧縮は、既存の圧縮スキームによって提供されるものよりも高い圧縮比を達成しなければならず、非常に低い消費電力及び低い待ち時間の追加された要件を伴う。   The main drawbacks of existing near-eye ar and vr displays include motion sickness caused by low refresh rate display technology; avoiding eye distortions and nausea caused by, and limiting eye in a reasonably wide field of view (FOV). Allows to achieve the resolution achieved. Existing attempts to solve these shortcomings have involved using a display with a higher refresh rate, using a display with more pixels (higher resolution), or using multiple displays or image planes. A common theme during all these attempts, including using, is the need for higher input data bandwidth. Allows higher data bandwidth to be accommodated without adding size, complexity and excessive power consumption. [Solution]. While the use of compression is the usual solution for dealing with large amounts of data, the requirements of near-eye displays are unique and can be achieved by traditional video compression algorithms. Video compression for eye displays must achieve higher compression ratios than provided by existing compression schemes, with the added requirement of very low power consumption and low latency.

ニアアイディスプレイの高圧縮率、低レイテンシ、及び低消費電力制約は、データ圧縮(t)への新しいアプローチを必要とするこのような人間の視覚システム(HVS)機能を利用するデータ圧縮方式と同様に、圧縮されたキャプチャおよびディスプレイならびに圧縮されたキャプチャおよびディスプレイを提供する発明の開示発明が解決しようとする課題したがって、本発明の目的は、従来技術の限界および弱点を克服するニアアイ圧縮のための方法を導入することである、このようにして、厳格なモバイルデバイス設計を満たすことができるニアアイディスプレイを作成することが可能になる。コンパクト性および消費電力の要件およびそのような装置のユーザは、広い角度範囲にわたって2dまたは3dコンテンツのいずれかの視覚的経験を向上させる。本発明のさらなる目的および利点は、添付図面を参照しながら、以下の好ましい実施形態の詳細な説明から明らかになるであろう。   The near-eye display's high compression ratio, low latency, and low power consumption constraints are similar to data compression schemes that utilize such human visual system (HVS) features that require a new approach to data compression (t). SUMMARY OF THE INVENTION DISCLOSURE OF THE INVENTION PROVIDING COMPRESSED CAPTURE AND DISPLAY AND COMPRESSED CAPTURE AND DISPLAY The present invention therefore seeks to overcome Introducing a method, in this way, makes it possible to create a near-eye display that can meet stringent mobile device designs. The compactness and power consumption requirements and users of such devices enhance the visual experience of either 2d or 3d content over a wide angular range. Further objects and advantages of the present invention will be apparent from the following detailed description of the preferred embodiments with reference to the accompanying drawings.

ニアアイディスプレイのための方法を記載する多数の先行技術が存在する。典型的な例として、maimon、Andrew、およびhenryfuchs。”計算拡張現実眼鏡.”混在して拡張現実(ISMAR))ieeeinternationalsymposiumon、pp 計算拡張現実(AR)ディスプレイ。本発明は、LCDを利用して、積層された層を介して明視野を再現する、記載されたニアアイ表示試作品である、データ圧縮及び低待ち時間要件に対処するものではない。このarディスプレイはまた、広視野の視野を有し、相互のオクルージョンおよび焦点深度のキューを可能にする非エンコーディングフォーマットを達成する。しかし、LCD層パターンを決定するためのプロセスは、非常に時間がかかり、電力を消費する計算集中テンソル因数分解に基づく。このarディスプレイはまた、光遮断LCDを使用することに起因して、著しく低下した輝度を有する。これは、表示技術が、ニアアイ表示領域に提示される全ての問題を解決する際に、表示技術が、ニアアイディスプレイの性能および先行技術がいかに短くなるかの影響をどのように影響させるかのさらに別の例である。   There are numerous prior art describing methods for near-eye displays. Typical examples are maimon, Andrew, and manyfuchs. "Computational Augmented Reality Glasses." Mixed augmented reality (ISMAR)) eyeinternational symposium, pp Computational Augmented Reality (AR) display. The present invention does not address the data compression and low latency requirements of the described near-eye display prototypes that utilize LCDs to reproduce brightfield through stacked layers. The ar display also has a wide field of view, achieving a non-encoding format that allows for occlusion of each other and depth of focus cues. However, the process for determining the LCD layer pattern is based on computationally intensive tensor factorization which is very time consuming and power consuming. This ar display also has significantly reduced brightness due to the use of light blocking LCDs. This is how the display technology affects the performance of the near-eye display and how the prior art will be shortened in solving the problems presented by the near-eye display area. This is another example.

図1aおよび図1bに示される典型的な従来技術のニアアイディスプレイシステム(100)、組込みプロセッサ(102)または外部プロセッサ(107)とすることができるプロセッサなどの要素の組合せから構成される、眼および頭部追跡要素(210)と、表示装置(103)と、ディスプレイ画像の人間の視覚システム(HVS)への拡大および中継のための光学系(104)とを含む102(図1a)または107(図1b)のいずれかである目及び頭部追跡要素(210)から取得された知覚データを処理し、表示される対応する画像を生成するすることを特徴とするこのデータ処理は、組込みプロセッサ102(図1)を備えたニアアイ装置において内部的に行われる。このような処理は、外部プロセッサ(107)によって遠隔で行うことができる(図1b) 後者のアプローチは、最新世代のCPU、GPU、および到来する追跡を処理するためのタスク特有の処理装置のようなより強力なプロセッサの使用を可能にする。データをデータに変換し、対応する画像をパーソナルエリアネットワーク(PAN)を介して送信する(109)に負担をかけることなく、画像処理を扱うために必要な処理スループットやメモリを有するより強力な画像遠隔処理装置(107)を利用できるという利点がある。一方、panを介してデータを送信することは、低レイテンシの高解像度映像伝送帯域幅の要求のような自己の課題を有する。panにおけるビデオ伝送プロトコルのための新たな低遅延プロトコル(zravi、R;Fleury、M;Ghanbari、M.を参照のこと)、”拡張現実のためのパーソナルエリアネットワークにおける低遅延ビデオ制御”、画像処理、IET、vol。2、no。3、pp。に記載されている 150−162、June2008)は、ニアアイディスプレイ画像生成のための外部プロセッサ(107)の使用を可能にして、高品質の没入型立体vr表示を可能にすることができる、このようなpanプロトコルは、高解像度3dおよびVACフリーの視聴体験を有する視聴者を提示することを目的としたニアアイarおよびvr表示の新たな生成のための高帯域幅データ要求に対処することができない。   An eye comprising a combination of elements such as a processor, which may be the exemplary prior art near-eye display system (100) shown in FIGS. 1a and 1b, an embedded processor (102) or an external processor (107). And head tracking element (210), display device (103), and optics (104) for expansion and relay of the displayed image to the human visual system (HVS) (FIG. 1a) or 107. This data processing, characterized in that it processes perceptual data obtained from the eye and head tracking elements (210), which are any of (FIG. 1b), to produce the corresponding image to be displayed. Internally in a near-eye device with 102 (FIG. 1). Such processing can be done remotely by an external processor (107) (FIG. 1b). The latter approach is more like a task-specific processing unit for processing the latest generation CPUs, GPUs, and incoming traces. Enable the use of more powerful processors. A more powerful image with the processing throughput and memory needed to handle the image processing without burdening (109) the conversion of the data into data and the transmission of the corresponding image over the personal area network (PAN). There is the advantage that a remote processing device (107) can be used. On the other hand, sending data over the pan has its own challenges, such as low latency, high resolution video transmission bandwidth requirements. New low-delay protocol for video transmission protocols in pan (see zravi, R; Fleury, M; Ghanbari, M.), "Low-delay video control in personal area networks for augmented reality", image processing , IET, vol. 2, no. 3, pp. 150-162, June 2008), which allows the use of an external processor (107) for near-eye display image generation to enable high quality immersive stereoscopic vr display. Such pan protocols cannot address the high bandwidth data requirements for new generation of near-eye ar and vr displays aimed at presenting viewers with high resolution 3d and VAC-free viewing experience. .

それにもかかわらず、より高度なディスプレイ技術を使用すると、システム全体に新たな課題が課される。新たな撮像方法は、生成されるデータ量を増加させ、ディスプレイに送信する必要があり、サイズの制約のためである、拡大された量のデータを処理するために使用される従来の圧縮方法はもはや適していない。したがって、ニアアイディスプレイにデータを生成し、圧縮し、送信する新しい方法が必要とされる   Nevertheless, the use of more advanced display technologies poses new challenges to the overall system. New imaging methods increase the amount of data generated and need to be sent to the display, due to size constraints, traditional compression methods used to handle expanded amounts of data are No longer suitable. Therefore, a new way to generate, compress and send data to near-eye displays is needed

以下の説明において、同様の参照番号は、異なる図面においても同様の要素に使用される。詳細な構成及び要素のような説明において定義された事項が提供されて、例示的な実施形態の包括的な理解。しかしながら、本発明は、特に限定されない事項を用いずに実施することができる。また、周知の機能または構成は、本発明を不必要な詳細で曖昧にしないので、詳細には説明されない。本発明を理解し、どのように実施することができるかを理解するために、本発明のいくつかの実施形態について説明する、非限定的な例として、添付の図面を参照して説明する。   In the description below, like reference numbers are used for like elements in different drawings. A comprehensive understanding of the exemplary embodiments is provided given the items defined in the description, such as detailed configurations and elements. However, the present invention can be implemented without using any particular limitation. Also, well-known functions or constructions are not described in detail as they do not obscure the present invention in unnecessary detail. In order to understand the present invention and how it can be implemented, some embodiments of the present invention are described by way of non-limiting examples with reference to the accompanying drawings.

組込みプロセッサを組み込んだ従来技術のニアアイディスプレイシステムのブロック図を示す図である。FIG. 1 is a block diagram of a prior art near-eye display system incorporating an embedded processor. 接続された外部プロセッサを組み込んだ従来技術のニアアイディスプレイシステムのブロック図である。FIG. 3 is a block diagram of a prior art near-eye display system incorporating an external processor connected. 組込みプロセッサを備えた本発明のニアアイディスプレイシステムのブロック図である。FIG. 6 is a block diagram of the near-eye display system of the present invention with an embedded processor. 外部プロセッサを備えた本発明のニアアイディスプレイシステムのブロック図を示す。FIG. 6 shows a block diagram of a near-eye display system of the present invention with an external processor. 本発明のニアアイディスプレイシステムの文脈内で圧縮された表示の視覚的伸張機能を適用するエンコーダの機能ブロック図を示す図である。FIG. 6 shows a functional block diagram of an encoder that applies a visual decompression feature of a compressed display within the context of the near-eye display system of the present invention. 本発明のビジュアル解凍方法の基底係数変調を示す。6 illustrates a base coefficient modulation of the visual decompression method of the present invention. 本発明のビジュアル解凍方法の基底係数切捨てを示す。6 illustrates the base coefficient truncation of the visual decompression method of the present invention. 本発明の中心窩化されたビジュアル解凍方法によって使用される、視聴者の注視点の周りの視野(FOV)領域を示す図である。FIG. 6 is a diagram showing a field of view (FOV) region around a viewer's point of gaze used by the foveated visual decompression method of the present invention. 本発明の中心窩化されたビジュアル解凍方法を組み込むニアアイディスプレイシステムのブロック図を示す。FIG. 3 shows a block diagram of a near-eye display system incorporating the foveated visual decompression method of the present invention. 本発明の中心窩化されたビジュアル解凍方法の基底係数切捨てを示す図である。FIG. 6 is a diagram showing the base coefficient truncation of the foveated visual decompression method of the present invention. 視聴者のHVSの角速度およびFOVに一致する、ニアアイディスプレイシステムの光変調器要素の実装を示す。5 shows an implementation of a light modulator element of a near-eye display system that matches the viewer's HVS angular velocity and FOV. 本発明のニアアイディスプレイシステムの光学要素の実装を示す。3 shows an implementation of the optical elements of the near-eye display system of the present invention. 本発明のこのニアアイ光フィールドディスプレイのマルチ焦点平面の実施形態を示す。1 illustrates a multi-focal plane embodiment of this near-eye optical field display of the present invention. 本発明の一実施形態を示す。この実施形態は、標準的なホロプター表面を使用して、多焦点平面のニアアイ表示を実現する。1 illustrates an embodiment of the present invention. This embodiment uses a standard horopter surface to achieve a multifocal plane near-eye display. 本発明のマルチ焦点面ニアアイ光フィールドディスプレイのためのコンテンツの生成を示す図である。FIG. 6 illustrates the generation of content for a multi-focal plane near-eye light field display of the present invention. 本発明のマルチ焦点深度フィルタリング方法を実施する実施形態を示す図である。FIG. 6 illustrates an embodiment for implementing the multi-focal depth filtering method of the present invention. 本発明のマルチ焦点面ニアアイ光フィールドディスプレイに入力される光フィールドデータの圧縮されたレンダリングを実施する実施形態を示す図である。FIG. 5 illustrates an embodiment implementing compressed rendering of light field data input to a multi-focal plane near-eye light field display of the present invention.

本発明の以下の詳細な説明における参照
”一実施形態”または”一実施形態”は、実施形態に関連して説明された特定の特徴、構造、または特性が、本発明の少なくともの実施形態に含まれることを意味する。この詳細な説明における様々な場所における”一実施形態における”という語句の出現は、必ずしも同一の実施形態を参照するものではない。
Reference in the following detailed description of the invention
"One embodiment" or "one embodiment" means that a particular feature, structure, or characteristic described in connection with the embodiment is included in at least one embodiment of the present invention. The appearances of the phrase "in one embodiment" in various places in this detailed description are not necessarily referring to the same embodiment.

高解像度で広視野の視野(FOV)3d視聴体験を有するニアアイディスプレイの視聴者を提示することは、1眼当たり8メガピクセルの目視限界に近づく表示解像度を必要とする。ディスプレイ解像度の結果として生じる増加は、全体として、ニアアイディスプレイシステムに対していくつかの要件を課す。その最も困難なものは、データインタフェース帯域幅および処理スループットの増加である。本発明は、(以下で定義されるような)圧縮されたディスプレイシステムを使用することによって、ニアアイディスプレイシステムにおけるこれらの課題の両方に対処するための方法を導入する。図2a及び図2bは、ブロック図である、本発明の方法を使用するニアアイ表示システム(200)。図2aでは、ニアアイ表示システム(200)のニアアイアセンブリ(201)、新しい設計要素、エンコーダ(204)の一実施形態を示す、圧縮されたディスプレイ(203)のためのデータを圧縮する役割を担うニアアイ表示システム(200)に追加される、例えば、QPI固体撮像装置ベースのディスプレイ(図面におけるQPIイメージャ表示)のような、QPI固体撮像装置ベースのディスプレイ(図中のQPI撮像器ディスプレイ) 例えば(7, 767、479号及び第7、829、902号明細書)。各画素が異なる色の固体LEDまたはレーザ。エミッタのスタックからの光を放出するQPIイメージャに加えて、複数の固体状態のLEDまたは単一のピクセルに役立つレーザ。エミッタを用いて並んで配置された、異なる色の固体LEDまたはレーザ。エミッタから光を放出する撮像装置も知られている。本発明のかかる装置は、一般に発光表示装置と呼ばれる。さらに、本発明は、多くのタイプの空間光変調器(SLM、マイクロディスプレイのための光源を作成するために使用することができる)dlおよびLCOSのような、LCDのバックライト光源としても使用することができる。本明細書では、固体撮像装置ディスプレイ、表示要素、ディスプレイ、および類似の用語は、本明細書では、本明細書では、圧縮ディスプレイ(203)を頻繁に参照するために使用される図2bは、ニアアイ表示システム(200)のニアアイアセンブリ(205)の別の実施形態を示す、エンコーダ(204)は、図2aと同じ機能を果たすが、ニアアイアセンブリ(205)を遠隔駆動する外部データ源の一部として機能する 図2bは、外部プロセッサ(207)と、後者がtに接続されたエンコーダ(204)とを含む外部データソースを示すワイヤレス。パーソナル。エリア。ネットワーク(PAN)などのワイヤレス。リンク(208)を介して、ニアアイディスプレイ。アセンブリ(205)に送信する)、またはワイヤ(209)を介して接続されている両方の場合において、エンコーダ(204)は、固体撮像装置ディスプレイ(203)の圧縮された処理能力を利用する、高品質な画像を生成しつつ高い圧縮率を実現する。エンコーダはまた、眼球および頭部追跡設計要素によって提供される知覚データを利用して、ニアアイ表示システムのデータ圧縮利得をさらに増大させる。   Presenting a near-eye display viewer with a high resolution, wide field of view (FOV) 3d viewing experience requires a display resolution approaching the viewing limit of 8 megapixels per eye. The resulting increase in display resolution overall imposes some requirements on the near-eye display system. The most difficult of them is the increase in data interface bandwidth and processing throughput. The present invention introduces a method for addressing both of these challenges in near-eye display systems by using a compressed display system (as defined below). 2a and 2b are block diagrams, a near-eye display system (200) using the method of the present invention. In FIG. 2a, responsible for compressing data for a compressed display (203), illustrating one embodiment of the near-eye assembly (201), new design element, encoder (204) of the near-eye display system (200). A QPI solid-state imager-based display (QPI imager display in the figure), such as a QPI solid-state imager-based display (QPI imager display in the drawing), added to the near-eye display system (200), eg (7 , 767,479 and 7,829,902). Solid-state LED or laser with each pixel having a different color. A laser that serves multiple solid state LEDs or a single pixel in addition to a QPI imager that emits light from a stack of emitters. Solid-state LEDs or lasers of different colors arranged side by side with emitters. Imaging devices that emit light from an emitter are also known. Such devices of the present invention are commonly referred to as light emitting display devices. In addition, the present invention also finds use as a backlight source for LCDs, such as many types of spatial light modulators (SLMs, which can be used to create light sources for microdisplays) dl and LCOS. be able to. As used herein, solid-state imager display, display element, display, and like terms are used herein to refer frequently to a compressed display (203), FIG. 2D shows another embodiment of the near-eye assembly (205) of the near-eye display system (200), the encoder (204) performs the same function as in FIG. 2a, but with an external data source that drives the near-eye assembly (205) remotely. Acting as part FIG. 2b is a wireless showing an external data source that includes an external processor (207), the latter of which has an encoder (204) connected to t. personal. area. Wireless such as network (PAN). Near eye display via link (208). The encoder (204), in both cases (transmitting to the assembly (205)) or connected via wires (209), utilizes the compressed processing power of the solid state imager display (203), A high compression rate is realized while generating a high quality image. The encoder also utilizes the perceptual data provided by the eye and head tracking design elements to further increase the data compression gain of the near-eye display system.

定義−
”圧縮(入力)表示” −表示システムである、入力データを最初に伸張することなく、圧縮されたフォーマットで直接入力される提供された圧縮データのコンテンツ画像を直接表示することができるサブシステムまたは要素を提供する。このような圧縮ディスプレイは、人間の視覚システム(HVS)による直接的な知覚のために、高い順序に基づいて、高いサブフレームレートで画像を変調することができる。以下に定義する”視覚伸張”と呼ばれるこのような表示機能は、離散コサイン変換(DCT)の拡張係数を使用して(nxn)ピクセルを含む上位マクロを圧縮されたディスプレイが変調することを可能にする)または離散的なウオルシュ変換(DWT)をHVSに直接適用して、伸張された画像として統合して知覚する。(米国特許第4、970、646号)
Definition −
"Compressed (input) display" -is a display system, a subsystem capable of directly displaying a content image of provided compressed data that is directly input in a compressed format without first decompressing the input data. Provide the element. Such compressed displays can modulate images at high subframe rates based on high order for direct perception by the human visual system (HVS). Such a display function, referred to as "visual stretching", defined below, allows a compressed display to modulate a high order macro containing (nxn) pixels using the expansion coefficient of the Discrete Cosine Transform (DCT). Or Discrete Walsh Transform (DWT) is applied directly to the HVS to be integrated and perceived as a decompressed image. (U.S. Pat. No. 4,970,646)

”ダイナミックガマット” −圧縮ディスプレイシステムはまた、ダイナミックガマットとして知られる機能を含むことができる(米国特許第4、524、682号))フレームヘッダ内に設けられたワード長調整(圧縮)色域データを用いて、フレーム毎に色域を動的に調整可能な表示システムを提供する。動的な色域能力を使用する際に、圧縮された表示システムは入力データを処理し、入力データを、入力フレーム画像の色域に一致する圧縮された色域およびHVS視力を使用して、対応する画像に変換する。入力データが必要とされる必要がないので、視覚的伸張およびダイナミック。ガマット機能の両方が、インタフェース帯域幅およびディスプレイ側の処理スループットを低減する
例えば、固体撮像装置ディスプレイなどの圧縮ディスプレイによって、解凍され、かつ、両方の機能がサポートされる。
"Dynamic gamut" -Compressed display systems may also include a feature known as dynamic gamut (US Pat. No. 4,524,682)) word length adjusted (compressed) gamut data provided in the frame header. A display system in which the color gamut can be dynamically adjusted for each frame is provided using. When using the dynamic gamut capability, the compressed display system processes the input data, using the compressed gamut and HVS visual acuity that match the input data to the gamut of the input frame image, Convert to the corresponding image. Visual stretching and dynamic so input data need not be needed. Both gamut features reduce interface bandwidth and display-side processing throughput
For example, a compressed display such as a solid state imager display decompresses and supports both features.

”ビジュアル解凍”−解凍された視覚情報を最初に伸張し表示するのではなく、ディスプレイによって直接圧縮された視覚情報の変調を可能にするためにHVSの固有の知覚能力を利用する多数の圧縮された視覚情報変調方法である。視覚的な解凍は、ディスプレイへのインターフェース帯域幅および圧縮された視覚情報を解凍するのに必要な処理スループットを低減する   "Visual Decompression" -a number of compressed uses the inherent perceptual power of HVS to allow modulation of the visual information compressed directly by the display, rather than first decompressing and displaying the decompressed visual information. It is a visual information modulation method. Visual decompression reduces the interface bandwidth to the display and the processing throughput required to decompress compressed visual information.

ビジュアル解凍−図3aは、エンコーダ204(図3aおよび図3b)の機能ブロック図を示す、本発明のニアアイ表示システム(200)の文脈内で、圧縮ディスプレイ(203)の視覚的な伸張機能を適用する。プロセッサ(202)または(207)によって生成された入力画像(301)は、例えば、視覚的伸張変換要素(302)によって、例えば、DCTまたはDWTのような既知の高次基底に変換される。これらの高次基底の結果的な係数の選択されたサブセットは、次に、量子化器によって量子化される。次に、MPEGおよびJPEGのようなDCTおよびDWTを使用する典型的な圧縮方式と同様に、量子化器によって量子化される、本発明のニアアイ表示システム(200)のエンコーダ(204)によって適用される視覚的伸張は、高周波数ベースをトランケートする間に低周波数を有する基底のサブセットを選択することによって、部分的に圧縮利得を達成する。本発明の一実施形態では、量子化器は、基底係数の選択されたサブセットを量子化するために同じ量子化ステップサイズを使用する。本発明の別の実施形態では、量子化器は、人間の視覚システム(HVS)の能力を利用する)HVSによって知覚可能でない係数に関連するデータ転送帯域幅を低減するために、高周波数係数のためのより大きな量子化ステップを使用する。したがって、HVS機能をマッチングさせることにより、より高い視覚的な伸張利得を達成することができる。量子化された係数は、ランレングスエンコーダ(304)によって時間的に(又は時分割)多重化される、選択された基底の1つに関連付けられた係数のセットを、視覚的な伸張可能な圧縮ディスプレイ(203)に一度に送信し、この圧縮ディスプレイ(203)は、それが表示する関連する基底マクロの大きさとして受信する係数を変調する圧縮ディスプレイ(203)は、変調ベースがHVSインパルス応答の時定数以上に時間的に分離されないように、1つのビデオサブフレーム内の時間に基づいて1つを変調する、例えば、8ベースが入力画像(302)を変換するように選択された場合、60Hz (3.67Ms)のビデオフレームは、−2msのサブフレームに分割され、このサブフレームは、HVSインパルス応答の時定数よりも十分に低い、1つの基底係数が圧縮されたディスプレイ(203)によって変調される。   Visual Decompression-FIG. 3a shows the functional block diagram of the encoder 204 (FIGS. 3a and 3b), applying the visual decompression function of the compressed display (203) within the context of the near-eye display system (200) of the present invention. To do. The input image (301) generated by the processor (202) or (207) is transformed into a known higher order basis, eg DCT or DWT, eg by a visual stretch transform element (302). The selected subset of resulting coefficients of these higher order bases is then quantized by a quantizer. It is then applied by the encoder (204) of the inventive near-eye display system (200), which is quantized by a quantizer, similar to typical compression schemes using DCT and DWT such as MPEG and JPEG. Visual stretching achieves partial compression gain by selecting a subset of the bases with low frequencies while truncating the high frequency base. In one embodiment of the invention, the quantizer uses the same quantization step size to quantize the selected subset of basis coefficients. In another embodiment of the invention, the quantizer uses high frequency coefficients to reduce the data transfer bandwidth associated with coefficients that are not perceivable by HVS (which utilizes the capabilities of the human visual system (HVS)). Use a larger quantization step for. Therefore, by matching the HVS function, a higher visual stretch gain can be achieved. The quantized coefficients are visually decompressible compressed into a set of coefficients associated with one of the selected bases that is time (or time division) multiplexed by a run length encoder (304). The compressed display (203), which transmits to the display (203) at a time, modulates the coefficients it receives as the size of the associated basis macros it displays. The compressed display (203) has a modulation base of HVS impulse response. Modulate one based on time within one video subframe so that it is not temporally separated by more than a time constant, eg, 60 Hz if 8 bases are selected to transform the input image (302). A (3.67 Ms) video frame is divided into -2 ms subframes, which are timed in the HVS impulse response. Well below one base coefficient is modulated by the display (203) that is compressed.

別の実施形態では、ビジュアル解凍変換ブロックは、外部から提供された圧縮された入力データフォーマットから直接DWTおよびDCT係数を抽出する、抽出されたDWT及びDCT係数を量子化器(303)に供給する、量子化器(303)は、さらに、高周波数係数についてより大きな量子化ステップを使用して、MPEGおよびJPEGデータフォーマットのDWTおよびDCT係数を増大させ、 HVS機能をマッチングさせることによって、より高い視覚的な伸張利得を達成するために、HVSによって認識されない係数を再び生成する。   In another embodiment, the visual decompression transform block supplies the extracted DWT and DCT coefficients to the quantizer (303), which extracts the DWT and DCT coefficients directly from the externally provided compressed input data format. , Quantizer (303) further uses a larger quantization step for high frequency coefficients to increase the DWT and DCT coefficients of MPEG and JPEG data formats and to match the HVS function for higher visual performance. In order to achieve a typical stretch gain, the coefficients that are not recognized by HVS are regenerated.

本発明の別の実施形態では、変換された(302)および量子化303入力画像(301)の基底係数は、(50t)に直接的にフィールド順序付けされる(304)視覚的に圧縮されたデータをHVSに直接変調することができる圧縮ディスプレイ(203)を提供する(圧縮ディスプレイの事前定義を参照) ディスプレイ(203)におけるメモリ要件を、視覚的な圧縮解除ゲインが達成するために低減することに加えて、圧縮された画像データの直接的な転送および変調の方法は、プロセッサ(202)または(207)からディスプレイ(203)への画像データの転送およびHVS106への転送の待ち時間を低減する、眼、圧縮された画像データの直接的な転送および変調の方法では、基底係数のサブセットは、典型的にHVS時定数より短いサブフレームの時間的シーケンスで受信されるときに、HVS106に連続的にディスプレイ(203)によって変調されるので、待ち時間は低減される、HVS106がそれらを部分的に統合し始めることを可能にし、変調された基底係数のサブフレームのうちのいくつかの中で画像入力(301)を徐々に認識することを可能にするによって感知された視線方向情報を組み込む際のフィードバック遅延を実質的に減少させ、入力画像(301)に頭部追跡(210)を組み込む。圧縮された入力画像(301)が、エンコーダ(204)によって生成された選択された基底係数によって表されるように、圧縮された画像データの直接的な転送および変調の方法においても、待ち時間も低減されるが、入力画像(301)のデータをプロセッサ(102)または107側で最初に圧縮してディスプレイ203側で圧縮解除する従来のシステムによって典型的に導入される処理遅延なしに、HVS106に直接表示される。ニアアイディスプレイシステムの待ち時間を低減することに加えて、本発明の圧縮画像データの直接転送および変調の説明されたニアアイ視覚伸張方法はまた、処理を実質的に低減する、入力画像(301)の圧縮に関する処理を、いずれかのプロセッサ(102)又は107側のいずれかで解消し、 ディスプレイ203側の解凍。本発明は、tの圧縮された画像データの直接的な転送および変調のための、記載された近目の視覚的な圧縮解除方法を提供することに価値がある[解決手段]視覚的感覚時間的統合による知覚のHVS106の固有の機能を利用するので、本発明は、待ち時間および処理要件を低減する。すなわち、本発明の圧縮画像データの直接転送および変調の説明されたニアアイ視覚伸張方法は、HVSの機能をマッチングさせることによって、低減された待ち時間および処理要件を達成する。   In another embodiment of the invention, the transformed (302) and quantized 303 input image (301) basis coefficients are field-ordered directly into (50t) (304) visually compressed data. To provide a compressed display (203) that can be directly modulated into HVS (see Predefinition of Compressed Display) to reduce the memory requirements on the display (203) in order to achieve visual decompression gain. In addition, the method of direct transfer and modulation of compressed image data reduces the latency of transferring image data from the processor (202) or (207) to the display (203) and to the HVS 106. In the eye, the method of direct transfer and modulation of compressed image data, the subset of basis coefficients is typically HV. When received in a temporal sequence of subframes shorter than a time constant, the latency is reduced because it is continuously modulated by the display (203) to the HVS 106, that the HVS 106 begins to partially integrate them. , And allows for gradually recognizing the image input (301) in some of the subframes of the modulated basis coefficient, thereby substantially eliminating the feedback delay in incorporating the gaze direction information sensed. The head tracking (210) in the input image (301). The compressed input image (301) also has a latency as well as a direct transfer and modulation method of the compressed image data as represented by the selected basis coefficients generated by the encoder (204). The HVS 106 is reduced, but without the processing delay typically introduced by conventional systems in which the data of the input image (301) is first compressed on the processor (102) or 107 side and decompressed on the display 203 side. It is displayed directly. In addition to reducing the latency of a near-eye display system, the described near-eye visual decompression method of direct transfer and modulation of compressed image data of the present invention also substantially reduces processing, input image (301). The processing related to the compression of (1) is canceled by either the processor (102) or the 107 side, and the display 203 side is decompressed. The present invention is valuable in providing the near vision visual decompression method described for the direct transfer and modulation of t compressed image data. By taking advantage of the inherent capabilities of HVS 106 for perceptual integration, the present invention reduces latency and processing requirements. That is, the described near-eye visual decompression method of direct transfer and modulation of compressed image data of the present invention achieves reduced latency and processing requirements by matching the capabilities of HVS.

図3bは、ビジュアルの基底係数変調を示す。本発明のニアアイディスプレイシステムの解凍方法。アドレス指定(および変調)のための現在のディスプレイに典型的に使用される行/列選択方法の代わりに、行/列選択方法の代わりに、行/列選択方法の代わりに、)各表示画素は、図3bに示したニアアイ用視覚伸張方法において、同じ基底係数値ctjとともに、高次元を表す(nxn)画素の群を変調する。ビデオ入力画像(301)のサブフレーム内で、ニアアイ圧縮ディスプレイ(203)は、(nxn)のブロックにアドレスする)対応する基底係数qを有する表示基底要素を表すマクロとしての画素と。ビデオフレーム内の基底係数変調サブフレームの時間的シーケンスは、そのビデオフレームの時間期間内で入力画像(301)を段階的に知覚するように導かれるHVSによって時間的に連続的に統合される。図3Bからわかるように、ニアアイ圧縮ディスプレイ(203)は、サブフレームレートで基底係数を受信および変調するための応答時間および変調機能を所有しなければならない、8個のサブフレームを有する場合に前述した例では、視覚的な伸張サブフレームレートは8×60Hz=480hzであろう本発明の一実施形態では、ニアアイ圧縮ディスプレイは、高速画像変調能力のために、固体撮像装置を使用して実現される。視覚をサポートするための固体撮像装置の能力に加えて、本発明の圧縮解除方法では、本発明のニアアイ表示システムは、小型(コンパクト化)からも利益を得ることになる)を実現するために、QPI203によって提供される低消費電力および明るさを提供する。容積論的に簡素化されたニアアイディスプレイシステム。   FIG. 3b shows a visual basis coefficient modulation. The defrosting method of the near-eye display system of the present invention. Each display pixel instead of the row / column selection method instead of the row / column selection method typically used in current displays for addressing (and modulation)) Modulates a group of (nxn) pixels representing a high dimension with the same basis coefficient value ctj in the near-eye visual expansion method shown in FIG. 3b. Within a sub-frame of a video input image (301), a near-eye compressed display (203) with pixels as macros representing display basis elements with corresponding basis coefficients q (addressing blocks of (nxn)). The temporal sequence of basis coefficient modulated sub-frames within a video frame are temporally consecutively integrated by the HVS which is guided to gradually perceive the input image (301) within the time period of the video frame. As can be seen in FIG. 3B, the near-eye compression display (203) has eight subframes, which must possess response time and modulation capabilities to receive and modulate the base coefficients at the subframe rate. In one example, the visual decompression sub-frame rate would be 8 × 60 Hz = 480 hz. In one embodiment of the invention, a near-eye compression display is implemented using a solid state imager due to its high speed image modulation capability. It In addition to the solid state imaging device's ability to support vision, the decompression method of the present invention allows the near-eye display system of the present invention to benefit from small size as well). , QPI 203 provides low power consumption and brightness. Volumetrically simplified near-eye display system.

図3aに戻って参照すると、量子化器は、tに基づいて、視覚的伸張変換要素によって計算された基底係数をトランケートする所与の切捨て基準に基づいて、所与の量子化基準に基づいて、選択された基底係数のサブセットを所与のワード長に量子化する。図3cは、量子化器(303)が実行する基底係数切捨てを、(4x4)視覚的な伸張基準。図3cに示すように、量子化器は、図3cにマークされた8個の基底係数のサブセットを選択することによって、16基底係数のセットをトランケートする。この選択のための基準は、HVSの時間的な視力限界を超えている高周波基底係数を破棄することであり、図3cでは、より高い索引ベースのハッチングが施されている基底係数の選択されたサブセットについて、量子化器は、次いで、視覚的伸張変換から受信された対応するワード長をより少ない数のビットに切り落とす、例えば8ビットワード。なお、視覚的な解凍は、視覚的な解凍であることに留意されたい。変換(302)は、典型的には、より高いワード長、例えば16ビットワードで変換計算を実行する。別の実施形態では、量子化器(303)は、異なる基底係数のために異なるワード長を使用して、基底係数の選択されたサブセットをトランケートする。例えば、図3Cを参照して説明する。低周波係数C00は8ビットに量子化され、行係数Cojおよび列係数Ci0に沿った残りの基底係数は、連続的に低い単語長を使用して量子化される、例えば、6ビット、4ビット、2ビットである。基底係数の切捨ておよびそれらの語長の量子化基準の両方は、ディスプレイ(203)によって先験的に固定され、知られているか、またはシグナリングされる(通信された)データストリームを介して、ディスプレイ(203)に埋め込まれたディスプレイ(203)に送信される。本実施形態のニアアイ視覚伸張方法によって達成されることが期待されるデータ転送帯域幅圧縮利得は、典型的には、tの次元に依存する入力画像(301)を変換するために用いられる基底係数切捨て基準と、量子化器(303)によって使用される基底係数切捨て基準とを含むが、典型的には(44−6x)の範囲であるは、プロセッサ(102)又は(107)から表示要素(203)への画像データ転送帯域幅が、本実施形態の記載された視覚的伸張方法によって(4x)乃至(6x)の範囲の因子によって低減されることを意味する。留意すべきは、このことの視覚的な圧縮利得である実施形態は、ディスプレイがHVSの時間的な視力と一致するようにすることによって達成される。 Referring back to FIG. 3a, the quantizer is based on t, based on a given truncation criterion that truncates the basis coefficients calculated by the visual stretch transform element, and based on a given quantization criterion. , Quantize a selected subset of basis coefficients to a given word length. FIG. 3c shows the basis coefficient truncation performed by the quantizer (303) as a (4 × 4) visual decompression criterion. As shown in FIG. 3c, the quantizer truncates the set of 16 basis coefficients by selecting the subset of 8 basis coefficients marked in FIG. 3c. The criterion for this choice is to discard the high frequency basis coefficients that exceed the HVS temporal limit of vision, and in FIG. 3c a higher index-based hatched basis coefficient selection was chosen. For the subset, the quantizer then truncates the corresponding word length received from the visual decompression transform into a smaller number of bits, eg, an 8-bit word. Note that visual thawing is visual thawing. The transform (302) typically performs the transform computation on a higher word length, eg, a 16-bit word. In another embodiment, the quantizer (303) truncates the selected subset of basis coefficients using different word lengths for different basis coefficients. For example, a description will be given with reference to FIG. 3C. The low frequency coefficient C 00 is quantized to 8 bits, and the remaining basis coefficients along the row coefficient C oj and the column coefficient C i0 are quantized using successively lower word lengths, eg 6 bits. 4 bits and 2 bits. Both the truncation of basis coefficients and the quantization criterion of their word lengths are fixed a priori by the display (203) and are either known or signaled (communicated) via the display. It is transmitted to the display (203) embedded in (203). The data transfer bandwidth compression gain expected to be achieved by the near-eye visual decompression method of this embodiment is typically the basis coefficient used to transform the input image (301) depending on the dimension of t. Including a truncation criterion and a basis coefficient truncation criterion used by the quantizer (303), typically in the range (44-6x), from the processor (102) or (107) to a display element ( It means that the image data transfer bandwidth to 203) is reduced by a factor in the range (4x) to (6x) by the described visual decompression method of this embodiment. It should be noted that the visual compression gain embodiment of this is achieved by allowing the display to match the HVS temporal vision.

”ダイナミックガマット” −本発明の別の実施形態では、ニアアイディスプレイシステムは、追加の視覚的な解凍機会を提供する以下のの要因を利用する(1)ビデオフレームの色域は、通常、予め設定された標準表示色域、例えばNTSCよりもはるかに小さい、標準的な色域内での表示画素の色座標は、典型的には、色一次あたり8ビットの24ビットワードで表現される。及び((2)HVS周辺領域の視力は、視覚的な中央領域と比較して実質的に低減される。この実施形態では、視覚的伸張変換ブロックは、各入力ビデオフレームヘッダ内で、フレーム色域原色の色座標を、フレームヘッダ内で搬送されたフレーム色域原色に対して表現されたフレーム内の各画素の色座標を算出し、受信したフレームヘッダを前方に通過させ、量子化器ブロック(302)は、それが受信したフレーム色域ヘッダを、それが抽出した高次基底係数の集合と共に量子化器ブロック(303)に渡す量子化器ブロック(303)は、画像フレーム内の各画素の色座標を表すワード長を、デフォルト24ビット(8ビット/カラー当たり8ビット)未満に比例的にトランケートすることにより、画像フレーム色域のサイズを縮小するは、表示標準色域サイズに対する伝達されたフレーム色域サイズが小さいほど小さい、デフォルト24ビットワード長よりも小さい値を使用して、各受信画像フレーム内の各ピクセルの色座標を表すことができる。視覚的伸張ブロック(302)は、各入力ビデオフレームヘッダ内で色域および色域を受信することも可能である。画像フレーム内の複数の画像領域の座標は、そのフレーム画像領域のためにフレームヘッダ内で搬送される色域原色に関して表された各フレーム画像領域内の各画素の色座標と共に、画像フレーム内の複数の画像領域の座標を決定する。この場合、量子化器ブロック(303)は、各画素(50t)の色座標を表すワード長を比例的にトランケートするの範囲内である各フレーム画像領域は、デフォルト24ビット(8ビット/カラー)未満である典型的なビデオフレーム画像では、記載された(2つ)の方法のいずれかが、(2x−3x)のファクタを、(2t)のサイズの2x−3x減少に導くことができる画像フレームデータを圧縮ディスプレイ(203)に転送する必要があり、後者の方法は、その範囲のより高い端部に近い圧縮率を実現する。フレームまたはフレーム画像領域の場合、色域は、先に定義したように、圧縮ディスプレイ(203)によって受信される。その色域を動的に調整する能力を有する場合、圧縮ディスプレイ(203)は、1つのt内で搬送されるフレームまたはフレーム領域の色域座標データを使用する受信されたフレームまたはフレームサブ領域の色域をその本来の原色を使用して合成するために受信されたヘッダを受信し、受信された(切り捨てられた)フレームまたはフレームサブ領域ピクセルを表し、光を変調するための色座標データは、フレームまたはフレームサブ領域ピクセルの各々を表す。なお、本実施形態の視覚圧縮利得は、表示色域を画像フレーム色域に一致させることにより実現される。   "Dynamic Gamut" -In another embodiment of the present invention, the near-eye display system utilizes the following factors to provide additional visual decompression opportunities: (1) The color gamut of a video frame is typically The color coordinates of display pixels within a standard color gamut, which is much smaller than the set standard display color gamut, for example NTSC, is typically represented by a 24-bit word of 8 bits per color primary. And ((2) the visual acuity of the HVS peripheral area is substantially reduced compared to the visual central area. In this embodiment, the visual decompression transform block includes a frame color transform within each input video frame header. The color coordinates of the gamut primary colors are calculated, and the color coordinates of each pixel in the frame expressed with respect to the frame gamut primary colors carried in the frame header are calculated, and the received frame header is passed forward to the quantizer block. (302) passes the frame gamut header it receives to the quantizer block (303) along with the set of higher-order basis coefficients it has extracted. The quantizer block (303) represents each pixel in the image frame. Reduces the size of the image frame gamut by proportionally truncating the word length, which represents the color coordinates of, to less than the default 24 bits (8 bits / 8 bits per color) Can be used to represent the color coordinates of each pixel in each received image frame using a value that is smaller than the transmitted frame color gamut size relative to the display standard color gamut size and smaller than the default 24-bit word length. The visual decompression block (302) is also capable of receiving gamuts and gamuts within each input video frame header, where the coordinates of multiple image areas within an image frame are defined for that frame image area. The color coordinates of each pixel in each frame image area represented with respect to the gamut primaries carried in the frame header are determined, as well as the coordinates of the plurality of image areas in the image frame, in this case the quantizer block (303). ) Is within the range of proportionally truncating the word length representing the color coordinate of each pixel (50t). For a typical video frame image that is less than 8 (8 bits / color), any of the (2) methods described will add a factor of (2x-3x) to a size of 2x-3x of (2t). Image frame data that can lead to a reduction has to be transferred to the compressed display (203), the latter method achieving a compression ratio closer to the higher end of the range. The gamut is received by a compressed display (203), as defined above, the compressed display (203) being carried within one t if it has the ability to adjust its gamut dynamically. The received header to synthesize the gamut of the received frame or frame subregion using the gamut coordinate data of the frame or frame region using its original primaries. Data is received and represents the received (truncated) frame or frame sub-region pixel, and the color coordinate data for modulating the light represents each frame or frame sub-region pixel. The visual compression gain of this embodiment is realized by matching the display color gamut with the image frame color gamut.

“中心窩化された視覚的圧縮解除” −本実施形態では、図4aおよび図4bに示すように、ニアアイディスプレイシステム(200)のさらに別の視覚的伸張方法が示されている(a)観察者の瞳孔間距離(ipd)に基づいて、観察者の視線方向(軸)(401)および焦点距離を算出するを検出し追跡し、次いで、観察者の視野(FOV)内に表示された画像の異なる領域に異なる視覚的伸張基底係数切捨ておよび量子化基準を適用するために使用される)(420)は、HVS角(視力)を利用しながら、観察者の目が焦点(402)にあるFOV領域内で最も高い視覚的知覚を効果的に可能にする)高いレベルを達成するための視覚的な知覚の分布、視覚的な圧縮は、HVS視力が徐々に減少する視聴者のFOV403−412の残りの領域にわたって系統的に行われる。この実施形態では、視覚的な伸張は、FOVを横切る視聴者の視覚の角度分布に比例する圧縮ワード長を使用してHVS視力の角度分布に一致するように適用される。   "Foveated Visual Decompression" -This embodiment illustrates yet another method of visual stretching of the near-eye display system (200), as shown in Figures 4a and 4b (a). Calculate and track observer's gaze direction (axis) (401) and focal length based on observer interpupillary distance (ipd), then displayed in observer's field of view (FOV) Used to apply different visual stretch basis coefficient truncation and quantization criteria to different regions of the image) (420), which allows the observer's eye to focus (402) while utilizing the HVS angle (visual acuity). The distribution of visual perception to achieve a high level, which effectively enables the highest visual perception within an FOV region, visual compression is the FOV 403-of a viewer whose HVS visual acuity gradually decreases. 412's It is systematically performed over a region of Ri. In this embodiment, visual stretching is applied to match the angular distribution of HVS visual acuity using a compressed word length that is proportional to the angular distribution of the viewer's vision across the FOV.

図4aは、この実施形態の視覚的伸張の方法を示しており、これは、”中心窩化された視覚的圧縮解除”と呼ばれ、視聴者の空間的な(角度的な)事実を利用する視力は、観察者の目が焦点402(網膜の窩領域)に焦点が合っている領域で最も高くなる)より高い視覚的な圧縮解除利得を達成するために、視聴者のFOV403−412(pafaovea403−406および網膜のパーフォvea領域(407−412)の残りの部分にわたって系統的に減少する。この実施形態では、視聴者の目の焦点および視線方向401キューは、中心窩化された量子化器によって抽出される430と、眼球および頭部追跡要素(210)センサによって提供された知覚データから図(4)に示されている、例えば、各眼の視線方向は、眼球および頭部追跡要素(210)センサによって検出された基準のヘッド方向フレーム内の各眼瞳孔の位置によって決定される。同様に、観察者の目の両方が焦点合わせされ収束された距離として定義される、ニアアイ表示システムの観察者の焦点距離(または運動距離)も同様に定義される)の中心間の相対的な瞳孔間距離(IPD)によって決定され、眼球および頭部追跡要素(210)センサによって検出された、観察者の(2つ)の瞳孔の中心間の相対的な瞳孔間距離(IPD)によって決定される。観察者が焦点を合わせるFOV420の領域のために、典型的には、観察者の眼レンズによって焦点が合わされたときに網膜の窩領域をカバーする、最尤量子化器(430)が基底係数の可能なサブセットを大きく選択し、その選択された基底係数のサブセットを量子化するために最大の可能なワード長を使用することによって、最高の画像解像度が達成される。視聴者のFOV420の残りの領域に対して、図4aの領域(403−412)では、中心窩化された量子化器は、より少ない基底係数のサブセットを選択し、選択された基底係数を量子化するためにより少ない数のビットを使用する。このような基底係数切捨ておよび量子化基準を適用する際に、このような基底係数の切り捨ておよび量子化基準を適用する実施形態は、観察者の焦点領域内で最高解像度を達成し、観察者の知覚を低下させることなく、観察者のFOV420の残りの領域403−412全体にわたって系統的に低い解像度を達成し、これらのFOV領域にわたってより高い視覚的な伸張利得を達成する。注意すべきことであるが、本実施形態の文脈内で使用される”中心窩化された”という用語は、表示解像度がHVS視力プロファイル(分布に適合されることを示すことを意味することに留意されたい)視者の眼の中心から観察者の眼の網膜の周辺領域に向かって外方に移動するように構成されていることを特徴とする。このような視聴者の視線方向に依存する画像解像度は、従来技術において”フォveジングされたレンダリング”として知られている、B、Finch、M、drckker、s、Tan、dに記載されているものを挙げることができる、及びsnyder、J、”FOVelated3dgraphics”、acmsiggraphasia、11、2012を参照されたい、画像レンダリングによって画像入力(301)を典型的に中心にして、プロセッサ(102)又は(107)における画像レンダリング計算負荷を可能性に低減する、本実施形態の説明されたFOVelatedvisualdecompression方法によって達成されることができるディスプレイ(203)における画像インタフェース(301)の帯域幅および圧縮解除計算負荷の減少に直接変換することはない FIG. 4a illustrates the method of visual stretching of this embodiment, which is referred to as "foveated visual decompression" and utilizes the viewer's spatial (angular) facts. To achieve a higher visual decompression gain than in the region where the observer's eye is in focus at the focal point 402 (fossa region of the retina) (FOV 403-412). Pafaovea 403-406 and systematic reduction over the rest of the perforea region of the retina (407-412) In this embodiment, the viewer's eye focus and gaze direction 401 cues are fovealized quantization. 430 extracted by the instrument and the perceptual data provided by the eye and head tracking element (210) sensor, for example, the gaze direction of each eye is Determined by the position of each eye pupil within the reference head direction frame detected by the head tracking element (210) sensor, similarly defined as the distance at which both observer eyes are focused and converged. , The near-eye display system observer focal length (or movement distance is also defined) determined by the relative interpupillary distance (IPD) between the centers and by the eye and head tracking element (210) sensor. Determined by the relative interpupillary distance (IPD) between the centers of the detected (two) pupils of the observer. Due to the region of the FOV 420 that the observer focuses on, the maximum likelihood quantizer (430), which typically covers the fossa region of the retina when focused by the observer's eye lens, has a basis coefficient of The highest image resolution is achieved by choosing a large possible subset and using the largest possible word length to quantize the selected subset of basis coefficients. For the remaining regions of the viewer's FOV 420, in the region of FIG. 4a (403-412), the foveated quantizer selects a smaller subset of basis coefficients and quantizes the selected basis coefficients. Use a smaller number of bits to implement In applying such basis coefficient truncation and quantization criteria, embodiments that apply such basis coefficient truncation and quantization criteria achieve the highest resolution within the observer's focal region, It achieves a systematically low resolution over the remaining regions 403-412 of the observer's FOV 420, and a higher visual stretch gain over those FOV regions, without compromising perception. It should be noted that the term "foveated" used within the context of this embodiment is meant to indicate that the display resolution is fitted to the HVS visual acuity profile (distribution). Note that it is configured to move outward from the center of the eye of the observer toward the peripheral region of the retina of the observer's eye. Such image resolution depending on the viewer's line-of-sight direction is described in B, Finch, M, drckker, s, Tan, d, known in the art as "foreground rendering". , And nyder, J, "FOVelated3dgraphics", acmsiggraphasia, 11, 2012, processor (102) or (107), typically centered on image input (301) by image rendering. A band of an image interface (301) in a display (203) that can be achieved by the described FOVelatedvisualdecompression method of the present embodiment, which potentially reduces the image rendering computational load in. Not be converted directly to the reduction of the width and decompression calculation load

図4bは、本発明の中心窩化された視覚解凍方法を使用する、ニアアイディスプレイシステムのブロック図を示す。図(4)を参照すると、目および頭部追跡要素(210)によって提供された入力に基づいて、視聴者の焦点を知ることにより、視覚的な解凍変換(302)の後に、中心窩化された量子化器(430)が存在するを選択し、表示された画像領域が、観察者の焦点領域402(目に焦点を合わせられる画像領域)に対応する表示された画像領域が、観察者の網膜の中心窩領域に投影されるように適合されるように適合される)最も高い空間分解能を有し、一方、視聴者のFOV420の残りの領域(403−412)は、系統的に低い分解能を有する(または比例する))者の眼の角度(空間)の視力の階調がパラフォノveaを横切って変化するように構成され、観察者の網膜の透過性。図4cは、中心窩化された視覚に従った、フォベレート化された量子化器の基底切捨ておよび量子化選択の一例を示す本発明の解凍方法。図4cは、(4×4)中心窩化された視覚的伸張基準のためにフォベレート化された量子化器(430)によって実行される基底係数切捨ての一例を示す。図4cの例に示されるように、中心窩化された量子化器は、係数tを選択することによって、16個の基底係数のセットをトランケートする視聴者の焦点領域(402)に対応して図(4c)の第1のパネルにマークされた(8つ)の基底係数の最大サブセットを生成するその領域(402)について、中心窩化された量子化器(430)はまた、最も高い量子化ワード長、例えば、1色当たり8ビットを使用して、視聴者のFOVの領域(402)について選択された基底係数を表す。図4cに示すように、周辺焦点領域について、中心窩化された量子化器は、16個の基底係数のセットを、図4cに示すようにマークされた7個の基底係数のより少ないサブセットにトランケートするその領域について、中心窩化された量子化器はまた、視聴者のFOVの領域について選択された基底係数を表すために、例えば7ビットまたは6ビットのようなより短いワード長を選択することができる。図4cに示されているように、外周領域のために、中心窩化された量子化器は、16個の基底係数のセットを、図4cにおいてマークされたように、基底係数の系統的により少ないサブセットに切り詰める4例えば6ビット未満の短いワード長を選択して、視聴者のFOVの領域について選択された基底係数を表すこともできる   FIG. 4b shows a block diagram of a near-eye display system using the foveated visual decompression method of the present invention. Referring to FIG. (4), by knowing the focus of the viewer based on the input provided by the eye and head tracking elements (210), a fovealization is performed after the visual decompression transformation (302). Selected quantizer (430) is present and the displayed image area corresponds to the observer's focus area 402 (image area focused on the eye). The highest spatial resolution (which is adapted to be projected to the foveal region of the retina), while the rest of the viewer's FOV 420 (403-412) has a systematically lower resolution. Permeability of the retina of the observer, which is configured such that the gradation of visual acuity (in space) of the eye of the person having (or being proportional to) varies across the paraphono vea. FIG. 4c is a decompression method of the present invention showing an example of base truncation and quantization selection of a foverated quantizer according to foveated vision. FIG. 4c shows an example of the basis coefficient truncation performed by a quantizer (430) that has been foveated for a (4 × 4) foveated visual stretch criterion. As shown in the example of FIG. 4c, the foveated quantizer corresponds to the focal region (402) of the viewer truncating the set of 16 basis coefficients by selecting the coefficient t. For that region (402) that produces the largest subset of (8) basis coefficients marked in the first panel of figure (4c), the foveated quantizer (430) also has the highest quantum. The digitized word length, eg, 8 bits per color, is used to represent the selected basis coefficients for the region (402) of the viewer's FOV. As shown in FIG. 4c, for the peripheral focus region, the foveated quantizer transforms the set of 16 basis coefficients into a smaller subset of the 7 basis coefficients marked as shown in FIG. 4c. For that region to be truncated, the foveated quantizer also selects a shorter word length, eg, 7 bits or 6 bits, to represent the selected basis coefficients for the region of the viewer's FOV. be able to. As shown in FIG. 4c, because of the peripheral region, the foveated quantizer produces a set of 16 basis coefficients, systematically better than the basis coefficients, as marked in FIG. 4c. It is also possible to select a short word length, eg less than 6 bits, to truncate to a smaller subset to represent the selected basis coefficients for the region of the viewer's FOV.

図4bに戻って参照すると、複数のFOV200領域tのためにフォベレート化された量子化器によって生成された切り捨てられた量子化された基底係数が生成される制御データ。パケット(またはデータ。ヘッダを埋め込むランレングス。エンコーダ(435)によってさらに符号化される)ストリーム化されたデータに含まれる信号(または特定する)と、その切捨ておよび量子化ワード長とを含む、符号化されたデータストリーム内に含まれる例えば、基底係数値qを送信するために指定されたデータフィールド内にある、ランレングス符号器(435)は、基底係数値cijが含まれるか否かを特定するデータフィールドとその関連する量子化ワード長とを含むヘッダを付加する。次に、付加された基底係数は、時間分割多重化された係数のセットとして、選択された基底のうちの1つのための係数のうちの1つについて、圧縮されたディスプレイ(203)への時間に送られ、圧縮されたディスプレイ(203)は、次に、その係数tを復号するランレングス符号器(435)によって付加された制御ヘッダは、それに応じて、それが表示する関連する基底の大きさとして受信する係数を変調する。図4 Cに示すように、表示領域(403−412)に関連付けられた基底係数の数は、全身的に低減される、表示された画像解像度は、典型的なHVS視力分布に比例して、表示された画像のこれらの領域にわたって系統的に低減される。先に説明したように、表示領域403−412それぞれに含まれる基底係数を選択するための基準は、角度(空間的)に基づく)それらの対応する網膜領域の視力を決定し、その基準は、中心窩化された量子化器(430)の設計パラメータとして設定される   Referring back to FIG. 4b, the control data yielding the truncated quantized basis coefficients produced by the foblated quantizer for multiple FOV200 regions t. Packet (or data. Run length to embed header. Further encoded by encoder (435)) Code including signal (or identifying) contained in streamed data and its truncation and quantization word length A run-length encoder (435), eg, in the data field designated for transmitting the basis coefficient value q, included in the encoded data stream determines whether the basis coefficient value cij is included. A header containing the data field to be played and its associated quantization word length. The added basis coefficients are then time-compressed to the compressed display (203) for one of the coefficients for one of the selected bases as a set of time division multiplexed coefficients. The compressed display (203) is then sent to the compressed header (203) and the control header added by the run-length encoder (435), which decodes its coefficient t, is accordingly sized accordingly. Modulates the received coefficient. As shown in FIG. 4C, the number of basis coefficients associated with the display area (403-412) is systemically reduced, the displayed image resolution is proportional to a typical HVS visual acuity distribution, It is systematically reduced over these areas of the displayed image. As explained above, the criterion for selecting the basis coefficients contained in each of the display regions 403-412 determines the visual acuity of their corresponding retinal regions (based on angle (spatial)), which criterion is: Set as a design parameter of the frustrated quantizer (430)

本発明のニアアイの中心窩化された視覚的伸張方法によって達成されることが期待されるデータ転送帯域幅圧縮利得は、一般に、入力画像を変換するために使用される基底の次元性と、フォベレート化された量子化器によって使用される基底係数切捨ておよび量子化基準とに依存するが、典型的には、先に説明された視覚的伸張方法のそれを超える。いったん目が焦点合わせされると、表示された画像領域は、名目上、FOVea領域の角度範囲(約2°)に広がることになる)を表示する表示部と、を備え、前記表示部は、前記表示部に表示されている前記右目用画像を表示する表示部と、前記表示部に表示された前記表示システム(200)は、20°の全FOV、例えば中心窩化されたビジュアルを有する本発明の圧縮解除方法は、表示された画像領域において4x−6xの範囲の圧縮利得を達成し、図4Cに示された基底係数切捨ての例を使用する際に、表示された画像領域の間の系統的に高い圧縮利得を達成するでは、達成された圧縮利得は、領域(403)、(404)に対して8/7だけ増加する、領域(405)、(406)については、それぞれ8/5、8/3の因子で構成されている、表示された画像FOVに対する各画像領域(401−412)の領域と、ランレングス符号化器(435)によって付加された制御データによるオーバーヘッドとを考慮して、周辺領域(407)乃至(412)に対して(8)の係数で演算するを用いて、本発明のFoveated visual decompression方法によって達成されることができる複合圧縮利得は、(24x)乃至(36x)の範囲にある、プロセッサ(102)又は(107)から表示要素(203)への画像データ転送帯域幅が、中心窩視覚によって(24x)乃至(36x)の範囲の因子によって低減されることを意味する。本発明の解凍方法。前の例のニアアイ表示システム(400)のFOVが20°よりも大きい場合には、例えば40°では、周辺領域(407−412)の達成された圧縮利得は、画像中央領域(402−406)で達成される圧縮利得よりも8倍高い係数に漸近的に近づく大きなディスプレイFOVのために、周辺画像領域は、表示されたFOVの大部分を構成する、本発明の中心窩化された視覚的伸張方法は、より高い合成圧縮利得(40xよりも高い因子に近い)を達成することができる)ニアアイ表示システム(200)がHVSのそれに近づくFOVを有する場合(HVSFOVが100°よりも大きいことが知られている) 。   The data transfer bandwidth compression gain that is expected to be achieved by the near-eye foveated visual stretching method of the present invention is generally the basis dimensionality used to transform the input image and the foverate. Depending on the base coefficient truncation and the quantization criterion used by the quantized quantizer, it typically exceeds that of the visual decompression method described above. Once the eyes are in focus, the displayed image area nominally spans the angular range of the FOVea area (approximately 2 °)). A display unit that displays the image for the right eye displayed on the display unit and the display system (200) displayed on the display unit have a total FOV of 20 °, for example, a book having a fovealized visual. The decompression method of the invention achieves a compression gain in the range of 4x-6x in the displayed image areas, and when using the example of basis coefficient truncation shown in FIG. 4C, between the displayed image areas. In achieving a systematically high compression gain, the achieved compression gain increases by 8/7 for regions (403), (404), and 8 / for regions (405), (406), respectively. Constructed with a factor of 5, 8/3 Considering the area of each image area (401-412) with respect to the displayed image FOV being formed, and the overhead due to the control data added by the run-length encoder (435), the peripheral area (407) To (412) to (412) are used, the composite compression gain that can be achieved by the Foveed visual decompression method of the present invention is in the range of (24x) to (36x). It means that the image data transfer bandwidth from the processor (102) or (107) to the display element (203) is reduced by the foveal vision by a factor in the range (24x) to (36x). The thawing method of the present invention. If the FOV of the previous example near-eye display system (400) is greater than 20 °, for example at 40 °, the achieved compression gain of the peripheral region (407-412) is the image center region (402-406). Due to the large display FOV asymptotically approaching a factor 8 times higher than the compression gain achieved in, the peripheral image area constitutes the majority of the displayed FOV, and the foveated visual of the present invention. The decompression method can achieve higher synthetic compression gains (closer to factors higher than 40x) when the near-eye display system (200) has a FOV approaching that of HVS (HVSFOV may be greater than 100 °). Are known) .

本発明の中心窩化された視覚的伸張方法の別の実施形態では、視覚的伸張変換は、目のfovea402に対応する画像領域について、高次基底の異なる値を使用する、より高い圧縮利得を達成するために、網膜のpafaovea403−406およびperfovea 407−412領域を提供するこの実施形態では、視覚的伸張変換(302)は、目および頭部追跡要素(210)から入力された目注視点(方向)(401)を受信し、次に、FOVea領域(402)に対応する画像領域を識別する、各画像領域について変換されたバージョンを作成するために、高基準の異なる値を使用する。例えば、視覚的伸張変換(302)は、(4x4)ベースを使用して、画像領域(402−406)のための変換されたバージョンを作成し、使用する(8x8)の変換された画像を生成するように構成され、視覚的伸張変換(302)は、複数の領域の変換された画像を一緒に送信する前に、複数の領域の変換された画像をステッチすることにより、各画像領域ごとに使用される基底順序を識別する埋め込み制御データを中心窩化された画像に送信する量子化器(430)は、基底係数を適切な切捨ておよび量子化基準に適用し、各画像領域は、画像および対応する制御データをランレングス符号化器(304)に転送する。ランレングス符号化器(304)は、FOVea周辺領域に対応する画像領域においてより高い順序を使用して、圧縮ディスプレイ(203)への送信のために、ランレングス符号器(304)に転送する、本実施形態のアフィン変換方法は、より高い圧縮利得を達成することができる前述した例では、(4×4)ベースが画像領域(402−406)及び((8x8)に使用される場合、画像周辺領域(7−412)に使用される、画像中央領域(402−406)で達成される圧縮利得よりも(16x)の係数に漸近的に近づく圧縮利得を達成することができる。このように、本実施形態の中心窩化された視覚的伸張方法は、20°の表示FOVの前の例について32x−48xの範囲の複合圧縮利得を達成することができ、場合によっては40°の表示FOVに対して64xに到達することができる。   In another embodiment of the foveated visual decompression method of the present invention, the visual decompression transform provides a higher compression gain using different values of higher basis for image regions corresponding to the eye fovea 402. In order to achieve this embodiment, which provides the pafaovea 403-406 and perforvea 407-412 regions of the retina, the visual stretch transform (302) includes eye-gaze points (210) input from the eye and head tracking elements (210). Direction) (401) and then use the different values of the high criterion to create a transformed version for each image region that identifies the image region corresponding to the FOVea region (402). For example, the visual decompression transform (302) uses a (4x4) base to create a transformed version for the image region (402-406) and produces a (8x8) transformed image for use. And a visual decompression transform (302) for each image region by stitching the transformed images of the multiple regions prior to transmitting the transformed images of the multiple regions together. A quantizer (430), which sends embedded control data to the foveated image that identifies the basis order used, applies the basis coefficients to the appropriate truncation and quantization criteria, where each image region is The corresponding control data is transferred to the run length encoder (304). The run-length encoder (304) forwards to the run-length encoder (304) for transmission to the compressed display (203) using a higher order in the image area corresponding to the FOVea peripheral area, The affine transformation method of the present embodiment can achieve higher compression gain. In the above example, if the (4 × 4) base is used for the image regions (402-406) and ((8 × 8)), It is possible to achieve a compression gain asymptotically closer to a coefficient of (16x) than that achieved in the central image region (402-406) used for the peripheral regions (7-412). The foveated visual stretching method of this embodiment can achieve compound compression gains in the 32x-48x range for the previous example of a 20 ° display FOV, and in some cases Can reach 64x for a display FOV of 40 °.

本発明の中心窩化された視覚的圧縮解除方法によって達成されることができる圧縮利得の説明されたレベルは、ディスプレイ203側の処理およびメモリ削減に直接変換される、電力消費量、体積形態およびコストの低減に直接変換することができるようにする。注意すべきことであるが、視覚的伸張ブロック(302)および中心窩化された量子化器430ブロックの処理およびメモリ要件は、図4cのブロックのブロックであることに留意すべきである は、後者が画像データ帯域幅を拡大することを除いて、従来の画像伸長要素のものと同等であり、それにより、電力消費の比例的な増加を伴うディスプレイ203側での処理及びメモリ要件のかなりの増大を引き起こす。さらに、視覚的圧縮解除(302)およびフォベレート化された処理およびメモリ要件の処理およびメモリ要件が提供される。図の量子化器430ブロックは、従来技術のフォベト化されたレンダリングブロックのブロックと比較可能である、このように、本発明のFOV化された視覚的伸張方法を使用するニアアイ表示システム(200)は、大幅に少ない処理およびメモリを必要とする(したがって、コストおよび消費電力が低減される))従来技術のフォveジングされたレンダリングを組み込み、従来の圧縮技術を使用する図(1)および図(1(b)の従来技術のニアアイディスプレイシステムと比較する本発明のFoveated visualdecompression方法は、HVSの固有の能力を整合させることによって、その利得を達成することにも留意すべきである;すなわち、HVSの時間的な積分および段階的な(または中心窩化された)空間(角度)分解能(視力)を提供する。また、本発明のFOV化された視覚的伸張方法によって達成されることができる圧縮利得のレベルは、処理のために、マルチ。ビューまたはマルチ。フォーカス。ライト。フィールドを表示するために、ニアアイディスプレイ。システムが必要とされるときに、かなりの量となることに留意することも重要である、メモリおよびそのようなシステムのインターフェース帯域幅は、ビューの数または焦点面の数(表面)に直接比例する)良好に設計されたニアアイ表示システムのために表示することが必要であり、これは、ニアアイ表示視聴者によって許容可能な3D知覚レベルを達成するために表示される必要がある6−12ビューの範囲であることが必要である。   The described levels of compression gain that can be achieved by the foveated visual decompression method of the present invention translate directly into display 203 side processing and memory reduction, power consumption, volumetric morphology and Be able to translate directly into reduced costs. It should be noted that the processing and memory requirements of the visual stretch block (302) and the frustrated quantizer 430 block are that of the block of FIG. 4c. The latter is equivalent to that of a conventional image decompression element, except that it increases the image data bandwidth, thereby resulting in a considerable processing and memory requirement on the display 203 side with a proportional increase in power consumption. Cause an increase. Additionally, visual decompression (302) and foveated processing and memory requirements processing and memory requirements are provided. The quantizer 430 block of the figure is comparable to that of a prior art foretified rendering block, thus the near-eye display system (200) using the FOVed visual decompression method of the present invention. Incorporates a prior art forged rendering that requires significantly less processing and memory (thus reducing cost and power consumption) and uses conventional compression techniques (1) and It should also be noted that the Foveated Visual Decompression method of the present invention compared to the prior art near-eye display system of 1 (b) achieves its gain by matching the inherent capabilities of HVS; , HVS temporal integration and stepwise (or foveated) It provides spatial (angular) resolution (visual acuity), and the level of compression gain that can be achieved by the FOVed visual stretching method of the present invention is multi-view or multi-focus for processing. It is also important to keep in mind that when a system is needed, the near-eye display for displaying the light field is a significant amount, and the memory and interface bandwidth of such a system is It is necessary to display for a well-designed near-eye display system (which is directly proportional to the number of views or the number of focal planes (surface)), which gives a 3D perception level acceptable by the near-eye viewing viewer. It must be in the range of 6-12 views that need to be displayed in order to achieve.

中心窩化されたダイナミック・ガマット−他の色域の実施形態では、視覚的伸張ブロックは、目および頭部追跡要素から、それが次に対応するピクセル(マクロにマップする観察者の視線方向に関する情報を受け取る)観察者の視野の中心を識別し、その情報を画像フレームデータに付加する画像フレーム内の空間座標を、量子化器ブロック(303)に渡す視聴者の視野の中心の識別された空間座標を使用して、量子化器ブロックは、典型的なHVS(角度または方向性)を適用する)カラーのデフォルト24ビット(8ビット)を比例的にトランケートするためのカラー尖鋭度プロファイルを生成する)画像ピクセル(又はマクロ)の色座標のワード長は、より小さいサイズ(ビット内)になる)された観察者の視野の中心の空間座標に対する各画素(又はマクロ)の位置に応じたワード長と、そのフレーム。典型的なHVS(角度又は方向性))視力プロファイル(分布)量子化器ブロック(303)によってルックアップテーブル(LUT)として保持される)画素(またはマクロ)色座標語長量子化係数を画素(またはマクロ)に応じて特定する生成機能と、を備える)観察者の視野の中心からの空間距離を決定するように構成されている。このようなHVSカラー視力プロファイルlutまたは生成関数は、典型的な視聴者(角度または方向性)に基づく)各特定の視聴者の好みに応じて、所与の要因によって調整またはバイアスされることが可能である。HVSカラー尖鋭度プロファイルに対応する色域分布は、次に、ピクセル(またはマクロ)に付加される)量子化された色値をランレングス符号化器(304)で量子化し、変調のために表示素子(203)に送信する画素’(またはマクロ)の記述された方法は、各フレーム(t)について、視聴者の視野の特定された中心の周りの角度または方向性の色の視力プロファイルに基づいて、語長の短縮を行うは、ディスプレイ(203)に転送される画像フレームデータのサイズの2x−3x縮小の要因につながる可能性のある、表示された画像の色FOVelationである圧縮されたディスプレイである場合、ディスプレイ(203)は、画像フレームを変調するために受信するピクセル’(またはマクロ)の切り捨てられた色座標を直接使用する。本実施形態の文脈内で使用される”中心窩化された”という用語は、表示色域がHVSカラー視力プロファイル(分布に適合されることを示すことを意味する)視者の眼の中心から観察者の眼の網膜の周辺領域に向かって外方に移動するように構成されていることを特徴とする本実施形態の視覚的圧縮利得は、ディスプレイをHVSの色知覚視力分布と一致させることによって達成されることに留意されたい。   Foveated Dynamic Gamut—In another gamut embodiment, the visual stretch block is from the eye and head tracking elements to the pixel to which it next corresponds (with respect to the observer's gaze direction that maps to the macro). The center of the viewer's field of view is identified which identifies the center of the viewer's field of view and passes the spatial coordinates within the image frame that add that information to the image frame data to the quantizer block (303). Using spatial coordinates, the quantizer block produces a color sharpness profile for proportionally truncating the default 24 bits (8 bits) of a typical HVS (angle or orientation) applied color. The word length of the color coordinates of the image pixel (or macro) becomes the spatial coordinate of the center of the smaller sized (in bits) observer field of view. A word length corresponding to the position of each pixel (or macro) that, its frame. Pixel (or macro) color coordinate word length quantized coefficients are stored in a typical HVS (angular or directional) visual acuity profile (distribution) quantizer block (303) as a look-up table (LUT). Or macro), and a spatial distance from the center of the observer's visual field. Such an HVS color vision profile lut or generation function may be adjusted or biased by a given factor, depending on the taste of each particular viewer (based on typical viewer (angle or orientation)). It is possible. The gamut distribution corresponding to the HVS color sharpness profile is then quantized with the run length encoder (304) to quantize the quantized color values (added to the pixel (or macro)) and displayed for modulation. The described method of pixel '(or macro) transmission to element (203) is based on the visual acuity profile of the angle or directional color around the specified center of the viewer's field of view for each frame (t). Thus, reducing the word length is a compressed display that is the color FOVelation of the displayed image, which can lead to a factor of 2x-3x reduction in the size of the image frame data transferred to the display (203). , The display (203) displays the truncated color coordinates of the pixel '(or macro) it receives to modulate the image frame. To contact use. The term "foveated" as used within the context of this embodiment is meant to indicate that the display gamut is HVS color visual acuity profile (indicating that it is fitted to the distribution) from the eye center of the viewer. The visual compression gain of this embodiment, characterized in that it is arranged to move outwards towards the peripheral region of the retina of the observer's eye, causes the display to match the HVS color perception visual acuity distribution. Note that this is achieved by

ニアアイ光フィールド表示− シーン画像または映像情報の異なる視点を各眼に送信する際に、ニアアイ光フィールド表示を行う、視聴者のHVSは、両方の画像を融合することができ、その差によって伝達された深度を知覚することができる。左右の画像またはビデオフレーム(3d知覚)と、立体的な深度知覚として知られている能力との間の(視差)。[発明が解決しようとする課題]しかしながら、従来の3dディスプレイでは、典型的には、各眼に対するのビューを使用する、視聴者によって知覚される深度は、視聴者の目が焦点を合わせる深度とは異なる可能性がある。これは、視聴者のHVSに提供された収束と収容深度のキューとの間の競合をもたらす(統合収容競合、VACとして知られている効果))につながる可能性があり、視聴者の頭痛につながる可能性がある。アイ歪み。vtの各々を提供することにより、VACを除去することができる全光フィールド期間tの相応した遠近感を有する観察者の目に見えるように構成されていることを特徴とする視聴者のHVSが、光フィールド内の同じ点、すなわち、合焦可能な光フィールド内で、自然に順応し、収束することを可能にするために。観察された眼の各々に提示される光フィールドの視点は、光フィールドの角度または深さのサンプル(またはスライス)であってもよい。各視聴者の目に提示された視点が、光フィールドの角度サンプルであるとき、このアプローチは、マルチビューライトフィールドと呼ばれ、深度サンプルが使用される場合、マルチ焦点面ライトフィールドと呼ばれる。それらの実装の詳細は異なってもよいが、VACを含まない光フィールドを視聴者のHVSに提示するの手法は、光フィールドの機能的に等価な表現である。いずれのアプローチにおいても、視聴者のHVSに提示される視覚データの帯域幅は、明視野サンプル(ビューまたは焦点面)の数に比例する)光場の視野を表現するために使用され、そのようなものは従来よりもはるかに高い眼ごとに1つのビュー(または遠近)を提示する立体的方法。視覚データ帯域幅の増大は、処理、メモリにおける相応の増加をもたらす、VACを除去するために明視野原理を利用するニアアイディスプレイを実現することをより困難にすることができる。以下の段落は、VACを除去し、コンパクト化(合理化されたルックアップ)を達成しながら、高品質の視覚体験を視聴者に提供するために、明視野原理を利用するニアアイディスプレイを実現することを可能にするために、記載された視覚的伸張方法と他のHVS視力整合方法を適用する)実用的なニアアイの後に、ARまたはVRのいずれかの表示システムを求める。   Near Eye Light Field Display-When sending different viewpoints of a scene image or video information to each eye, the viewer's HVS, which provides a near eye light field display, can fuse both images and communicate by the difference. The depth can be perceived. The parallax between the left and right images or video frames (3d perception) and what is known as stereoscopic depth perception. However, in conventional 3d displays, the depth perceived by the viewer, typically using the view for each eye, is the depth at which the viewer's eyes focus. May be different. This can lead to contention between the convergence provided to the viewer's HVS and the queue of containment depths (integrated containment contention, an effect known as VAC), which can lead to viewer headaches. There is a possibility of being connected. Eye distortion. By providing each of vt, the HVS of the viewer is characterized in that it is arranged to be visible to an observer with a corresponding perspective of the total light field period t in which the VAC can be eliminated. , At the same point in the light field, ie within the focusable light field, to allow for natural adaptation and focusing. The viewpoint of the light field presented to each of the observed eyes may be a sample (or slice) of the angle or depth of the light field. This approach is called a multi-view light field when the viewpoint presented to each viewer's eye is an angular sample of the light field, and a multi-focal plane light field when depth samples are used. Although their implementation details may vary, the approach of presenting the VAC-free light field to the viewer's HVS is a functionally equivalent representation of the light field. In either approach, the bandwidth of the visual data presented to the viewer's HVS is used to represent the field of view of the light field, which is proportional to the number of bright field samples (view or focal plane), and so on. Nana is a stereoscopic method that presents one view (or perspective) for each eye, which is much higher than before. The increase in visual data bandwidth can make it more difficult to realize near-eye displays that utilize the brightfield principle to eliminate VAC, which results in a corresponding increase in processing, memory. The following paragraphs realize a near-eye display that utilizes the brightfield principle to provide the viewer with a high quality visual experience while eliminating VAC and achieving compactness (streamlined lookup). Applying the described visual stretching method and other HVS vision matching methods to enable), after a practical near eye, a display system of either AR or VR is sought.

ニアアイ光フィールド変調器− 本発明の一実施形態では、光フィールドサンプル(ビューまたは焦点面)を表す視覚情報は、ニアアイディスプレイシステムによって提示または変調)される)表示器(または光変調器)の複数の物理的ピクセルのグループを使用して、視聴者のHVSに、それぞれ、ニアアイディスプレイ(200)の右側および左側の要素(203R、)203Lのグループを使用する。ここで、光変調器要素203Lのグループ多重物理(mxm)ピクセルは、”(mm)変調グループ”または”マクロピクセル”と呼ばれる光変調素子203R、(203L)の個々の物理(個体)画素をマイクロ画素(またはm画素)と称する)光フィールドサンプル(ビュー又はプレーン)を変調するために使用されるマクロピクセルをMピクセルと呼ぶマルチビューライトフィールドのニアアイディスプレイシステム実装の場合、Mピクセルの各々を含む個々のMピクセルは、変調(表示)されるのに使用される)光フィールドの複数のビューは、視聴者のHVSに提示され、マルチ焦点面(平面)の場合に提示される)に提示される光フィールドの深度平面(サンプル)を表す複数の深度仮想画像表面を変調(または表示)するために使用される視聴者のHVS。Mピクセルの次元は(mxm)として表される)全光フィールドサンプルの総数を表し、ニアアイ表示システムは、視聴者の目の各々に存在する。本実施形態では、光(発光)ニアアイ光フィールドディスプレイ(200)の光変調素子203R、(203L)の特性を、視聴者のHVSの角速度及びFOVに一致させるようにするHVS角速度は、観察者の眼の中心窩領域で最高レベルであり、観察者の眼の網膜の周辺領域403−412に系統的に減少する、視聴者のHVS深度知覚は、視聴者の眼のfovea領域(402)で最高レベルであり、視聴者の眼の網膜の周辺領域(403−412)に系統的に減少することになる。したがって、視聴者のHVS角速度を一致させることによって、本実施形態のニアアイ光フィールドディスプレイの光変調器要素203Lは、一致するようにされる、以下の段落で説明したように、視聴者のHVSの角度深度視力を調整する。   Near-Eye Light Field Modulator-In one embodiment of the invention, visual information representative of a light field sample (view or focal plane) is presented or modulated by a near-eye display system) of an indicator (or light modulator). The groups of physical pixels are used to use the groups of right and left elements (203R,) 203L of the near-eye display (200) for the viewer's HVS, respectively. Here, the group multiplex physical (mxm) pixel of the light modulator element 203L is a group of light modulation elements 203R and (203L) called "(mm) modulation group" or "macro pixel". In the case of a multi-view light field near-eye display system implementation, where the macropixels used to modulate the light field samples (views or planes) called pixels (or m pixels) are called M pixels, each of the M pixels is The individual M pixels containing are used to be modulated (displayed). Multiple views of the light field are presented to the viewer's HVS, presented in the case of the multi-focal plane (planar)). To modulate (or display) multiple depth virtual image surfaces that represent the depth plane (sample) of the optical field HVS of the viewer that is used. The dimension of M pixels represents the total number of all-light field samples (expressed as (mxm)) and a near-eye display system is present in each of the viewer's eyes. In this embodiment, the HVS angular velocity that causes the characteristics of the light modulation elements 203R and (203L) of the optical (light emitting) near-eye light field display (200) to match the HVS angular velocity and FOV of the viewer is the viewer's. The viewer's HVS depth perception is highest in the foveal region of the eye and systematically decreases to the peripheral region 403-412 of the retina of the observer's eye, the highest in the fovea region (402) of the viewer's eye. Level and will systematically decrease to the peripheral region (403-412) of the retina of the viewer's eye. Therefore, by matching the viewer's HVS angular velocities, the light modulator elements 203L of the near-eye light field display of this embodiment are matched, as described in the following paragraphs, of the viewer's HVS. Adjust the angular depth vision.

図5aは、視聴者HVSの角速度およびFOVを一致させるために使用される、ニアアイディスプレイシステムの光変調器(ディスプレイ)要素203Lの実装を示す。図において、光変調器要素203LのMピクセルは、発光多色フォトニック微小スケールピクセル(典型的には、サイズが5−10ミクロン)である)Mピクセルから放射されたコリメートされた光束を所与の方向(または複数)に向けるマイクロ光学素子(555)を含む方向に変調された)は、光変調器要素203Rおよび203Rの放射FOV内にある。また、図5aに示す光変調素子(203)のm画素の各々に対応して、マクロ光学素子(560)が設けられている(または均等に分散する)関連するMピクセル変調グループから放射された方向変調された光バンドルの所与の角度密度を達成するために、関連するMピクセルからMピクセルFOV上に放射された光を生成する。各Mピクセルから放射されたコリメートされた方向に変調された光束を、本明細書では”明視野角”と呼ぶ。図5aに示すように、Mピクセルの次元は、光変調器要素203Rおよび203Lの光学的開口部及び光学的開口部の光学的中心において最も高いレベルにあるfoveal センターに対応する画像変調領域から遠ざかるように、HVS深さ知覚視力に比例して徐々に減少するように構成されている。図5aに示すように、 図5aでは、Mピクセルの角度範囲(FOV)は、光変調器(ディスプレイの光学的中心で最も狭い値となる)要素(203R、203Lの光学的開口部を有し、foveal中心に対応する画像変調領域から離れたHVS角速度の減少に反比例して漸増するように構成されている。その結果、光フィールドangletの角度密度は、光変調器の中央領域内で最も高い値になる(ディスプレイ)素子(203R、203L)は、その周辺領域内で系統的に減少する。図(1)に示す光変調素子(203R、203L)の各々の光f/#が、5aは、その光学的開口の中央領域で最も高い値にあり、徐々に減少する、fovealセンターに対応する画像変調領域から離れた位置に配置されていることを特徴とする。効果的には、本実施形態では、光変調器要素203Lから放射された光は、観察者の眼の眼窩領域402内の視聴者のHVS視力を目標とする画像領域内で利用可能な最高解像度を作成する際のHVS視力分布と一致し、観察者の眼の網膜の周辺領域403−412に系統的に減少する観察者の眼の瞳孔の移動の範囲を、近視野から観察者の遠視野まで(−7°)一致させるために、注目すべきである)に示すように、図5aに示すように、最高解像度の中央領域(図(5)の中央±5°FOV領域))が、観察者の眼の動きの範囲内の全ての可能な目のFOVeaFOV領域(402)の位置を、視聴者の近視野から遠視野へと適応させるのに十分に広くされる。HVS視力に光学的に整合する光フィールド変調器を実現するための方法を説明した後、次の段落は、HVS光学的に整合された光変調器要素(203R、203L)を使用する方法を説明する。先に説明した複数ビューまたはマルチ焦点面の光フィールドサンプリング方法のいずれかを使用するニアアイ光フィールドディスプレイを実現するために、先に説明したフォベレートされた視覚的伸張方法に関連して使用されるであろう。   FIG. 5a illustrates an implementation of a light modulator (display) element 203L of a near-eye display system used to match the viewer's HVS angular velocity and FOV. In the figure, the M pixels of light modulator element 203L give the collimated luminous flux emitted from the M pixels that are emitting multicolor photonic microscale pixels (typically 5-10 microns in size). Of the optical modulator elements 203R and 203R are within the emission FOV of the optical modulator elements 203R and 203R. Also emitted from the associated M-pixel modulation group in which macro-optical elements (560) are provided (or evenly distributed) corresponding to each of the m pixels of the light-modulating element (203) shown in FIG. 5a. In order to achieve a given angular density of the directionally modulated light bundle, the light emitted from the associated M pixel onto the M pixel FOV is generated. The light flux emitted from each M pixel and modulated in the collimated direction is referred to herein as the "bright field angle". As shown in FIG. 5a, the dimension of M pixels moves away from the image modulation area corresponding to the optical aperture of light modulator elements 203R and 203L and the foveal center at the highest level in the optical center of the optical aperture. Thus, the HVS depth gradually decreases in proportion to the perceived visual acuity. As shown in FIG. 5a, in FIG. 5a, the angular range (FOV) of M pixels has a light modulator (which has the narrowest value at the optical center of the display) element (203R, 203L optical aperture). , Foveal center is configured to gradually increase in inverse proportion to the decrease in HVS angular velocity away from the image modulation region, which results in the highest angular density of the optical field anglet in the central region of the optical modulator. The (display) elements (203R, 203L) that have a value systematically decrease in the peripheral region.The light f / # of each of the light modulation elements (203R, 203L) shown in FIG. The optical aperture has the highest value in the central region of the optical aperture, and is located at a position that gradually decreases and is away from the image modulation region corresponding to the foveal center. In effect, in this embodiment, the light emitted from the light modulator element 203L has the highest resolution available in the image area targeted for the viewer's HVS visual acuity in the orbital area 402 of the observer's eye. In accordance with the HVS visual acuity distribution at the time of creating, and the systematic decrease in the range of movement of the pupil of the eye of the observer in the peripheral region 403-412 of the retina of the observer's eye from the far field (It should be noted to match up to (−7 °)), as shown in FIG. 5a, the central region of the highest resolution (central ± 5 ° FOV region of FIG. (5)) is The positions of all possible eye FOVeaFOV regions (402) within the observer's eye movement are made wide enough to accommodate the viewer's near-field to far-field. After describing a method for implementing a light field modulator that is optically matched to HVS vision, the next paragraph describes a method of using HVS optically matched light modulator elements (203R, 203L). To do. It can be used in conjunction with the previously described focused visual stretching method to achieve a near-eye light field display that uses either the multi-view or multi-focal plane light field sampling methods described above. Ah

マルチビューライトフィールド− 図5bは、前の実施形態の光学素子(206)と光変調器(ディスプレイ)素子(203R、)203Lとの間の結合を高レベルで示す。ニアアイ表示システム(200)において、光学要素206は、図5bの例示を示す、表示素子(203R、)203Lによって変調された画像は、光学素子(206)によって観察者の目(580)に適宜拡大されて中継される光学素子(206)は、反射器およびビームスプリッタ光学アセンブリ、自由型光学ウェッジまたは導波路光学素子を使用して実施することができる。これらの光学要素206設計オプションの設計内容は異なるが、それらの共通の設計基準は、光変調器(ディスプレイの光出力を十分に拡大して中継することである)要素(203R、)203Lを視聴者の目(580)に送信する選択されたm画素(mxm)次元の設計基準と、光変調器素子(203R、203L)およびマクロ光学素子(555)、(560)からの実効光学倍率とをそれぞれ求める、光変調器素子(203R、203L)の中央光学領域に位置するm画素のスポットサイズがHVS(平均)最小の視距離で形成(変調)された仮想画像のための空間視力を提供する図4aの(402−404)をカバーするニアアイ表示システム(200)の(近接場)。例えば、ニアアイディスプレイシステムの最小視野距離が30cmであり、その距離におけるHVS空間視力が約40ミクロンであることが与えられる、光変調器素子(203R、)203Lの中心光中心領域におけるm画素のピッチも40μmであり、光変調器素子(203R、203L)のm画素のピッチが10μmである、Mピクセルの次元は、(4×4)Mピクセルである、観察者の眼の中心領域(図(4a)の(402ー404)の各々に対して、ニアアイ光フィールド表示システム(200)が4x4=16ビューまで変調することを可能にする。この例では、図5aに示すように、Mピクセルの次元は、(3x3)、(2x2)に徐々に減少する(1x1)の数のビューを系統的に提示するように構成されていることを特徴とする観察者のFOVの周辺領域(405−412)を含む。このようにして、この実施形態の光変調器素子(203R、203L)は、視聴者の中心窩領域(図4aの402−404上)により多くのビューを変調することによって、視聴者のHVS角速度および奥行き知覚的な態様と一致する)視聴者のFOVの周辺領域(405−412)への系統的に少ない数のビューを生成するように構成されている。この効果は、視覚的圧縮の形態である。なぜなら、最も高い深度キューを有する視聴者を提供するために必要な最高数のビューは、視聴者の中心窩領域(図の402−404)内の光変調器要素および203Lによって変調されるからである)と、観察者の視線方向と、眼球および頭部追跡要素(210)によって感知された焦点深度とによって示されるように、観察者の視線方向および焦点深度によって示されるように、そして系統的に少ない数のビューは、HVSの典型的な視力角度分布に比例して、視聴者のFOVの周辺領域405−412上に変調される。したがって、前の例では、16ビューは、表示要素203Lによって、視聴者の眼の中心領域(図の402−404上)に変調されることになる。観察者のFOVの周辺領域(405−412)に変調されるビュー数が少なく、約2°の幅である、画像入力(301)の帯域幅を、視聴者の目の中心領域、図4aの(402ー404)の角度幅にほぼ比例するように低減する)ニアアイ用ディスプレイ(200FOV)の全角度幅に比例して変化するように構成されている。すなわち、例えば、ニアアイ光フィールドディスプレイ200FOVが20°の広さである場合には、16ビューは、その中央2°の角度領域とその周辺領域における4ビューの平均とに変調される、約5ビューの有効帯域幅は、そのような場合には十分であり、これは、(3x)の因子の圧縮利得に等しい。もちろん、本実施形態の視覚的圧縮方法では、ニアアイディスプレイ200FOVが、例示的な例で想定される20°よりも広い場合、より高い圧縮利得が達成されるであろう。   Multi-view light field-FIG. 5b shows at a high level the coupling between the optical element (206) and the light modulator (display) element (203R,) 203L of the previous embodiment. In the near-eye display system (200), the optical element 206 shows the exemplification of FIG. 5b. The image modulated by the display elements (203R,) 203L is appropriately magnified by the optical element (206) into the eyes (580) of the observer. The relayed optical element (206) can be implemented using reflector and beam splitter optics assemblies, free-form optical wedges or waveguide optics. Although these optical elements 206 have different design options, the common design criteria for them is to view the optical modulator (enlarge and relay the optical output of the display) elements (203R,) 203L. Selected m pixel (mxm) dimensional design criteria to be transmitted to the human eye (580) and the effective optical magnification from the optical modulator elements (203R, 203L) and the macro optical elements (555), (560). Provide spatial acuity for virtual images formed (modulated) with mVS pixel spot sizes located in the central optical regions of the light modulator elements (203R, 203L) at HVS (average) minimum viewing distances, respectively. Near-field of near-eye display system (200) covering (402-404) of Figure 4a. For example, for a near-eye display system with a minimum viewing distance of 30 cm and an HVS spatial visual acuity at that distance of about 40 microns, of the m pixel in the central light center region of the light modulator element (203R,) 203L. The pitch is also 40 μm, the pitch of m pixels of the light modulator elements (203R, 203L) is 10 μm, the dimension of M pixels is (4 × 4) M pixels, the central region of the eyes of the observer (FIG. For each of (402-404) of (4a), allows the near-eye optical field display system (200) to modulate up to 4x4 = 16 views, in this example M pixels, as shown in Figure 5a. Is characterized in that it is configured to systematically present a (1x1) number of views that gradually decreases to (3x3), (2x2). It includes the peripheral region (405-412) of the observer's FOV, and thus the light modulator elements (203R, 203L) of this embodiment have the viewer's foveal region (402-404 on FIG. 4a). By modulating more views to produce a systematically smaller number of views into the peripheral region (405-412) of the viewer's FOV (consistent with the viewer's HVS angular velocity and depth perceptual aspects). Is configured. This effect is a form of visual compression. Because the highest number of views needed to provide the viewer with the highest depth cues is modulated by the light modulator elements and 203L within the viewer's foveal region (402-404 in the figure). A), as indicated by the observer's line-of-sight direction, and the depth of focus sensed by the eye and head tracking elements (210), as indicated by the observer's line-of-sight direction and depth of focus, and systematic. A very small number of views are modulated onto the peripheral area 405-412 of the viewer's FOV in proportion to the typical visual angle distribution of HVS. Thus, in the previous example, 16 views would be modulated by the display element 203L into the central region of the viewer's eye (on 402-404 in the figure). The bandwidth of the image input (301), which is a width of about 2 °, with a small number of views modulated into the peripheral area (405-412) of the observer's FOV, is set to the central area of the viewer's eye, FIG. It is configured to change in proportion to the total angular width of the near-eye display (200FOV) (reduced so as to be approximately proportional to the angular width of (402-404)). That is, for example, if the near-eye optical field display 200FOV is 20 ° wide, 16 views are modulated into an angular region of 2 ° in its center and an average of 4 views in its peripheral region, about 5 views. The effective bandwidth of is sufficient in such cases, which is equal to the compression gain of a factor of (3x). Of course, with the visual compression method of this embodiment, a higher compression gain will be achieved if the near-eye display 200FOV is wider than the 20 ° envisioned in the illustrative example.

マルチビューライトフィールド深度中心窩化されたビジュアル解凍− HVS角(パーセプション)視野の周辺領域に向かって中央からの視力は、近視野(−30cm)から系統的に減少する)を観察者の遠視野(−300cm)に向けて移動させるように構成されている。したがって、HVSは、遠視野深度知覚よりも近距離場深度知覚のために、より高い数のビューを必要とすることになる。さらに、視聴者の目に焦点を合わせて、ある特定の位置に収納することができる点では、HVS深度知覚視力はその点の近傍で最高レベルにあり、その点からの深さまたは角度偏差のいずれかによって系統的に減少する。これにより、視聴者の目のピントが合っている点付近の視覚情報に寄与し、奥行き感を最大限に実現することに寄与することができる。視聴者の目が近視野から視聴者の遠視野に向かって変化するにつれて、そのようなビューの数は系統的に減少する。HVS深度知覚のこの属性は、(foveated)の組み合わせによって活用されることができる、さらに別の視覚的圧縮機会を提示する)図5aのマルチビュー光変調器素子(203R、203L)と、先に説明した中心窩化された視覚的伸張方法とを含むニアアイ光フィールド表示システム200内に組み込まれた一実施形態では、図5aのマルチビュー光変調器要素および203R、203Lと、先の実施形態のfoveatされた視覚解凍方法との両方を含む、眼球および頭部追跡要素(210)によって提供される視聴者の焦点の感知された点を使用して、識別する(または識別する))前記視野は、前記観察者の目が合焦されている点の近傍で最も多くの視覚情報に寄与し、次に、説明された視覚的圧縮解除方法が適用されて、視聴者の目が焦点合わせされている近傍の視覚情報への寄与に関して、図5aのマルチビュー光変調器要素203R、203Lによって、視聴者に変調されている明視野ビューを比例的に圧縮する。[課題を解決するための手段]従って、本発明の方法によれば、実施形態では、光フィールドは、視聴者の目がtである点の近傍で最も多くの視覚情報に寄与するは、図5aの多面光変調素子(203R、203L)によって集光されて、1つのtを達成する最も高い数の変調基底係数を使用して、それらの語長表現の最小切捨てで最も高い視覚的知覚を可能にする一方で、視聴者の目が存在する点の近傍でより少ない寄与を有する明視野ビューより高いワード長の切捨てにおいて、比例的に少ない数の変調基底係数を使用して、より広い角度ピッチで間隔を置いて配置されたより少ない光フィールド変調ビューを使用して、図5aのマルチビュー光変調器要素(203R、203L)によって変調される。本実施形態の方法のネット効果は、視聴者の目が合焦された点近傍の視覚情報を反映した三次元FOVelatedvisualdecompressionアクションである周囲の領域(前面、背面および側面の領域)の視覚情報を使用しながら、視聴者の焦点のところでHVS知覚的な視力に一致する最高の忠実度で変調されることになる)は、視聴者の目が焦点合わせされている場所から離れた点におけるHVSの比例的に小さい知覚視力に一致する忠実度レベルで変調される。本実施形態の組み合わされた方法は、集合的に“マルチビューライトフィールド深度中心窩化されたビジュアル解凍”と呼ばれる。留意すべきは、本実施形態の文脈内で使用される用語”中心窩”は、表示解像度がHVS深度知覚視力プロファイル(分布に適合されることを示すことを意味することに留意されたい)視者の眼の中心から観察者の眼の網膜の周辺領域に向かって外方に移動するように構成されていることを特徴とする。   Multiview Light Field Depth Foveated Visual Thawing-HVS angle (perception) visual acuity from the center towards the peripheral area decreases systematically from near field (-30 cm) to observer far field It is configured to move toward (-300 cm). Therefore, HVS will require a higher number of views for near field depth perception than far field depth perception. In addition, the HVS depth perceptual visual acuity is at its highest level near that point in that it can be stored in a particular location with focus on the viewer's eyes, with no depth or angular deviation from that point. It is systematically reduced by either. This contributes to the visual information in the vicinity of the point where the viewer's eyes are in focus, and can contribute to maximizing the depth feeling. The number of such views systematically decreases as the viewer's eyes change from the near field to the far field of the viewer. This attribute of HVS depth perception presents yet another visual compression opportunity that can be exploited by a combination of (foveated) and multi-view light modulator elements (203R, 203L) of FIG. In one embodiment incorporated within the near-eye light field display system 200 including the described foveated visual stretching method, the multi-view light modulator elements and 203R, 203L of FIG. Identify (or identify) using the sensed points of the viewer's focus provided by the eye and head tracking elements (210), including both foveated visual decompression methods) , Contributes the most visual information in the vicinity of the point where the observer's eyes are in focus, and then the described visual decompression method is applied Eye viewer with respect to the contribution to the visual information in the vicinity of being focused, multiview light modulator elements 203R in FIG. 5a, the 203L, compressing the bright field views that are modulated to the viewer proportionately. [Means for Solving the Problems] Therefore, according to the method of the present invention, in the embodiment, the light field contributes the most visual information in the vicinity of the point where the viewer's eye is t. The highest number of modulation basis coefficients collected by the 5a polyhedral light modulators (203R, 203L) to achieve one t are used to obtain the highest visual perception with the least truncation of their word length representations. While allowing, at a higher word length truncation than the brightfield view, which has less contribution near the point where the viewer's eyes are present, a proportionally smaller number of modulation basis coefficients are used to provide a wider angle. Modulated by the multi-view light modulator elements (203R, 203L) of FIG. 5a using fewer light field modulated views spaced by pitch. The net effect of the method of the present embodiment uses the visual information of the surrounding area (front, back, and side areas) which is a three-dimensional FOVelatedvisualdecompression action reflecting the visual information near the point where the viewer's eyes are in focus. However, at the viewer's focus, it will be modulated with the highest fidelity that matches the HVS perceptual visual acuity) is proportional to the HVS at a point away from where the viewer's eyes are focused. Is modulated with a fidelity level that corresponds to a relatively small perceptual acuity. The combined methods of this embodiment are collectively referred to as "multi-view light field depth foveated visual decompression." It should be noted that the term "fovea" used within the context of the present embodiment means that the display resolution indicates that the HVS depth perception visual acuity profile (fit to the distribution) is visible. It is characterized in that it is configured to move outward from the center of the human eye toward the peripheral region of the retina of the observer eye.

前の実施形態では、より高い数のビューが、表示要素および203Lによって、視聴者の眼の中心領域(図4aの402−404上)に変調されることにさらに留意されたい)眼及び頭部追跡要素(210)によって示されるように、表示素子(203R、)203Lは、観察者の近視野と遠視野との間の角度距離を横切って延びる角度領域にわたって可能な最も高い数のビューを変調することができるであり、これは、合計約7°である。それにもかかわらず、先の実施形態の中心窩化された視覚的圧縮解除方法が適用される場合には、本発明は、上記課題を解決するためになされたものである、HVS角度知覚視力に一致するように変調基底係数をトランケートし、量子化することになる、前に説明したように、このようにして、中心窩化された視覚的伸張の圧縮利得と、図5aの中心窩化されたマルチビュー光変調器要素(203R、203L)とを複合化することができる。すなわち、(32x)の中程度の圧縮利得係数を達成する中心窩化された視覚的伸張が、(3x)の圧縮利得係数を達成する図(5a)の中心窩化されたマルチビュー光変調器要素(203R、203L)と組み合わされる場合には、前の例と同様であると比較して、ニアアイマルチビューライトフィールドディスプレイシステムによって達成され得る複合圧縮は、匹敵する視聴経験を達成するニアアイディスプレイシステムと比較して、(96x)の圧縮利得係数に到達し、眼のニアアイ光フィールド表示機能を有する16ビューを提供する。   Note further that in the previous embodiment, the higher number of views are modulated by the display element and 203L into the central region of the viewer's eye (on 402-404 in FIG. 4a). As shown by the tracking element (210), the display element (203R,) 203L modulates the highest possible number of views over an angular region extending across the angular distance between the near and far fields of the observer. Can be done, which is about 7 ° in total. Nevertheless, when the foveated visual decompression method of the previous embodiment is applied, the present invention has been made to solve the above-mentioned problems. This will truncate and quantize the modulated basis coefficients to match, thus, as explained previously, the compression gain of the foveated visual stretch and the foveated of FIG. 5a. The multi-view light modulator element (203R, 203L) can be combined. That is, the foveated visual stretch that achieves a medium compression gain factor of (32x) achieves the compression gain factor of (3x). The foveated multi-view light modulator of FIG. When combined with the elements (203R, 203L), the composite compression that can be achieved by the near-eye multi-view light field display system compared to the same as in the previous example achieves a comparable viewing experience. Compared with display systems, it reaches a compression gain factor of (96x) and provides 16 views with near-eye optical field display capability of the eye.

マルチ焦点面(表面)ライトフィールド −図6aは、本発明の視覚的伸張方法を、マルチ焦点面(表面)ニアアイ光フィールドディスプレイの文脈内で適用する実施形態。図aに示すように、本実施形態では、光フィールド変調器のm画素及びm画素は、光フィールド変調器のm画素及びm画素である(203R、203L)は、コリメートされた方向に変調された光線束(または明視野角)を生成するように設計される)ニアアイ光フィールドディスプレイ(200)のFOVを一括して角度をなすように配置された(61)または610Lとを含む本実施形態では、ニアアイ光フィールドディスプレイ(200)は、複数のm画素及び2tを含む左右の光フィールド変調器(203R、203L)を備えるを生成するように設計されたm画素と、観察者の左右の目(580R、580L)の網膜上の対応する点をアドレスする左右の光フィールドanglet対(660OR)610Lを生成するように構成されている(網膜対応点は、知覚出力が観察者の視覚皮質によって深度において単一の点として知覚される、観察者の対向する目の網膜上の点である。と、左右の光フィールド変調器(203R、203L)によって生成された左右の光フィールドanglet対(61OR、610Lとを備えているを”視覚的に対応する”と呼び、その光フィールドangletペア61OR、610Lアドレスがtをアドレスするときに”視覚的に対応する”と呼ぶ観察者の左右の目(580R、580L)の網膜上の対応する点の集合をそれぞれ設定する。ニアアイ光フィールドディスプレイ(200)のFOV内のポイントは、右および左側の光フィールド変調器(20R、203L)によって生成され、光学要素(206)によって観察者の眼(580R)に中継される、”視覚的に対応する”光フィールドanglet対(660OR)610Lである(580L)は、観察者の視覚皮質によって光の仮想的な点(vpos)として双晶的に知覚される)(620)は、ニアアイ光フィールド表示システム(200)によって変調された光フィールド内にあり、視聴者のHVSの両眼知覚態様は、観察者の目(580R、580L)網膜上に中継された光束画像を、光学素子(206)によって単一の視点に光束に変換する、深度で知覚される光(VPoL)(620)の仮想点、視聴者の目(580R、580L)の対応する運動距離に対応する。このように、本実施形態では、ニアアイ光フィールドディスプレイ(200)は、仮想点(vpos)を変調(または生成)する)(620)は、”視覚的に対応する”tの対を同時に変調することによって、表示FOV内の視聴者によって知覚されるようにする”明視野角61or、610L”と、左右の光フィールド変調器203R、(203L)による”明視野角61or、610L”とを備えている視野内の観察者によって知覚される光(vpos)(620)の仮想点の位置は、ニアアイ光フィールドディスプレイ(200)は、x、y)rおよびxによって決定され、y)l空間(座標)位置は、左右の光フィールド変調器203R、203L内で、”視覚的に”の対を生成した、左右の光フィールド変調器203R、203L内のm画素及び/又はm画素の位置を示す
対応する”ライト。フィールド。anglet61orおよび610L。x、y)r及びxをアドレス指定することにより、y)左右の光フィールド変調器(20R、)203Lのm画素及び/又はm画素のl空間位置を決定する;ニアアイ光フィールドディスプレイ(200)は、光の仮想点(vpos)を変調(生成)することができる)(620)は、ニアアイ光フィールドディスプレイ(200)のFOV内の任意の深さにおいて観察者によって一般的に知覚されるVPoL620変調のこの方法によれば、ニアアイ光フィールドディスプレイは、三次元を変調することができる(3D)”視覚的に対応する”ライト。フィールド。anglet(61)または(61)のペアを変調することによって、その表示FOV内の視聴者が合可能なライト。フィールド。コンテンツを選択することができる右および左側の光フィールド変調器(203R、)203Lによってそれぞれ(61)のorを行うように構成されている”視聴者合焦可能”という用語は、この文脈で使用されて、ニアアイ光フィールドディスプレイの視聴者が、対象物またはコンテンツ)に焦点を合わせることができることを意味する)変調された光フィールド内に配置されている。これは、典型的な3dディスプレイが被る前述のVAC問題を低減することに大きく貢献するニアアイ光フィールドディスプレイの重要な特徴である。
Multifocal Plane (Surface) Light Field-Figure 6a shows an embodiment of applying the inventive visual stretching method in the context of a multifocal plane (surface) near-eye light field display. As shown in FIG. A, in the present embodiment, the m pixels and m pixels of the optical field modulator are the m pixels and m pixels of the optical field modulator (203R, 203L) are modulated in the collimated direction. Embodiment of a near-eye light field display (200) that is designed to produce a bundle of rays (or a bright field angle) that are collectively angled (61) or 610L. In, a near-eye light field display (200) is provided with left and right light field modulators (203R, 203L) comprising a plurality of m pixels and 2t m pixels designed to produce left and right eyes of an observer. Configured to produce a left and right light field anglet pair (660OR) 610L addressing a corresponding point on the retina (580R, 580L) (The retinal corresponding point is the point on the retina of the opposing eye of the observer whose perceptual output is perceived by the observer's visual cortex as a single point in depth.) The left and right optical field angle pairs (61OR, 610L) generated by the containers (203R, 203L) are called "visually corresponding", and the optical field angle pair 61OR, 610L address addresses t. Each set of corresponding points on the retina of the left and right eyes (580R, 580L) of the observer, sometimes referred to as "visually corresponding," is set to the point in the FOV of the near-eye light field display (200). Generated by the right and left light field modulators (20R, 203L) and by the optical element (206) the observer's eye ( 80R), a “visually corresponding” light field angle pair (660OR) 610L (580L), is perceived by the observer's visual cortex as a virtual point (vpos) of light twinned. (620) is in the light field modulated by the near-eye light field display system (200), and the binocular perceptual aspect of the viewer's HVS is relayed onto the observer's eye (580R, 580L) retina. A virtual point of the perceived depth (VPoL) (620) that transforms the captured light flux image into a light flux into a single viewpoint by an optical element (206), corresponding to the eyes of the viewer (580R, 580L). In this embodiment, the near-eye optical field display (200) modulates (or generates) a virtual point (vpos) (6). 20) is a "bright field angle 61or, 610L" that allows the "visually corresponding" pairs of t to be simultaneously perceived by the viewer in the display FOV and the left and right light field modulators. The position of the virtual point of the light (vpos) (620) perceived by the observer in the field of view having a "bright field angle 61or, 610L" by 203R, (203L) is , X, y) r and x, the y) l space (coordinate) position is the left and right light field modulations that have produced a “visually” pair in the left and right light field modulators 203R, 203L. Indicates the position of m pixel and / or m pixel in the container 203R, 203L
Corresponding "light. Field. Angle 61or and 610L. X, y) by addressing r and x, y) left and right optical field modulator (20R,) 203L m pixel and / or m pixel l spatial position. The near-eye optical field display (200) can modulate (generate) a virtual point of light (vpos)) (620) is an arbitrary depth within the FOV of the near-eye optical field display (200). According to this method of VPoL 620 modulation, which is commonly perceived by observers in, a near-eye light field display is capable of modulating three dimensions (3D) "visually corresponding" light field. ) Or (61) by modulating the pair of viewers in the display FOV Possible Light.Field. The term "viewer focusable" configured to perform (61) or's respectively by right and left light field modulators (203R,) 203L with selectable content. Is used in this context to mean that the viewer of a near-eye light field display can focus on an object or content)) is placed in a modulated light field. Is a key feature of near-eye optical field displays that contribute significantly to reducing the aforementioned VAC problems experienced by conventional 3d displays.

HVS深度知覚視力の固有の能力のために、すべての可能な仮想点の光(VPoL)をアドレス指定する)(620)を視野内に配置することができ、ニアアイ光フィールドディスプレイ(200)は不要である。その理由は、双眼鏡である。対応する領域(ポイントで画像を形成する、視聴者の目からの所与の運動距離(または位置)におけるオブジェクトを見ることによって、両眼深度知覚が達成されるHVSベースの知覚的な態様)であることを特徴とする画像処理装置。このようなすべての位置の軌跡は、そのようなすべての位置を離れる(または、運動する))観察者の目は、ホロプター面として知られているHVS視力の角度分布をその双眼深度知覚態様と組み合わせることにより、panumの融合領域またはボリュームとして知られているホロプター表面を囲む深さ領域が生成される)は、観察者によって認識された物体が実際にホロプター面にない場合であっても、両眼深度の知覚が達成される。[課題を解決するための手段]このような課題を解決するために、本発明は、それを囲む関連するpanumの融合領域は、光フィールドを、それらのpanumの融合領域のおおよその大きさによって分離された個別の表面集合にサンプリングするための方法を提案し、当然ながら、いくつかの重複を伴う、光フィールドサンプリング面間のボリューム内の両眼深さの知覚の連続性を保証する。経験的な測定(Hoffman、M;gishck、a.R.akley、K.andバンク、M.s. は、視覚的なパフォーマンスを妨げ、視覚疲労、ジャーナルオブビジョン(2008)、(8)、(33)、(1−30)を引き起こす)ほぼ0.6度の視度で分離された複数の2d光変調表面を有する場合に、両眼深度知覚の連続性を達成することができることを実証する(D)視聴者の視野内に存在する。(0)によって分離された観察者のFOV内のホロプター面のセット6したがって、dは、視聴者のHVSが両眼知覚を達成するのに十分であるの範囲内であるそのような複数のホロプター面およびそれらの関連するpanumの融合領域にまたがるボリュームを提供する。本明細書では、ビューアの両眼深度知覚の連続性を達成するのに必要な距離だけ隔てられたホロプター面を、視聴者の近から遠視野に延びるFOV内で連続性を達成するようにする。   Due to the inherent ability of HVS depth perceptual vision, all possible virtual point light (VPoL) addressing (620) can be placed in the field of view, no near-eye light field display (200) required Is. The reason is binoculars. In the corresponding area (an HVS-based perceptual aspect in which binocular depth perception is achieved by looking at an object at a given motion distance (or position) from the viewer's eye, forming images at points) An image processing device characterized by being present. The trajectories of all such positions deviate (or move) from all such positions, and the eyes of the observer describe the angular distribution of HVS visual acuity, known as the horopter plane, as its binocular depth perception. The combination produces a depth region surrounding the horopter surface, known as the fusion area or volume of the panum), even if the object perceived by the observer is not actually in the horopter plane. Perception of eye depth is achieved. [Means for Solving the Problem] In order to solve such a problem, the present invention relates to a related fusion area of the panum, which causes a light field to be determined by the approximate size of the fusion area of the panum. We propose a method for sampling into separate discrete surface sets and, of course, guarantee continuity of binocular depth perception within the volume between the light field sampling planes, with some overlap. Empirical measurements (Hoffman, M; gishck, aR akley, K. and bank, Ms. impede visual performance, visual fatigue, Journal of Vision (2008), (8), ( 33), demonstrating that continuity of binocular depth perception can be achieved when having multiple 2d light modulating surfaces separated by a diopter of approximately 0.6 degrees (causing (1-30)). (D) It exists within the visual field of the viewer. The set of horopter planes 6 in the observer's FOV separated by (0), therefore d is such that multiple horopters within the range of the viewer's HVS are sufficient to achieve binocular perception. It provides a volume that spans the fusion areas of the faces and their associated panum. In the present specification, horopter planes separated by a distance necessary to achieve continuity of viewer's binocular depth perception are provided to achieve continuity within an FOV extending from the viewer's near to far field. .

この実施形態では、ニアアイ光フィールドを正準(連続的な立体的な両眼深度知覚を達成するのに十分な意味)にサンプリングする説明された方法が提供される)(0.6D)によって分離された離散的なホロプター面の集合(ホロプター面の分離距離))に記載されたニアアイ光フィールドディスプレイ(200)の光(VPoL)620変調方法の説明された仮想点を使用して達成され、(x)、y)rおよびxのセットを定義することによって達成される、y)m画素および/またはm画素のl空間位置を、それぞれ、右および左の光フィールド変調器203R、203L内で、”視覚的に”の組を生成する表示システム200FOV内のホロプター面の選択された基準セットにおける光(vpos)(620)の多重度の観察者の両眼知覚をもたらす”対応する”明視野角”。光(vpos)620変調方法の記述された仮想点を使用して、ホロプター面の正準セットを変調する方法を提供する。これにより、ニアアイ光フィールドディスプレイ(200)は、視聴者の全眼外光フィールド全体を知覚的にアドレスすることができる。したがって、本実施形態の方法は、効果的に、光フィールド圧縮利得を達成し、この光フィールド圧縮利得は、 ニアアイ光フィールドディスプレイ(200)によってアドレス可能な全光フィールドのサイズ(vpos)に対して選択されたホロプター変調面を選択する、(100x)を超えると予想されるかなりの圧縮利得とすることができる。このような圧縮利得は、光の仮想点(vpos)によって達成されることに留意されたい)(620)と、HVSの両眼知覚と角速度とを一致させる際に、ニアアイ光フィールドディスプレイ(200)の変調能力を調整するように構成されている。   In this embodiment, the described method of sampling the near-eye light field to canonical (meaning enough to achieve continuous stereoscopic binocular depth perception) is provided) (0.6D). Achieved using the described virtual points of the light (VPoL) 620 modulation method of the near-eye optical field display (200) described in the set of discrete horopter planes (separation distance of horopter planes) x), y) r and x 1) spatial positions of m pixels and / or m pixels, achieved by defining a set of r and x, in the right and left optical field modulators 203R, 203L, respectively. Both viewers of multiplicity of light (vpos) (620) in a selected reference set of horopter planes in a display system 200FOV that produces a "visually" set. A "corresponding" bright viewing angle "that provides the perception. Using the described virtual points of the light (vpos) 620 modulation method, a method is provided to modulate the canonical set of horopter planes, thereby providing a near-eye light field. The display (200) is capable of perceptually addressing a viewer's entire extra-ocular light field, thus the method of this embodiment effectively achieves optical field compression gain, and this optical field compression is achieved. The gain is a considerable compression gain expected to exceed (100x), selecting the selected horopter modulation plane for the size of the total optical field (vpos) addressable by the near-eye optical field display (200). (Note that such compression gain is achieved by a virtual point of light (vpos)). (620) and the binocular perception of HVS and the angular velocity are matched with each other, the modulation capability of the near-eye optical field display (200) is adjusted.

図6bは、前の実施形態のニアアイ光フィールドホロプターサンプリングおよび変調方法を示す。図6bは、明視野ホーニング面(615)の上面図を示す、(622、625)、(630)、(635)、(640)は、近視野(−30cm)から遠視野に向かって系統的に観察者の眼(610)の位置に関連している視聴者の(−300cm)。図6bに示すように、第1の明視野ホロプター面(615)は、観察者の目から3D上に位置する観察者の近視野距離にあり、残りの(5つ)の明視野ホロプター面(618)は、観察者の眼から離れている、(63−640)は、(73a、)2D、(1)の視聴者の目からの連続する(0.6D)の距離に配置される。視聴者の目から、(53D)、(0.93D)、(33D)をそれぞれ出力する。(6つ)の明視野ホーニング面(615)、(618)、(625)、(630)、(635)、(640)は、各々が、密度(又は解像度で変調された多数のvpol620から構成される)は、HVSの深さ及び角度の鋭角に相応するものであり、例えば、変調されたvpol620の密度(スポットサイズ)は、第1の光フィールドでの密度(スポットサイズ)であるホロプター面(615)は、その距離におけるHVS空間視力と一致するように40μmであり、残りの(5つ)の明視野ホロプター面(618)において連続的に大きくなる、(625)、(630)、(635)、(640)は、HVS空間および角速度の分布に一致するように配置されている 6個の明視野ホロプター面615、618、625、630、635、640の各々を構成する多数のvpol620は、変調される(生成される))それらの対応する多重度によって生成された”視覚的に対応する”光フィールドangletペア(61or)(610L)を、それらのそれぞれに位置するMピクセルおよび/またはMピクセルの定義されたセットによって生成される(x、y)rおよび(x、y)l空間位置は、それぞれ、ニアアイ光フィールドディスプレイ(200)の左右の光フィールド変調器203R、203L内の空間位置である 左右の光フィールド変調器203R、203L内の空間位置(x)、y)R、x、y)lを変調(生成)する)(6つ)の明視野角面(615)、(618)、(625)、(630)、(635)、(640)の各々は、視覚的伸張変換ブロック(302)によって事前に計算され、維持されて、アドレスに変換される
(6つ)の明視野ホーニング面(615)、(618)、(625)、(630)の各々を含むそれらの対応するvpol620、光フィールド画像データ(301)に基づいて、埋め込まれたまたは外部のプロセッサ(102)または(107)のいずれかからの入力として受信する。
FIG. 6b illustrates the near-eye optical field horopter sampling and modulation method of the previous embodiment. FIG. 6b shows a top view of the bright field honing surface (615). (622, 625), (630), (635), (640) are systematic from near field (−30 cm) to far field. The viewer's (-300 cm) relative to the position of the observer's eye (610). As shown in FIG. 6b, the first bright-field horopter plane (615) is at the near-field distance of the observer located 3D above the observer's eyes and the remaining (5) bright-field horopter planes ( 618) is away from the observer's eyes, (63-640) is located at (73a,) 2D, a continuous (0.6D) distance from the viewer's eyes (1). From the eyes of the viewer, (53D), (0.93D), and (33D) are output, respectively. The (six) brightfield honing surfaces (615), (618), (625), (630), (635), (640) each consist of a number of vpol 620 modulated in density (or resolution). Corresponding to the depth of the HVS and the acute angle of the angle, for example, the density (spot size) of the modulated vpol 620 is the density (spot size) in the first light field in the horopter plane. (615) is 40 μm to match the HVS spatial visual acuity at that distance, and continuously increases in the remaining (5) bright field horopter planes (618), (625), (630), ( 635) and (640) are arranged so as to match the distribution of HVS space and angular velocity. Six bright field horopter planes 615, 618, 625, 630, 635. The multiple vpols 620 that make up each of the 640 are the "visually corresponding" light field angle pairs (61or) (610L) generated by their corresponding multiplicities that are modulated (generated). The (x, y) r and (x, y) l spatial positions produced by the M pixels and / or the defined set of M pixels located in each of the left and right sides of the near-eye light field display (200), respectively. It is a spatial position in the optical field modulators 203R and 203L. Modulates (generates) spatial positions (x), y) R, x, y) l in the left and right optical field modulators 203R and 203L (6). Each of the bright-field angle planes (615), (618), (625), (630), (635), (640) of the visual extension angle conversion plane ( 02) is calculated in advance by, maintained, it is converted into the address
Embedded or external based on their corresponding vpol 620, including each of the (six) brightfield honing surfaces (615), (618), (625), (630), optical field image data (301). Received as input from either of the processors (102) or (107).

マルチフォーカルプレーンライトフィールドにおける深度中心窩化されたビジュアル解凍−ニアアイ光フィールド表示システム(200)の左右の光フィールド変調器203R、(203L)は、(6つ)の光フィールドホロプター面(615)の全てを変調することが可能である、(620)、(625)、(630)、(635)、(640)を同時に含み、これは、特定の瞬間において、視聴者の目が特定の距離に焦点合わせされ、先に説明したように、必要であるべきでないでは、HVS深度知覚視力は、その点の近傍で最も高い値にあり、その点から深度または角度のずれのいずれかで系統的に減少する。したがって、本実施形態では、本発明の多焦点面表示システム(200)は、本発明のマルチ焦点面光フィールド変調方法は、(6つ)の明視野角面(615)、(618)、(625)、(630)を有する(635)、(640)は同時に変調されるが、焦点の視聴者ポイントにおけるHVS視力に一致するvpos620密度(解像度)である。加えて、ニアアイディスプレイシステム200内に組み込まれた実施形態では、正準ホロプター面(615)を変調するvpol620を使用して、ニアアイ光場を変調する記載された方法の両方を含む、(625)、(630)、(635)、(640)は、図6bに示すように、および前の実施形態に記載されたフォベレートされた視覚的伸張方法を用いて、観察者の目が合焦されている点の近傍で最も多くの視覚情報に寄与するホロプター面が適用され、次に、記載された中心窩化されたビジュアル解凍方法が適用されて、(6つ)の光フィールドを変調するvpol620を比例的に圧縮する観察者の目が焦点合わせされている近傍の視覚情報への寄与に比例して、ホロプター面(615)、(620)、(625)、(630)、(635)、(640)を形成する。この実施形態では、観察者の目が焦点合わせされている場所(運動距離)よりも小さい(0.6D)未満のホロプター表面。この基準は、正準明視野ホーニング面(615)のうちの少なくとも(2つ)を識別する、(625)、(630)、(635)、(640)を含み、視聴者の焦点がこれらの表面のうちの1つに直接にない場合には、ホロプター表面が識別される。先に説明したように、観察者のHVSの両眼融合領域は、正準明視野ホロプター面の間の(0.6D)の領域を満たすからである、この基準は、観察者の焦点領域の光学的深度が、選択された(識別された)光フィールドホロプター面のうちの少なくとも1つの両眼融合領域内に入ることを保証するこの実施形態では、記述された選択基準を使用して識別されたホロプター面は、視聴者の目が焦点を合わせて収容される点の近傍の最も視覚的な情報に寄与する、本発明のマルチ焦点面光変調器(表示装置)は、これらの識別されたホロプター表面を変調して、これらの表面の感知された深度におけるHVS視力と一致するvpol620密度を使用して、また、ttにおける最高数の変調基底係数を使用して、最高の視覚的知覚を達成する複数焦点面光変調器(ディスプレイ)によって、観察者の目が焦点合わせされている点の近傍での寄与が少ないホロプター面の残りが変調されるようにするより高いワード長の切捨てにおいて、比例的に少ない数の変調基底係数を使用して、より広い角度ピッチで離間されたより少ないvpol620を使用して、図6aの要素(203R、203L)を形成する。本実施形態の方法の正味の効果は、視聴者の目が合焦される点付近の視覚情報が最も高い忠実度で変調される三次元窩化された視覚的伸張動作である焦点位置におけるHVS知覚的な視力と一致する、周囲領域の視覚情報は、(前、後、または側面から離れた点でのHVSの比例的に小さい知覚的な視力に一致する忠実度レベルで変調される)観察者の目に焦点を合わせる。本実施形態の組み合わされた方法は、集合的に多焦点面光フィールド深度中心窩化されたビジュアル解凍と呼ばれる。留意すべきは、本実施形態の文脈内で使用される”中心窩化された”という用語は、表示解像度がHVS深度知覚視力プロファイル(分布に適合されることを示すことを意味することに留意されたい)視者の眼の中心から観察者の眼の網膜の周辺領域に向かって外方に移動するように構成されていることを特徴とする。   Visual Defrosting with Depth Foveation in Multifocal Plane Light Field-Left and Right Light Field Modulators 203R, 203L of Near-Eye Light Field Display System (200) are (6) Light Field Hopter Surfaces (615) , (620), (625), (630), (635), (640) are simultaneously included, which means that at a particular moment, the viewer's eyes are at a certain distance. Focused on, and as described above, HVS depth perception visual acuity is at its highest value in the vicinity of that point, and should be systematic in either depth or angular deviation from that point. Decrease to. Therefore, in the present embodiment, the multi-focal plane display system (200) of the present invention uses the multi-focal plane optical field modulation method of the present invention (six) bright-field angle planes (615), (618), (6). (635), (635) with (630), (640) are vmod 620 density (resolution) that is simultaneously modulated but is consistent with HVS vision at the viewer point of focus. In addition, embodiments incorporated within the near-eye display system 200 include both of the described methods of modulating the near-eye optical field using vpol 620, which modulates the canonical horopter plane (615) (625 ), (630), (635), (640) are focused on the observer's eyes as shown in FIG. 6b and using the foveated visual stretching method described in the previous embodiment. The horopter surface that contributes the most visual information in the vicinity of the point is applied, and then the described foveated visual decompression method is applied to modulate the (six) light fields vpol620. Proportional to the contribution to the visual information in the vicinity of the observer's eye, which compresses proportionally to the horopter planes (615), (620), (625), (630), 635), to form a (640). In this embodiment, a horopter surface less than (0.6D) less than where the observer's eyes are in focus (distance of motion). This criterion includes (625), (630), (635), (640) identifying at least (two) of the canonical brightfield honing planes (615), with the focus of the viewer on these. A horopter surface is identified if it is not directly on one of the surfaces. This is because the binocular fusion area of the observer's HVS fills the area of (0.6D) between the canonical brightfield horopter planes as described above. In this embodiment, which ensures that the optical depth falls within the binocular fusion zone of at least one of the selected (identified) optical field horopter planes, identification is performed using the described selection criteria. The resulting horopter plane contributes to the most visual information in the vicinity of the point where the viewer's eye is in focus and accommodates the multi-focal plane light modulators (displays) of the present invention. Modulated horopter surfaces to obtain the best visual perception using vpol620 densities consistent with HVS visual acuity at the perceived depth of these surfaces, and using the highest number of modulation basis coefficients at tt. Multiple to achieve The focal plane light modulator (display) scales proportionally at higher word-length truncation, which allows the rest of the horopter plane to be modulated with less contribution near the point where the observer's eye is in focus. A smaller number of modulation basis coefficients are used to form fewer elements (203R, 203L) in FIG. 6a, using less vpol 620 separated by a wider angular pitch. The net effect of the method of this embodiment is the HVS at the focus position, which is a three-dimensional fossilized visual stretching motion in which the visual information near the point where the viewer's eyes are in focus is modulated with the highest fidelity. Visual information in the surrounding area, consistent with the perceptual visual acuity (modulated at a fidelity level consistent with the proportionally smaller perceptual visual acuity of the HVS at points anterior, posterior, or lateral) observation Focus on the eyes of the person. The combined method of this embodiment is collectively referred to as multifocal plane light field depth foveated visual decompression. It should be noted that the term "foveated" as used within the context of this embodiment is meant to indicate that the display resolution is fitted to the HVS depth perceptual visual acuity profile (distribution). It is characterized in that it is configured to move outward from the center of the eye of the observer toward the peripheral region of the retina of the observer's eye.

先の実施形態では、vpol620のより高い密度は、図の表示要素203Lによって、視聴者の眼の中心領域(図4aの402−404)に変調されることに留意されたい)目と頭追跡要素(210)で示されるように、図6aの表示要素(203R、)203Lと、これは、観察者の近視野と遠視野との間の角度距離にわたって延在する角度領域にわたって可能な最も高いvpol620密度を変調することが可能であり、これは、合計約7°である。それにもかかわらず、先に説明したように、前の実施形態の深度中心窩化されたビジュアル解凍方法が適用される場合、それは、HVS角および深度知覚視力に一致するように、変調基底係数をトランケートし、量子化することになるの圧縮利得を、効果的に合成すること、図6aの表示素子(203R、203L)のための圧縮解除および中心窩化されたマルチ焦点plains光変調器(ディスプレイ)。すなわち、(32x)の中程度の圧縮利得係数を達成する中心窩化された視覚的伸張が、図6aの中心窩化された多焦点面光変調器素子203Rおよび203Lと組み合わされる場合には、先の例と同様である (6つ)の正準ホターサーフェスのうちの最も(2つ)のみを選択する際に)約3xの圧縮ゲイン係数を達成する一方で、全ての6個の正準ホターサーフェスのvpol620密度を中心にすることを特徴とする)と比較して、ニアアイ光フィールド表示システム(200)によって達成され得る複合圧縮は、匹敵する視聴経験を達成する、(6つ)を有するニアアイ光フィールドディスプレイを使用するニアアイ表示システムに比べて、(96x)の利得係数に達する焦点面機能。   Note that in the previous embodiment, the higher density of vpol 620 is modulated by the illustrated display element 203L into the central region of the viewer's eye (402-404 in FIG. 4a). As shown at (210), the display element (203R,) 203L of FIG. 6a, which has the highest possible vpol 620 over an angular region extending over the angular distance between the near and far fields of the observer. It is possible to modulate the density, which is about 7 ° in total. Nevertheless, as explained above, when the depth foveated visual decompression method of the previous embodiment is applied, it adjusts the modulation basis coefficients to match the HVS angle and depth perceptual visual acuity. Effectively combining the compression gains that would be truncated and quantized, decompressed and foveated multi-focus planes light modulators for the display elements (203R, 203L) of FIG. 6a (display ). That is, if a foveated visual stretch that achieves a (32x) medium compression gain factor is combined with the foveated multifocal surface light modulator elements 203R and 203L of Figure 6a: Similar to the previous example, while achieving a compression gain factor of about 3x (in selecting only the most (2) of the (6) canonical Hotel surfaces), all 6 positive The composite compression that can be achieved by the near-eye light field display system (200) achieves a comparable viewing experience (6), as compared to quasi-hotersurface centered vpol 620 density). A focal plane function reaching a gain factor of (96x) compared to a near-eye display system using a near-eye optical field display with.

図7は、図6aのマルチ焦点面ニアアイ光フィールドディスプレイのためのコンテンツの生成を示す。この例示的な実施例では、シーンは、(3つ)の深度平面、すなわち、近面、中面、および遠面の(3つ)の深度平面でカメラ(701)によって捕捉される。カメラによって捕捉されたより深い平面が、図のマルチ焦点面光場ニアアイディスプレイ200上の観察者の深度知覚をより良好にすることに留意されたい。好ましくは、捕捉深度平面の数は、図6aの焦点面のニアアイディスプレイの数が変調することができる数に比例するはずである、前の実施形態の場合には、(6つ)の正準ホロプター面(615)となっている、(618)、(625)、(630)、図6bの(635)及び640を参照されたい。これはしかし、例は、本発明のさらなる態様を示すために、のキャプチャプレーンを使用する、当業者は、本明細書に記載された方法を使用して、マルチ焦点平面ニアアイ撮像(キャプチャおよびディスプレイを意味する)を実現することができるであろう)本発明の例示的な実施例の3つ以上の捕捉された深度平面を使用するシステムを提供するこの例示的な例では、(3つ)のオブジェクトがコンテンツシーン内に配置され、オブジェクト(702)がキャプチャカメラに近く、他の(2つ)のオブジェクト(703)、(704)がカメラから離れている。マルチ焦点平面撮像システムでは、(キャプチャに対するそれらの位置に応じてオブジェクトの明るさの調整が行われる)深さ層が必要とされる。図7の例示的な例では、これは、ブロック(705)、(706)、(707)をフィルタリングすることによって示されるように、深度フィルタリングによって達成される、と、画像シーンオブジェクトの輝度を、その奥行き値に応じた明るさにするために、画像コンテンツの明るさのうちの少なくとも1つを決定する。例えば、最も近いオブジェクト(702)は、第1の深さ層に完全に含まれる、その特定の層708内で完全な明るさで示されているが、他の(2つ)の層(706)、(707)から完全に除去されるミドルオブジェクト(703)の場合、(2つ)の深度レイヤー(ミドルと遠い)の間に位置する)が、オブジェクト(703)の完全な明るさをレンダリングするために、(2つ)のレイヤ(706)、(707)の間で完全な明るさが分割される、知覚される物体の明るさは、全ての層(71)の合計である、物体は、両方の深度平面(706)、(707)からの輝度寄与の加重和として、観察者の目で完全な明るさで知覚される シーンの3d知覚を実現するために、深度層、および710の各々は、その時点で視聴者に表示される対応する深度は、調整された明るさが、視聴者の深度キューを効果的に喚起し、表示されたコンテンツを視聴者によって合焦可能にするために、シーンオブジェクトの深度と一致する。視聴者は、全ての層の組み合わせを見ることになり、その結果、再構成されたステレオ画像(71)が得られ、視聴者のHVSに対する適切な焦点キューが得られるこの例示的な例ののキャプチャプレーンの画像コンテンツは、上述したように、それらの相対的な深度情報とともに、配信(マップ)するためにレンダリングされる)それらの画像内容の色および明るさを、図6aのマルチ焦点面のマルチ焦点面のマルチ焦点面上に投影するこのキャプチャされた画像レンダリング処理の終了結果は、入力画像(301)の内容色と明るさとを、”複数の”視覚的に”色と明るさのデータを特定するデータセットにマッピングすることである。Mピクセル及び/又はMピクセル(x、y)rのそれぞれのセットによって生成される対応する”ライトフィールド。anglet対61or及び610L”と、(x、y)l空間位置は、それぞれ、ニアアイ光フィールドディスプレイ(200)の左右の光フィールド変調器203R、203L内の空間位置であるこれらの色および輝度データセットを、ニアアイ光フィールドディスプレイ(200)の左右の光フィールド変調器(20R、)203Lによってそれぞれ変調する、視聴者は、レンダリングされた3d画像入力内容を、変調されたvpos620およびtitのセットとして知覚するシーン内の表示された3dオブジェクト(702)、(703)、(704)のいずれかに焦点を合わせることができる前の例示した例では、の捕捉面のみが使用されていることに留意すべきである、本発明のニアアイ光フィールドディスプレイ(200)は、本実施形態の記載された方法を用いて、依然としてこの場合にはレンダリングされる、入力画像データ(301)は、記述されたvpol620変調方式を使用して、そのニアアイ光フィールド表示機能を使用して入力画像コンテンツを表示するために、図6bの6個の正準ホロプター面上に入力されるホロプター表面が識別される。先に説明したように、観察者のHVSの両眼融合領域は、正準明視野ホロプター面の間の(0.6D)の領域を満たすからである、この基準は、観察者の焦点領域の光学的深度が、選択された(識別された)光フィールドホロプター面のうちの少なくとも1つの両眼融合領域内に入ることを保証するこの実施形態では、記述された選択基準を使用して識別されたホロプター面は、視聴者の目が焦点を合わせて収容される点の近傍の最も視覚的な情報に寄与する、本発明のマルチ焦点面光変調器(表示装置) は、これらの識別されたホロプター表面を変調して、これらの表面の感知された深度におけるHVS視力と一致するvpol620密度を使用して、また、ttにおける最高数の変調基底係数を使用して、最高の視覚的知覚を達成する複数焦点面光変調器(ディスプレイ)によって、観察者の目が焦点合わせされている点の近傍での寄与が少ないホロプター面の残りが変調されるようにするより高いワード長の切捨てにおいて、比例的に少ない数の変調基底係数を使用して、より広い角度ピッチで離間されたより少ないvpol620を使用して、図(6)の要素(203R、203L)を形成する。本実施形態の方法の正味の効果は、視聴者の目が合焦される点付近の視覚情報が最も高い忠実度で変調される三次元窩化された視覚的伸張動作である焦点位置におけるHVS知覚的な視力と一致する、周囲領域の視覚情報は、(前、後、または側面から離れた点でのHVSの比例的に小さい知覚的な視力に一致する忠実度レベルで変調される)観察者の目に焦点を合わせる。しかし、例は、本発明のさらなる態様を示すために、のキャプチャプレーンを使用する、当業者は、本明細書に記載された方法を使用して、マルチ焦点平面ニアアイ撮像(キャプチャおよびディスプレイを意味する)を実現することができるであろう)本発明の例示的な実施例の3つ以上の捕捉された深度平面を使用するシステムを提供するこの例示的な例では、(3つ)のオブジェクトがコンテンツシーン内に配置され、オブジェクト(702)がキャプチャカメラに近く、他の(2つ)のオブジェクト(703)、(704)がカメラから離れている。マルチ焦点平面撮像システムでは、(キャプチャに対するそれらの位置に応じてオブジェクトの明るさの調整が行われる)深さ層が必要とされる。図7の例示的な例では、 これは、ブロック(705)、(706)、(707)をフィルタリングすることによって示されるように、深度フィルタリングによって達成される、と、画像シーンオブジェクトの輝度を、その奥行き値に応じた明るさにするために、画像コンテンツの明るさのうちの少なくとも1つを決定する。例えば、最も近いオブジェクト(702)は、第1の深さ層に完全に含まれる、その特定の層708内で完全な明るさで示されているが、他の(2つ)の層(706)、(707)から完全に除去されるミドルオブジェクト(703)の場合、(2つ)の深度レイヤー(ミドルと遠い)の間に位置する)が、オブジェクト(703)の完全な明るさをレンダリングするために、(2つ)のレイヤ(706)、(707)の間で完全な明るさが分割される、知覚される物体の明るさは、全ての層(71)の合計である、物体は、両方の深度平面(706)、(707)からの輝度寄与の加重和として、観察者の目で完全な明るさで知覚されるシーンの3d知覚を実現するために、深度層、および710の各々は、その時点で視聴者に表示される。対応する深度は、調整された明るさが、視聴者の深度キューを効果的に喚起し、表示されたコンテンツを視聴者によって合焦可能にするために、シーンオブジェクトの深度と一致する。視聴者は、全ての層の組み合わせを見ることになり、その結果、再構成されたステレオ画像(71)が得られ、視聴者のHVSに対する適切な焦点キューが得られるこの例示的な例ののキャプチャプレーンの画像コンテンツは、上述したように、それらの相対的な深度情報とともに、配信(マップ)するためにレンダリングされる)それらの画像内容の色および明るさを、図(6)のマルチ焦点面のマルチ焦点面のマルチ焦点面上に投影するこのキャプチャされた画像レンダリング処理の終了結果は、入力画像(301)の内容色と明るさとを、”複数の”視覚的に”色と明るさのデータを特定するデータセットにマッピングすることである 。Mピクセル及び/又はMピクセル(x、y)rのそれぞれのセットによって生成される対応するライトフィールド。anglet対61or及び610L”と、(x、y)l空間位置は、それぞれ、ニアアイ光フィールドディスプレイ(200)の左右の光フィールド変調器203R、203L内の空間位置であるこれらの色および輝度データセットを、ニアアイ光フィールドディスプレイ(200)の左右の光フィールド変調器(20R、)203Lによってそれぞれ変調する、視聴者は、レンダリングされた3d画像入力内容を、変調されたvpos620およびtitのセットとして知覚するシーン内の表示された3dオブジェクト(702)、(703)、(704)のいずれかに焦点を合わせることができる前の例示した例では、の捕捉面のみが使用されていることに留意すべきである、本発明のニアアイ光フィールドディスプレイ(200)は、本実施形態の記載された方法を用いて、依然としてこの場合にはレンダリングされる、入力画像データ(301)は、記述されたvpol620変調方式を使用して、そのニアアイ光フィールド表示機能を使用して入力画像コンテンツを表示するために、図6bの6個の正準ホロプター面上に入力される。   FIG. 7 illustrates the generation of content for the multi-focal plane near-eye light field display of FIG. 6a. In this illustrative example, a scene is captured by a camera (701) in (3) depth planes, namely near, mid, and far (3) depth planes. Note that the deeper plane captured by the camera provides better depth perception for the viewer on the illustrated multi-focal-plane light field near-eye display 200. Preferably, the number of capture depth planes should be proportional to the number that the number of near-eye displays in the focal plane of Figure 6a can be modulated, in the case of the previous embodiment (six) positive. See (618), (625), (630), (635) and 640 of FIG. 6b, which are quasi-horopter planes (615). This, however, the example uses the capture plane of to illustrate a further aspect of the present invention, one of ordinary skill in the art would use the methods described herein to provide multi-focus planar near-eye imaging (capture and display). (3) is provided in this exemplary example of providing a system using three or more captured depth planes of an exemplary embodiment of the invention. Object is placed in the content scene, object (702) is close to the capture camera, and other (two) objects (703) and (704) are far from the camera. In a multi-focal plane imaging system, a depth layer (where the brightness of the objects is adjusted according to their position relative to the capture) is required. In the illustrative example of FIG. 7, this is accomplished by depth filtering, as shown by filtering blocks (705), (706), (707), and the intensity of the image scene object, At least one of the brightnesses of the image contents is determined so that the brightness corresponds to the depth value. For example, the closest object (702) is shown in full brightness within that particular layer 708, which is fully contained in the first depth layer, but the other (two) layers (706). ), The middle object (703) is completely removed from (707), the (two) depth layers (located between the middle and far) render the full brightness of the object (703). In order to do, the full brightness is divided between the (two) layers (706), (707), the perceived brightness of the object is the sum of all layers (71) Is perceived at full brightness by the observer's eyes as a weighted sum of the luminance contributions from both depth planes (706), (707). In order to achieve a 3d perception of the scene, depth layers, and 710 Each of which is visible to the viewer at that time Corresponding depth, brightness is adjusted, arouse depth cue viewers effectively, in order to enable focusing by the viewer to the displayed content, consistent with the depth of the scene objects. The viewer will see a combination of all layers, resulting in a reconstructed stereo image (71) of this exemplary example, which provides the proper focus cues for the viewer's HVS. The image content of the capture planes, together with their relative depth information, as described above, is the color and brightness of their image content (see Rendered for Multi-Focal Plane of FIG. 6a). The end result of this captured image rendering process of projecting onto the multi-focal plane is the content color and brightness of the input image (301), "plural" "visually" color and brightness data. To a corresponding data set that identifies each of the M pixels and / or the corresponding "Layers" generated by each set of M pixels (x, y) r. Doo field. angle pair 61or and 610L "and the (x, y) l spatial position is the spatial position within the left and right optical field modulators 203R, 203L of the near-eye optical field display (200), respectively, for these color and luminance data sets. Respectively by the left and right light field modulators (20R,) 203L of the near-eye light field display (200), the viewer perceives the rendered 3d image input as a set of modulated vpos 620 and tit. It should be noted that in the previous illustrated example where any of the displayed 3d objects (702), (703), (704) could be focused in the scene, only the capture plane of was used. The near-eye optical field display (200) of the present invention is The input image data (301), which is still rendered in this case using the described method of the present embodiment, uses the described vpol620 modulation scheme and its near-eye light field display capability. To display the input image content, the horopter surfaces that are input on the six canonical horopter surfaces of Fig. 6b are identified. Because it fills the (0.6D) region between the quasi-brightfield horopter planes, this criterion is that the optical depth of the observer's focal region is that of the selected (identified) optical field horopter plane. In this embodiment, which ensures that it falls within at least one of the binocular fusion areas, the horopter plane identified using the described selection criteria is aligned with the eyes of the viewer. The multi-focal plane light modulators (displays) of the present invention, which contribute to the most visual information in the vicinity of the contained point, modulate these identified horopter surfaces to provide a sensed sense of these surfaces. An observer with a multi-focal-plane light modulator (display) that achieves the best visual perception using vpol620 density that matches HVS visual acuity in depth and using the highest number of modulation basis coefficients in tt. In the higher word-length truncation that causes the rest of the horopter plane to be modulated with less contribution near the point where the eye is focused, using a proportionally smaller number of modulation basis coefficients, Fewer vpols 620 separated by a wider angular pitch are used to form the elements (203R, 203L) of Figure (6) The net effect of the method of this embodiment is viewing. Information in the surrounding area that matches the HVS perceptual visual acuity at the focus position, which is a three-dimensional fossilized visual stretching motion in which the visual information near the point where the eye is focused is modulated with the highest fidelity Focuses on the observer's eye (modulated with a fidelity level corresponding to the proportionally small perceptual visual acuity of the HVS at front, back, or at a point distant from the side). However, the example uses a capture plane of to illustrate a further aspect of the present invention. Those skilled in the art will use the methods described herein to describe multi-focal plane near-eye imaging (meaning capture and display). In this illustrative example, which provides a system using three or more captured depth planes of the illustrative embodiment of the present invention, (three) objects Are placed in the content scene, the object (702) is close to the capture camera, and the other (two) objects (703) and (704) are far from the camera. In a multi-focal plane imaging system, a depth layer (where the brightness of the objects is adjusted according to their position relative to the capture) is required. In the illustrative example of FIG. 7, this is accomplished by depth filtering, as shown by filtering blocks (705), (706), (707), and the intensity of the image scene object, At least one of the brightnesses of the image contents is determined so that the brightness corresponds to the depth value. For example, the closest object (702) is shown in full brightness within that particular layer 708, which is fully contained in the first depth layer, but the other (two) layers (706). ), The middle object (703) is completely removed from (707), the (two) depth layers (located between the middle and far) render the full brightness of the object (703). In order to do, the full brightness is divided between the (two) layers (706), (707), the perceived brightness of the object is the sum of all layers (71) To achieve a 3d perception of the scene as perceived by the observer's eyes at full brightness, as a weighted sum of the luminance contributions from both depth planes (706), (707), and depth layers, and 710. Each of which will be displayed to the viewer at that timeThe corresponding depth corresponds to the depth of the scene object so that the adjusted brightness effectively evokes the viewer's depth cue and allows the displayed content to be focused by the viewer. The viewer will see a combination of all layers, resulting in a reconstructed stereo image (71) of this exemplary example, which provides the proper focus cues for the viewer's HVS. The image content of the capture planes, as described above, together with their relative depth information, are rendered to be delivered (mapped) the color and brightness of their image content, as shown in the multi-focus of figure (6). The end result of this captured image rendering process is to project the content color and brightness of the input image (301) into "multiple" visually "colors and brightness. Is mapped to a data set that specifies a corresponding set of M pixels and / or a corresponding set of M pixels (x, y) r. Itofield. The angle pairs 61or and 610L "and the (x, y) l spatial position are the spatial positions within the left and right light field modulators 203R, 203L of the near-eye light field display (200), respectively. The luminance data set is modulated by the left and right light field modulators (20R,) 203L of the near-eye light field display (200), respectively, and the viewer views the rendered 3d image input content as a set of modulated vpos 620 and tit. In the previous example, which could focus on any of the 3d objects (702), (703), (704) displayed in the scene, the only capture plane of was used. It should be noted that the near-eye optical field display of the present invention The ray (200) is still rendered in this case using the described method of this embodiment, the input image data (301) is the near-eye light field using the described vpol620 modulation scheme. Inputs are made on the six canonical horopter planes of FIG. 6b to display the input image content using the display function.

図7に示されるマルチ焦点深度フィルタリングプロセスは、入力画像シーンコンテンツの明るさを割り当てる(マッピングする)プロセスである、関連する入力画像深度情報に応じて、表示装置(200)に対物レンズを用いてマルチ焦点面をマルチ焦点面に変換して、視聴者のHVSに対して適切な知覚深度キューを作成する本発明の一実施形態では、本発明のマルチ焦点面ニアアイ光フィールドディスプレイ(200)は、tを有する図6aのニアアイ光フィールドディスプレイ(200)によって使用される全ての深さ層を生成するために、局所的な深度フィルタ処理を実行することができる、前の実施形態の場合には、(6つ)の正準ホロプター面がt上に位置することを特徴とするの範囲内であるディスプレイFOVは、ディスプレイtの近視野から遠視野までの視野であることを特徴とする図6b、図8に示すように、本実施形態のマルチ焦点平面深度フィルタリング方法(825)は、レイヤスプリッタ(802)が画像入力(301)および2tを処理することを示すその関連する深度マップ(801)は、捕捉深度平面に対応する画像深度平面または層を生成する。次いで、各生成された層の内容は、入力画像(301)およびその関連する入力深度マップ(602)をマルチ焦点平面画像にマップして表示されるように深度フィルタ(803)される。次いで、画像レンダリングブロックは、生成されたマルチ焦点平面画像を用いて、Mピクセルおよび/またはMピクセルxのそれぞれのセットによって生成されることになる、複数の”視覚的に対応する”ライトフィールドangletペアおよび610lの色および輝度値を生成し、y)rおよび(x、y)l空間位置は、それぞれ、左右の光フィールド変調器203R、203L内の空間位置である、マルチ焦点面vpol620をディスプレイの視聴者に変調するニアアイ光フィールドディスプレイ(200)のうちの少なくとも1つを含む。   The multi-focus depth filtering process shown in FIG. 7 is a process of assigning (mapping) the brightness of the input image scene content, using an objective lens on the display device (200) depending on the relevant input image depth information. In one embodiment of the present invention for converting a multi-focal plane to a multi-focal plane to create a perceived depth cue appropriate for a viewer's HVS, the multi-focal plane near-eye light field display (200) of the present invention comprises: In the case of the previous embodiment, where local depth filtering can be performed to generate all depth layers used by the near-eye light field display (200) of FIG. 6a with t, The display FOV, which is within the range characterized in that the (six) canonical horopter planes are located on t, is As shown in FIG. 6b and FIG. 8, which is characterized in that the field of view is from the near field to the far field of it, the multi-focus plane depth filtering method (825) of the present embodiment uses the layer splitter (802) as an image. The input (301) and its associated depth map (801) showing processing 2t produces an image depth plane or layer corresponding to the capture depth plane. The content of each generated layer is then depth filtered (803) for display by mapping the input image (301) and its associated input depth map (602) to a multifocal plane image. The image rendering block then uses the generated multi-focal plane image to generate a plurality of "visually corresponding" light field angletlets to be generated by each set of M pixels and / or M pixels x. Display the multi-focal plane vpol 620, which produces a pair and a color and intensity value of 610 l, where the y) r and (x, y) l spatial positions are the spatial positions within the left and right optical field modulators 203R, 203L, respectively. At least one of the near-eye light field displays (200) for modulating the viewer's.

別の実施形態では、正準光フィールドのための表示画像が生成されるTのニアアイ光フィールドディスプレイ(200)のホロプター面(615)、(620)、(625)、(630)、(635)、(640)前の実施形態は、圧縮された一組の基準要素画像またはホログラフィック要素(hogel)から構成される入力画像(301)から生成される)キャプチャされたシーンコンテンツの(特許文献1参照)この実施形態では、シーンの明視野カメラによって捕捉された要素画像またはhogelは、最初に処理されて、処理されたtを識別する最大または十分に寄与する最小数の捕捉要素画像またはhogelのサブセットが、(指定された)画像コンテンツを表す)正準明視野ホロプター多焦点面(615)、(620)、(625)、(630)、(635)、(640.)の深さを識別し、この識別された要素画像またはhogelのサブセットを、本明細書では、参照ホゲルと呼ぶシーンのソース。ライト。フィールド。カメラによって捕捉された要素画像またはホゲルの総数のデータ。サイズと比較する、標準的なマルチ焦点面(615)の画像内容を含む、識別された参照ホゲルのデータサイズを決定する、(618)、(625)、(630)、(635)、(640)は、捕捉された要素画像またはhoゲルの総数によって分割された参照hoゲルの識別された部分集合のデータサイズに反比例する圧縮利得を表すは、40x以上の圧縮利得に達することができる圧縮利得である。このように、本実施形態では、捕捉されたライトフィールドデータセットは、ニアアイ光フィールドディスプレイ(200)のマルチ焦点面の離散的なセットを表すデータセットに圧縮され、そのようにして、正準光フィールドホロプター多焦点面(615)を反射する圧縮利得が実現される、前の実施形態の方法によって識別された(618)、(625)、(630)、(635)、(640)を含むは、視聴者のHVS深度知覚態様をマッチングさせることによって圧縮利得を達成する光フィールドの圧縮された表現である。   In another embodiment, the horopter planes (615), (620), (625), (630), (635) of the T near-eye light field display (200) in which the display image for the canonical light field is generated. , (640) the previous embodiment describes a captured scene content (generated from an input image (301) composed of a set of compressed reference element images or holographic elements (hogel)). Reference) In this embodiment, the elemental images or hogels captured by the brightfield camera of the scene are first processed to identify the largest or fully contributing minimum number of captured elemental images or hogels that identify the processed t. A subset of the canonical brightfield horopter multifocal planes (615), (620), (representing (specified) image content) 25), (630), (635), (640. The depth to identify the) source of the scene a subset of the identified element image or hogel, in this specification, referred to as reference Hogeru. Light. field. Data for the total number of elemental images or hogels captured by the camera. Determine the data size of the identified reference hogel, including the image content of the standard multifocal plane (615), to be compared with the size (618), (625), (630), (635), (640). ) Represents the compression gain that is inversely proportional to the data size of the identified subset of reference ho-gels divided by the total number of captured elemental images or ho-gels. Is. Thus, in this embodiment, the captured light field data set is compressed into a data set representing a discrete set of multi-focal planes of the near-eye light field display (200) and, thus, the canonical light. Including (618), (625), (630), (635), (640) identified by the method of the previous embodiment, where a compression gain reflecting the field horopter multifocal plane (615) is realized. Is a compressed representation of the optical field that achieves compression gain by matching the viewer's HVS depth perception aspects.

圧縮されたレンダリング −他の実施形態では、図9に示されているように、圧縮された画像を含む受信画像入力(805)に直接的に”圧縮されたレンダリング”(米国特許出願公開第2015/020176号)が実行される。マルチ焦点面ニアアイ光フィールドディスプレイ(200)によって表示されるべき画像を抽出するために、前の実施形態の参照ホゲルの明視野データセットと、正準光フィールドホロプター多焦点面(615)における光フィールド画像を変調するための左右の光フィールド変調器(203R、)203Lと、を備える、図は、本実施形態の圧縮されたレンダリングプロセスを示しており、この実施形態の圧縮されたレンダリングプロセスは、入力光フィールド。データが、参照ホゲルからなる圧縮光フィールドデータセットを処理して、マルチ焦点面ニアアイ光フィールドディスプレイ(200)および左光フィールド変調器(203R、203L)への入力を生成する。図9の圧縮されたレンダリングプロセス(806)では、受信された圧縮された入力画像(805)は、時刻tの参照ホゲルのライト。フィールド。データ。セットを含む前の実施形態を最初にレンダリングして、正準光フィールドホロプター多焦点面(615)、(620)、(625)における光フィールド画像を抽出する (630)、(635)、(640.)を含み、圧縮されたレンダリングプロセス(806)の第1のステップ(810)において、参照ホゲル画像は、光入力(805)を含むそれらの関連する深度およびテクスチャデータとともに画像を生成する、を用いて、正準光フィールドホロプター多焦点面(615)の各々からなるニアアイ光電界vpolの色および輝度値を合成する、(618)、(625)、(630)、(635)、(640) 基準ホゲルは、正準光フィールドホロプター多焦点面(615)、(618)、(625)、(630)、(635)、(640)の深度情報に基づいて先験的に選択されたものである、vpos合成プロセス(810)は、最小の処理スループット及びメモリを必要とし、圧縮された基準hogel入力データ(805)からニアアイ光フィールドvpol色及び輝度値を抽出するさらに、 9, 眼球および頭部追跡要素によって感知された視聴者の視線方向および焦点深度は、vpos合成プロセスによって使用され、感知された視線方向および視聴者の焦点深度に対する視聴者のHVS視力分布プロファイルに基づいてvpos値をレンダリングする。合成されたニアアイ光フィールドvpolの各々に関連付けられた値は、視覚的に識別される対であろう。対応するanglet方向およびそれらの(x、y)rおよび(x、y)l空間位置座標は、それぞれ、左右の光フィールド変調器203内に位置する、に関連付けられた視覚的に対応するanglet対の色および輝度値がマッピングされ(変換される))右及び左の光フィールド変調器203R、203L内の(x、y)r及び(x、y)l空間位置座標上に配置され、頭部および眼球追跡要素(210)によって感知された観察者の視線方向に応じて、anglet合成プロセス(81515)によってそれぞれ決定される、深度追跡された視覚的圧縮ブロックは、前の実施形態の記載された方法を利用して、生成された色および輝度値を圧縮し、(X)、y)および(x、y)l空間位置座標は、視聴者のHVS視力分布に基づいて、左右の光フィールド変調器203R、203L内のそれぞれの空間位置座標である。本質的に、この実施形態は、前の実施形態のうちの(3つ)の圧縮利得、すなわち、(1)正準光フィールド多焦点面を完全に構成する最小基準ホゲルのセットに入力された光フィールドデータの圧縮に関連する利得を決定すると、(2)全光フィールドの圧縮に関連する利得を、正準光フィールド多重焦点面の各々を含むvpolの集合に変換するステップと、(2)(3)視聴者のHVSの角度、色、および深度視力を一致させるために、変調されたvposの深度FOVelationに関連するゲインを決定するこれらの圧縮利得のうちの第1のものは、実質的に、ニアアイディスプレイシステムのインタフェース帯域幅を減少させ、これらの圧縮利得のうちの第2のものは、計算(処理を実質的に低減する)を生成することと、これらの圧縮利得のうちの第3のものが、ニアアイ用表示光フィールド変調器(203R、)203Lのインタフェース帯域幅を実質的に減少させるこれらの圧縮利得の効果は、従来技術の表示システムで現在行われているように、最初に圧縮された入力を圧縮解除する必要なく直接圧縮入力の表示を可能にする、ニアアイ表示光フィールド変調器203Lの圧縮された表示能力によってさらに向上されることに留意されたい。   Compressed Rendering-In another embodiment, as shown in FIG. 9, a "compressed rendering" is performed directly on the received image input (805) containing the compressed image (US Patent Application Publication No. 2015). No. 020176) is executed. In order to extract the image to be displayed by the multi-focal plane near-eye light field display (200), the bright field dataset of the reference hogel of the previous embodiment and the light at the canonical light field horopter multifocal plane (615). And left and right light field modulators (203R,) 203L for modulating a field image, the figure shows the compressed rendering process of this embodiment, and the compressed rendering process of this embodiment is , Input light field. The data processes a compressed light field dataset consisting of a reference hogel to produce inputs to a multi-focal plane near-eye light field display (200) and a left light field modulator (203R, 203L). In the compressed rendering process (806) of FIG. 9, the received compressed input image (805) is the reference hogel's light at time t. field. data. The previous embodiment including the set is first rendered to extract the light field images at the canonical light field horopter multifocal planes (615), (620), (625) (630), (635), ( 640.) and in a first step (810) of the compressed rendering process (806), the reference hogel images produce an image with their associated depth and texture data, including the light input (805), Is used to synthesize the color and luminance values of the near-eye optical field vpol consisting of each of the canonical field horopter multifocal planes (615), (618), (625), (630), (635), ( 640) The reference hogel is a canonical optical field horopter multifocal plane (615), (618), (625), (630), (635), ( The vpos compositing process (810), which was chosen a priori based on the depth information of 640), requires minimal processing throughput and memory, and uses near-eye light from the compressed reference hogel input data (805). Extracting field vpol color and intensity values In addition, the viewer's gaze direction and depth of focus sensed by the eye and head tracking elements are used by the vpos synthesis process to sense the gaze direction and the viewer's focus. Render vpos values based on the viewer's HVS visual acuity distribution profile versus depth. The value associated with each of the combined near-eye light fields vpol will be a visually identified pair. The corresponding angle directions and their (x, y) r and (x, y) l spatial position coordinates are respectively located within the left and right optical field modulators 203, respectively, and are associated with the visually corresponding angle pairs. Are mapped (transformed) to the right and left optical field modulators 203R, 203L, located on (x, y) r and (x, y) l spatial position coordinates, And depth-tracked visual compression blocks, respectively determined by the angle synthesis process (81515) in response to the observer's gaze direction sensed by the eye tracking element (210) and the eye tracking element (210) described in the previous embodiment. The method is used to compress the generated color and luminance values, and the (X), y) and (x, y) l spatial position coordinates are based on the viewer's HVS visual acuity distribution. Left and right optical field modulator 203R, a respective spatial position coordinates of the 203L. In essence, this embodiment was input to (3) the compression gain of the previous embodiment, namely (1) a set of minimum reference hogels that completely compose the canonical optical field multifocal plane. Determining the compression-related gain of the optical field data, (2) converting the compression-related gain of the entire optical field into a set of vpols each containing a canonical optical field multiple focal plane, and (2) (3) The first of these compression gains, which determines the gain associated with the depth FOVelation of the modulated vpos to match the viewer's HVS angle, color, and depth vision, is substantially First, it reduces the interface bandwidth of the near-eye display system, and the second of these compression gains produces computation, which substantially reduces processing. A third of these compression gains substantially reduces the interface bandwidth of the near-eye display light field modulator (203R,) 203L, and the effect of these compression gains is now seen in prior art display systems. Note that this is further enhanced by the compressed display capability of the near-eye display light field modulator 203L, which allows direct display of the compressed input without the need to decompress the first compressed input as is done. I want to be done.

複数の実施形態の前の説明は、入力帯域幅およびシステム処理リソースを低減するニアアイディスプレイシステムのための画像圧縮方法を提示したものである。人間の視覚システムの角度を一致させることを目的とした、高次基底変調、ダイナミック色域、光フィールド深度サンプリング、および画像データワード長の短縮および量子化を提供する圧縮入力ディスプレイを使用して結合された色および深度視力は、実質的に低減された入力インタフェース帯域幅および処理リソースでのモバイルアプリケーションに適したニアアイディスプレイシステムにおける高忠実度視覚体験を可能にする   The previous description of embodiments presents an image compression method for a near-eye display system that reduces input bandwidth and system processing resources. Combined using a compressed input display that provides higher order basis modulation, dynamic color gamut, optical field depth sampling, and image data word length reduction and quantization for matching angles in the human visual system. Color and depth vision enable high fidelity visual experience in near-eye display systems suitable for mobile applications with substantially reduced input interface bandwidth and processing resources

当業者は、添付の特許請求の範囲および特許請求の範囲によって定義されるその範囲から逸脱することなく、本発明の実施形態に様々な修正および変更を適用することができることを容易に理解するであろう。本発明の前述の実施例は例示に過ぎず、本発明は、その精神または本質的な特徴から逸脱することなく、他の特定の形態で実施することができることを理解されたい。例えば、開示された実施形態の様々な可能な組み合わせは、前の例示的な実施形態では特に言及されていないニアアイディスプレイ設計においてさらなる圧縮利得を達成するために一緒に使用することができる。したがって、開示された実施形態は、いずれの意味においても、個々に、または任意の可能な組合せで、制限的であるとみなされるべきではない本発明の範囲は、先行する説明ではなく、添付の特許請求の範囲によって示され、その均等物の意味および範囲に含まれるすべての変形は、その中に包含されることが意図される。   Those skilled in the art will readily appreciate that various modifications and changes can be applied to the embodiments of the present invention without departing from the scope of the appended claims and the scope defined by the claims. Ah It should be understood that the above-described embodiments of the present invention are exemplary only, and that the present invention may be embodied in other specific forms without departing from its spirit or essential characteristics. For example, various possible combinations of the disclosed embodiments can be used together to achieve additional compression gain in near-eye display designs not specifically mentioned in the previous exemplary embodiments. Accordingly, the disclosed embodiments are not to be considered in any sense as limiting, individually or in any possible combination, the scope of the invention is not limited to the preceding description, but to the accompanying description. All modifications that are indicated by the claims and fall within the meaning and range of equivalents thereof are intended to be embraced therein.

本発明は一般に、画像生成システムのための圧縮方法に関し、より詳細には、頭部装着型又はニアアイディスプレイシステム(本明細書中ではまとめてニアアイディスプレイシステムと呼ぶ)のための画像及びデータ圧縮方法に関する。   The present invention relates generally to compression methods for image generation systems, and more particularly to images and data for head-mounted or near-eye display systems (collectively referred to herein as near-eye display systems). Regarding the compression method.

ニアアイディスプレイデバイスは近年、世間から幅広く注目を集めている。ニアアイディスプレイデバイスは新しいものではなく、多くのプロトタイプ及び市販製品は1960年代にまで遡ることができるが、ネットワークコンピューティング、組み込みコンピューティング、ディスプレイ技術、及び光学部品の設計の進歩により、このようなデバイスへの関心が新たになっている。ニアアイディスプレイシステムは通常、(組み込み型又は外部)プロセッサ、データ取得用の追跡センサ、ディスプレイデバイス、及び必要な光学部品と連結される。上記プロセッサは典型的には、センサから取得したデータを処理して、ユーザの片眼又は両眼の視野内の仮想画像として表示可能なデータを生成する役割を果たす。このデータは、単純な警告メッセージ又は2D情報チャートから、複雑なフローティングアニメーション3Dオブジェクトにまで及ぶ場合がある。   Near-eye display devices have received widespread attention in recent years. Near-eye display devices are not new, and many prototypes and commercial products can be traced back to the 1960s, but due to advances in network computing, embedded computing, display technology, and optical component design, Renewed interest in devices. Near-eye display systems are typically coupled with a (embedded or external) processor, tracking sensors for data acquisition, display devices, and necessary optics. The processor typically serves to process the data obtained from the sensors to produce data that can be displayed as a virtual image within the visual field of one or both eyes of the user. This data can range from simple warning messages or 2D info charts to complex floating animated 3D objects.

2種類のニアアイディスプレイ、即ち:ニアアイ拡張現実(AR)及び仮想現実(VR)ディスプレイが、視聴者に「生きているような」視覚的体験を提示する次世代ディスプレイとして、近年大きく注目を集めている。更に、ニアアイARディスプレイは、オン・ザ・ゴー(on the go)への視聴者のアクセスを拡張するために視聴者の周囲の現実のシーンに混合される高解像度3Dコンテンツを、移動する視聴者に提示するための、究極の手段と見なされている。ARディスプレイの主要な目標は、ユーザの移動性を低下させることなく、現在のモバイルディスプレイの視聴に関する制約を超越し、モバイルデバイスの物理的な制約によって制限されない視聴範囲を提供することである。一方、ニアアイVRディスプレイは、視聴されているコンテンツに視聴者を没入させる360°3Dシネマ視聴体験を視聴者に提示することを想定している。ARディスプレイ技術及びVRディスプレイ技術はいずれも、携帯電話及びパーソナルコンピュータに続く「次のコンピューティングプラットフォーム(next computing platform)」と見なされており、これは、モバイルユーザの情報アクセスの成長、並びに情報市場及びこれを提供するビジネスの成長を拡大する。ここでAR/VRディスプレイは、本発明の方法が一般にニアアイディスプレイに適用され、AR/VRディスプレイ自体に限定されないという事実を強調するために、「ニアアイ(near−eye)」ディスプレイと呼ばれることが多い。   Two types of near-eye displays, namely: near-eye augmented reality (AR) and virtual reality (VR) displays, have received much attention in recent years as next-generation displays that present a “live” visual experience to the viewer. ing. In addition, near-eye AR displays are used for moving high-definition 3D content that is mixed with real-world scenes around the viewer to extend the viewer's access on the go. Is considered the ultimate means of presenting to. The main goal of AR displays is to go beyond current mobile display viewing constraints without compromising user mobility and to provide a viewing range that is not limited by the physical constraints of mobile devices. On the other hand, near-eye VR displays are intended to present the viewer with a 360 ° 3D cinema viewing experience that immerses the viewer in the content being viewed. Both AR display technology and VR display technology are regarded as the "next computing platform" following mobile phones and personal computers, which is the growth of mobile users' information access and the information market. And expand the business that provides it. An AR / VR display may be referred to herein as a "near-eye" display to emphasize the fact that the method of the present invention is generally applied to near-eye displays and is not limited to AR / VR displays themselves. Many.

既存のニアアイAR及びVRディスプレイの主な欠点としては:低リフレッシュレートディスプレイ技術によって引き起こされる、乗り物酔いのような感覚;適合的眼球離反運動の不一致(vergence accommodation conflict:VAC)によって引き起こされる眼精疲労及び吐き気;並びに適度に広い視野(field of view:FOV)における制限された眼の解像度の達成が挙げられる。これらの欠点を解決するための既存の試みとしては:リフレッシュレートがより高いディスプレイの使用;ピクセルがより多い(解像度がより高い)ディスプレイの使用;又は複数のディスプレイ若しくは画面の使用が挙げられる。これらの試み全てにおける共通したテーマは、より高い入力データ帯域幅の必要性である。かさ高さ、複雑さ、及び過剰な電力消費をニアアイディスプレイに付加することなく、より高いデータ帯域幅に対処するには、新たな圧縮方法が必要となる。圧縮の使用は、大量のデータを処理するための通常の解決策であるが、ニアアイディスプレイの要件は独特であり、従来のビデオ圧縮アルゴリズムで達成できるものを超えている。ニアアイディスプレイのためのビデオ圧縮は、既存の圧縮スキームによって提供されるものより高い圧縮率を達成する必要があり、また極めて低い電力消費及び低いレイテンシという要件が追加される。   The main drawbacks of the existing near-eye AR and VR displays are: motion sickness-like sensations caused by low refresh rate display technology; And nausea; and achievement of limited eye resolution in a reasonably wide field of view (FOV). Existing attempts to address these shortcomings include: using a higher refresh rate display; using a higher pixel (higher resolution) display; or using multiple displays or screens. A common theme in all of these attempts is the need for higher input data bandwidth. New compression methods are needed to handle higher data bandwidths without adding bulk, complexity, and excessive power consumption to near-eye displays. Although the use of compression is the usual solution for processing large amounts of data, the requirements for near-eye displays are unique and exceed what can be achieved with traditional video compression algorithms. Video compression for near-eye displays needs to achieve higher compression ratios than provided by existing compression schemes, and adds the requirements of extremely low power consumption and low latency.

ニアアイディスプレイの高圧縮率、低レイテンシ、及び低電力消費という制約は、圧縮キャプチャ及び表示、並びにヒト視覚システム(human visual system:HVS)の機能を活用したデータ圧縮スキームといった、データ圧縮への新たなアプローチを必要とする。従って本発明の目的は、従来技術の制約及び弱点を克服するニアアイ圧縮方法を紹介することであり従って、コンパクト性及び電力消費に関する移動体デバイス設計の厳しい要件を満たすことができ、かつこのようなデバイスのユーザに、広い角度範囲にわたる2D又は3Dコンテンツの強化された視覚体験を提供できる、ニアアイディスプレイの製造を可能とすることである。本発明の更なる目的及び利点は、以下の本発明の好ましい実施形態の詳細な説明から明らかになり、この説明は添付の図面を参照して進められる。   The near-eye display's high compression rate, low latency, and low power consumption constraints are new to data compression, such as compression capture and display, and data compression schemes that take advantage of the capabilities of the human visual system (HVS). Need a different approach. It is therefore an object of the present invention to introduce a near-eye compression method that overcomes the limitations and weaknesses of the prior art, and thus can meet the stringent requirements of mobile device design for compactness and power consumption, and It is possible to produce a near-eye display that can provide the user of the device with an enhanced visual experience of 2D or 3D content over a wide angular range. Further objects and advantages of the present invention will become apparent from the following detailed description of the preferred embodiments of the invention, which description proceeds with reference to the accompanying drawings.

ニアアイディスプレイのための方法を記載した多数の従来技術が存在する。典型例として、非特許文献1は、計算拡張現実(augmented reality:AR)ディスプレイについて記載している。記載されているニアアイディスプレイのプロトタイプは、LCDを利用して、積層された複数の層によって光照射野を再現するが、これは、データ圧縮及び低レイテンシの要件に対処するものではない。このARディスプレイはまた、妨害のないフォーマットを広い視野で達成し、相互オクルージョン及び焦点深度キューを可能とする。しかしながら、LCD層パターンを決定するプロセスは、時間及び電力を多く消費する、計算集約的なテンソル因数分解に基づいている。このARディスプレイはまた、遮光LCDの使用により、輝度が大幅に低下している。これは依然として、ディスプレイ技術がニアアイディスプレイの性能にどのように影響するか、及び従来技術が、ニアアイディスプレイ分野で提示される全ての問題の解決においてどの程度不十分であるかの、別の一例となっている。   There are numerous prior art techniques that describe methods for near-eye displays. As a typical example, Non-Patent Document 1 describes an augmented reality (AR) display. The near-eye display prototype described utilizes an LCD to reproduce the light field with multiple layers stacked, but this does not address the requirements of data compression and low latency. The AR display also achieves an unobstructed format with a wide field of view, allowing mutual occlusion and depth of focus cues. However, the process of determining the LCD layer pattern is based on time and power consuming, computationally intensive tensor factorization. The AR display also has a significant reduction in brightness due to the use of shaded LCDs. This remains another question of how display technology affects the performance of near-eye displays and how prior art technology is inadequate in solving all the problems presented in the near-eye display field. It is an example.

図1a、1bに示す従来技術のニアアイディスプレイシステム100は、組み込み型プロセッサ102又は外部プロセッサ107とすることができるプロセッサ、眼及び頭部追跡要素210、ディスプレイデバイス103、並びに表示画像の拡大及びヒト視覚システム(HVS)106への中継のための光学部品104といった、複数の要素の組み合わせからなる。プロセッサ102(図1a)又は107(図1b)は、眼及び頭部追跡要素210から取得した感覚データを処理し、ディスプレイ103が表示することになる、対応する画像を生成する。このデータ処理は、ニアアイデバイス内において組み込み型プロセッサ102(図1a)によって行われるか、又はこのような処理は外部プロセッサ107(図1b)によってリモートで実施できる。後者のアプローチにより、最新世代のCPU、GPU、及び特定タスク向け処理デバイスといった、より強力なプロセッサを用いて、入って来る追跡データを処理し、対応する画像を、パーソナルエリアネットワーク(Personal Area Network:PAN)108を介してニアアイディスプレイ109に送信できる。外部プロセッサの使用は、システムが、ニアアイディスプレイ109に負荷をかけずに画像処理を行うために必要な処理スループット及びメモリを有する、より強力な画像用リモートプロセッサ107を使用できるようになるという利点を有する。一方、PANを介したデータの送信は、低レイテンシ・高解像度ビデオ送信帯域幅が必要となる等、それ独自の課題を有する。PANにおけるビデオ送信プロトコルのための新たな低遅延プロトコル(非特許文献2を参照)は、ニアアイディスプレイ画像生成のための外部プロセッサ107の使用を可能とすることができ、これにより、高品質の没入型立体VRディスプレイが可能となるが、このようなPANプロトコルは、高解像度3D及びVACフリー視聴体験の提示を目的とした新世代のニアアイAR及びVRディスプレイのための、高帯域幅データ要件に対処できない。   The prior art near-eye display system 100 shown in FIGS. 1a, 1b includes a processor, which can be an embedded processor 102 or an external processor 107, an eye and head tracking element 210, a display device 103, and a display image magnification and human. It consists of a combination of several elements, such as optics 104 for relay to a vision system (HVS) 106. The processor 102 (FIG. 1a) or 107 (FIG. 1b) processes the sensory data obtained from the eye and head tracking element 210 and produces a corresponding image that the display 103 will display. This data processing may be performed by the embedded processor 102 (FIG. 1a) within the near-eye device, or such processing may be performed remotely by the external processor 107 (FIG. 1b). The latter approach uses a more powerful processor, such as the latest generation CPUs, GPUs, and task-specific processing devices, to process the incoming tracking data and render the corresponding images in a personal area network (Personal Area Network). PAN) 108 to the near-eye display 109. The use of an external processor allows the system to use a more powerful image remote processor 107, which has the processing throughput and memory necessary to perform image processing without burdening the near-eye display 109. Have. On the other hand, transmitting data via the PAN has its own problems such as low latency and high resolution video transmission bandwidth. A new low-latency protocol for video transmission protocols in PAN (see Non-Patent Document 2) may enable the use of an external processor 107 for near-eye display image generation, which results in high quality. While enabling immersive stereoscopic VR displays, such PAN protocols meet the high bandwidth data requirements for a new generation of near-eye AR and VR displays aimed at presenting high resolution 3D and VAC-free viewing experiences. I can't handle it.

Maimone, Andrew, and Henry Fuchs. “Computational augmented reality eyeglasses.” In Mixed and Augmented Reality (ISMAR), 2013 IEEE International Symposium on, pp. 29−38. IEEE, 2013Maimone, Andrew, and Henry Fuchs. "Computational augmented reality eyeglasses." In Mixed and Augmented Reality (IMSAR), 2013 IEEE International Symposium on, pp. 29-38. IEEE, 2013 Razavi, R.; Fleury, M.; Ghanbari, M., “Low−delay video control in a personal area network for augmented reality,” in Image Processing, IET , vol. 2, no. 3, pp. 150−162, June 2008Razavi, R .; Fleury, M .; Ghanbari, M .; , "Low-delay video control in a personal area network for augmented reality," in Image Processing, IET, vol. 2, no. 3, pp. 150-162, June 2008

それにもかかわらず、より高度なディスプレイ技術を使用すると、システム全体に新たな課題が課せられる。新たな画像生成方法は、より多量のデータを生成してディスプレイに送信する必要があり、ニアアイディスプレイのサイズ、メモリ及びレイテンシに関する制約により、多量のデータを処理するために使用される従来の圧縮方法はもはや適切ではなくなっている。従って、データを生成し、圧縮し、ニアアイディスプレイに送信するための、新たな方法が必要とされている。   Nevertheless, the use of more sophisticated display technologies poses new challenges to the overall system. The new image generation method needs to generate more data to send to the display, and due to the size, memory and latency constraints of the near-eye display, the traditional compression used to process large amount of data. The method is no longer appropriate. Therefore, new methods are needed to generate data, compress it, and send it to a near-eye display.

以下の説明では、異なる図面内であっても、同様の図面参照番号を同様の要素に対して用いる。詳細な構造及び要素といった、本説明中で定義される事項は、例示的な実施形態の包括的理解を支援するために提供される。しかしながら、本発明は、これらの明示的に定義された事項を用いずに実践することもできる。また、既知の機能又は構造については、これらが不必要な詳細によって本発明を分かりにくくしてしまうため、詳細に説明しない。本発明を理解し、本発明を実際に実施できる方法を確認するために、本発明のいくつかの実施形態を、単なる非限定的な例として、添付の図面を参照して説明する。   In the following description, like drawing reference numbers are used for like elements, even in different drawings. Matters defined in this description, such as detailed structures and elements, are provided to assist in a comprehensive understanding of the exemplary embodiments. However, the invention may be practiced without these explicitly defined matters. In addition, known functions or structures will not be described in detail because they obscure the present invention with unnecessary details. In order to understand the present invention and to confirm the way in which the present invention can be practiced, some embodiments of the present invention will be described with reference to the accompanying drawings by way of non-limiting examples only.

図1aは、組み込み型プロセッサを組み込んだ従来技術のニアアイディスプレイシステムのブロック図を示す。FIG. 1a shows a block diagram of a prior art near eye display system incorporating an embedded processor. 図1bは、接続された外部プロセッサを組み込んだ従来技術のニアアイディスプレイシステムのブロック図を示す。FIG. 1b shows a block diagram of a prior art near-eye display system incorporating an external processor connected. 図2aは、組み込み型プロセッサを備えた本発明のニアアイディスプレイシステムのブロック図を示す。Figure 2a shows a block diagram of a near-eye display system of the present invention with an embedded processor. 図2bは、外部プロセッサを備えた本発明のニアアイディスプレイシステムのブロック図を示す。FIG. 2b shows a block diagram of the inventive near-eye display system with an external processor. 図3aは、本発明のニアアイディスプレイシステムの文脈における、圧縮ディスプレイのビジュアル解凍(Visual Decompression)機能を適用するエンコーダの機能ブロック図を示す。FIG. 3a shows a functional block diagram of an encoder applying the visual decompression function of a compressed display in the context of the near-eye display system of the present invention. 図3bは、本発明のビジュアル解凍法の基底係数変調を示す。FIG. 3b shows the basis coefficient modulation of the visual decompression method of the present invention. 図3cは、本発明のビジュアル解凍法の基底係数の切り捨てを示す。FIG. 3c illustrates the truncation of basis coefficients for the visual decompression method of the present invention. 図4aは、本発明の中心窩集中型(foveated)ビジュアル解凍法によって使用される、視聴者の注視点周辺の視野(FOV)領域を示す。FIG. 4a illustrates the field of view (FOV) area around a viewer's point of gaze used by the foveated visual decompression method of the present invention. 図4bは、本発明の中心窩集中型ビジュアル解凍法を組み込んだニアアイディスプレイシステムのブロック図を示す。FIG. 4b shows a block diagram of a near-eye display system incorporating the foveated centralized visual defrosting method of the present invention. 図4cは、本発明の「中心窩集中型ビジュアル解凍」法の基底係数の切り捨てを示す。FIG. 4c shows the truncation of the basis coefficients of the “foveated focused visual decompression” method of the present invention. 図5aは、視聴者のHVSの角視力及びFOVに適合するニアアイディスプレイシステムの光変調器要素の実装を示す。FIG. 5a shows an implementation of a light modulator element of a near-eye display system adapted to the viewer's HVS angular vision and FOV. 図5bは、本発明のニアアイディスプレイシステムの光学素子の実装を示す。FIG. 5b shows the optical element implementation of the near-eye display system of the present invention. 図6aは、本発明のニアアイ光照射野ディスプレイの多焦点面実施形態を示す。FIG. 6a illustrates a multifocal plane embodiment of a near-eye light field display of the present invention. 図6bは、標準的なホロプタ表面を用いた多焦点面ニアアイディスプレイを実装する、本発明のある実施形態を示す。FIG. 6b illustrates an embodiment of the present invention implementing a multifocal near-eye display with a standard horopter surface. 図7は、本発明の多焦点面ニアアイ光照射野ディスプレイのためのコンテンツの生成を示す。FIG. 7 illustrates the generation of content for the multifocal plane near-eye light field display of the present invention. 図8は、本発明の多焦点面深度フィルタリング法を実装する、ある実施形態を示す。FIG. 8 shows an embodiment implementing the multifocal plane depth filtering method of the present invention. 図9は、本発明の多焦点面ニアアイ光照射野ディスプレイに入力される光照射野データの圧縮レンダリングを実装する、ある実施形態を示す。FIG. 9 illustrates an embodiment implementing a compressed rendering of light field data input to the multifocal near-eye light field display of the present invention.

以下の本発明の詳細な説明における、「一実施形態(one embodiment)」又は「ある実施形態(an embodiment)」に関する言及は、該実施形態に関連して説明されるある特定の特徴、構造又は特性が、本発明の少なくとも1つの実施形態に含まれていることを意味する。この詳細な説明の様々な場所に、句「一実施形態では(in one embodiment)」が見られるが、これら全てが必ずしも同一の実施形態を指すわけではない。   In the following detailed description of the invention, reference to “one embodiment” or “an embodiment” refers to certain specific features, structures or structures described in connection with the embodiment. A feature is meant to be included in at least one embodiment of the invention. In many places in this detailed description the phrase "in one embodiment" is found, but not all are necessarily referring to the same embodiment.

ニアアイディスプレイの視聴者に、高解像度及び広視野(FOV)3D視聴体験を提示するには、1個の眼に対して8メガピクセルという眼の視認限界に近いディスプレイ解像度が必要となる。結果として得られるディスプレイ解像度の上昇は、ニアアイディスプレイシステム全体に対していくつかの要件を課すが、そのうち最も困難なものは、データインタフェース帯域幅及び処理スループットの増大である。本発明は、圧縮ディスプレイ(Compressed Display)システム(以下で定義する)の使用によって、ニアアイディスプレイシステムにおけるこれらの困難のいずれにも対処するための方法を紹介する。図2a、2bは、本発明の方法を用いるニアアイディスプレイシステム200のブロック図による説明である。ニアアイディスプレイシステム200のニアアイアセンブリ201の一実施形態を示す図2aでは、新設計の要素であるエンコーダ204がニアアイディスプレイシステム200に追加されており、これは、QPIソリッドステートイメージャベースのディスプレイ(図面中のQPIイメージャディスプレイ)(米国特許第7,767,479号及び米国特許第7,829,902号)等の圧縮ディスプレイ203のためにデータを圧縮する役割を果たす。各ピクセルが異なる色のソリッドステートLED又はレーザエミッタから光を放出するQPIイメージャに加えて、横並びに配置された異なる色のソリッドステートLED又はレーザエミッタから光を放出し、ここで複数のソリッドステートLED又はレーザエミッタが単一のピクセルとして機能する、イメージャも知られている。本発明のこのようなデバイスは一般に、発光ディスプレイデバイスと呼ばれる。更に本発明は、DLP及びLCOSといった多くのタイプの空間光変調器(Spatial Light Modulator:SLM、マイクロディスプレイ)のための光源を形成するために使用でき、また同様にLCD用のバックライト光源としても使用できる。本明細書中では、用語「ソリッドステートイメージャディスプレイ」、「ディスプレイ要素」、「ディスプレイ」及び同様の用語が、圧縮ディスプレイ203を指すために頻繁に使用される。ニアアイディスプレイシステム200のニアアイアセンブリ205の別の実施形態を示す図2bでは、エンコーダ204は、図2aのものと同一の機能を、ただしニアアイアセンブリ205を遠隔駆動する外部データ源の一部として、満たす。図2bは、外部データ源を、外部プロセッサ207及びエンコーダ204を備え、後者が、無線パーソナルエリアネットワーク(PAN)等の無線リンク208を介して、又は配線209を介して、ニアアイディスプレイアセンブリ205に接続されているものとして示す。いずれの場合においても、エンコーダ204は、ソリッドステートイメージャディスプレイ203の圧縮処理機能を活用し、高品質の画像を生成しながら高圧縮率を達成する。エンコーダ204はまた、眼及び頭部追跡設計要素210が提供する感覚データを利用して、ニアアイディスプレイシステム200のデータ圧縮利得を更に上昇させる。   Presenting near-eye display viewers with a high-resolution and wide-field-of-view (FOV) 3D viewing experience requires a display resolution of 8 megapixels per eye, which is close to the visible limit of the eye. The resulting increase in display resolution imposes some requirements on the overall near-eye display system, the most difficult of which is the increase in data interface bandwidth and processing throughput. The present invention introduces a method for addressing any of these difficulties in near-eye display systems by using a Compressed Display system (defined below). 2a and 2b are block diagram illustrations of a near eye display system 200 using the method of the present invention. In FIG. 2a, which illustrates one embodiment of the near-eye assembly 201 of the near-eye display system 200, a newly designed element, encoder 204, has been added to the near-eye display system 200, which is a QPI solid state imager-based display. It serves to compress the data for a compressed display 203 such as (QPI imager display in the drawing) (US Pat. No. 7,767,479 and US Pat. No. 7,829,902). In addition to the QPI imager where each pixel emits light from a different color solid state LED or laser emitter, it emits light from different color solid state LEDs or laser emitters arranged side by side, wherein a plurality of solid state LEDs are provided. Alternatively, imagers are known in which the laser emitter functions as a single pixel. Such devices of the present invention are commonly referred to as emissive display devices. Further, the present invention can be used to form a light source for many types of spatial light modulators (SLMs, microdisplays) such as DLPs and LCOSs, and also as backlight sources for LCDs. Can be used. The terms “solid state imager display”, “display element”, “display” and like terms are often used herein to refer to the compressed display 203. In FIG. 2b, which illustrates another embodiment of the near-eye assembly 205 of the near-eye display system 200, the encoder 204 has the same function as that of FIG. 2a, except that it is part of an external data source driving the near-eye assembly 205 remotely. As you meet. FIG. 2b shows an external data source comprising an external processor 207 and an encoder 204, the latter being connected to a near-eye display assembly 205 via a wireless link 208, such as a wireless personal area network (PAN), or via wiring 209. Shown as connected. In any case, the encoder 204 utilizes the compression processing function of the solid state imager display 203 to achieve a high compression rate while generating a high quality image. The encoder 204 also utilizes the sensory data provided by the eye and head tracking design element 210 to further increase the data compression gain of the near eye display system 200.

定義
「圧縮(入力)ディスプレイ(Compressed (Input) Display)」は、入力されたデータを最初に解凍することなく、圧縮フォーマットで直接入力された、提供された圧縮データのコンテンツ画像を直接表示できる、ディスプレイシステム、サブシステム、又は要素である。このような圧縮ディスプレイは、ヒト視覚システム(HVS)による直接的な知覚のための高次基底に対して、高いサブフレームレートで画像を変調できる。以下で定義されるような、「ビジュアル解凍」と呼ばれるこのようなディスプレイ機能により、圧縮ディスプレイは、HVSが解凍済み画像として統合及び知覚できるよう、離散コサイン変換(Discrete Cosine Transform:DCT)又は離散ウォルシュ変換(Discrete Walsh Transforms:DWT)の拡張係数を用いて、(n×n)ピクセルを含む高次マクロを直接変調できる(米国特許第8,970,646号)。
Definitions "Compressed (Input) Display" allows to directly display the content image of the provided compressed data, directly input in compressed format, without first decompressing the input data. A display system, subsystem, or element. Such a compressed display can modulate an image at a high sub-frame rate against a higher order basis for direct perception by the human visual system (HVS). With such a display feature, referred to as "visual decompression", as defined below, a compressed display allows a discrete cosine transform (DCT) or discrete Walsh to be integrated and perceived by the HVS as a decompressed image. Higher-order macros containing (n × n) pixels can be directly modulated using an expansion coefficient of a transform (Discrete Walsh Transforms: DWT) (US Pat. No. 8,970,646).

「動的色域(Dynamic Gamut)」−圧縮ディスプレイシステムはまた、動的色域(米国特許第9,524,682号)として知られる機能も含んでよく、ここでは、ディスプレイシステムは、フレームヘッダ内に提供されるワード長調整済み(圧縮済み)色域データを用いて、その色域をフレーム毎に動的に調整できる。動的色域機能の使用において、圧縮ディスプレイシステムは、入力されたフレーム画像及びHVSの視力に適合する圧縮済み色域を用いて、入力データを処理し、対応する画像へと変調する。圧縮ディスプレイのビジュアル解凍及び動的色域機能の両方により、入力データの解凍が必要なくなるため、インタフェース帯域幅及びディスプレイ側の処理スループットが低減され、またこれら両方の機能は、例えばソリッドステートイメージャディスプレイ等の圧縮ディスプレイによってサポートされている。   "Dynamic Gamut" -Compressed display systems may also include a feature known as Dynamic Gamut (US Pat. No. 9,524,682), where the display system is a frame header. Using the word-length adjusted (compressed) gamut data provided within, the gamut can be dynamically adjusted on a frame-by-frame basis. In using the dynamic color gamut feature, the compressed display system processes the input data with a compressed color gamut that matches the input frame image and the visual acuity of the HVS to modulate it into a corresponding image. Both visual decompression and dynamic color gamut capabilities of the compressed display eliminate the need for decompression of input data, reducing interface bandwidth and processing throughput on the display side. Supported by Compressed Display.

「ビジュアル解凍(Visual Decompression)」は、HVSの固有の知覚能力を活用して、最初に解凍を行ってから解凍された視覚情報を表示するのではなく、圧縮された視覚情報をディスプレイが直接変調できるようにする、多数の圧縮視覚情報変調方法である。ビジュアル解凍は、ディスプレイへのインタフェース帯域幅、及び圧縮された視覚情報の解凍に必要な処理スループットを削減する。   "Visual Decompression" takes advantage of the inherent perceptual power of HVS to display the compressed visual information directly by the display, rather than displaying the decompressed visual information after the first decompression. There are a number of compression visual information modulation methods that allow. Visual decompression reduces the interface bandwidth to the display and the processing throughput required to decompress compressed visual information.

ビジュアル解凍−図3aは、本発明のニアアイディスプレイシステム200の文脈における、圧縮ディスプレイ203のビジュアル解凍能力を適用する(図3a、図3bの)エンコーダ204の機能ブロック図を示す。プロセッサ202又は207が生成した入力画像301は、まず、ビジュアル解凍変換要素302によって、例えばDCT又はDWT基底といった既知の高次基底に変換される。次に、得られたこれらの高次基底の係数の、選択されたサブセットを、量子化器303によって量子化する。DCT及びDWTを用いる典型的な圧縮スキーム、例えばMPEG及びJPEGと同様に、本発明のニアアイディスプレイシステム200のエンコーダ204が適用するビジュアル解凍は、部分的には、低周波数を有する基底のサブセットを選択しながら高周波数基底を切り捨てることによって、圧縮利得を達成する。本発明の一実施形態では、量子化器303は、基底係数の選択されたサブセットの量子化のための量子化ステップサイズと同一の量子化ステップサイズを使用する。本発明の別の実施形態では、量子化器303は、ヒト視覚システム(HVS)の能力を活用し、高周波係数に対してより大きな量子化ステップを使用することによって、HVSが知覚しにくい係数に関連するデータ転送帯域幅を低減し、これにより実際には、HVSの能力を適合させることで、より高いビジュアル解凍利得を達成する。次に、量子化された係数を、ランレングスエンコーダ304によって時間(又は時分割)多重化し、このランレングスエンコーダ304は、選択された基底のうちの1つに関連する係数のセットを、ビジュアル解凍対応圧縮ディスプレイ203に一度に送信し、ビジュアル解凍対応圧縮ディスプレイ203は続いて、受信した係数を、ビジュアル解凍対応圧縮ディスプレイ203が表示する関連基底の大きさとして、変調する。圧縮ディスプレイ203は、1つのビデオサブフレーム内で1度に基底のうちの1つを変調し、従って変調された基底は、HVSインパルス応答の時定数(典型的には〜5ms)を超えて時間的に分離されない。例えば、入力画像302を変換するために8個の基底を選択する場合、60Hz(16.67ms)のビデオフレームを、HVSインパルス応答の時定数より大幅に小さい〜2msのサブフレームに区分し、各サブフレーム中に1つの基底係数が圧縮ディスプレイ203によって変調される。   Visual Decompression-FIG. 3a shows a functional block diagram of an encoder 204 (of FIGS. 3a and 3b) that applies the visual decompression capabilities of the compressed display 203 in the context of the near-eye display system 200 of the present invention. The input image 301 generated by the processor 202 or 207 is first transformed by the visual decompression transformation element 302 into a known higher order basis, eg a DCT or DWT basis. The quantizer 303 then quantizes the selected subset of these higher order basis coefficients obtained. Similar to typical compression schemes using DCT and DWT, such as MPEG and JPEG, the visual decompression applied by the encoder 204 of the near-eye display system 200 of the present invention, in part, produces a subset of the bases with low frequencies. Achieving compression gain by truncating the high frequency basis while selecting. In one embodiment of the invention, quantizer 303 uses a quantization step size that is the same as the quantization step size for the quantization of the selected subset of basis coefficients. In another embodiment of the invention, the quantizer 303 takes advantage of the capabilities of the human visual system (HVS) and uses a larger quantization step for high frequency coefficients to make the coefficients less perceptible to HVS. Reducing the associated data transfer bandwidth, which in practice adapts the capabilities of HVS to achieve higher visual decompression gain. The quantized coefficients are then time (or time division) multiplexed by a run length encoder 304, which visually decompresses the set of coefficients associated with one of the selected bases. Send to the corresponding compression display 203 at once, and the visual decompression-enabled compression display 203 then modulates the received coefficients as the size of the associated basis displayed by the visual decompression-enabled compression display 203. Compressed display 203 modulates one of the bases at a time within one video subframe, and thus the modulated base is timed beyond the time constant of the HVS impulse response (typically ~ 5ms). Are not separated. For example, if eight bases are selected to transform the input image 302, a 60 Hz (16.67 ms) video frame is segmented into subframes of ~ 2 ms, which is significantly smaller than the time constant of the HVS impulse response. One basis coefficient is modulated by the compressed display 203 during a subframe.

別の実施形態では、ビジュアル解凍変換ブロック302は、DWT及びDCT係数を、MPEG及びJPEGデータフォーマットといった、外部に提供された圧縮入力データフォーマットから、直接抽出し、抽出したDWT及びDCT係数を量子化器303に提供する。この場合、量子化器303は、より大きな量子化ステップを用いて、MPEG及びJPEGデータフォーマットのDWT及びDCT係数を更に増強することにより、HVSが知覚しにくい係数に関連するデータ転送帯域幅を低減し、またこれにより、HVS能力を適合させることによって、より高いビジュアル解凍利得を達成する。   In another embodiment, visual decompression transform block 302 extracts DWT and DCT coefficients directly from externally provided compressed input data formats, such as MPEG and JPEG data formats, and quantizes the extracted DWT and DCT coefficients. Provided to the container 303. In this case, the quantizer 303 uses a larger quantization step to further enhance the DWT and DCT coefficients of the MPEG and JPEG data formats to reduce the data transfer bandwidth associated with the coefficients that HVS is less likely to perceive. And thereby achieve higher visual decompression gain by adapting HVS capabilities.

本発明の別の実施形態では、変換302及び量子化303された入力画像301の基底係数は、HVSに対して視覚的に直接圧縮されたデータを変調できる圧縮ディスプレイ203に直接フィールドシーケンス304される(上述の圧縮ディスプレイの定義を参照)。ディスプレイ203が達成するビジュアル解凍利得によって、ディスプレイ203におけるメモリ要件を低減することに加えて、圧縮画像データを直接変換及び変調するこの方法は、プロセッサ202又は207からディスプレイ203へ、そしてHVS106へと画像データを転送する際のレイテンシも低減する。ニアアイディスプレイシステムにおけるこのようなレイテンシの低減は、視聴者の不快感を低減するために極めて重要であり、この不快感は典型的には、眼及び頭部追跡センサ210が検出した視聴者の視線方向に対する入力画像301の過度の遅延によって引き起こされる。上記レイテンシが低減されるのは、圧縮画像データを直接変換及び変調する上記方法において、基底係数のサブセットが、典型的にはHVSの時定数よりも短いサブフレーム時間シーケンスで受信されるため、ディスプレイ203によってHVS106に対して時間的に連続して変調され、これによりHVS106は、上記サブセットを部分的に統合し始めること、及び画像入力301を、変調された基底係数のサブフレームのうちのいくつかにおいて徐々に知覚することができ、これによって、眼及び頭部追跡210によって感知された視線方向情報を入力画像301に組み込む際のフィードバック遅延が大幅に削減されるためである。また、圧縮画像データを直接変換及び変調するこの方法において、レイテンシが低減されるのは、エンコーダ204によって生成された、選択された基底係数によって表される圧縮入力画像301が、入力画像301のデータをプロセッサ102又は107側でまず圧縮してからディスプレイ203側で解凍する従来技術のシステムによって典型的に導入される処理遅延なしに、HVS106に対して直接表示されるためでもある。ニアアイディスプレイシステムのレイテンシの低減に加えて、圧縮画像データを直接変換及び変調する本発明の上述のニアアイビジュアル解凍法はまた、ニアアイシステムの処理、メモリ及び電力消費要件も大幅に低減する。というのは、上記方法は、プロセッサ102又は107側での入力画像301データの圧縮及びディスプレイ203側での解凍に関連する処理を排除するためである。言及しておく価値があることとして、圧縮画像データを直接変換及び変調する本発明の上述のニアアイビジュアル解凍法は、視覚感覚の時間的統合によって知覚のHVS106の固有の能力を利用するため、レイテンシ及び処理要件の低減を達成する。即ち、圧縮画像データを直接変換及び変調する本発明の上述のニアアイビジュアル解凍法は、HVSの能力を適合させることによって、レイテンシ及び処理要件の低減を達成する。   In another embodiment of the invention, the transform 302 and quantized 303 basis coefficients of the input image 301 are field sequenced 304 directly into a compressed display 203 that can modulate the data directly compressed for HVS. (See compressed display definition above). The visual decompression gain achieved by the display 203, in addition to reducing the memory requirements on the display 203, provides for direct conversion and modulation of compressed image data from the processor 202 or 207 to the display 203 and then to the HVS 106. The latency when transferring data is also reduced. Such reduction of latency in near-eye display systems is extremely important to reduce viewer discomfort, which is typically detected by the eye and head tracking sensor 210 of the viewer. It is caused by an excessive delay of the input image 301 with respect to the line-of-sight direction. The reduced latency is due to the method of direct conversion and modulation of compressed image data, wherein a subset of basis coefficients are received in a subframe time sequence, which is typically shorter than the HVS time constant. The HVS 106 is continuously modulated in time with respect to the HVS 106 by 203, so that the HVS 106 begins to partially integrate the subset, and the image input 301 to some of the subframes of the modulated basis coefficient. This is because the feedback delay in incorporating the gaze direction information sensed by the eye and head tracking 210 into the input image 301 is significantly reduced. Also, in this method of directly converting and modulating compressed image data, the latency is reduced because the compressed input image 301 generated by the encoder 204 and represented by the selected basis coefficient is the data of the input image 301. Because it is displayed directly to the HVS 106 without the processing delay typically introduced by prior art systems of first compressing on the processor 102 or 107 side and then decompressing on the display 203 side. In addition to reducing the latency of the near-eye display system, the above-described near-eye visual decompression method of the present invention that directly transforms and modulates compressed image data also significantly reduces the processing, memory and power consumption requirements of the near-eye system. . This is because the above method eliminates the processing related to the compression of the input image 301 data on the processor 102 or 107 side and the decompression on the display 203 side. It is worth mentioning that the above-described near-eye visual decompression method of the present invention that directly transforms and modulates compressed image data takes advantage of the inherent capabilities of HVS 106 for perception by temporal integration of visual sensation. Achieve reduced latency and processing requirements. That is, the above-described near-eye visual decompression method of the present invention that directly transforms and modulates compressed image data achieves reduced latency and processing requirements by adapting the capabilities of HVS.

図3bは、本発明のニアアイディスプレイシステムのビジュアル解凍法の基底係数変調を示す。個々のディスプレイピクセルをアドレス指定する(そして変調する)ために現行のディスプレイで典型的に使用される行/列選択法の代わりに、図3bに示すニアアイビジュアル解凍法では、ディスプレイは、高次基底wijを表す(n×n)ピクセルのグループを、同一の基底係数値Cijとともに変調する。ビデオ入力画像301のあるサブフレーム内において、ニアアイ圧縮ディスプレイ203は、(n×n)ピクセルのブロックを、ディスプレイの基底要素Wijを表すマクロとして、関連する基底係数Cijを用いてアドレス指定する。あるビデオフレーム内の基底係数変調サブフレームの時間的シーケンスは、HVSによって時間順に統合され、これは、該ビデオフレームの期間内における入力画像301を徐々に知覚することにつながる。図3bから分かるように、ニアアイ圧縮ディスプレイ203は、サブフレームレートで基底係数を受信及び変調するための応答時間及び変調能力を有していなければならず、上記サブフレームレートはビデオフレームレートの数倍速く、上述した8個のサブフレームを有する例に関して、ビジュアル解凍サブフレームレートは、8×60Hz=480Hzとなる。本発明の一実施形態では、ニアアイ圧縮ディスプレイ203は、ソリッドステートイメージャの高速画像変調能力により、ソリッドステートイメージャを用いて実現される。本発明のビジュアル解凍法をサポートするソリッドステートイメージャの能力に加えて、本発明のニアアイディスプレイシステム200は、サイズの小ささ(コンパクト性)、低い電力消費、及びQPI203によって提供される輝度の恩恵も受け、これにより、体積に関して合理化されたニアアイディスプレイシステム200が実現される。 FIG. 3b shows the base coefficient modulation of the visual decompression method for the near-eye display system of the present invention. Instead of the row / column selection method typically used in current displays to address (and modulate) individual display pixels, in the near-eye visual decompression method shown in Figure 3b, the display is of higher order. A group of (n × n) pixels representing the basis w ij is modulated with the same basis coefficient value C ij . Within a subframe of the video input image 301, the near-eye compressed display 203 addresses a block of (n × n) pixels with the associated basis coefficient C ij as a macro representing the basis element W ij of the display. . The temporal sequence of basis coefficient modulation sub-frames within a video frame is integrated by HVS in chronological order, which leads to a gradual perception of the input image 301 within the duration of the video frame. As can be seen from FIG. 3b, the near-eye compressed display 203 must have a response time and modulation capability to receive and modulate the base coefficients at the subframe rate, which subframe rate is the number of video frame rates. Double speed, for the example with 8 subframes described above, the visual decompression subframe rate would be 8 × 60 Hz = 480 Hz. In one embodiment of the present invention, the near eye compressed display 203 is implemented using a solid state imager due to the high speed image modulation capabilities of the solid state imager. In addition to the solid state imager's ability to support the visual decompression method of the present invention, the near eye display system 200 of the present invention benefits from its small size (compactness), low power consumption, and brightness provided by the QPI 203. Also, the volume rationalized near-eye display system 200 is realized.

再び図3aを参照すると、量子化器303は、ビジュアル解凍変換要素302によって計算された基底定数を、所与の切り捨て基準に基づいて切り捨てた後、選択された基底係数のサブセットを、所与の量子化基準に基づいて所与の語長へと量子化する。図3cは、(4×4)のビジュアル解凍基底に関して量子化器303によって実施される基底係数切り捨てを示す。図3cに示すように、量子化器303は、図3cでマークされている8個の基底係数のサブセットを選択することにより、16個の基底係数のセットを切り捨てる。この選択の基準は、HVSの時間的視力限界を超えた高周波数基底係数を破棄することであり、図3cではこの比較的高い指数の基底に斜線が付けられている。選択された基底係数のサブセットに関して、量子化器303は次に、ビジュアル解凍変換302から受信された、これらに対応する語長を、より少ないビット、例えば8ビット語にまで切り捨てる。なお、ビジュアル解凍変換302は典型的には、より長い語長、例えば16ビット語で、変換計算を実施する。別の実施形態では、量子化器303は、異なる基底係数に関して異なる語長を用いて、選択された基底係数のサブセットを切り捨てる。例えば図3cを参照すると、低周波数係数C00が8ビットに量子化され、行係数C0j及び列係数Ci0に沿った残りの基底係数は、連続して小さくなる語長、例えばそれぞれ6ビット、4ビット及び2ビットを用いて量子化される。基底係数の切り捨て及びその語長の量子化の基準の両方は、固定されていて、ディスプレイ203が先験的に把握しているか、又はデータストリームを介して、組み込まれたディスプレイ203に信号送信(又は通信)される。本実施形態のニアアイビジュアル解凍法によって達成されると予想されるデータ転送帯域幅の圧縮利得は典型的には、入力画像301の転送に使用される基底の次元数と、量子化器303によって使用される基底係数切り捨て基準とに依存するが、典型的には4倍〜6倍であり、これは即ち、プロセッサ102又は107からディスプレイ要素203までの画像データ転送帯域幅が、本実施形態の上述のビジュアル解凍法によって、4倍から6倍の範囲の係数で低減されることを意味している。なお、本実施形態のビジュアル圧縮利得は、ディスプレイをHVSの時間的視力に適合させることによって達成される。 Referring again to FIG. 3a, the quantizer 303 truncates the basis constants calculated by the visual decompression transform element 302 based on a given truncation criterion, and then a selected subset of basis coefficients to a given subset. Quantize to a given word length based on a quantization criterion. FIG. 3c shows the basis coefficient truncation performed by quantizer 303 on a (4 × 4) visual decompression basis. As shown in FIG. 3c, the quantizer 303 truncates the set of 16 basis coefficients by selecting the subset of 8 basis coefficients marked in FIG. 3c. The criterion for this selection is to discard high frequency basis coefficients that exceed the HVS temporal vision limit, and the relatively high index basis is shaded in FIG. 3c. For the selected subset of basis coefficients, quantizer 303 then truncates the corresponding word lengths received from visual decompression transform 302 to fewer bits, eg, an 8-bit word. It should be noted that the visual decompression transform 302 typically has a longer word length, eg, 16-bit words, to perform the transform computation. In another embodiment, quantizer 303 truncates the selected subset of basis coefficients with different word lengths for different basis coefficients. For example, referring to FIG. 3c, the low frequency coefficient C 00 is quantized to 8 bits, and the remaining base coefficients along the row coefficient C 0j and the column coefficient C i0 are successively smaller in word length, eg 6 bits each. It is quantized using 4 bits and 2 bits. Both the base coefficient truncation and its word length quantization criteria are fixed and either known a priori by the display 203 or signaled to the embedded display 203 via the data stream ( Or it is communicated). The compression gain of the data transfer bandwidth expected to be achieved by the near-eye visual decompression method of the present embodiment is typically determined by the number of dimensions of the base used for transfer of the input image 301 and the quantizer 303. Depending on the base coefficient truncation criteria used, it is typically 4 to 6 times, which means that the image data transfer bandwidth from the processor 102 or 107 to the display element 203 is of the present embodiment. By the visual decompression method described above, it is meant to be reduced by a factor in the range 4 to 6 times. It should be noted that the visual compression gain of this embodiment is achieved by adapting the display to the HVS temporal vision.

動的色域−本発明の別の実施形態では、ニアアイディスプレイシステム200は、更なるビジュアル解凍の機会を提供する以下の2つの因子を利用する:(1)ビデオフレームの色域は典型的には、プリセットの標準ディスプレイ(例えばNTSC)の色域(ここでは、上記の標準的な色域内のディスプレイのピクセルの色座標が典型的には24ビット語(1原色あたり8ビット)で表現される)よりもはるかに小さい;及び(2)HVS周辺領域の色覚は、視覚中央領域に比べて大幅に低下している。この実施形態では、ビジュアル解凍変換ブロック302は、各入力ビデオフレームのヘッダ内において、フレーム色域原色の色座標を、フレームの色域原色に対して表現されるフレーム内の各ピクセルの色座標と共に受信し、受信したフレームヘッダを量子化器303に送る。次にビジュアル解凍変換ブロック302は、それが受信したフレーム色域ヘッダを、それが抽出する高次基底係数のセットと共に、量子化器ブロック303に送る。続いて量子化器ブロック303は、画像フレーム色域の、該画像フレーム内の各ピクセルの色座標を表現する語長をデフォルトの24ビット(1色あたり8ビット)未満まで比例的に切り捨てることによって低減されたサイズを利用し、ディスプレイの標準色域サイズに対する、伝達されるフレームの色域サイズが小さいほど、デフォルトの24ビットよりも小さい語長を用いて、受信される各画像フレーム内の各ピクセルの色座標を表現できる。また、ビジュアル解凍ブロック302は、各入力ビデオフレームヘッダ内において、該画像フレーム内の複数の画像領域の色域及び座標を、各フレーム画像領域内の、該フレーム画像領域に関するフレームヘッダ内で伝達される色域原色に関して表現される各ピクセルの色座標と共に、受信することもできる。この場合、量子化器ブロック303は、各フレーム画像領域内の各ピクセルの色座標を表現する語長を、デフォルトの24ビット(1色あたり8ビット)未満まで、比例的に切り捨てる。典型的なビデオフレーム画像では、上述の2つの方法のいずれかにより、圧縮ディスプレイ203へと送る必要がある画像フレームデータのサイズを2倍から3倍低減でき、後者の方法は、この範囲の上限に近い圧縮係数を達成する。フレーム又はフレーム画像領域の色域を、上で定義したようにその色域を動的に調整する能力を有する圧縮ディスプレイ203が受信すると、圧縮ディスプレイ203は、受信したヘッダ内で伝達されたフレーム又はフレーム領域の色域の座標データを用いて、伝達されたフレーム又はフレーム部分領域の色域を、その元の原色を使用して合成した後、受信した(切り捨てた)フレーム又はフレーム部分領域のピクセルの色座標データを変調することによって、上記フレーム又はフレーム部分領域のピクセルそれぞれを表す光を生成する。なお、この実施形態のビジュアル圧縮利得は、ディスプレイ色域を画像フレーム色域に一致させることによって達成される。   Dynamic Gamut-In another embodiment of the invention, the near-eye display system 200 utilizes two factors that provide the opportunity for additional visual decompression: (1) The gamut of a video frame is typical. The color gamut of a preset standard display (eg NTSC) (where the color coordinates of the pixels of the display within the standard gamut above are typically represented in 24-bit words (8 bits per primary color)). (2) The color vision in the peripheral area of HVS is significantly lower than that in the central visual area. In this embodiment, the visual decompression transform block 302 includes in the header of each input video frame the color coordinates of the frame gamut primaries along with the color coordinates of each pixel in the frame expressed relative to the frame gamut primaries. The received frame header is sent to the quantizer 303. The visual decompression transform block 302 then sends the frame gamut header it receives to the quantizer block 303, along with the set of higher order basis coefficients it extracts. The quantizer block 303 then proportionally truncates the word length in the image frame gamut representing the color coordinates of each pixel in the image frame to less than the default of 24 bits (8 bits per color). Utilizing the reduced size, a smaller transmitted gamut size of the frame, relative to the standard gamut size of the display, uses a word length smaller than the default of 24 bits for each received image frame. The color coordinates of pixels can be expressed. The visual decompression block 302 also conveys, within each input video frame header, the color gamuts and coordinates of the plurality of image areas within the image frame within each frame image area within the frame header for that frame image area. It can also be received with the color coordinates of each pixel expressed in terms of the gamut primaries. In this case, the quantizer block 303 proportionally truncates the word length representing the color coordinates of each pixel in each frame image area to less than the default of 24 bits (8 bits per color). For a typical video frame image, the size of the image frame data that needs to be sent to the compressed display 203 can be reduced by a factor of 2 to 3 by either of the two methods described above, the latter method being the upper limit of this range. Achieves a compression factor close to. Upon receipt by a compressed display 203 having the ability to dynamically adjust the gamut of a frame or frame image area, as defined above, the compressed display 203 receives the frame or frame transmitted in the received header. Pixels in a received (truncated) frame or frame subregion after combining the gamut of the transmitted frame or frame subregion using its original primaries using coordinate data of the color gamut of the frame region By modulating the color coordinate data of the above, light representing each pixel of the frame or frame sub-region is generated. It should be noted that the visual compression gain of this embodiment is achieved by matching the display gamut to the image frame gamut.

中心窩集中型ビジュアル解凍−図4a、4bは、ニアアイディスプレイシステム200の更に別のビジュアル解凍法を示す。4(a)、4(b)に示す本実施形態では、視聴者の瞳孔間距離(Inter−Pupillary Distance:IPD)に基づく視聴者の視線方向(軸)401及び焦点方向を、眼及び頭部追跡要素210によって感知及び追跡し、これを用いて、異なるビジュアル解凍基底係数切り捨て及び量子化基準を、視聴者の視野(FOV)420内に表示された画像の異なる領域に対して適用することにより、視聴者の眼が焦点を合わせている(402)FOV領域内で可能な限り最高の視覚知覚を効果的に実現しながら、視覚知覚のHVS角度(視力)分布を利用して、HVSの視力が徐々に低下している視聴者のFOVの残りの領域403〜412にわたって高レベルのビジュアル圧縮を規則正しく達成する。事実上、本実施形態ではビジュアル解凍は、HVSの視力の角度分布を、FOVにわたる視聴者の視覚知覚の角度分布に比例する圧縮語長を用いて適合させるように、適用される。   Foveated Focused Visual Defrosting-FIGS. 4a, 4b illustrate yet another visual defrosting method for the near-eye display system 200. FIG. In the present embodiment shown in FIGS. 4 (a) and 4 (b), the line-of-sight direction (axis) 401 and the focus direction of the viewer, which are based on the inter-pupilary distance (IPD) of the viewer, are the eye and head. By sensing and tracking by the tracking element 210 and using it to apply different visual decompression basis coefficient truncation and quantization criteria to different regions of the image displayed within the viewer's field of view (FOV) 420. , Utilizing the HVS angle (visual acuity) distribution of visual perception while effectively achieving the best possible visual perception within the FOV region where the viewer's eyes are in focus (402) Regularly achieves a high level of visual compression over the remaining regions 403-412 of the viewer's FOV, which is gradually decreasing. In effect, in this embodiment visual decompression is applied to match the angular distribution of HVS visual acuity with a compressed word length that is proportional to the angular distribution of the viewer's visual perception across the FOV.

図4aは、このビジュアル解凍の実施形態の方法を示し、ここではこれは「中心窩集中型ビジュアル解凍」と呼ばれ、これは、視聴者の空間視力(角視力)が、視聴者の眼が焦点を合わせている(402)領域(網膜の中心窩領域)で最高となり、視聴者のFOVの残り403〜412(傍中心窩403〜406及び網膜の傍中心窩領域407〜412)にわたって規則正しく低下するという事実を活用して、視聴者が焦点を合わせている(402)領域において最高の視覚知覚能力を達成しながら、更に高いビジュアル解凍利得を達成する。本実施形態では、視聴者の眼の焦点及び視線方向401のキュー(cue)は、図4bの中心窩集中型量子化器430によって、眼及び頭部追跡要素210のセンサによって提供される感覚データから抽出され、例えば、各眼に関する視線方向は、眼及び頭部追跡要素210のセンサによって検出されるような基準の頭部検出フレーム内眼の瞳孔の位置によって、決定される。同様に、ニアアイディスプレイシステムの視聴者の焦点距離(又は視聴者の両眼が焦点を合わせて集束する距離として定義される眼球離反運動距離)は、眼及び頭部追跡要素210のセンサによって検出された、視聴者の2つの瞳孔の中心間の相対瞳孔間距離(IPD)によって決定される。視聴者が焦点を合わせる(402)FOV420の領域(この領域は典型的には、視聴者の眼の水晶体が焦点を合わせたときに網膜の中心窩領域をカバーする)に関して、最高の画像解像度は、中心窩集中型量子化器430に、基底係数のサブセットを可能な限り大きく選択させ、可能な限り大きな語長を用いて、この選択された基底係数のサブセットを量子化させることによって、達成される。視聴者のFOV420の残りの領域、即ち図4aの領域403〜412に関して、中心窩集中型量子化器430は、より少数の基底係数のサブセットを選択し、より少数のビットを用いてこの選択された基底係数を量子化する。このような基底係数切り捨て及び量子化基準の適用において、本実施形態の中心窩集中型ビジュアル解凍法は、視聴者の焦点の領域402内で最高の解像度を達成し、視聴者のFOV420の残りの領域403〜412にわたって、これらのFOV領域にわたってかなり高いビジュアル解凍利得を達成しながら、視聴者の知覚を劣化させることなく、規則正しくより低い解像度を達成する。なお、この実施形態の文脈内で使用される用語「中心窩集中型(foveated)」は、ディスプレイ解像度を、視聴者の眼の中心窩の中央から外側の視聴者の眼の網膜の周縁領域へ向かう、HVSの視力プロファイル(分布)に適合させることを指すことを意図している。このような視聴者の視線方向に依存する画像解像度は、従来技術では「中心窩集中型レンダリング(foveated rendering)」として知られており、その例は、Guenter, B., Finch, M., Drucker, S., Tan, D., and Snyder, J., “Foveated 3D Graphics”, ACM SIGGRAPH ASIA, Nov., 2012に記載されており、これは典型的には、画像入力301を画像レンダリングによって中心窩に集中させることにより、場合によってはプロセッサ102又は107における画像レンダリングの計算負荷を低減するが、このような便益は、この実施形態の上述の中心窩集中型ビジュアル解凍法によって達成され得る画像インタフェース301の帯域幅及びディスプレイ203における解凍計算負荷の低減には直接変換されない。   FIG. 4a illustrates the method of this visual decompression embodiment, which is referred to herein as "foveolar focused visual decompression," in which the viewer's spatial vision (angular vision) is Highest in the in-focus (402) region (foveal region of the retina) and falls regularly across the rest of the viewer's FOV 403-412 (parafovea 403-406 and parafoveal regions 407-412 of the retina). To achieve the highest visual perceptual ability in the region where the viewer is in focus (402) while achieving higher visual decompression gain. In this embodiment, the cues of the viewer's eye focus and gaze direction 401 are the sensory data provided by the sensors of the eye and head tracking elements 210 by the foveated centralized quantizer 430 of FIG. 4b. Gaze direction for each eye is determined by the position of the pupil of the eye in the reference head detection frame as detected by the sensor of the eye and head tracking element 210, for example. Similarly, the viewer's focal length (or the eye separation distance, defined as the distance at which the viewer's eyes are in focus and focus) of the near-eye display system is detected by a sensor in the eye and head tracking element 210. Determined by the relative interpupillary distance (IPD) between the centers of the two pupils of the viewer. For the region of the FOV 420 that the viewer focuses (402), which typically covers the foveal region of the retina when the eye lens of the viewer is in focus, the highest image resolution is , A foveal-concentrated quantizer 430 to select a subset of basis coefficients as large as possible and quantize this selected subset of basis coefficients with the largest possible word length. It For the remaining regions of the viewer's FOV 420, regions 403- 412 of FIG. 4a, the foveated centralized quantizer 430 selects a smaller subset of basis coefficients and uses this with a smaller number of bits. Quantize the base coefficient. In applying such a basis coefficient truncation and quantization criterion, the foveated focused visual decompression method of the present embodiment achieves the highest resolution within the region 402 of the focus of the viewer, and the rest of the FOV 420 of the viewer. Across the regions 403-412, one achieves a fairly high visual decompression gain over these FOV regions while achieving a lower regularity without degrading the perception of the viewer. It should be noted that the term "foveated" as used within the context of this embodiment transfers the display resolution from the center of the fovea of the viewer's eye to the peripheral region of the retina of the outer viewer's eye. It is intended to refer to the onward, HVS visual acuity profile (distribution). Such image resolution depending on the direction of the viewer's line of sight is known in the prior art as "foveated rendering", an example of which is Guenter, B. et al. Finch, M .; Drucker, S .; , Tan, D.M. , And Snyder, J .; , "Foveated 3D Graphics", ACM SIGGRAPH ASIA, Nov. , 2012, which typically concentrates the image input 301 in the fovea by image rendering, potentially reducing the computational load of image rendering on the processor 102 or 107. These benefits are not directly translated into the bandwidth of the image interface 301 and the reduction of decompression computational load on the display 203 that can be achieved by the above-described foveated centralized visual decompression method of this embodiment.

図4bは、本発明の中心窩集中型ビジュアル解凍法を用いたニアアイディスプレイシステムのブロック図を示す。図4bを参照すると、眼及び頭部追跡要素210によって提供される入力に基づいて視聴者の焦点距離が把握されている場合に、ビジュアル解凍変換302に続く中心窩集中型量子化器430は、基底切り捨て及び量子化を、以下のように適合されるように選択する:視聴者の焦点領域402に対応する、表示される画像エリア(眼によって視聴者の網膜の中心窩領域上に集束させられる画像領域)が、最高の空間分解能を有し、視聴者のFOV420の残りの領域403〜412が、視聴者の網膜の傍中心窩及び周中心窩にわたる視聴者の眼の角視力(空間視力)のグラデーションと一貫した(又は比例した)、規則正しくより低い解像度を有する。図4cは、本発明の中心窩集中型ビジュアル解凍法による、中心窩集中型量子化器430の基底切り捨て及び量子化選択の例を示す。図4cは、(4×4)の中心窩集中型ビジュアル解凍基底に関して、中心窩集中型量子化器430が実施する、基底係数の切り捨ての例を示す。図4cの例に示すように、中心窩集中型量子化器430は、視聴者の焦点領域402に対応するような、図4cの第1のパネルにおいてマークされている最大の8個の基底係数のサブセットを選択することによって、16個の基底係数のセットを切り捨てる。このような領域(402)に関しては、中心窩集中型量子化器430はまた、最大の量子化語長、例えば1色あたり8ビットを用いて、視聴者のFOVの領域402に関して選択された基底係数を表現する。図4cに示すように、周縁焦点領域403に関して、中心窩集中型量子化器430は、16個の基底係数のセットを、図4cに適宜マークされている、より少数の7個の基底係数のサブセットへと切り捨てる。このような領域に関しては、中心窩集中型量子化器430はまた、比較的短い語長、例えば7ビット又は6ビットを選択して、視聴者のFOVの領域403に関して選択された基底係数を表現してよい。図4cに示すように、外側周縁領域404〜412に関して、中心窩集中型量子化器430は、16個の基底係数のセットを、図4cに適宜マークされている、規則正しくより少数の基底係数のサブセットへと切り捨て、また、より短い語長、例えば6ビット未満を選択して、視聴者のFOVの領域403に関して選択された基底係数を表現してよい。   FIG. 4b shows a block diagram of a near-eye display system using the foveated centralized visual defrosting method of the present invention. Referring to FIG. 4b, the foveated centralized quantizer 430 following the visual decompression transform 302, when the viewer's focal length is known based on the input provided by the eye and head tracking element 210, The base truncation and quantization are chosen to be adapted as follows: the displayed image area (focused by the eye onto the foveal region of the viewer's retina), corresponding to the viewer's focal region 402. Image region) has the highest spatial resolution, and the remaining regions 403-412 of the viewer's FOV 420 are the angular visual acuity (spatial visual acuity) of the viewer's eye over the para-foveal and peri-fovea of the viewer's retina. Has a lower resolution that is consistent (or proportional) with the gradation of, and regularly. FIG. 4c shows an example of the base truncation and quantization selection of the foveated centralized quantizer 430 according to the foveated centralized visual decompression method of the present invention. FIG. 4c shows an example of truncation of the basis coefficients performed by the fovealized quantizer 430 for a (4 × 4) fovealized visual decompression basis. As shown in the example of FIG. 4c, the foveated centralized quantizer 430 has a maximum of eight basis coefficients marked in the first panel of FIG. 4c, corresponding to the focal region 402 of the viewer. Truncate the set of 16 basis coefficients by selecting a subset of For such a region (402), the foveal focused quantizer 430 also uses the maximum quantized word length, eg, 8 bits per color, to select the basis for the region 402 of the viewer's FOV. Express the coefficient. As shown in FIG. 4c, for the peripheral focal region 403, the fovea focused quantizer 430 sets the set of 16 basis coefficients to a smaller number of 7 basis coefficients, appropriately marked in FIG. 4c. Truncate to a subset. For such regions, the fovea focused quantizer 430 also selects a relatively short word length, eg 7 bits or 6 bits, to represent the selected basis coefficients for the region 403 of the viewer's FOV. You can do it. As shown in FIG. 4c, for the outer peripheral regions 404-412, the foveated quantizer 430 sets the set of 16 basis coefficients to a regularly smaller number of basis coefficients, appropriately marked in FIG. 4c. Truncation into subsets and shorter word lengths, eg less than 6 bits, may be selected to represent the selected basis coefficients for the region 403 of the viewer's FOV.

再び図4bを参照すると、複数のFOV(200)領域に関して中心窩集中型量子化器403によって生成された、切り捨て及び量子化済みの基底係数を、ランレングスエンコーダ435によって更にエンコードする。ランレングスエンコーダ435は、エンコードされたデータストリーム内に制御データパケット(又はデータヘッダ)を埋め込み、上記制御データパケットは、どの基底係数がストリーミングされたデータに含まれるか、並びにその切り捨て及び量子化語長を、信号送信(又は特定)する。例えば、基底係数値Cijを送信するために指定されたデータフィールド内において、ランレングスエンコーダ435は、基底係数値Cijが含まれているかどうか及びそれに関連する量子化語長を指定するデータフィールドを含むヘッダを追加する。次に、追加された基底係数を、選択された基底のうちの1つに関する時分割多重化された係数のセットとして、圧縮ディスプレイ203に一度に送信し、圧縮ディスプレイ203はこれに続いて、ランレングスエンコーダ435によって追加された制御ヘッダをデコードし、それに応じて、受信した係数を、圧縮ディスプレイ203が表示する関連する基底の大きさとして変調する。図4cに示すように、ディスプレイ領域403〜412に関連する基底係数の個数は規則正しく低減されるため、表示される画像の解像度も、表示される画像のこれらの領域にわたって、典型的なHVSの視力の分布に比例して規則正しく低減される。上述のように、各ディスプレイ領域403〜412のために含まれることになる基底係数を選択するための基準は、これらに対応する網膜領域の角視力(空間視力)に基づいており、また該基準は、中心窩集中型量子化器430の設計パラメータとして設定される。 Referring again to FIG. 4 b, the truncated and quantized basis coefficients generated by the foveated quantized quantizer 403 for multiple FOV (200) regions are further encoded by a run length encoder 435. The run-length encoder 435 embeds a control data packet (or data header) in the encoded data stream, the control data packet including which basis coefficient is included in the streamed data, and its truncation and quantization word. The length is signaled (or specified). For example, within the data field designated for transmitting the base coefficient value C ij , the run length encoder 435 may specify a data field that specifies whether the base coefficient value C ij is included and the associated quantized word length. Add a header that contains. The added basis coefficients are then transmitted at one time to the compression display 203 as a set of time division multiplexed coefficients for one of the selected bases, which is followed by a run display. The control header added by the length encoder 435 is decoded and the received coefficient is modulated accordingly as the associated basis magnitude displayed by the compressed display 203. As shown in FIG. 4c, the number of basis coefficients associated with the display areas 403- 412 is regularly reduced, so the resolution of the displayed image is also typical of HVS visual acuity over these areas of the displayed image. It is regularly reduced in proportion to the distribution of. As mentioned above, the criteria for selecting the basis coefficients to be included for each of the display areas 403-412 are based on and correspond to the angular visual acuity (spatial visual acuity) of the corresponding retina areas. Is set as a design parameter of the fovea centralized quantizer 430.

本発明のニアアイ中心窩集中型ビジュアル解凍法によって達成されると予測される、データ転送帯域幅圧縮利得は、典型的には、入力画像301の変換に使用される基底の次元数、並びに中心窩集中型量子化器430によって使用される基底係数切り捨て及び量子化基準に依存するが、典型的には、上述のビジュアル解凍法のデータ転送帯域幅圧縮利得より高い。眼が焦点を合わせると、表示された画像領域402は名目上、視聴者の眼の中心窩領域の角度範囲(約2°)にわたって広がるということを把握しておくと、ニアアイディスプレイシステム200の総FOVが例えば20°である場合、本発明の中心窩集中型ビジュアル解凍法は、表示される画像領域402において4倍〜6倍の圧縮利得を達成し、また表示される画像領域403〜412にわたって規則正しくより高い圧縮利得を達成する。図4cに示されている基底係数切り捨ての例を用いると、達成される圧縮利得は、領域403、404に関して8/7倍であり、領域405、406に関してそれぞれ8/5、8/3であり、そして周縁領域407〜412に関して8倍である。表示される画像のFOVに対する各画像領域401〜412の面積、及びランレングスエンコーダ435によって追加された追加データによるオーバヘッドを考慮すると、図4cの中心窩集中型基底係数切り捨ての例に関して本発明の中心窩集中型ビジュアル解凍法によって達成できる複合的な圧縮利得は、24倍〜36倍となり、これは、プロセッサ102又は107からディスプレイ要素203への画像データ転送帯域幅が、本発明の中心窩集中型ビジュアル解凍法によって、24倍〜36倍低減されることを意味している。なお、上述の例のニアアイディスプレイシステム400のFOVが20°超である、例えば40°である場合、周縁領域407〜412に関して達成される圧縮利得は、画像の中央領域402〜406において達成される圧縮利得の8倍高い圧縮利得に漸近する。大きなディスプレイのFOVに関して、周縁画像領域は、表示されるFOVの大半を構成するため、本発明の中心窩集中型ビジュアル解凍法は、ニアアイディスプレイシステム200がHVSのFOV(HVSのFOVは100°を超えることが知られている)に近いFOVを有する場合に、更に高い(40倍より高い)複合的な圧縮利得を達成できる。   The data transfer bandwidth compression gain, which is expected to be achieved by the near-eye fovea centralized visual decompression method of the present invention, is typically the number of basis dimensions used to transform the input image 301, as well as the fovea. Depending on the basis coefficient truncation and quantization criteria used by the lumped quantizer 430, it is typically higher than the data transfer bandwidth compression gain of the visual decompression method described above. Knowing that when the eye is in focus, the displayed image area 402 nominally extends over the angular range of the foveal region of the viewer's eye (about 2 °), the near-eye display system 200 When the total FOV is, for example, 20 °, the foveated focused visual decompression method of the present invention achieves a compression gain of 4-6 times in the displayed image area 402, and also displayed image areas 403- 412. Regularly achieve higher compression gains over. Using the example base coefficient truncation shown in FIG. 4c, the compression gain achieved is 8/7 times for regions 403, 404 and 8/5, 8/3 for regions 405, 406, respectively. , And eight times for the peripheral areas 407-412. Considering the area of each image region 401 to 412 with respect to the FOV of the displayed image, and the overhead due to the additional data added by the run length encoder 435, the center of the invention with respect to the foveated centralized basis coefficient truncation example of FIG. 4c. The combined compression gains achievable with the foveated visual decompression method are 24 to 36 times, which means that the image data transfer bandwidth from the processor 102 or 107 to the display element 203 is the foveated focused image of the present invention. It means that the visual decompression method reduces the amount by 24 to 36 times. It should be noted that if the FOV of the near-eye display system 400 of the above example is greater than 20 °, for example 40 °, the compression gain achieved for the peripheral regions 407-412 is achieved in the central regions 402-406 of the image. The compression gain asymptotically becomes eight times higher than the compression gain. For large display FOVs, the peripheral image area constitutes the majority of the displayed FOV, so the foveated centralized visual decompression method of the present invention uses a near-eye display system 200 with an HVS FOV (HVS FOV of 100 °). Higher (> 40 times higher) composite compression gain can be achieved with an FOV close to (known to exceed 1).

本発明の中心窩集中型ビジュアル解凍法の別の実施形態では、ビジュアル解凍変換302は、眼の網膜の中心窩402、傍中心窩403〜406及び周中心窩407〜412領域に対応する画像領域に関して、高次基底の異なる値を使用することにより、更に高い圧縮利得を達成する。本実施形態では、ビジュアル解凍変換302は、眼の注視点(方向)401の入力を眼及び頭部追跡要素210から受信し、続いて、中心窩領域402、傍中心窩領域403〜406及び周中心窩領域407〜412に対応する画像領域を識別した後、異なる高次基底の値を用いて、各画像領域の変換済みバージョンを生成する。例えば、ビジュアル解凍変換302は、画像領域402〜406の変換済みバージョンの生成のために(4×4)の基底を使用し、画像周縁領域407〜412の変換済みバージョンの生成のために(8×8)の基底を使用する。次にビジュアル解凍変換302は、複数の領域の変換済み画像を1つにつなぎ合わせた後、複合変換済み画像を、各画像領域に使用された基底の次数を識別する埋め込まれた制御データと共に、中心窩集中型量子化器430に送信する。中心窩集中型量子化器430は、基底係数の適切な切り捨て及び量子化基準を各画像領域に適用した後、画像及び対応する制御データを、圧縮ディスプレイ203への送信のために、ランレングスエンコーダ304に送信する。中心窩周縁領域に対応する画像領域において比較的高次の基底を使用することにより、この実施形態の中心窩集中型ビジュアル解凍法は、更に高い圧縮利得を達成できることになる。上述の例に関して、画像領域402〜406のために(4×4)の基底を使用し、画像周縁領域407〜412のために(8×8)の基底を使用すると、この実施形態の中心窩集中型ビジュアル解凍法は、画像中央領域402〜406において達成される圧縮利得の16倍に漸近する圧縮利得を達成できる。よって、この実施形態の中心窩集中型ビジュアル解凍法は、20°というディスプレイのFOVの上述の例に関しては32倍〜48倍、及びおそらく40°のディスプレイのFOVに関しては64倍に達する、複合的な圧縮利得を達成できる。   In another embodiment of the fovea focused visual decompression method of the present invention, the visual decompression transform 302 includes image regions corresponding to the fovea 402, parafovea 403-406 and peri-fovea 407-412 regions of the retina of the eye. With respect to, higher compression gain is achieved by using different values of higher order basis. In this embodiment, the visual decompression transform 302 receives an input of an eye gaze point (orientation) 401 from the eye and head tracking element 210, followed by a foveal region 402, parafoveal regions 403-406 and a circumference. After identifying the image regions corresponding to the foveal regions 407-412, different higher order basis values are used to generate a transformed version of each image region. For example, the visual decompression transform 302 uses the (4 × 4) basis for generating transformed versions of image regions 402-406 and (8) for generating transformed versions of image marginal regions 407-412. Use the basis of x8). The visual decompression transform 302 then stitches the transformed images of the multiple regions together to form a composite transformed image with embedded control data identifying the order of the basis used for each image region. Transmit to the central foveal quantizer 430. The foveated centralized quantizer 430 applies an appropriate truncation of basis coefficients and a quantization criterion to each image region and then sends the image and corresponding control data to a run length encoder for transmission to the compressed display 203. Send to 304. By using a higher order basis in the image area corresponding to the foveal marginal area, the foveated focused visual decompression method of this embodiment will be able to achieve even higher compression gains. Using the (4 × 4) basis for the image regions 402-406 and the (8 × 8) basis for the image peripheral regions 407-412 for the above example, the fovea of this embodiment The centralized visual decompression method can achieve a compression gain that is asymptotic to 16 times that achieved in the central image regions 402-406. Thus, the foveated focused visual defrosting method of this embodiment is a composite of 32 to 48 times for the above example of a 20 ° display FOV and possibly 64 times for a 40 ° display FOV. It is possible to achieve various compression gains.

本発明の中心窩集中型ビジュアル解凍法が達成できる上述のレベルの圧縮利得は、ディスプレイ203側の処理及びメモリの低減に直接つながり、これは消費電力、体積に関する側面、及びコストの削減に直接つながる。なお、ビジュアル解凍ブロック302及び図4cの中心窩集中型量子化器430ブロックの処理及びメモリ要件は、従来の画像解凍要素の処理及びメモリ要件と同等であるが、後者は画像データ帯域幅を拡大し、それによってディスプレイ203における処理及びメモリ要件の大幅な増大、並びにそれに比例した消費電力の増大を引き起こす。更に、ビジュアル解凍ブロック302及び図4cの中心窩集中型量子化器430ブロックの処理及びメモリ要件は、従来の中心窩集中型レンダリングブロックの処理及びメモリ要件と同等であり、従って本発明の中心窩集中型ビジュアル解凍法を用いるニアアイディスプレイシステム200は、従来技術の中心窩集中型レンダリングを組み込みかつ従来の圧縮技法を使用する図1a、1bの従来技術のニアアイディスプレイシステムよりも大幅に低い処理及びメモリ(従って削減されたコスト及び電力消費)しか必要としない。本発明の中心窩集中型ビジュアル解凍法は、このような利得を、HVS固有の能力、即ちHVSの時間的統合及び段階的な(即ち中心窩集中型)空間(角度)解像度(視力)を適合させることによって得ることにも留意されたい。また、本発明の中心窩集中型ビジュアル解凍法が達成できる圧縮利得のレベルは、ニアアイディスプレイシステム200が、多視点又は多焦点光照射野を表示することを要求される場合に最高となることに留意することも重要である。というのは、上記システムの処理、メモリ、及びインタフェース帯域幅が、上記システムが表示することを要求される視野の個数又は焦点面(表面)の個数に正比例するためであり、上記個数は、良好な設計のニアアイディスプレイシステムに関して、ニアアイディスプレイの視聴者によって許容可能な3D知覚レベルを達成するために表示する必要がある、6〜12個の視野となり得る。   The above-described levels of compression gain that the foveated centralized visual decompression method of the present invention can achieve directly translates to reduced processing and memory on the side of the display 203, which directly translates into power, volume, and cost savings. . It should be noted that the processing and memory requirements of the visual decompression block 302 and the foveated centralized quantizer 430 block of FIG. 4c are equivalent to the processing and memory requirements of conventional image decompression elements, while the latter increases the image data bandwidth. However, this causes a large increase in the processing and memory requirements of the display 203 and a proportional increase in power consumption. Furthermore, the processing and memory requirements of the visual decompression block 302 and the centralized quantizer 430 block of FIG. 4c are comparable to the processing and memory requirements of the conventional centralized rendering block and thus the fovea of the present invention. The near-eye display system 200 using the centralized visual decompression method is significantly less processing than the prior art near-eye display system of FIGS. 1a, 1b, which incorporates prior art centralized centralized rendering and uses conventional compression techniques. And memory (thus reduced cost and power consumption). The foveated focused visual decompression method of the present invention adapts such gains to the inherent capabilities of HVS, ie, temporal integration of HVS and graded (ie foveated) spatial (angular) resolution (visual acuity). Also note that it is obtained by Also, the level of compression gain that the foveated focused visual decompression method of the present invention can achieve is highest when the near-eye display system 200 is required to display a multi-view or multi-focal light field. It is also important to keep in mind. This is because the processing, memory and interface bandwidth of the system is directly proportional to the number of fields of view or the number of focal planes (surfaces) that the system is required to display. For various designs of near-eye display systems, there may be 6 to 12 views that need to be displayed to achieve a 3D perception level acceptable by the viewer of the near-eye display.

中心窩集中型動的色域−上述の動的色域に関する実施形態の別の態様では、ビジュアル解凍ブロック302は、眼及び頭部追跡要素210から、視聴者の視線方向に関する情報を受信し、続いてビジュアル解凍ブロック302は上記情報を、視聴者の視野の中央を識別する画像フレーム内の対応するピクセル(マクロ)空間座標へとマッピングし、該情報を、ビジュアル解凍ブロック302が量子化器ブロック303へと送る画像フレームデータに追加する。視聴者の視野の中央の、識別された空間座標を用いて、量子化器ブロック303は次に、典型的なHVSの(角度的又は方向的)色視力プロファイルを適用して、画像ピクセル(又はマクロ)色座標のデフォルトの24ビット(1色あたり8ビット)の語長を、該フレームに関して識別された視聴者の視野の中央の空間座標に対する各ピクセル(又はマクロ)の位置に応じて、比例的に切り捨てる。典型的なHVSの(角度的又は方向的)色視力プロファイル(分布)は、量子化器ブロック303によって、ルックアップテーブル(look−up table:LUT)又は生成関数として維持され、これは、視聴者の視野の中央からの該ピクセル(又はマクロ)の空間的距離に応じて、ピクセル(又はマクロ)色座標の語長の量子化因子を識別する。このようなHVSの色視力プロファイルのLUT又は生成関数は、典型的な視聴者の(角度的又は方向的な)HVSの色視力プロファイルに基づいており、特定の視聴者それぞれの嗜好に応じて、所与の因子によって調整又はバイアス付与できる。次に、HVSの色視力プロファイルに対応する色域分布を、ランレングスエンコーダ304によって、ピクセル(マクロ)の量子化された色値に追加した後、変調のためにディスプレイ要素203に送信する。各フレームに関して識別された視聴者の視野の中央の周囲の角度的又は方向的色視力プロファイルに基づいて、ピクセル(又はマクロ)の色座標の語長を切り捨てる上述の方法は、事実上、表示される画像の色の中心窩集中化であり、これは、ディスプレイ203に送られることになる画像フレームデータのサイズの2倍〜3倍の削減につながる。ディスプレイ203は、圧縮ディスプレイであるため、ディスプレイ203が受信したピクセル(又はマクロ)の切り捨て済みの色座標を直接使用して、画像フレームを変調する。この実施形態の文脈内で使用される用語「中心窩集中型」は、ディスプレイ色域を、視聴者の眼の中心窩の中央から外側の視聴者の眼の網膜の周縁領域へ向かう、HVSの視力プロファイル(分布)に適合させることを指すことを意図している。なお、この実施形態のビジュアル圧縮利得は、ディスプレイをHVSの色知覚視力の分布に適合させることによって達成される。   Foveated Focused Dynamic Gamut-In another aspect of the dynamic gamut embodiment described above, the visual decompression block 302 receives information from the eye and head tracking element 210 regarding the viewer's gaze direction, Visual decompression block 302 then maps the information to corresponding pixel (macro) spatial coordinates in the image frame that identify the center of the viewer's field of view, which visual decompression block 302 maps to the quantizer block. Add to the image frame data sent to 303. With the identified spatial coordinates in the center of the viewer's field of view, the quantizer block 303 then applies a typical HVS (angular or directional) color vision profile to image pixel (or The default 24 bit (8 bits per color) word length of the macro) color coordinates is proportional to the position of each pixel (or macro) relative to the spatial coordinates of the center of the viewer's field of view identified for that frame. Round off. A typical HVS (angular or directional) color vision profile (distribution) is maintained by the quantizer block 303 as a look-up table (LUT) or generation function, which is the viewer. A quantization factor for the word length of the pixel (or macro) color coordinates is identified according to the spatial distance of the pixel (or macro) from the center of the field of view. The LUT or generation function of such a HVS color vision profile is based on a typical viewer's (angular or directional) HVS color vision profile, and depending on the preference of each particular viewer, It can be adjusted or biased by a given factor. The run-length encoder 304 then adds the gamut distribution corresponding to the HVS color vision profile to the quantized color values of the pixel (macro) before sending it to the display element 203 for modulation. The above method of truncating the word length of the color coordinates of a pixel (or macro) based on the angular or directional color vision profile around the center of the viewer's field of view identified for each frame is effectively displayed. Foci centralization of the colors of the image, which leads to a reduction of 2-3 times the size of the image frame data to be sent to the display 203. Because display 203 is a compressed display, the truncated color coordinates of the pixels (or macros) received by display 203 are used directly to modulate the image frame. As used within the context of this embodiment, the term "fovea focused" refers to a display color gamut of the HVS that moves from the center of the fovea of the viewer's eye to the peripheral region of the retina of the outer viewer's eye. It is intended to refer to fitting to the vision profile (distribution). It should be noted that the visual compression gain of this embodiment is achieved by adapting the display to the distribution of HVS color perception vision.

ニアアイ光照射野ディスプレイ−シーンの画像又はビデオ情報の異なるパースペクティブを各眼に送信する場合、視聴者のHVSは、両方の画像を融合して、右及び左の画像又はビデオフレームの間の差異(視差)によって伝達される深度を知覚でき(3D知覚)、これは立体視深度知覚(stereoscopic depth perception)として知られる能力である。しかしながら、典型的には2つの視点(各眼に対して1つの視点)を使用する従来の3Dディスプレイでは、視聴者が知覚する深度は、視聴者の眼が焦点を合わせている深度とは異なる場合がある。これにより、視聴者のHVSに提供される集束と適合深度キューとの間に矛盾が生じ(適合的眼球離反運動の不一致(VAC)として知られる効果)、視聴者の頭痛、不快感及び眼精疲労が引き起こされる場合がある。VACは、視聴者の各眼に、全光照射野の比例的なパースペクティブを提供して、視聴者のHVSが光照射野内の同一の地点において自然に適合及び集束できるようにすること、即ち焦点を合わせることができる光照射野によって、排除できる。視聴者の各眼に対して提示される光照射野のパースペクティブは、光照射野の角度又は深度サンプル(又はスライス)とすることができる。視聴者の各眼に対して提示されるパースペクティブが光照射野の角度サンプルである場合、このアプローチは多視点光照射野と呼ばれ、深度サンプルを使用する場合、上記アプローチは多焦点面光照射野と呼ばれる。これらの実装の詳細は異なる場合があるが、VACフリー光照射野を視聴者のHVSに対して提示する上記2つのアプローチは、光照射野の、機能的に同等の表現である。いずれのアプローチにおいても、視聴者のHVSに対して提示されるビジュアルデータの帯域幅は、光照射野のパースペクティブを表現するために使用される光照射野サンプル(視点又は焦点面)の個数に比例することになり、従って1つの眼に対して1つの視点(又はパースペクティブ)を提示する従来の立体視方法よりもはるかに大きくなる。ビジュアルデータの帯域幅の増大は、これに比例した、ニアアイディスプレイシステムの処理、メモリ、電力、及び体積に関する側面の増大につながり、これにより、上述の光照射野の原理を用いてVACを排除するニアアイディスプレイの実現は更に困難になる。以下の複数の段落は、上述のビジュアル解凍法及び他のHVS視力適合方法を適用することによって、上述の光照射野の原理を用いて、実用的なニアアイAR又はVRディスプレイシステムに求められるコンパクト性(合理化された概観)を達成しながら、VACを排除して視聴者に高品質の視覚的体験を提供できる。   Near Eye Illumination Field Display-When sending different perspectives of the image or video information of a scene to each eye, the viewer's HVS fuses both images and differentiates between the right and left images or video frames ( The depth conveyed by parallax can be perceived (3D perception), a capability known as stereoscopic depth perception. However, in a conventional 3D display, which typically uses two viewpoints (one for each eye), the depth perceived by the viewer is different from the depth at which the viewer's eye is in focus. There are cases. This creates a discrepancy between the focus provided to the viewer's HVS and the adaptive depth cue (an effect known as adaptive eye separation disagreement (VAC)), which can lead to viewer headaches, discomfort and eye strain. Fatigue may be caused. The VAC provides each eye of the viewer with a proportional perspective of the total light field so that the viewer's HVS can naturally fit and focus at the same point in the light field, or focus. It can be eliminated by a light field that can be adjusted. The perspective of the light field presented to each of the viewer's eyes can be the angle or depth sample (or slice) of the light field. If the perspective presented to each of the viewer's eyes is an angular sample of the light field, this approach is called a multi-view light field, and if depth samples are used, the approach is a multifocal plane light field. Called the field. Although the details of these implementations may differ, the above two approaches to presenting a VAC-free light field to the viewer's HVS are functionally equivalent representations of the light field. With either approach, the bandwidth of the visual data presented to the viewer's HVS is proportional to the number of light field samples (viewpoints or focal planes) used to represent the perspective of the light field. Therefore, it is much larger than the conventional stereoscopic method that presents one viewpoint (or perspective) to one eye. The increase in bandwidth of visual data leads to a proportional increase in processing, memory, power, and volume aspects of near-eye display systems, which eliminates VAC using the light field principle described above. It will be even more difficult to realize a near-eye display. The following paragraphs show the compactness required for a practical near-eye AR or VR display system using the above-mentioned light field principles by applying the above-described visual decompression method and other HVS vision adaptation methods. The VAC can be eliminated to provide the viewer with a high quality visual experience while achieving a (streamlined look).

ニアアイ光照射野変調器−本発明の一実施形態では、ニアアイディスプレイ200のディスプレイ(又は光変調器)右側要素203R及び左側要素203Lそれぞれの複数の物理ピクセルのグループを用いて、光照射野のサンプル(視点又は焦点面)を視聴者のHVSに提示する(又はニアアイディスプレイシステムによって変調する)。ここで、このような光変調器要素203R、203Lの複数の(m×m)物理ピクセルのグループは、合わせて「(m×m)変調グループ」又は「マクロピクセル」と呼ばれる。簡略化すると、光変調器要素203R、203Lの個々の(個々の)物理ピクセルは、マクロピクセル(又はm−ピクセル)と呼ばれ、光照射野サンプル(視点又は平面)の変調に使用される上記マクロピクセルは、M−ピクセルと呼ばれる。多視点光照射野ニアアイディスプレイシステムの実装形態の場合、各M−ピクセルを含む個々のm−ピクセルを用いて、視聴者のHVSに提示される光照射野の複数の視点を変調(又は表示)し、また多焦点表面(平面)光照射野の実装形態の場合、M−ピクセルを用いて、視聴者のHVSに提示される光照射野の深度平面(サンプル)を表す複数の深度の仮想画像表面を変調(又は表示)する。M−ピクセルの次元数は、(m×m)m−ピクセルで表され、これは、ニアアイディスプレイシステムが視聴者の各眼に提示することになる光照射野サンプルの総数を表す。本実施形態では、ニアアイ光照射野ディスプレイ200の光変調器要素203R、203Lの光学(発光)特性は、視聴者のHVSの角視力及びFOVに適合される。HVSの角視力は、視聴者の眼の中心窩領域402において最高レベルとなり、視聴者の眼の網膜の周縁領域403〜412に向かって規則正しく低下するため、視聴者のHVSの深度知覚は視聴者の眼の中心窩領域402において最高レベルとなり、視聴者の眼の網膜の周縁領域403〜412に向かって規則正しく低下する。よって、視聴者のHVSの角視力を適合させることによって、この実施形態のニアアイ光照射野ディスプレイ200の光変調器要素203R、203Lは、以下の段落で説明されるように、視聴者のHVSの角度的深視力に適合される。   Near Eye Light Field Modulator-In one embodiment of the invention, a group of multiple physical pixels in each of the display (or light modulator) right element 203R and left element 203L of the near eye display 200 is used to create a light field of the light field. The sample (viewpoint or focal plane) is presented to the viewer's HVS (or modulated by a near-eye display system). Here, a plurality of (m × m) physical pixel groups of such light modulator elements 203R, 203L are collectively referred to as “(m × m) modulation group” or “macro pixel”. For brevity, the individual (individual) physical pixels of the light modulator elements 203R, 203L are called macropixels (or m-pixels) and are used to modulate the light field sample (viewpoint or plane). Macropixels are called M-pixels. In the case of a multi-view light field near eye display system implementation, individual m-pixels, including each M-pixel, are used to modulate (or display) multiple viewpoints of the light field presented to the viewer's HVS. ), And in the case of a multifocal surface (plane) light field implementation, M-pixels are used to represent multiple depth virtual representing the depth plane (sample) of the light field presented to the viewer's HVS. Modulate (or display) the image surface. The dimensionality of M-pixels is represented by (m × m) m-pixels, which represents the total number of light field samples that the near-eye display system will present to each eye of the viewer. In this embodiment, the optical (emission) characteristics of the light modulator elements 203R, 203L of the near-eye light field display 200 are adapted to the viewer's HVS angular acuity and FOV. The HVS angular visual acuity reaches the highest level in the foveal region 402 of the viewer's eye and decreases regularly toward the peripheral regions 403 to 412 of the retina of the viewer's eye. In the foveal region 402 of the eye of the eye and drops regularly towards the peripheral regions 403- 412 of the retina of the viewer's eye. Therefore, by adapting the viewer's HVS angular acuity, the light modulator elements 203R, 203L of the near-eye light field display 200 of this embodiment can be adjusted to the viewer's HVS as described in the following paragraphs. Adapted for angular deep vision.

図5aは、視聴者のHVSの角視力及びFOVに適合させるために使用される、ニアアイディスプレイシステムの光変調器(ディスプレイ)要素203R、203Lの実装形態を示す。図5aでは、光変調器要素203R、203Lのm−ピクセル550は、マイクロ光学素子555を備える発光性多色フォトニックミクロスケールピクセル(典型的にはサイズが5〜10マイクロメートル)であり、上記マイクロ光学素子555は、m−ピクセルから放出されるコリメートされた光束を、光変調器要素203R、203Lの発光FOV内の所与の方向に配向する(又は方向に関して変調する)。更に、図5aに示す光変調器要素203の各M−ピクセルに関連付けられているのは、マクロ光学素子560であり、これは、関連するm−ピクセルから放出された光をM−ピクセルのFOVに満たし(又は均一に分配し)、関連するm−ピクセル変調グループから放出された、方向に関して変調された光束の、所与の角度的密度を達成する。各m−ピクセルから放出された、コリメートされ方向に関して変調された光束は、本明細書では「光照射野アングレット(light field anglet)」と呼ばれる。図5aに示すように、M−ピクセルの次元数は、光変調器要素203R、203Lの光アパーチャの光学的中心において最高レベルとなり、中心窩の中央に対応する画像変調領域から離れるHVSの深度知覚視力に比例して漸減する。また図5aに示すように、M−ピクセルの角度範囲(又はFOV)は、光変調器(ディスプレイ)要素203R、203Lの光アパーチャの光学的中心において最も狭い値となり、中心窩の中央に対応する画像変調領域から離れるHVSの角視力の低下に反比例して漸増する。その結果、光照射野アングレットの角度的密度は、光変調器(ディスプレイ)要素203R、203Lの光アパーチャの中央領域内において最高の値となり、その周縁領域内で規則正しく減少する。実際には、図5aに示されている光変調器要素203R、203Lそれぞれの光学的F/#は、その光アパーチャの中央領域において最高の値となり、中心窩の中央に対応する画像変調領域から離れるHVSの視力の分布に比例して漸減する。従って実際には、本実施形態では、光変調器要素203R、203Lから放出された光は、その最高解像度を、視聴者の眼の中心窩領域402における、視聴者のHVSの視力の最高レベルを目標とする画像領域内で利用可能とするにあたって、HVSの視力の分布に適合し、視聴者の眼の網膜の周縁領域403〜412に向かって規則正しく減少する。なお、視聴者の眼の瞳孔運動の範囲を視聴者の近視野から遠視野まで(〜7°)に適合させるために、図5aに示すように、光変調器要素203R、203Lの最高解像度の中央領域(図5aにおける中央±5°のFOV領域)を、視聴者の近視野から遠視野への視聴者の眼の運動の範囲内の、眼の中心窩のFOV領域402の全ての可能な位置を包含するよう、十分に広くする。HVSの視力に光学的に適合される光照射野変調器を実現するための方法について上述したが、以下の段落は、HVSに光学的に適合された光変調器要素203R、203Lを上述の中心窩集中型ビジュアル解凍法と併用して、上述の多視点又は多焦点面光照射野サンプリング方法を用いるニアアイ光照射野ディスプレイ200を実現するための方法を説明する。   FIG. 5a shows an implementation of light modulator (display) elements 203R, 203L of a near-eye display system used to adapt to the viewer's HVS angular vision and FOV. In FIG. 5a, the m-pixel 550 of the light modulator element 203R, 203L is an emissive multicolor photonic microscale pixel (typically 5-10 micrometers in size) with a micro-optical element 555, The micro-optical element 555 directs (or modulates) the collimated light flux emitted from the m-pixels in a given direction within the emission FOV of the light modulator elements 203R, 203L. Also associated with each M-pixel of the light modulator element 203 shown in FIG. 5a is a macro-optical element 560, which directs light emitted from the associated m-pixel to the FOV of the M-pixel. To achieve a given angular density of directionally modulated light flux emitted from the associated m-pixel modulation group. The collimated, directionally-modulated light flux emitted from each m-pixel is referred to herein as a "light field anglet". As shown in FIG. 5a, the dimensionality of the M-pixel is at the highest level at the optical center of the optical aperture of the light modulator elements 203R, 203L, and the depth perception of the HVS away from the image modulation area corresponding to the center of the fovea. It decreases gradually in proportion to eyesight. Also, as shown in FIG. 5a, the angular range (or FOV) of the M-pixel is the narrowest value at the optical center of the optical aperture of the light modulator (display) elements 203R, 203L and corresponds to the center of the fovea. It gradually increases in inverse proportion to the decrease in the angular visual acuity of the HVS away from the image modulation area. As a result, the angular density of the light field anglets is highest in the central region of the light aperture of the light modulator (display) element 203R, 203L and decreases regularly in its peripheral region. In practice, the optical F / # of each of the light modulator elements 203R, 203L shown in FIG. 5a has the highest value in the central region of its light aperture, and from the image modulation region corresponding to the center of the fovea. It gradually decreases in proportion to the distribution of the visual acuity of the distant HVS. Thus, in practice, in this embodiment, the light emitted from the light modulator elements 203R, 203L has its highest resolution, the highest level of visual acuity of the viewer's HVS in the foveal region 402 of the viewer's eye. In order to be available in the target image area, it fits into the HVS visual acuity distribution and regularly decreases towards the peripheral areas 403- 412 of the retina of the viewer's eye. In order to adapt the range of the pupil movement of the viewer's eyes to the viewer's near-field to far-field (~ 7 °), as shown in FIG. 5a, the maximum resolution of the optical modulator elements 203R and 203L is set. The central region (FOV region of the central ± 5 ° in FIG. 5a) is defined as all possible fossa FOV regions 402 of the fovea of the eye within the range of the viewer's eye movement from the near field to the far field of the viewer. Make it wide enough to encompass the location. Having described above a method for realizing a light field modulator that is optically adapted to the vision of an HVS, the following paragraphs describe the optical modulator elements 203R, 203L optically adapted to an HVS as described above. A method for realizing a near-eye light field display 200 using the above-described multi-view or multi-focal surface light field sampling method in combination with the fovea focused visual defrosting method will be described.

多視点光照射野−図5bは、上述の実施形態の光学素子206と光変調器(ディスプレイ)要素203R、203Lとの間の結合を高いレベルで図示している。図5bのニアアイディスプレイシステム200の光学素子206の設計の図では、ディスプレイ要素203R、203Lによって変調された画像は、光学素子206によって適切に拡大されて、視聴者の眼580へと中継される。光学素子206は、リフレクタ及びビームスプリッタの光学アセンブリ、自由形状光学ウェッジ、又は光導波路を用いて実装できる。これらの光学素子206の設計オプションの設計詳細は異なっているものの、これらの設計基準は、光変調器(ディスプレイ)要素203R、203Lを十分に拡大して視聴者の眼580に中継するもことである。選択されたM−ピクセルの(m×m)の次元数、並びに光学素子206による光変調器要素203R、203Lのミクロ光学素子555及びマクロ光学素子560からの有効光学倍率の設計基準は、光変調器要素203R、203Lの中央光学領域に位置するM−ピクセルのスポットサイズが、中心窩の中央領域(図4aの402〜404)をカバーするニアアイディスプレイシステム200の最小視聴距離(近視野)に形成される仮想画像に関するHVSの(平均)空間視力に適合されるようなものである。例えば、ニアアイディスプレイシステムの最小視聴距離が30cmである場合に、該距離におけるHVSの空間視力がおよそ40マイクロメートルであるとすると、光変調器要素203R、203Lの光学的中央領域におけるM−ピクセルの間隔もまた40マイクロメートルとなり、また、光変調器要素203R、203Lのm−ピクセルの間隔が10マイクロメートルである場合、M−ピクセルの次元数は(4×4)m−ピクセルとなり、これにより、ニアアイ光照射野ディスプレイシステム200は、視聴者の各眼の中心窩の中央領域(図4aの402〜404)に対して、最大4×4=16の視点を変調できる。この例では、図5aに示すように、M−ピクセルの次元数を、(3×3)、(2×2)、そして(1×1)のm−ピクセルへと漸減させることによって、視聴者のFOVの周縁領域405〜412において、減少した視点の個数を規則正しく提示する。よって、この実施形態の光変調器要素203R、203Lは、視聴者の中心窩の中央領域(図4aの402〜404)に対して比較的多数の視点を変調し、視聴者のFOVの周縁領域405〜412に対して規則正しく減少させた個数の視点を変調することによって、視聴者のHVSの角視力及び深度知覚に関する側面を適合させる。これは実際にはビジュアル圧縮の形態である。というのは、視聴者に最高の深度キューを提供するために必要な視点の最大数は、眼及び頭部追跡要素210によって感知される視聴者の視線方向及び焦点深度によって示されるように、視聴者の中心窩の中央領域(図4aの402〜404)内において、光変調器要素203R、203Lによって変調され、HVSの典型的な視力の角度的分布に比例して、視聴者のFOVの周縁領域405〜412に対しては、規則正しく減少した数の視点が変調されるためである。従って上述の例では、幅がおおよそ2°である視聴者の眼の中心窩の中央領域(図4aの402〜404)に対して、16の視点がディスプレイ要素203R、203Lによって変調され、視聴者のFOVの周縁領域405〜412に対してより少数の視点が変調され、従って画像入力301の帯域幅が、ニアアイディスプレイ200のFOVの全角度幅に比例する視聴者の眼の中心窩の中央領域(図4aの402〜404)の角度幅に主に比例するように、低減される。即ち、ニアアイ光照射野ディスプレイ200のFOVの幅が例えば20°であり、16視点がその中央の2°幅の角度領域に対して変調され、平均4視点がその周縁領域において変調されるとき、このような場合にはおよそ5視点の有効帯域幅で十分であり、これは3倍の圧縮利得に相当する。当然のことながら、ニアアイディスプレイ200のFOVが、この例示的な例で想定される20°より広い場合には、この実施形態のビジュアル圧縮方法によって更に高い圧縮利得が達成される。   Multi-view light field-FIG. 5b illustrates, at a high level, the coupling between the optical element 206 and the light modulator (display) elements 203R, 203L of the embodiments described above. In the design of optical element 206 of near-eye display system 200 of FIG. 5b, the image modulated by display elements 203R, 203L is appropriately magnified by optical element 206 and relayed to viewer's eye 580. . The optical element 206 can be implemented using a reflector and beam splitter optical assembly, a freeform optical wedge, or an optical waveguide. Although the design details of the design options for these optical elements 206 are different, these design criteria are such that the light modulator (display) elements 203R, 203L are sufficiently enlarged to be relayed to the viewer's eye 580. is there. The design criteria for the (m × m) dimensionality of the selected M-pixels and the effective optical magnification from the micro-optics 555 and macro-optics 560 of the light modulator elements 203R, 203L by the optical element 206 are: The spot size of the M-pixel located in the central optical region of the projector elements 203R, 203L is the minimum viewing distance (near field) of the near-eye display system 200 that covers the central region of the fovea (402-404 in FIG. 4a). As adapted to the HVS (average) spatial vision for the virtual image formed. For example, if the minimum viewing distance of the near-eye display system is 30 cm and the HVS spatial vision at that distance is approximately 40 micrometers, then the M-pixel in the optical central region of the light modulator elements 203R, 203L. Is also 40 micrometers, and if the distance between the m-pixels of the light modulator elements 203R, 203L is 10 micrometers, then the dimensionality of the M-pixels is (4 × 4) m-pixels. Thus, the near-eye light field display system 200 can modulate a maximum of 4 × 4 = 16 viewpoints with respect to the central region (402 to 404 in FIG. 4a) of the fovea of each eye of the viewer. In this example, the viewer reduces the dimensionality of the M-pixels to (3x3), (2x2), and (1x1) m-pixels, as shown in Figure 5a. In the peripheral areas 405 to 412 of the FOV, the reduced number of viewpoints is regularly presented. Thus, the light modulator elements 203R, 203L of this embodiment modulate a relatively large number of viewpoints with respect to the central region of the viewer's fovea (402-404 in FIG. 4a), and the peripheral region of the viewer's FOV. By regularly modulating a reduced number of viewpoints for 405-412, the viewer's HVS aspects of angular vision and depth perception are adapted. This is actually a form of visual compression. The maximum number of viewpoints required to provide the viewer with the highest depth cue is that the viewing is as shown by the viewer's gaze direction and depth of focus as sensed by the eye and head tracking element 210. In the central region of the human fovea (402-404 in FIG. 4a), modulated by the light modulator elements 203R, 203L, in proportion to the typical angular distribution of the HVS visual acuity, the perimeter of the viewer's FOV. This is because, for the regions 405 to 412, the reduced number of viewpoints are regularly modulated. Thus, in the above example, 16 viewpoints are modulated by the display elements 203R, 203L for the central region of the fovea of the viewer's eye (402-404 in FIG. 4a), which is approximately 2 ° wide. Of the FOV peripheral regions 405-412 are modulated so that the bandwidth of the image input 301 is proportional to the total angular width of the FOV of the near-eye display 200 in the center of the fovea of the viewer's eye. It is reduced so that it is primarily proportional to the angular width of the region (402-404 in FIG. 4a). That is, when the width of the FOV of the near-eye light field display 200 is, for example, 20 °, 16 viewpoints are modulated with respect to the central 2 ° width angular region, and on average 4 viewpoints are modulated in the peripheral region, In such a case, an effective bandwidth of about 5 viewpoints is sufficient, which corresponds to a compression gain of 3 times. Of course, if the FOV of the near-eye display 200 is wider than the 20 ° that is assumed in this illustrative example, the visual compression method of this embodiment achieves even higher compression gain.

多視点光照射野深度中心窩集中型ビジュアル解凍−FOVの中央領域から周縁領域に向かって、HVSの角度的(知覚的)視力が規則正しく低減されることにより、HVSの深度知覚視力もまた、視聴者の近視野(〜30cm)から遠視野(〜300cm)に向かって規則正しく低減される。従って、HVSは、遠視野の深度知覚に関してよりも近視野の深度知覚に関して多数の視点を必要とする。更に、視聴者の眼がある特定の地点に焦点を合わせ、適合している場合、HVSの深度知覚視力は、該地点の近傍において最高レベルとなり、該点から深度又は角度に関して偏向するに従って規則正しく低下する。よって、視聴者の眼が焦点を合わせて適合している地点の近傍のビジュアル情報に寄与する視点は、深度知覚の達成に最も寄与し、このような視点の個数は、視聴者の眼の焦点が視聴者の近視野から遠視野へと変化するに従って規則正しく減少する。HVSの深度知覚のこのような属性は、図5aの(中心窩集中型)多視点光変調器要素203R、203Lと上述の中心窩集中型ビジュアル解凍法との組み合わせによって活用できる、更に別のビジュアル圧縮の機会を提示する。ニアアイ光照射野ディスプレイシステム200内に、図5aの多視点光変調器要素203R、203Lと上述の中心窩集中型ビジュアル解凍法との両方を組み込む実施形態では、眼及び頭部追跡要素210によって提供される、感知された視聴者の焦点を用いて、視聴者の眼が焦点を合わせている地点の近傍の大半のビジュアル情報に寄与する光照射野の視点を決定(又は識別)し、続いて上述の中心窩集中型ビジュアル解凍法を適用することによって、図5aの多視点光変調器要素203R、203Lによって視聴者に対して変調されている光照射野の視点を、視聴者の眼が焦点を合わせている上記近傍のビジュアル情報への寄与に関して、比例的に圧縮する。従って実際には、この実施形態の方法により、視聴者の眼が焦点を合わせている地点の近傍における大半のビジュアル情報に寄与する光照射野の視点を、図5aの多視点光変調器要素203R、203Lによって変調することによって、語長表現が最小限しか切り捨てられていない最大数の変調基底係数を用いて最高のビジュアル知覚が達成され、その一方で、視聴者の眼が焦点を合わせている上記地点の近傍における寄与がより小さい光照射野の視点を、より広い角度間隔だけ離間したより少数の光照射野変調視点を用い、これに比例して語長がより多く切り捨てられたより少数の変調基底係数を用いて、図5aの多視点光変調器要素203R、203Lによって変調する。この実施形態の方法の正味の効果は、3次元中心窩集中型ビジュアル解凍作用であり、この作用においては、視聴者の眼が焦点を合わせている地点の近傍のビジュアル情報が、視聴者の焦点におけるHVSの知覚視力に適合する最高の忠実度で変調され、その一方で、周辺の領域(前方、後方及び側方領域)のビジュアル情報は、視聴者の眼が焦点を合わせている地点から離れた地点における、これに比例して低くなったHVSの知覚視力に適合する忠実度レベルで変調される。この実施形態の組み合わされた方法は集合的に、多視点光照射野深度中心窩集中型ビジュアル解凍と呼ばれる。なお、この実施形態の文脈で使用される用語「中心窩集中型」は、ディスプレイ解像度が、視聴者の眼の中心窩の中央から外向きに、視聴者の眼の網膜の周縁領域へと向かう、HVSの深度知覚視力プロファイル(分布)に適合されていることを指すことを意図している。   Multi-view Light Field Depth Foveated Concentrated Visual Decompression-Regular reduction of the angular (perceptual) visual acuity of the HVS from the central region to the peripheral region of the FOV allows the depth perceptual visual acuity of the HVS to also be viewed. It is regularly reduced from the person's near field (~ 30 cm) to the far field (~ 300 cm). Therefore, HVS requires multiple viewpoints for near-field depth perception than for far-field depth perception. Furthermore, when the viewer's eye is focused and fitted to a particular point, the depth-perceived visual acuity of the HVS is at its highest level in the vicinity of that point and drops regularly as it deviates in depth or angle from that point. To do. Therefore, the viewpoints that contribute to the visual information in the vicinity of the point where the viewer's eyes are in focus and fit, contribute most to the achievement of depth perception, and the number of such viewpoints is the focus of the viewer's eyes. Decreases regularly as the viewer changes from near-field to far-field. Such an attribute of HVS depth perception is yet another visual exploitable by a combination of the (foveated) multi-view light modulator elements 203R, 203L of FIG. Present an opportunity for compression. In an embodiment incorporating both the multi-view light modulator elements 203R, 203L of FIG. 5a and the foveated centralized visual decompression method described above within the near-eye light field display system 200, provided by the eye and head tracking element 210. The sensed viewer focus is used to determine (or identify) a perspective of the light field that contributes most of the visual information in the vicinity of the point where the viewer's eye is in focus. By applying the foveated centralized visual decompression method described above, the viewer's eye focuses the viewpoint of the light field being modulated on the viewer by the multi-view light modulator elements 203R, 203L of FIG. 5a. Proportionally compresses the contributions to the visual information in the neighborhoods that match. Thus, in practice, the method of this embodiment allows the viewpoint of the light field, which contributes most of the visual information in the vicinity of the point where the viewer's eye is in focus, to the multi-view light modulator element 203R of FIG. 5a. , 203L, achieves the best visual perception with the maximum number of modulation basis coefficients with minimally truncated word length representations, while the viewer's eye is in focus. The light field viewpoints with smaller contributions in the vicinity of the above points are used with a smaller number of light field modulation viewpoints separated by wider angular intervals, and in proportion to this, a smaller number of modulations with word lengths truncated. Modulation is performed by the multi-view light modulator elements 203R, 203L of FIG. 5a using the basis coefficients. The net effect of the method of this embodiment is a three-dimensional foveated centralized visual defrosting action in which the visual information near the point where the viewer's eye is in focus is the focus of the viewer. Is modulated with the highest fidelity to match the perceived visual acuity of HVS at, while the visual information in the surrounding areas (front, back and side areas) is away from the point where the viewer's eyes are in focus. Is modulated at a fidelity level that is commensurate with the proportionally reduced perceptual visual acuity of the HVS at different points. The combined method of this embodiment is collectively referred to as multi-view light field depth foveated centralized visual decompression. It should be noted that the term "fovea focused" as used in the context of this embodiment is such that the display resolution is outward from the center of the fovea of the viewer's eye towards the peripheral region of the retina of the viewer's eye. , HVS is intended to be adapted to the depth perception visual acuity profile (distribution).

更に、上記実施形態では、眼及び頭部追跡要素210によって示されるような視聴者の眼の中心窩の中央領域(図4aの402〜404)に対してより多数の視点がディスプレイ要素203R、203Lによって変調されるが、ディスプレイ要素203R、203Lは、視聴者の近視野と遠視野との間の角度的距離(これは合計おおよそ7°である)にわたって延在する角度的領域にわたって可能な最大数の視点を変調できることに留意されたい。それにもかかわらず、上述の実施形態の中心窩集中型ビジュアル解凍法を適用すると、上記方法は、上で説明したようにHVSの角度的知覚視力を適合させるような方法で、変調基底係数の切り捨て及び変調を行い、これにより、中心窩集中型ビジュアル解凍及び図5aの中心窩集中型多視点光変調器要素203R、203Lの圧縮利得を効果的に合成する。即ち、上述の例では、32倍という中程度の圧縮利得係数を達成する中心窩集中型ビジュアル解凍を、3倍の圧縮利得係数を達成する図5aの中心窩集中型多視点光変調器要素203R、203Lと組み合わせると、ニアアイ多視点光照射野ディスプレイシステム200によって達成できる複合的な圧縮は、同等の視聴体験を達成するニアアイディスプレイシステムと比較して96倍の圧縮利得係数に到達し、眼1つあたり16視点のニアアイ光照射野ディスプレイ能力を提供する。   Further, in the above embodiments, a greater number of viewpoints are displayed on the display elements 203R, 203L with respect to the central region of the fovea of the viewer's eye (402-404 in FIG. 4a) as shown by the eye and head tracking element 210. The display elements 203R, 203L are modulated by the maximum number possible over an angular region extending over the angular distance between the viewer's near and far fields, which is approximately 7 ° in total. Note that the viewpoints of can be modulated. Nevertheless, applying the centralized visual decompression method of the above embodiments, the method truncates the modulation basis coefficients in such a way as to adapt the angular perceptual visual acuity of the HVS as described above. And modulation, which effectively combines the fovea focused visual decompression and the compression gain of the foveated multi-view light modulator elements 203R, 203L of FIG. 5a. That is, in the example above, the foveated centralized visual decompression that achieves a medium compression gain factor of 32 times, and the foveated centralized multi-view light modulator element 203R of FIG. , 203L, the combined compression that can be achieved by the near-eye multi-view light field display system 200 reaches a compression gain factor of 96 times compared to a near-eye display system that achieves an equivalent viewing experience. It provides a near-eye light field display capability of 16 viewpoints each.

多焦点面(表面)光照射野−図6aは、多焦点面(表面)ニアアイ光照射野ディスプレイの文脈において本発明のビジュアル解凍法を適用する実施形態を示す。図6aに示すように、本実形態では、光照射野変調器203R、203Lのm−ピクセル及びM−ピクセルは、コリメートされ方向に関して変調された光線束(又は光照射野アングレット)610R、610Lを生成するよう設計され、これらは合わせて、ニアアイ光照射野ディスプレイ200のFOVに角度的に広がる。本実施形態では、ニアアイ光照射野ディスプレイ200は、右側光照射野変調器203R及び左側光照射野変調器203Lを備え、これらはそれぞれ、複数のm−ピクセル及びM−ピクセルを備え、これらは、視聴者の右眼580R及び左眼580Lの網膜の対応する地点にアドレス指定する、複数の右側光照射野アングレット610Rと左側光照射野アングレット610Lとのペアを生成するよう設計される。(網膜対応地点(Retinal Corresponding Point)は、視聴者の対向する眼の網膜上の、その感覚出力が視聴者の視覚皮質によってある深度の単一の点として知覚される地点である。)右側光照射野変調器203R及び左側光照射野変調器203Lそれぞれによって生成された右側光照射野アングレット610Rと左側光照射野アングレット610Lとのペアは、本明細書中では、これらの光照射野アングレットのペア610R、610Lが視聴者の右眼580R及び左眼580Lの網膜の対応する複数の点のセットにアドレス指定する場合に、「視覚的に対応する(visually corresponding)」と言われる。右側光照射野変調器203R及び左側光照射野変調器203Lによって生成され、光学素子206によって視聴者の眼580R、580Lに中継された「視覚的に対応する」光照射野アングレットのペア610R、610Lが交差する、ニアアイ光照射野ディスプレイ200のFOV内の地点は、視聴者の視覚野によって、ニアアイ光照射野ディスプレイシステムによって変調された光照射野内の1つの仮想光点(virtual point of light:VPoL)620として、両眼で知覚される。視聴者のHVSの両眼知覚の側面は、光学素子206によって視聴者の眼580R、580Lの網膜上へと中継された、視覚的に対応するアングレット光束画像を、単一の視聴される光点、即ち視聴者の眼580R、580Lの対応する眼球離反運動距離に対応する深度で知覚される仮想光点(VPoL)620へと組み合わせる。よって本実施形態では、ニアアイ光照射野ディスプレイ200は、ディスプレイのFOV内で視聴者が両眼で知覚することになる仮想光点(VPoL)620を、「視覚的に対応する」光照射野アングレット610R、610Lをそれぞれその右側光照射野変調器203R及び左側光照射野変調器203Lで同時に変調することによって、変調(又は生成)する。視聴者がニアアイ光照射野ディスプレイ200のFOV内において両眼で知覚する仮想光点(VPoL)620の位置は、「視覚的に対応する」光照射野アングレット610R、610Lを生成した右側光照射野変調器203R及び左側光照射野変調器203L内のm−ピクセル及び/又はM−ピクセルの(x,y)及び(x,y)空間(座標)位置によって決定される。よって、ニアアイ光照射野ディスプレイ200は、その右側光照射野変調器203R及び左側光照射野変調器203L内のm−ピクセル及び/又はM−ピクセルの(x,y)及び(x,y)空間(座標)位置をアドレス指定することによって、ニアアイ光照射野ディスプレイ200のFOV内のいずれの深度において視聴者が両眼で知覚する仮想光点(VPoL)620を変調(生成)できる。実際には、このVPoL620の変調方法を用いると、ニアアイ光照射野ディスプレイ200は、そのディスプレイのFOV内の、視聴者が焦点を合わせることができる3次元(3D)光照射野コンテンツを、「視覚的に対応する」光照射野アングレット610R、610Lのペアをそれぞれその右側光照射野変調器203R及び左側光照射野変調器203Lによって変調することによって、変調できる。用語「視聴者が焦点を合わせることができる(viewer focusable)」は、この文脈において、ニアアイ光照射野ディスプレイ200の視聴者が、変調された光照射野内のオブジェクト(又はコンテンツ)に自由に焦点を合わせることができることを意味するために使用される。これは、典型的な3Dディスプレイが被る上述のVACの問題の低減に大きく寄与する、ニアアイ光照射野ディスプレイ200の重要な特徴である。 Multifocal Plane (Surface) Light Field-FIG. 6a illustrates an embodiment applying the visual defrosting method of the present invention in the context of a multifocal plane (surface) near-eye light field display. As shown in FIG. 6a, in this embodiment, the m-pixels and M-pixels of the light field modulators 203R, 203L are collimated and directionally modulated ray bundles (or light field anglelets) 610R, 610L. Designed to produce, they together extend angularly into the FOV of the near-eye lightfield display 200. In the present embodiment, the near-eye light field display 200 comprises a right side light field modulator 203R and a left side light field modulator 203L, each of which comprises a plurality of m-pixels and M-pixels, respectively. It is designed to generate a plurality of right light field anglet 610R and left light field anglet 610L pairs that address corresponding points in the retina of the viewer's right eye 580R and left eye 580L. (The Retina Corresponding Point is the point on the retina of the viewer's opposing eye whose sensory output is perceived by the viewer's visual cortex as a single point at a certain depth.) Right side light The pair of the right side light field anglet 610R and the left side light field anglet 610L generated by the light field modulator 203R and the left side light field modulator 203L, respectively, is a pair of these light field anglets in this specification. When 610R, 610L address a set of corresponding points on the retina of the viewer's right eye 580R and left eye 580L, it is said to be "visually corresponding". A pair of "visually corresponding" light field anglets 610R, 610L generated by the right light field modulator 203R and the left light field modulator 203L and relayed by the optical element 206 to the viewer's eyes 580R, 580L. The point within the FOV of the near-eye light field display 200 at which the points intersect is a virtual point of light (VPoL) within the light field modulated by the near-eye light field display system by the viewer's visual field. ) 620, which is perceived by both eyes. The binocular perceptual aspect of the viewer's HVS is that a visually viewed anglet flux image relayed by the optical element 206 onto the retinas of the viewer's eyes 580R, 580L provides a single viewed light spot. , To the virtual light spot (VPoL) 620 that is perceived at a depth corresponding to the corresponding eye separation distance of the viewer's eyes 580R, 580L. Thus, in this embodiment, the near-eye light field display 200 provides a “visually corresponding” light field anglet for the virtual light spot (VPoL) 620 that the viewer will perceive with both eyes within the FOV of the display. 610R and 610L are simultaneously modulated by the right side light field modulator 203R and the left side light field modulator 203L, respectively, to thereby modulate (or generate). The position of the virtual light spot (VPoL) 620 that the viewer perceives with the both eyes in the FOV of the near-eye light field display 200 is the right side light field that generated the “visually corresponding” light field anglet 610R, 610L. Determined by the (x, y) R and (x, y) L spatial (coordinate) positions of the m-pixels and / or M-pixels in the modulator 203R and the left light field modulator 203L. Therefore, the near-eye light field display 200 has (x, y) R and (x, y) R and (x, y) of m-pixels and / or M-pixels in its right side light field modulator 203R and left side light field modulator 203L. By addressing the L space (coordinates) position, the virtual light spot (VPoL) 620 that the viewer perceives with both eyes can be modulated (generated) at any depth within the FOV of the near-eye light field display 200. In practice, using this VPoL 620 modulation method, the near-eye lightfield display 200 will "view" three-dimensional (3D) lightfield content within the FOV of the display that the viewer can focus on. “Correspondingly” pairs of light field anglets 610R, 610L are modulated by their right and left light field modulators 203R and 203L, respectively. The term "viewer focusable", in this context, allows a viewer of the near-eye lightfield display 200 to freely focus on an object (or content) within a modulated lightfield. Used to mean that they can be matched. This is an important feature of the near-eye lightfield display 200, which contributes significantly to reducing the above-mentioned VAC problems experienced by typical 3D displays.

HVSの深度知覚視力の固有の能力により、ニアアイ光照射野ディスプレイ200のFOV内の可能性のある全ての仮想光点(VPoL)620へのアドレス指定は必要なくなる。その理由は、それに基づいて両眼深度知覚が達成されるHVSの両眼知覚に関する側面が、視聴者の眼から所与の眼球離反運動距離(又は位置)においてオブジェクトを視聴する際に達成され、これによって視聴者の眼の網膜の対応する領域(地点)に画像が形成されるためである。視聴者の眼から離れた全てのこのような位置(又は眼球離反運動距離)の軌跡は、ホロプタ表面として知られている。HVSの視力の角度的分布を、その両眼知覚に関する側面と組み合わせることにより、パヌーム融合領域(又は体積)として知られる、ホロプタ表面を取り囲む深度領域が生成され、その全体にわたって、視聴者によって知覚されるオブジェクトが実際にホロプタ表面にない場合であっても、両眼深度知覚が達成される。ホロプタ表面を取り囲む関連するパヌーム融合領域によって拡張されるような、ホロプタ表面の両眼深度知覚体積により、光照射野を、そのパヌーム融合領域のおおよそのサイズだけ離間した複数の表面の個々のセットへと(当然多少の重複を伴って)サンプリングすることによって、複数の光照射野サンプリング表面間における、体積内での両眼深度知覚の連続性を保証する方法が示唆される。経験的測定(Hoffman, M.; Girshick, A. R.; Akeley, K. and Banks, M. S., Vergence−accommodation conflicts hinder visual performance and cause visual fatigue, Journal of Vision (2008) 8(3):33, 1−30を参照)により、両眼深度知覚の連続性は、視聴者の視野内に、およそ0.6ディオプター(D)だけ離間した複数の2D光変調表面が提示される場合に達成できることが実証された。従って、0.6Dだけ離間した、視聴者のFOV内のホロプタ表面のセットは、視聴者のHVSがこのような複数のホロプタ表面及び関連するパヌーム融合領域にわたる体積内で両眼知覚を達成するために十分なものとなる。ここで、視聴者の近視野から遠視野まで延在するFOV内における視聴者の両眼深度知覚の連続性を達成するために必要な距離だけ離間したホロプタ表面を、「標準的なホロプタ表面」と呼ぶ。   The inherent ability of HVS's depth-perceived vision eliminates the need for addressing all potential virtual light spots (VPoL) 620 within the FOV of near-eye lightfield display 200. The reason is that the binocular perception aspect of HVS on which binocular depth perception is achieved is achieved when viewing an object at a given eye separation distance (or position) from the viewer's eye, This is because an image is formed in a corresponding region (point) of the retina of the viewer's eye. The locus of all such positions (or eye separation distance) away from the viewer's eyes is known as the horopter surface. Combining the angular distribution of HVS visual acuity with its binocular aspect of perception produces a depth region surrounding the horopter surface, known as the phantom fusion region (or volume), which is perceived by the viewer throughout. Binocular depth perception is achieved even when the target object is not actually on the horopter surface. The binocular depth perceptual volume of the horopter surface, as extended by the associated phantom fusion area surrounding the horopter surface, causes the light field to be divided into individual sets of surfaces separated by the approximate size of the punom fusion area. Sampling with and (with some overlap, of course) suggests a way to ensure the continuity of binocular depth perception within a volume between multiple light field sampling surfaces. Empirical measurement (Hoffman, M .; Girshick, A.R .; Akeley, K. and Banks, M.S., Vergence-conformation affiliations vulnerabilities verbs (8) : 33, 1-30), the continuity of binocular depth perception is achieved when multiple 2D light-modulating surfaces are presented within the viewer's field of view, separated by approximately 0.6 diopters (D). It has been demonstrated that it can be achieved. Therefore, a set of horopter surfaces within the viewer's FOV, spaced apart by 0.6D, is for the viewer's HVS to achieve binocular perception in volume across such multiple horopter surfaces and associated phantom fusion regions. Will be enough. Here, a horopter surface separated by a distance necessary to achieve continuity of the viewer's binocular depth perception in an FOV extending from the viewer's near field to far field is referred to as a “standard horopter surface” Call.

本実施形態では、ニアアイ光照射野を、0.6D(ホロプタ表面離間距離)だけ離間した標準的な(即ち、連続的な体積的両眼深度知覚を達成するために十分な)ホロプタ表面の個々のセットへとサンプリングする上述の方法は、右側光照射野変調器203R及び左側光照射野変調器203Lそれぞれの中でのm−ピクセル及び/又はM−ピクセルの(x,y)及び(x,y)空間位置のセットを定義することによって、1つ前の実施形態で説明されているニアアイ光照射野ディスプレイ200の仮想光点(VPoL)620変調方法を用いて達成され、これは「視覚的に対応する」光照射野アングレットのセットを生成し、これは続いて、ディスプレイシステム200のFOV内の、選択された標準的なホロプタ表面のセットにおける、視聴者による複数の仮想光点(VPoL)620の両眼での知覚を引き起こす。上述の仮想光点(VPoL)620変調方法を用いて標準的なホロプタ表面のセットを変調する上記方法を用いると、ニアアイ光照射野ディスプレイ200は、視聴者のニアアイ光照射野全体を知覚に関してアドレス指定できる。従って実際には、この実施形態の方法は、ニアアイ光照射野ディスプレイ200がアドレス指定可能な全光照射野の(VPoLの)サイズに対する、選択されたホロプタ変調表面の(VPoLの)サイズに比例する、光照射野の圧縮利得を達成し、これは、100倍をはるかに超えると予想される、サイズ設定可能な圧縮利得とすることができる。このような圧縮利得は、HVSの両眼知覚と角視力とを適合させる際に、ニアアイ光照射野ディスプレイ200の仮想光点(VPoL)620変調能力によって達成されることに留意されたい。 In this embodiment, the near-eye light field is separated by a standard (ie, sufficient to achieve continuous volumetric binocular depth perception) spacing of 0.6D (holopter surface separation). The above method of sampling into a set of m-pixels and / or M-pixels (x, y) R and (x) in the right side light field modulator 203R and the left side light field modulator 203L respectively. , Y) by defining a set of L spatial positions using the virtual light spot (VPoL) 620 modulation method of the near-eye light field display 200 described in the previous embodiment, which is Generate a set of "visually corresponding" light field anglets, which are subsequently placed in a selected standard horopter surface set within the FOV of the display system 200. , Cause the perception in both eyes of a plurality of virtual point (VPoL) 620 by the viewer. Using the above method of modulating a standard set of horopter surfaces using the virtual light spot (VPoL) 620 modulation method described above, the near eye light field display 200 addresses the viewer's perception of the entire near eye light field. Can be specified. Thus, in practice, the method of this embodiment is proportional to the size (VPoL) of the selected horopter modulation surface relative to the size (VPoL) of the total light field that the near-eye light field display 200 is addressable. , Achieves a light field compression gain, which can be a sizeable compression gain, which is expected to be well over 100 times. Note that such compression gain is achieved by the virtual light spot (VPoL) 620 modulation capability of the near-eye lightfield display 200 in matching binocular perception of HVS and angular acuity.

図6bは、上述の実施形態のニアアイ光照射野ホロプタサンプリング及び変調方法を示す。図6bは、視聴者の眼610の位置に対する光照射野ホロプタ表面615、618、625、630、635、640の上面図を、視聴者の近視野(〜30cm)から遠視野(〜300cm)に向かって規則的に示す。図6bが示すように、第1の光照射野ホロプタ表面615は、視聴者から3.33Dに位置する視聴者の近視野距離にあり、残りの5つの光照射野ホロプタ表面618、625、630、635、640は、視聴者の眼から連続した0.6Dずつの距離、即ち2.73D、2.13D、1.53D、0.93D、0.33Dに位置する。図6bに示されている6つの光照射野ホロプタ表面615、618、625、630、635、640はそれぞれ、HVSの深視力及び角視力に対応する密度(又は解像度)で変調された複数のVPoL620で構成され、例えば、第1の光照射野ホロプタ表面615の変調されたVPoL620の密度(スポットサイズ)は、該距離においてHVSの空間視力に適合するよう、40マイクロメートルとなり、残りの5つの光照射野ホロプタ表面618、625、630、635、640において、HVSの空間視力及び角視力の分布に適合するように、連続的に大きくなる。6つの光照射野ホロプタ表面615、618、625、630、635、640それぞれを構成する複数のVPoL620は、ニアアイ光照射野ディスプレイ200の右側光照射野変調器203R及び左側光照射野変調器203Lそれぞれの中でそれぞれの空間位置(x,y)及び(x,y)にあるm−ピクセル及び/又はM−ピクセルの所定のセットによって生成された、関連する複数の「視覚的に対応する」光照射野アングレット610R、610Lのペアによって変調される。6つの光照射野ホロプタ表面615、618、625、630、635、640それぞれを変調(生成)する右側光照射野変調器203R及び左側光照射野変調器203L内での(x,y)及び(x,y)空間位置は、先験的に計算され、ビジュアル解凍変換ブロック302によって維持され、これにより、6つの光照射野ホロプタ表面615、618、625、630、635、640それぞれを構成する、対応するVPoL620を、組み込み型又は外部プロセッサ102又は107からの入力としてビジュアル解凍変換ブロック302が受信する光照射野画像データ301に基づいて、アドレス指定する。 FIG. 6b illustrates the near-eye light field holopter sampling and modulation method of the above embodiment. FIG. 6b shows a top view of the light field horopter surfaces 615, 618, 625, 630, 635, 640 relative to the position of the viewer's eye 610 from the viewer's near field (~ 30 cm) to the far field (~ 300 cm). Show regularly. As FIG. 6b shows, the first light field horopter surface 615 is at the near field distance of the viewer located 3.33D from the viewer and the remaining five light field horopter surfaces 618, 625, 630. , 635, 640 are located at consecutive 0.6D distances from the viewer's eye, ie, 2.73D, 2.13D, 1.53D, 0.93D, 0.33D. The six light field horopter surfaces 615, 618, 625, 630, 635, 640 shown in FIG. 6b each have a plurality of VPoL 620 modulated at a density (or resolution) corresponding to the depth and angular acuity of HVS. , For example, the density (spot size) of the modulated VPoL 620 on the first light field horopter surface 615 is 40 μm to match the spatial vision of the HVS at that distance and the remaining 5 light The field horopter surfaces 618, 625, 630, 635, 640 are continuously increased to match the spatial and angular vision distribution of the HVS. The plurality of VPoLs 620 forming the six light field horopter surfaces 615, 618, 625, 630, 635, 640 are the right side light field modulator 203R and the left side light field modulator 203L of the near-eye light field display 200, respectively. , Associated with a plurality of "visually corresponding" generated by a predetermined set of m-pixels and / or M-pixels at respective spatial positions (x, y) R and (x, y) L. Modulated by a pair of light field anglets 610R, 610L. (X, y) R in the right light field modulator 203R and the left light field modulator 203L that modulate (generate) each of the six light field horopter surfaces 615, 618, 625, 630, 635, 640 and The (x, y) L spatial position is calculated a priori and maintained by the visual decompression transform block 302, which constitutes each of the six light field horopter surfaces 615, 618, 625, 630, 635, 640. Yes, the corresponding VPoL 620 is addressed based on the lightfield image data 301 received by the visual decompression conversion block 302 as input from the embedded or external processor 102 or 107.

多焦点面光照射野における深度中心窩集中型ビジュアル解凍−ニアアイ光照射野ディスプレイシステム200の右側光照射野変調器203R及び左側光照射野変調器203Lは、場合によっては、6つの光照射野ホロプタ表面615、620、625、630、635、640全てを同時に変調してよいが、これは必須ではない。というのは、いずれの特定の瞬間において、視聴者の眼はある特定の距離に焦点を合わせ、上述のように、HVSの深度知覚視力はこの点の近傍において最高値となり、この点からの深度又は角度の偏向と共に規則正しく低下するためである。従って本実施形態では、本発明の多焦点面ニアアイディスプレイシステム200は、6つの光照射野ホロプタ表面615、618、625、630、635、640を同時に、ただし視聴者の焦点におけるHVSの視力に適合するVPoL620の密度(解像度)で変調する、本発明の多焦点表面光照射野変調方法を用いてビジュアル圧縮利得を達成する。更に、図6bに示されているような標準的なホロプタ表面615、618、625、630、635、640を変調するVPoL620を用いてニアアイ光照射野を変調する上述の方法と、以前の実施形態で説明されている中心窩集中型ビジュアル解凍法との両方を、ニアアイディスプレイシステム200に組み込む実施形態では、眼及び頭部追跡要素210センサによって提供される、感知された視聴者の焦点を用いて、視聴者の眼が焦点を合わせる地点の近傍の大半のビジュアル情報に寄与するホロプタ表面を決定(識別)し、続いて上述の中心窩集中型ビジュアル解凍法を適用して、6つの光照射野ホロプタ表面615、620、625、630、635、640を変調するVPoL620を、視聴者の眼が焦点を合わせる上記近傍のビジュアル情報への寄与に比例して圧縮する。本実施形態では、眼及び頭部追跡要素210センサによって提供される、感知された視聴者の焦点を用いて、視聴者の眼が焦点を合わせる位置から0.6D未満(眼球離反運動距離)の光照射野ホロプタ表面を識別する。この基準は、視聴者の焦点が標準的な光照射野ホロプタ表面615、618、625、630、635、640のうちの1つに合わされていない場合に、これらの表面のうち最大で2つを識別することになる(この場合は上記ホロプタ表面のうちの1つのみが識別される)。上述のように、視聴者のHVSの両眼融合領域は、実際には、標準的な光照射野ホロプタ表面の間の0.6Dの領域を満たすため、上記基準により、視聴者の焦点領域の光学的深度が、選択された(識別された)光照射野ホロプタ表面のうちの少なくとも1つの両眼融合領域内に収まることが保証される。本実施形態では、上述の選択基準を用いて識別されたホロプタ表面は、視聴者の眼が焦点を合わせて適合している地点の近傍の、大半のビジュアル情報に寄与し、従って、図6aの多焦点面光変調器(ディスプレイ)要素203R、203Lは、識別されたこれらのホロプタ表面を変調することによって、これらの表面の感知された深度におけるHVSの視力に適合するVPoL620の密度を用いて、また語長が最小限しか切り捨てられていない最大数の変調基底係数を用いて、最高の視覚的知覚を達成し、その一方で、視聴者の眼が焦点を合わせている地点の近傍における寄与がより小さい残りのホロプタ表面を、より広い角度間隔だけ離間したより少数のVPoL620を用い、これに比例して語長がより多く切り捨てられたより少数の変調基底係数を用いて、図6aの多焦点面光変調器(ディスプレイ)要素203R、203Lによって変調する。この実施形態の方法の正味の効果は、3次元中心窩集中型ビジュアル解凍作用であり、この作用においては、視聴者の眼が焦点を合わせている地点の近傍のビジュアル情報が、焦点におけるHVSの知覚視力に適合する最高の忠実度で変調され、その一方で、周辺の領域のビジュアル情報は、視聴者の眼が焦点を合わせている地点から(前方、後方及び側方に)離れた地点における、これに比例して低くなったHVSの知覚視力に適合する忠実度レベルで変調される。この実施形態の組み合わされた方法は集合的に、多焦点面光照射野深度中心窩集中型ビジュアル解凍と呼ばれる。なお、この実施形態の文脈で使用される用語「中心窩集中型」は、ディスプレイ解像度が、視聴者の眼の中心窩の中央から外向きに、視聴者の眼の網膜の周縁領域へと向かう、HVSの深度知覚視力プロファイル(分布)に適合されていることを指すことを意図している。   Depth Foveated Concentrated Visual Defrost in Multifocal Plane Light Field-Right Side Light Field Modulator 203R and Left Side Light Field Modulator 203L of near-eye light field display system 200 may optionally have six light field horopters. All surfaces 615, 620, 625, 630, 635, 640 may be modulated simultaneously, but this is not required. This is because, at any particular moment, the viewer's eye focuses on a certain distance and, as mentioned above, the HVS's depth-perceived visual acuity is at its maximum near this point, and the depth from this point is Or, it is because it regularly decreases with the deflection of the angle. Thus, in this embodiment, the multifocal plane near-eye display system 200 of the present invention provides for the six light field horopter surfaces 615, 618, 625, 630, 635, 640 to be at the same time as the HVS vision at the viewer's focus. Visual compression gain is achieved using the multifocal surface light field modulation method of the present invention, which is modulated with a matching VPoL 620 density (resolution). Further, the above method of modulating a near-eye light field with a VPoL 620 that modulates a standard horopter surface 615, 618, 625, 630, 635, 640 as shown in FIG. 6b, and previous embodiments. In an embodiment incorporating both the foveated focused visual decompression method described in Section 1., in the near-eye display system 200, the sensed viewer focus provided by the eye and head tracking element 210 sensor is used. To determine (identify) the horopter surface that contributes most of the visual information in the vicinity of the point where the viewer's eye is in focus, and then apply the above-described foveal-focused visual defrosting method to produce six light exposures. The VPoL 620 that modulates the field horopter surface 615, 620, 625, 630, 635, 640 is placed in the vicinity of the above where the viewer's eye focuses. To compress in proportion to the contribution to the visuals information. In this embodiment, using the sensed viewer focus provided by the eye and head tracking element 210 sensor, less than 0.6 D (eye separation distance) from the position where the viewer's eye is in focus. Identify the light field horopter surface. This criterion defines a maximum of two of these standard light field horopter surfaces 615, 618, 625, 630, 635, 640 if the viewer is not focused on those surfaces. Will be identified (in this case only one of the horopter surfaces will be identified). As mentioned above, the viewer's HVS binocular fusion area actually fills the area of 0.6D between the standard light field horopter surfaces, so by the above criteria, It is ensured that the optical depth falls within the binocular fusion zone of at least one of the selected (identified) light field horopter surfaces. In this embodiment, the horopter surface identified using the selection criteria described above contributes most of the visual information in the vicinity of the point where the viewer's eye is in focus and fits, and thus, in FIG. The multifocal plane light modulator (display) elements 203R, 203L modulate the identified holopter surfaces by using the density of the VPoL 620 to match the HVS's visual acuity at the sensed depth of these surfaces, It also uses the maximum number of modulated basis coefficients with minimal truncation of word length to achieve the best visual perception, while contributing contributions near the point where the viewer's eye is in focus. The smaller remaining horopter surface was used with a smaller number of VPoL620s separated by a wider angular spacing, with proportionally fewer word lengths truncated. Using the modulation base coefficient, multifocal surface light modulator of FIG. 6a (display) elements 203R, is modulated by 203L. The net effect of the method of this embodiment is a three-dimensional foveated centralized visual defrosting action, in which the visual information near the point where the viewer's eye is in focus is the HVS of the focus. Modulated with the highest fidelity to match the perceived visual acuity, while the visual information in the surrounding area is at points farther (forward, backward and side) from the point where the viewer's eyes are in focus. , With a fidelity level adapted to the perceived visual acuity of the HVS which is proportionally reduced. The combined method of this embodiment is collectively referred to as multifocal plane light field depth foveated centralized visual thawing. It should be noted that the term "fovea focused" as used in the context of this embodiment is such that the display resolution is outward from the center of the fovea of the viewer's eye towards the peripheral region of the retina of the viewer's eye. , HVS is intended to be adapted to the depth perception visual acuity profile (distribution).

なお、上記実施形態では、眼及び頭部追跡要素210によって示されるような視聴者の眼の中心窩の中央領域(図4aの402〜404)に対してより高い密度のVPoL620が図6aのディスプレイ要素203R、203Lによって変調されるが、図6aのディスプレイ要素203R、203Lは、視聴者の近視野と遠視野との間の角度的距離(これは合計おおよそ7°である)にわたって延在する角度的領域にわたって可能な最大密度のVPoL620を変調できる。それにもかかわらず、上述の実施形態の深度中心窩集中型ビジュアル解凍法を適用すると、上記方法は、上で説明したようにHVSの角度的及び深度知覚視力を適合させるような方法で、変調基底係数の切り捨て及び変調を行い、これにより、中心窩集中型ビジュアル解凍及び図6aの中心窩集中型多焦点面光変調器(ディスプレイ)要素203R、203Lの圧縮利得を効果的に合成する。即ち、上述の例では、32倍という中程度の圧縮利得係数を達成する中心窩集中型ビジュアル解凍を、およそ3倍の圧縮利得係数(これは6つの標準的なホロプタ表面のうち最大で2つだけを選択する場合のものであり、6つの標準的なホロプタ表面全てのVPoL620の密度を中心窩に集中させてもよい)を達成する図6aの中心窩集中型多焦点面光変調器要素203R、203Lと組み合わせると、この場合にニアアイ光照射野ディスプレイシステム200によって達成できる複合的な圧縮は、同等の視聴体験を達成する、6焦点面性能を有するニアアイ光照射野ディスプレイを用いたニアアイディスプレイシステムと比較して、96倍の利得係数に到達する。   It should be noted that in the above embodiment, the higher density VPoL 620 is shown in FIG. 6a for the central region of the fovea of the viewer's eye (402-404 in FIG. 4a) as shown by the eye and head tracking element 210. The display elements 203R, 203L of FIG. 6a are modulated by the elements 203R, 203L but extend over the angular distance between the viewer's near and far fields (which is approximately 7 ° in total). The maximum density VPoL 620 possible over the dynamic range can be modulated. Nevertheless, applying the depth foveated centralized visual decompression method of the above-described embodiment, the method modifies the modulation basis in such a way as to adapt the angular and depth perceptual visual acuity of the HVS as described above. Truncation and modulation of the coefficients is performed, which effectively combines the foveated visual decompression and the compression gain of the foveated multifocal surface light modulator (display) elements 203R, 203L of FIG. 6a. That is, in the example above, a foveated focused visual decompression that achieves a moderate compression gain factor of 32 times is reduced to a compression gain factor of approximately 3 times (this is a maximum of 2 out of 6 standard horopter surfaces). 6a, which achieves a density of VPoL620 of all six standard horopter surfaces may be centered in the fovea). , 203L, combined compression, which in this case can be achieved by the near-eye lightfield display system 200, achieves an equivalent viewing experience, near-eye display using a near-eye lightfield display with 6 focal plane performance. A gain factor of 96 is reached compared to the system.

図7は、図6aの多焦点面ニアアイ光照射野ディスプレイ200に関するコンテンツの生成を示す。この例示的な例では、シーンはカメラ701によって、3つの深度平面:近位平面、中間平面、及び遠位平面でキャプチャされる。なお、より多くの深度平面をカメラ701でキャプチャするほど、図6aの多焦点面光照射野ニアアイディスプレイ200における視聴者の深度知覚は良好になる。好ましくは、キャプチャ深度平面の個数は、図6aの光照射野ニアアイディスプレイ200が変調できる焦点面(上述の実施形態の場合では、図6bの6つの標準的なホロプタ表面615、618、625、630、635、640)の個数に一致するべきである。この例は、本発明の更なる態様を説明するために、3つのキャプチャ平面を使用するが、当業者であれば、本明細書に記載の方法を用いて、この例示的な例の3つのキャプチャされる深度平面よりも多数の平面を利用する、多焦点面ニアアイイメージング(これはキャプチャ及び表示を意味する)システムを実現できるだろう。この例示的な例では、キャプチャカメラに近い1つのオブジェクト702、及びカメラから離れた他の2つのオブジェクト703、704という3つのオブジェクトが、コンテンツシーンに配置されている。多焦点面イメージングシステムに関して、(キャプチャ)深度レイヤーに対するオブジェクトの位置に応じたオブジェクトの輝度の調整が必要となる。図7の例示的な例では、これは、画像シーンのオブジェクトの輝度をその深度値に一致させるための、フィルタリングブロック705、706、707で示されているような画像コンテンツの輝度の深度フィルタリングによって、達成される。例えば、最も近いオブジェクト702は、その全体が第1の深度レイヤーに内包されているため、この特定のレイヤー708内にその全輝度で図示されるが、他の2つのレイヤー706、707からは完全に除去される。中間オブジェクト703の場合、これは2つの深度レイヤー(中間及び遠位)の間に位置しているため、オブジェクト703の全輝度をレンダリングするために、その全輝度は2つのレイヤー706、707に分割される。しかしながら、知覚されるオブジェクトの輝度は、全てのレイヤー711の合計であるため、オブジェクトは、両深度平面706、707からの輝度寄与の加重和として、視聴者の眼において全輝度で知覚されることになる。シーンの3D知覚を実現するために、各深度レイヤー708、709、710は、それに対応する深度において、視聴者に対して表示され、ここで、調整された輝度はシーンのオブジェクトの深度に一致し、これにより、視聴者の深度キューが効果的に呼び起こされて、表示されたコンテンツに視聴者が焦点を合わせることができるようになる。視聴者は全てのレイヤーの組み合わせを見ることになり、これは、視聴者のHVSに対する適切な焦点キューを伴う、再構成されたステレオ画像711をもたらす。この例示的な例の3つのキャプチャ平面の画像コンテンツを、上述のようにその相対深度情報と合わせてレンダリングすることにより、これらの平面の画像コンテンツの色及び輝度を、図6aの多焦点面ニアアイディスプレイ200の多焦点面上に分布させる(又はマッピングする)。このキャプチャされた画像のレンダリングプロセスの最終的な結果は、入力画像301のコンテンツの色及び輝度の、ニアアイ光照射野ディスプレイ200の右側光照射野変調器203R及び左側光照射野変調器203Lそれぞれの中で(x,y)及び(x,y)空間位置にあるそれぞれのm−ピクセル及び/又はM−ピクセルのセットによって生成された複数の「視覚的に対応する」光照射野アングレット610R、610Lのペアの色及び輝度データを指定するデータセットへのマッピングである。これらの色及び輝度データセットを、ニアアイ光照射野ディスプレイ200の右側光照射野変調器203R及び左側光照射野変調器203Lそれぞれで変調すると、視聴者は、変調されたVPoL620のセットとして、レンダリングされた3D画像入力のコンテンツを知覚し、またこのシーンの表示された3Dオブジェクト702、703又は704のいずれに自由に焦点を合わせることができる。なお、以上の例示的な例では、3つのキャプチャ平面のみを使用したが、この場合であっても、本発明のニアアイ光照射野ディスプレイ200は、本実施形態の上述の方法により、そのニアアイ光照射野表示能力を用い、また上述のVPoL620変調方法を用いて、入力画像データ301を、入力画像コンテンツの表示のために、図6bの6つの標準的なホロプタ表面にレンダリングする。 FIG. 7 illustrates the generation of content for the multifocal plane near-eye lightfield display 200 of FIG. 6a. In this illustrative example, the scene is captured by camera 701 in three depth planes: a proximal plane, a midplane, and a distal plane. It should be noted that the more depth planes captured by the camera 701, the better the viewer's perception of depth in the multifocal surface light field near-eye display 200 of FIG. 6a. Preferably, the number of capture depth planes is such that the light field near-eye display 200 of FIG. 6a can modulate a focal plane (in the case of the embodiment described above, the six standard horopter surfaces 615, 618, 625 of FIG. 6b). 630, 635, 640). Although this example uses three capture planes to illustrate a further aspect of the invention, one of ordinary skill in the art, using the methods described herein, would use three capture planes of this illustrative example. A multifocal plane near-eye imaging (which means capture and display) system could be implemented that utilizes more planes than the depth plane that is captured. In this illustrative example, three objects, one object 702 near the capture camera and two other objects 703, 704 far from the camera, are placed in the content scene. For multifocal plane imaging systems, it is necessary to adjust the brightness of the object depending on the position of the object with respect to the (capture) depth layer. In the illustrative example of FIG. 7, this is done by depth filtering the intensity of the image content as indicated by filtering blocks 705, 706, 707 to match the intensity of the object in the image scene to its depth value. Is achieved. For example, the closest object 702 is illustrated with its full intensity in this particular layer 708 because it is entirely contained within the first depth layer, but is completely visible from the other two layers 706, 707. Will be removed. In the case of the intermediate object 703, it is located between the two depth layers (medium and distal), so to render the full intensity of the object 703 it is split into two layers 706, 707. To be done. However, since the perceived brightness of the object is the sum of all layers 711, the object is perceived at full brightness in the viewer's eye as a weighted sum of the brightness contributions from both depth planes 706, 707. become. To achieve a 3D perception of the scene, each depth layer 708, 709, 710 is displayed to the viewer at its corresponding depth, where the adjusted brightness corresponds to the depth of the objects in the scene. , This effectively evokes the viewer's depth cue, allowing the viewer to focus on the displayed content. The viewer will see a combination of all layers, which results in a reconstructed stereo image 711 with the appropriate focus cues for the viewer's HVS. By rendering the image content of the three capture planes of this illustrative example together with their relative depth information as described above, the colors and intensities of the image content of these planes are compared to the multifocal plane near-field of FIG. 6a. It is distributed (or mapped) on the multifocal plane of the eye display 200. The final result of this captured image rendering process is the color and brightness of the content of the input image 301 for each of the right and left light field modulators 203R and 203L of the near-eye light field display 200. A plurality of "visually corresponding" light field anglets 610R generated by respective sets of m-pixels and / or M-pixels in (x, y) R and (x, y) L spatial positions therein. , 610L pairs of color and intensity data into a dataset that specifies the data. Modulation of these color and brightness data sets by the right light field modulator 203R and left light field modulator 203L of the near-eye light field display 200, respectively, is rendered to the viewer as a set of modulated VPoL 620. It is able to perceive the content of the 3D image input and also freely focus on any of the displayed 3D objects 702, 703 or 704 of this scene. Note that, in the above illustrative example, only three capture planes are used, but even in this case, the near-eye light field display 200 of the present invention uses the above-described method of the present embodiment. Using the field display capability and using the VPoL620 modulation method described above, the input image data 301 is rendered to the six standard holopter surfaces of Figure 6b for display of the input image content.

図7に示されている多焦点面深度フィルタリングプロセスは、事実上、視聴者のHVSに対して適切な知覚深度キューを生成する目的で、入力画像シーンのコンテンツの輝度を、関連する入力画像深度情報に従って、ディスプレイ200の多焦点面に割り当てる(又はマッピングする)プロセスである。本発明の一実施形態では、本発明の多焦点面ニアアイ光照射野ディスプレイ200は、局所深度フィルタリングプロセスを実施することによって、図6aのニアアイ光照射野ディスプレイ200(これは、上述の実施形態の場合には、図6bに示されているように視聴者の近視野から遠視野までのディスプレイのFOV内に位置する6つの標準的なホロプタ表面である)によって使用される全ての深度レイヤーを生成できる。図8は、この実施形態の多焦点面深度フィルタリング方法825を示し、これにより、レイヤースプリッタ802は、画像入力301及び関連する深度マップ801を処理して、画像深度平面又はレイヤーを生成し、これはキャプチャ深度平面に相当する。次に生成された各レイヤーのコンテンツに深度フィルタリング803を行い、入力画像301及び関連する入力深度マップ602を、表示される多焦点面画像上にマッピングする。次に画像レンダリングブロック804は、生成された多焦点面画像を用いて、多焦点面のVPoL620をディスプレイの視聴者に対して変調したニアアイ光照射野ディスプレイ200の、右側光照射野変調器203R及び左側光照射野変調器203Lそれぞれの中で、(x,y)及び(x,y)空間位置にあるそれぞれのm−ピクセル及び/又はM−ピクセルのセットによって生成された複数の「視覚的に対応する」光照射野アングレット610R、610Lのペアの、色及び輝度の値を生成する。 The multi-focal plane depth filtering process shown in FIG. 7 effectively reduces the intensity of the content of the input image scene to the relevant input image depth in order to produce a perceived depth cue that is appropriate for the viewer's HVS. The process of assigning (or mapping) to the multifocal plane of the display 200 according to the information. In one embodiment of the present invention, the multi-focal plane near-eye lightfield display 200 of the present invention implements a local depth filtering process to provide the near-eye lightfield display 200 of FIG. In this case, there are six standard horopter surfaces located within the FOV of the viewer's near-field to far-field display as shown in Figure 6b). it can. FIG. 8 illustrates a multifocal plane depth filtering method 825 of this embodiment, which causes the layer splitter 802 to process the image input 301 and associated depth map 801 to generate an image depth plane or layer, Corresponds to the capture depth plane. Depth filtering 803 is then performed on the generated content of each layer to map the input image 301 and associated input depth map 602 onto the displayed multifocal plane image. Next, the image rendering block 804 uses the generated multifocal plane image to modulate the VPoL 620 of the multifocal plane to the viewer of the display, the right side light field modulator 203R and the right eye field modulator 203R of the near eye light field display 200. Within each of the left side light field modulators 203L, a plurality of "visions" produced by respective sets of m-pixels and / or M-pixels at (x, y) R and (x, y) L spatial locations. And "corresponding" light field anglets 610R, 610L pairs of color and intensity values.

別の実施形態では、上述の実施形態のニアアイ光照射野ディスプレイ200の標準的な光照射野ホロプタ表面615、620、625、630、635、640に関するディスプレイ画像は、キャプチャされたシーンのコンテンツの参照要素画像又はホログラフィック要素(ホーゲル)(米国公開特許第2015/0201176号を参照)の圧縮されたセットで構成された、入力画像301から生成される。本実施形態では、シーンの、光照射野カメラによってキャプチャされた要素画像又はホーゲルをまず処理して、標準的な光照射野ホロプタ多焦点表面615、620、625、630、635、640の(指定された)深度において画像のコンテンツを最も良好に又は十分に表現することに寄与する、最小数のキャプチャされた要素画像又はホーゲルのサブセットを識別する。この識別された要素画像又はホーゲルのサブセットは、本明細書では参照ホーゲルと呼ばれる。シーンのソース光照射野カメラによってキャプチャされた要素画像又はホーゲルの総数のデータサイズに対して、標準的な多焦点表面615、618、625、630、635、640の画像コンテンツを内包する、識別された上記参照ホーゲルのデータサイズは、識別された参照ホーゲルのサブセットのデータサイズをキャプチャされた要素画像又はホーゲルの総数で除算した結果に反比例する圧縮利得を示し、この圧縮利得は、40倍を超える圧縮利得に達する場合がある。よって本実施形態では、キャプチャされた光照射野データセットは、ニアアイ光照射野ディスプレイ200の多焦点表面の個々のセットを表すデータセットへと圧縮され、これを実施することにより、上述の実施形態の方法によって識別される標準的な光照射野ホロプタ多焦点表面615、618、625、630、635、640を、視聴者のHVSの深度知覚に関する側面を適合させることによって圧縮利得を達成する光照射野の圧縮表現であるものとして反映した、圧縮利得が実現される。   In another embodiment, the display images for the standard lightfield horopter surfaces 615, 620, 625, 630, 635, 640 of the near-eye lightfield display 200 of the above-described embodiments are referenced to the content of the captured scene. Generated from an input image 301, which is composed of a compressed set of elemental images or holographic elements (Hogel) (see US Published Patent 2015/0201176). In this embodiment, the elemental images or hogels of the scene captured by the lightfield camera are first processed to (standard designation of the standard lightfield horopter multifocal surfaces 615, 620, 625, 630, 635, 640. The smallest number of captured elemental images or hogel subsets that contribute to the best or full representation of the image content at the specified depth. This identified subset of elemental images or hogels is referred to herein as a reference hogel. Identified, containing the image content of standard multifocal surfaces 615, 618, 625, 630, 635, 640 for the data size of the total number of elemental images or hogels captured by the source light field camera of the scene. The above reference hogel data size exhibits a compression gain that is inversely proportional to the result of dividing the data size of the identified reference hogel subset by the total number of captured elemental images or hogels, which is greater than 40 times. The compression gain may be reached. Thus, in this embodiment, the captured light field datasets are compressed into data sets representing individual sets of multifocal surfaces of the near-eye light field display 200, and by implementing this, the embodiments described above. Of standard light field holopter multifocal surfaces 615, 618, 625, 630, 635, 640 identified by the method described above to achieve compression gain by adapting aspects of the viewer's HVS for depth perception. A compression gain is realized, reflected as being a compressed representation of the field.

圧縮レンダリング−図9に示されている別の実施形態では、「圧縮レンダリング(compressed rendering)」(米国公開特許第2015/0201176号)を、上述の実施形態の参照ホーゲルの圧縮光照射野データセットを含む、受信した画像入力805に対して直接実施することによって、標準的な光照射野ホロプタ多焦点表面615、618、625、630、635、640における光照射野画像の変調のための、多焦点面ニアアイ光照射野ディスプレイ200の右側光照射野変調器203R及び左側光照射野変調器203Lによって、表示されることになる画像を抽出する。図9は、この実施形態の圧縮レンダリングプロセス806を示し、このプロセスでは、参照ホーゲルの圧縮光照射野データセットを含む入力光照射野データ805を処理して、多焦点面ニアアイ光照射野ディスプレイ200の右側光照射野変調器203R及び左側光照射野変調器203Lへの入力を生成する。図9の圧縮レンダリングプロセス806では、上述の実施形態の参照ホーゲルの光照射野データセットを含む、受信された圧縮入力画像805を、まずレンダリングして、標準的な光照射野ホロプタ多焦点表面615、620、625、630、635、640において光照射野画像を抽出する。圧縮レンダリングプロセス806の第1のステップ810では、参照ホーゲル画像と、光入力805を含む関連する深度及びテクスチャデータとを使用して、標準的な光照射野ホロプタ多焦点表面615、618、625、630、635、640それぞれを構成するニアアイ光照射野のVPoLの色及び輝度値を合成する。参照ホーゲルは、標準的な光照射野ホロプタ多焦点表面615、618、625、630、635、640の深度情報に基づいて先験的に選択されたものであるため、VPoL合成プロセス810は、圧縮参照ホーゲル入力データ805からニアアイ光照射野のVPoLの色及び輝度値を抽出するために、最小限の処理スループット及びメモリしか必要としない。更に、図9に示すように、眼及び頭部追跡要素210によって感知された視聴者の視線方向及び焦点深度をVPoL合成プロセス810で用いて、視聴者の感知された視線方向及び焦点深度に対する視聴者のHVSの視力の分布プロファイルに基づいて、VPoL値をレンダリングする。合成されたニアアイ光照射野のVPoL値それぞれに関連付けられるのは、視覚的に対応するアングレットのペアの方向、並びにニアアイ光照射野ディスプレイ200の右側及び左側光照射野変調器203それぞれの中での上記アングレットのペアの(x,y)及び(x,y)空間位置座標である。次に、抽出されたニアアイ光照射野のVPoLそれぞれに関連付けられた、視覚的に対応するアングレットのペアの色及び輝度値を、アングレット合成プロセス815によって、右側光照射野変調器203R及び左側光照射野変調器203Lそれぞれの中での(x,y)及び(x,y)空間位置座標へとマッピング(変換)する。頭部及び眼追跡要素210によって感知された視聴者の視線方向に応じて、深度中心窩集中型ビジュアル圧縮ブロック820は、上述の実施形態に記載の方法を利用して、右側光照射野変調器203R及び左側光照射野変調器203Lそれぞれの中での(x,y)及び(x,y)空間位置座標に関する、生成された色及び輝度値を、視聴者のHVSの視力の分布に基づいて圧縮する。本質的に、この実施形態は、上述の実施形態のうちの3つの圧縮利得、即ち:(1)光照射野データの、標準的な光照射野多焦点表面を完全に構成する最小の参照ホーゲルのセットへの圧縮に関連する利得;(2)全光照射野の、標準的な光照射野多焦点表面それぞれを構成するVPoLのセットへの圧縮に関連する利得;並びに(3)視聴者のHVSの、角度、色及び深度の視力を適合させるための、変調されたVPoLの深度中心窩集中に関連する利得を組み合わせたものである。これらの圧縮利得のうちの第1のものは、ニアアイディスプレイシステム200のインタフェース帯域幅を大幅に削減し;これらの圧縮利得のうちの第2のものは、VPoL及び生成された対応するアングレットに必要となる計算(処理)リソースを大幅に削減し;これらの圧縮利得のうちの第3のものは、ニアアイディスプレイ光照射野変調器203R、203Lのインタフェース帯域幅を大幅に削減する。なお、これらの圧縮利得の効果は、圧縮入力を、従来技術のディスプレイシステムで現在行われているように初めに解凍する必要なしに直接表示できる、ニアアイディスプレイ光照射野変調器203R、203Lの圧縮ディスプレイ能力によって更に増強される。 Compressed Rendering—In another embodiment, shown in FIG. 9, “compressed rendering” (US Published Application 2015/0201176) is referred to as the compressed light field dataset of the reference hogel of the above embodiment. , For the modulation of the light field image at the standard light field holopter multifocal surface 615, 618, 625, 630, 635, 640 by performing directly on the received image input 805. Images to be displayed are extracted by the right side light field modulator 203R and the left side light field modulator 203L of the focal plane near-eye light field display 200. FIG. 9 illustrates a compressed rendering process 806 of this embodiment, which processes input light field data 805 including a reference hogel compressed light field dataset to produce a multifocal near-eye light field display 200. The inputs to the right side light field modulator 203R and the left side light field modulator 203L are generated. In the compression rendering process 806 of FIG. 9, the received compressed input image 805, including the reference hogel light field dataset of the embodiment described above, is first rendered to a standard light field horopter multifocal surface 615. , 620, 625, 630, 635, 640, the light irradiation field image is extracted. In the first step 810 of the compression rendering process 806, the reference hogel image and associated depth and texture data including the light input 805 is used to generate a standard light field holopter multifocal surface 615, 618, 625, The color and luminance value of VPoL of the near-eye light irradiation field that constitutes each of 630, 635, and 640 is synthesized. Since the reference hogel was selected a priori based on the depth information of the standard light field horopter multifocal surfaces 615, 618, 625, 630, 635, 640, the VPoL synthesis process 810 was compressed. Minimal processing throughput and memory are required to extract the VPoL color and intensity values of the near-eye light field from the reference hogel input data 805. Further, as shown in FIG. 9, the viewer's gaze direction and depth of focus sensed by the eye and head tracking element 210 are used in the VPoL compositing process 810 to view the viewer's sensed gaze direction and depth of focus. Render the VPoL value based on the HVS visual acuity distribution profile of the person. Associated with each of the synthesized near-eye light field VPoL values is the direction of the visually corresponding anglet pair, and within each of the right and left light field modulators 203 of the near-eye light field display 200. (X, y) R and (x, y) L spatial position coordinates of the pair of anglets. Next, the color and intensity values of the visually corresponding anglet pairs associated with each of the extracted near-eye light field VPoLs are processed by the anglet synthesis process 815 to the right light field modulator 203R and left light field. Each of the field modulators 203L is mapped (converted) into (x, y) R and (x, y) L space position coordinates. Depending on the viewer's line-of-sight direction sensed by the head and eye tracking elements 210, the depth foveated centralized visual compression block 820 utilizes the method described in the above embodiments to utilize the right side light field modulator. 203R and the left side light field modulator 203L, the generated color and luminance values relating to the (x, y) R and (x, y) L spatial position coordinates in the viewer's HVS visual acuity distribution, respectively. Compress based on. In essence, this embodiment has three compression gains of the above-described embodiments, namely: (1) the smallest reference hogel of light field data that completely composes a standard light field multifocal surface. Gain related to compression into a set of (2) all-light fields to the set of VPoLs that make up each standard light field multifocal surface; and (3) the viewer's Fig. 7 is a combination of the gains associated with depth foveal focusing of the modulated VPoL for HVS angular, color and depth vision adaptation. The first of these compression gains significantly reduces the interface bandwidth of the near-eye display system 200; the second of these compression gains is due to the VPoL and the corresponding anglet generated. It significantly reduces the computational resources required; the third of these compression gains significantly reduces the interface bandwidth of the near eye display light field modulators 203R, 203L. It should be noted that the effect of these compression gains is on the near-eye display light field modulators 203R, 203L, which allows the compressed input to be displayed directly without the need to decompress first as is currently done in prior art display systems. It is further enhanced by the compressed display capability.

以上の複数の実施形態の説明により、入力帯域幅及びシステム処理リソースを削減する、ニアアイディスプレイのための画像圧縮方法が提示された。ヒト視覚システムの角視力、色視力及び深視力を目的とした、高次基底変調、動的色域、光照射野深度サンプリング、並びに画像データ語長切り捨て及び量子化を、圧縮入力ディスプレイの使用と組み合わせることにより、入力インタフェース帯域幅及び処理リソースが大幅に削減されたモバイル用途に好適なニアアイディスプレイシステムでの忠実度が高い視覚的体験が可能となる。   By the above description of the embodiments, an image compression method for a near-eye display, which reduces an input bandwidth and a system processing resource, has been presented. Higher-order basis modulation, dynamic color gamut, light field depth sampling, and image data word length truncation and quantization for angular, color and deep vision of the human visual system, with the use of compressed input displays. Combined, it enables a high-fidelity visual experience in near-eye display systems suitable for mobile applications with significantly reduced input interface bandwidth and processing resources.

添付の請求項において及び添付の請求項によって定義される本発明の範囲から逸脱することなく、本発明のこれらの実施形態に対して、様々な修正及び変更を適用できることは、当業者には容易に理解されるだろう。本発明の上述の例は単なる例示であること、及び本発明を、本発明の精神又は本質的特徴から逸脱することなく、他の特定の形態で具現化できることを理解されたい。例えば、開示されている実施形態の様々な可能な組み合わせを用いて、上述の例示的な例で具体的に記述されていないニアアイディスプレイ設計において更なる圧縮利得を達成できる。従って、開示されている実施形態は、個別にも、又はいずれの組み合わせにおいても、いかなる意味でも制限的なものであるとみなしてはならない。本発明の範囲は、上述の説明ではなく添付の請求項によって示されており、添付の請求項の等価物の意味及び範囲内にあるあらゆる変形形態が本発明の範囲に含まれることが意図されている。   It will be apparent to those skilled in the art that various modifications and variations can be applied to these embodiments of the present invention without departing from the scope of the invention as defined in and by the appended claims. Will be understood by. It is to be understood that the above-described examples of the invention are merely exemplary, and that the invention can be embodied in other specific forms without departing from the spirit or essential characteristics of the invention. For example, various possible combinations of the disclosed embodiments can be used to achieve additional compression gain in near-eye display designs not specifically described in the illustrative examples above. Therefore, the disclosed embodiments, either individually or in any combination, should not be considered limiting in any sense. The scope of the invention is indicated by the appended claims rather than the foregoing description, and all variations that come within the meaning and range of equivalency of the appended claims are intended to be included within the scope of the invention. ing.

Claims (49)

ニアアイディスプレイを形成する方法であって、
少なくとも1つの対応する光学要素を有するニアアイ表示視聴者の目に少なくとも1つの画像表示要素を光学的に結合するステップと、少なくとも1つの画像表示要素を、
画像プロセッサ要素をエンコーダ要素に電気的に結合し、エンコーダ要素を画像表示要素に結合する、画像処理要素およびエンコーダ要素を、観察者の目の近傍のニアアイ表示システム内に埋め込むことによって、画像処理要素およびエンコーダ要素のいずれかを選択することができる、または画像プロセッサ要素およびエンコーダ要素を視聴者の目から離れて配置し、エンコーダ要素をニアアイディスプレイシステムに無線または有線接続によって結合するステップと、
ニアアイ表示者の視線方向および焦点距離を感知するために、ニアアイディスプレイにおいて少なくとも1つの眼および頭部追跡要素を光学的に結合するステップと、ニアアイ表示視聴者の視線方向および焦点距離を感知するステップと、
前記アイ及びヘッドトラッキング要素の出力を前記画像プロセッサ及びエンコーダ要素に結合するステップと、前記画像プロセッサ及び前記ヘッドトラッキング要素の出力を前記画像プロセッサ及び前記エンコーダ要素に結合するステップと、
画像処理要素は、エンコーダ要素に画像データを提供し、エンコーダ要素は、圧縮された画像データを、ニアアイ表示要素に提供する方法。
A method of forming a near eye display, comprising:
Optically coupling at least one image display element to the eyes of a near-eye viewing viewer having at least one corresponding optical element; and at least one image display element,
An image processing element by electrically coupling the image processor element to the encoder element and coupling the encoder element to the image display element by embedding the image processing element and the encoder element in a near-eye display system near an observer's eye. And an encoder element may be selected, or the image processor element and the encoder element may be located away from a viewer's eye and the encoder element may be coupled to the near-eye display system by a wireless or wired connection.
Optically coupling at least one eye and head tracking element in the near-eye display to sense the line-of-sight and focal length of the near-eye viewer, and sensing the line-of-sight and focal length of the near-eye viewer. Steps,
Coupling the outputs of the eye and head tracking elements to the image processor and encoder element; coupling the outputs of the image processor and head tracking element to the image processor and encoder element;
A method of providing image data to an encoder element, the encoder element providing compressed image data to a near-eye display element.
前記画像表示要素は、前記圧縮された画像データを最初に伸張することなく、前記エンコーダ要素から受信した前記圧縮された画像データの前記画像コンテンツを直接表示することを特徴とする、請求項1に記載の方法。   The image display element directly displays the image content of the compressed image data received from the encoder element without first decompressing the compressed image data. The method described. 前記エンコーダは、前記画像データを圧縮された画像データフォーマットに圧縮する、請求項に記載の方法、画像表示要素は、圧縮された画像データを最初に伸張することなく、エンコーダ要素から受信した圧縮された画像データフォーマットの画像コンテンツを直接表示する、請求項1に記載の方法。   The method of claim, wherein the encoder compresses the image data into a compressed image data format, wherein the image display element includes a compressed image data received from the encoder element without first decompressing the compressed image data. The method of claim 1, wherein the image content in the different image data format is displayed directly. 前記圧縮された画像データは、1つのtを含む上位マクロのセットを参照してフォーマットされる、離散的なウォルシュ、離散ウェーブレットまたは離散コサイン画像変換のいずれかの拡張係数である、マクロの基底変調係数を有する複数のnxnピクセルを含む、請求項3に記載の方法。   The compressed image data is a macro basis modulation, which is an expansion coefficient of either discrete Walsh, discrete wavelet or discrete cosine image transform, formatted with reference to a set of upper macros containing one t. The method of claim 3, comprising a plurality of nxn pixels having coefficients. 前記画像表示要素は、前記圧縮された画像データを、ニアアイの表示システムの人間の視覚システムが統合し、圧縮された画像データを解凍された画像と直接に知覚するようにするサブフレームレートで変調することを特徴とする、請求項3に記載の方法。   The image display element modulates the compressed image data at a sub-frame rate that allows the human visual system of the near-eye display system to integrate and perceive the compressed image data directly with the decompressed image. Method according to claim 3, characterized in that 前記圧縮された画像データフォーマットは、画像フレームまたはサブフレームの色域に参照され、前記エンコーダ要素は、前記圧縮された画像データフォーマット内に前記画像フレームまたはサブフレームの色域を埋め込み、画像表示要素は、圧縮された画像データフォーマットのフレーム又はサブフレームレートでその色域を動的に調整し、圧縮された画像データを画像フレーム又はサブフレームの色域に直接的に変調する圧縮された画像データフォーマットに埋め込まれる、請求項3に記載の方法。   The compressed image data format is referred to by a color gamut of an image frame or a subframe, and the encoder element embeds the color gamut of the image frame or a subframe in the compressed image data format to generate an image display element. Is a compressed image data that dynamically adjusts its color gamut at the frame or sub-frame rate of the compressed image data format and modulates the compressed image data directly into the color gamut of the image frame or sub-frame. The method of claim 3, embedded in a format. 前記エンコーダ要素は、前記画像データから基底変調係数を抽出する視覚的伸張変換要素と、前記画像データから前記基底変調係数を抽出する視覚的伸張変換要素と、
最初に、抽出された基底変調係数を、係数セット切捨て基準に基づいて抽出された変調係数のサブセットに切り詰める量子化器要素、量子化要素は、さらに、抽出された変調係数の選択されたサブセットを、tより短いワード長を使用して量子化する前記抽出された基底変調係数のサブセットのワード長を、係数セットの量子化基準に基づいて決定するステップと、前記係数セットの量子化基準に基づいて、前記基底変調係数の前記抽出されたサブセットのワード長を決定するステップと、
抽出された基底変調係数の切り捨てられたサブセットおよび量子化されたサブセットを時間的に多重化し、抽出された基底変調係数の多重化された切り捨てられたおよび量子化されたサブセットを圧縮画像データとして送信するランレングスエンコーダ要素を含む、請求項4に記載の方法。
The encoder element is a visual expansion conversion element that extracts a base modulation coefficient from the image data, and a visual expansion conversion element that extracts the base modulation coefficient from the image data,
First, a quantizer element that truncates the extracted base modulation coefficient into a subset of the extracted modulation coefficient based on a coefficient set truncation criterion, the quantizing element further selects a selected subset of the extracted modulation coefficient. , A word length of the extracted subset of the base modulation coefficients to be quantized using a word length shorter than t is determined based on a quantization criterion of the coefficient set, and based on the quantization criterion of the coefficient set, Determining the word length of the extracted subset of the base modulation coefficients,
Temporally multiplex the truncated and quantized subsets of the extracted base modulation coefficients and transmit the multiplexed truncated and quantized subsets of the extracted base modulation coefficients as compressed image data 5. The method of claim 4, including a run-length encoder element that:
前記係数セット切捨て基準は、ニアアイディスプレイシステム視聴者の視覚システムの時間的知覚視力限界よりも高い周波数の時間的応答を有する画像変換に関連する抽出された基底変調係数を破棄する、請求項7に記載の方法。   8. The coefficient set truncation criterion discards extracted basis modulation coefficients associated with image transforms having a temporal response at frequencies above the temporal perceptual visual acuity limit of the near-eye display system viewer's visual system. The method described in. 前記係数セット量子化基準は、より高い周波数の時間的応答を有する前記画像変換について、連続的に短いワード長を選択する、請求項7に記載の方法。   8. The method of claim 7, wherein the coefficient set quantisation criterion selects successively shorter word lengths for the image transform having a higher frequency temporal response. 前記係数セット量子化基準は、さらに、画像表示要素標準色域サイズに対するフレームまたはフレーム領域色域サイズに比例するワード長を、画像表示要素標準色域サイズに対する搬送されるフレームまたはフレーム領域の色域サイズが小さくなるように選択し、選択された画像変換の色座標を表現するために使用されるワード長を小さくすることを特徴とする、請求項7に記載の方法。   The coefficient set quantization criterion further comprises a word length proportional to a frame or frame region gamut size for the image display element standard gamut size, Method according to claim 7, characterized in that it is chosen to be small in size and the word length used to represent the color coordinates of the selected image transform is small. 前記エンコーダ要素は、
(nxn)の集合に対する基底変調係数を抽出する視覚的伸張変換要素前記眼の視線方向に基づいて前記圧縮画像データから高次マクロを抽出し、前記頭部追跡要素により検出された前記観察者の視線方向に基づいて、前記圧縮画像データから高次マクロを抽出する;抽出された基底変調係数の集合を係数に基づいて基底変調係数のサブセットに最初にトランケートするために、目および頭部追跡要素によって感知された視聴者の視線方向を利用するフォベレート化された量子化要素と、を含み、切り捨て基準を設定することにより、中心窩化された量子化器要素は、さらに、基底変調係数のサブセットを、ワード長を使用して量子化するが、係数セットの量子化基準に基づいて基底変調係数の抽出されたサブセットのワード長よりも短い基底変調係数の切り捨てられたサブセットおよび量子化されたサブセットを時間的に多重化し、基底変調係数の多重化された切り捨てられ量子化されたサブセットを、圧縮された画像データとして画像表示要素に結合するランレングスエンコーダ要素をさらに備える、請求項4に記載の方法。
The encoder element is
Visual expansion conversion element for extracting a base modulation coefficient for a set of (nxn) A high-order macro is extracted from the compressed image data based on the line-of-sight direction of the eye, and the observer detected by the head tracking element. Extract higher order macros from said compressed image data based on gaze direction; eye and head tracking elements for first truncating the set of extracted basis modulation coefficients to a subset of basis modulation coefficients based on the coefficients A foveated quantizer element that utilizes the viewer's line-of-sight direction sensed by, and by setting a truncation criterion, the foveated quantizer element further includes a subset of the base modulation coefficients. Is quantized using the word length, but is shorter than the word length of the extracted subset of the base modulation coefficients based on the quantization criterion of the coefficient set. A run that temporally multiplexes the truncated and quantized subsets of the modulation coefficients and combines the multiplexed truncated and quantized subsets of the base modulation coefficients as compressed image data into an image display element. The method of claim 4, further comprising a length encoder element.
基底変調係数セット切捨て基準は、ニアアイディスプレイシステム視聴者の視覚システムの時間的知覚視力限界よりも高い周波数の時間的応答を有する基底変調係数に関連する抽出された基底変調係数を破棄する、請求項11に記載の方法。   A basis modulation coefficient set truncation criterion discards extracted basis modulation coefficients associated with a base modulation coefficient having a temporal response at a frequency higher than the temporal perceptual visual acuity limit of the near-eye display system viewer's visual system. Item 11. The method according to Item 11. 基底変調係数セット切捨て基準は、視聴者の目の視野の中央領域についてより多くの抽出された基底変調係数を選択し、視線および頭部追跡要素によって感知された視聴者の視線方向によって決定され、かつ、視聴者の目の視野の周辺領域に向かって連続してより少ない基底変調係数を生成するように構成されている、請求項11に記載の方法。   The base modulation coefficient set truncation criterion selects more extracted base modulation coefficients for the central region of the viewer's eye field of view and is determined by the viewer's gaze direction sensed by the gaze and head tracking elements, The method according to claim 11, wherein the method is further configured to generate successively fewer base modulation coefficients towards a peripheral region of the visual field of the viewer's eyes. 前記基底変調係数セット量子化基準は、より高い周波数の時間応答を有する基底変調係数に対して連続的に短いワード長を選択し、さらに長いワード長さtを選択する、観察者の視線の視野の中央領域に対する基底変調係数の量子化のために、眼球および頭部追跡要素によって感知された観察者の視線方向によって決定されるの周囲領域に向かって基底変調係数の量子化のために連続的に短いワード長を選択する、請求項11に記載の方法。   The basis modulation coefficient set quantization criterion is a field of view of an observer's line of sight, which selects successively shorter word lengths and longer word lengths t for basis modulation coefficients having a higher frequency time response. For the quantization of the base modulation coefficient for the central region of the, continuous for the quantization of the base modulation coefficient toward the surrounding region of the eye determined by the eye gaze direction sensed by the eye and head tracking elements. 12. The method according to claim 11, wherein a short word length is selected. 基底変調係数セット切捨て基準は、視聴者の目の視野の中央領域について、圧縮された画像データの上位マクロを選択することを特徴とし、視線および頭部追跡要素によって感知された視聴者の視線方向によって決まる、視線及び頭部追跡要素によって感知された観察者の視線方向によって決定されるように、観察者の目の視野の周辺領域のための下位マクロを順次選択する、請求項11に記載の方法。   The basis modulation coefficient set truncation criterion is characterized by selecting the upper macro of the compressed image data for the central region of the visual field of the viewer's eyes, and the visual direction of the viewer sensed by the gaze and head tracking elements. 12. The submacro for the peripheral region of the observer's eye field of view is sequentially selected as determined by the observer's gaze direction sensed by the gaze and head tracking elements, as determined by Method. 基底変調係数セット切捨て基準は、連続的に短い単語長が、視聴者の視線方向に対する視聴者の人間の視覚システムカラー視力プロファイルに依存する表示色域に基づいて基底変調係数を表現するために使用されるように、ニアアイディスプレイシステム視聴者の人間の視覚システムのカラー視力プロファイルに依存するワード長を選択する、請求項11に記載の方法。   The base modulation coefficient set truncation criterion is used to represent the base modulation coefficient based on the display gamut where consecutively short word lengths depend on the viewer's human visual system color vision profile with respect to the viewer's gaze direction. 12. The method of claim 11, wherein the near eye display system viewer selects a word length that depends on the color vision profile of the human visual system. 反射器およびビームスプリッタ光学アセンブリ、自由型光学ウェッジまたは導波路光学素子を使用する、請求項1に記載の方法。   The method of claim 1 using a reflector and beam splitter optics assembly, a free-standing optical wedge or a waveguide optics. 少なくとも1つの光フィールド画像表示要素を、対応する光学要素を有するニアアイ光フィールド表示視聴者の目の各々に光学的に結合するステップと、少なくとも1つの光フィールド画像表示要素を、
画像プロセッサ要素をエンコーダ要素に電気的に結合し、エンコーダ要素を画像表示要素に結合する、画像処理装置およびエンコーダ要素を、観察者の目の近傍のニアアイ光フィールド表示システム内に埋め込むことによって、画像処理装置を制御する方法を提供する、または画像プロセッサおよびエンコーダ要素を視聴者の目から離れて配置し、エンコーダ要素をニアアイ光フィールド表示システムに無線または有線接続によって結合すること、
ニアアイ表示視聴者の視線方向および焦点距離の各々を感知するために、ニアアイ光場表示システム内の少なくとも1つの眼および頭部追跡要素を光学的に結合するステップと、ニアアイ表示視聴者の視線方向および焦点距離の各々を感知するステップと、
前記アイ及びヘッドトラッキング要素の出力を前記画像プロセッサ及びエンコーダ要素に結合するステップと、前記画像プロセッサ及び前記ヘッドトラッキング要素の出力を前記画像プロセッサ及び前記エンコーダ要素に結合するステップと、
画像処理要素は、光フィールド画像データをエンコーダ要素に提供し、エンコーダ要素は、圧縮された光フィールド画像データを光フィールド画像表示要素に提供する、ニアアイ光フィールド表示システムを形成する方法。
Optically coupling at least one light field image display element to each of the eyes of a near-eye light field display viewer having corresponding optical elements; and at least one light field image display element,
Image by electrically coupling an image processor element to an encoder element and coupling the encoder element to an image display element, and by embedding the image processing device and the encoder element in a near-eye light field display system in the vicinity of an observer's eye. Providing a method of controlling a processing device, or arranging an image processor and an encoder element away from a viewer's eye and coupling the encoder element to a near-eye optical field display system by a wireless or wired connection;
Optically coupling at least one eye and head tracking element in the near-eye optical field display system for sensing each of the near-eye viewing viewer's line-of-sight direction and focal length, and the near-eye viewing viewer's line-of-sight direction. And sensing each of the focal lengths,
Coupling the outputs of the eye and head tracking elements to the image processor and encoder element; coupling the outputs of the image processor and head tracking element to the image processor and encoder element;
A method of forming a near-eye optical field display system in which an image processing element provides optical field image data to an encoder element, the encoder element providing compressed optical field image data to the optical field image display element.
光フィールド画像表示要素は、ニアアイ光フィールド表示システム視聴者に表示される光フィールドのサンプルを用いて、ニアアイ光フィールド視聴者の人間視覚システムのそれぞれの側面を変調する、複数のビューとして、または複数の焦点面サンプルとして、複数の(mxm)のグループを使用してサンプリングするニアアイ光フィールド表示システムの右側および左側の光フィールド画像表示素子の各々の物理的なピクセルを表示するように構成されている、請求項18に記載の方法。   The light field image display element modulates each aspect of the near-eye light field viewer's human visual system with a sample of the light field displayed to a near-eye light field display system viewer, either as multiple views or as multiple views. Is configured to display each physical pixel of the right and left light field image display elements of a near-eye light field display system sampling using multiple (mxm) groups as a focal plane sample of The method according to claim 18. 前記光フィールドサンプルは、前記ニアアイ光フィールド表示システムの右側および左側光フィールド画像表示要素によって変調され、それぞれが、マイクロ光学素子の組を介して対応する光学素子に結合されたコリメートされかつ方向に変調された光束またはangletである、各微小光学要素は、物理的ピクセルのそれぞれに関連付けられるは、右側および左側の光フィールド画像表示要素の複数の(mxm)の物理的ピクセルの各グループ内の微小光学要素の各組の光学的開口を含む、請求項19に記載の方法。   The light field samples are modulated by the right and left light field image display elements of the near-eye light field display system, each collimated and directionally coupled to a corresponding optical element via a set of micro-optical elements. Each micro-optical element associated with each of the physical pixels is a micro-optic within each group of multiple (mxm) physical pixels of the right and left light field image display elements. 20. The method of claim 19, including an optical aperture for each set of elements. 前記物理ピクセルの各々に関連付けられた微小光学素子の各組および前記光フィールド画像表示素子の複数の物理ピクセルの各々のグループは、時刻tにおいて前記angletをコリメートし、方向的に変調することを特徴とする光フィールド画像表示素子の光学的開口部の中央領域内でより高いangletの角度密度は、光フィールド画像表示素子の周辺領域内のangletの角度密度よりも大きい、請求項20に記載の方法。   Each set of micro-optical elements associated with each of the physical pixels and each group of physical pixels of the light field image display element collimates and directionally modulates the anglet at time t. 21. The method of claim 20, wherein the higher angular density of the angle within the central region of the optical aperture of the light field image display element is greater than the angular density of the angle within the peripheral region of the light field image display element. . 光フィールド画像表示要素の中心から周辺領域へのangletの角度密度の分布は、視聴者の人間の視覚システムの視力の角度分布に比例し、観察者の眼の網膜周辺領域上に光学的に結合されたangletの系統的に減少した角度密度で、観察者の眼の網膜中央領域上に光学的に結合されることを可能にする、請求項21に記載の方法。   The distribution of angular densities of the angle from the center of the light field image display element to the peripheral region is proportional to the angular distribution of the visual acuity of the human visual system of the viewer and is optically coupled onto the peripheral region of the retina of the observer eye. 22. The method of claim 21, wherein the method allows for optically coupled onto a central retinal region of an observer's eye with a systematically reduced angular density of an angle. 前記明視野画像表示要素の光学的開口部の中央領域が、前記最大密度のangletを備えていることを特徴とし、近接場とニアアイ光場表示システムの観察者の遠視野との間の観察者の目の動きを収容するために、十分に広い角度幅である、請求項18に記載の方法。   An observer between the near-field and the far-field of the observer of the near-eye optical field display system, characterized in that the central region of the optical opening of the bright-field image display element comprises the maximum density anglet. 19. The method of claim 18, wherein the angular width is wide enough to accommodate the eye movements of the. 前記明視野画像表示要素の光学的開口部の中央領域が、前記最大密度のangletを備えていることを特徴とし、近接場とニアアイ光場表示システムの観察者の遠視野との間の観察者の目の動きを収容するために、十分に広い角度幅である光フィールド画像表示要素の中心光学領域における複数の物理ピクセルのグループの次元が、観察者の眼に光学素子を介して結合されると、観察者の眼の網膜中央領域の平均空間視力に一致するスポットサイズを投影する、請求項19に記載の方法。   An observer between the near-field and the far-field of the observer of the near-eye optical field display system, characterized in that the central region of the optical opening of the bright-field image display element comprises the maximum density anglet. The dimension of the group of physical pixels in the central optical region of the light field image display element, which is wide enough to accommodate the eye movement of the eye, is coupled to the eye of the observer via an optical element. 20. The method of claim 19, projecting a spot size that corresponds to the average spatial visual acuity of the central region of the retina of the observer eye. 前記明視野画像表示要素は、視聴者の中心窩領域上により高い数のビューを変調し、視聴者の視野の周辺領域上に系統的に少ない数のビューを変調することを特徴とする方法、それによって、視聴者の人間の視覚システムの角速度と奥行きの知覚とを一致させることができる、請求項18に記載の方法。   The brightfield image display element modulates a higher number of views on a fovea region of a viewer and a systematically smaller number of views on a peripheral region of the viewer's field of view, 19. The method according to claim 18, whereby the angular velocity and depth perception of the human visual system of the viewer can be matched. 前記光フィールド画像表示要素は、前記圧縮された画像データを最初に伸長することなく、前記エンコーダ要素から受信された前記圧縮された画像データの画像内容を直接表示し、前記エンコーダ要素は、前記視聴者の目が合焦された点の近傍に圧縮画像データを提供することを特徴とする、前記眼および前記頭部追跡要素によって提供される前記視聴者の感知された焦点位置に基づいて、視聴者の焦点の感知された点において、視聴者の人間の視覚システムの知覚的な視力に一致する最高の忠実度で変調される、周囲領域の視覚情報は、視聴者の眼が焦点を合わせている場所から離れたポイントにおいて、視聴者の人間の視覚システムの比例的に低い知覚的な視力に一致する忠実度レベルで変調されるを提供することにより、ニアアイ光フィールドディスプレイシステムを実現して、光フィールド画像表示要素による三次元深度中心窩視覚圧縮を達成する深度窩化された視覚的伸張機能を提供することを含む、請求項19に記載の方法。   The optical field image display element directly displays the image content of the compressed image data received from the encoder element without first decompressing the compressed image data, and the encoder element includes the viewing element. Viewing based on the perceived focus position of the viewer provided by the eye and the head tracking element, characterized in that it provides compressed image data in the vicinity of the point where the human eye is in focus. At the perceived point of the viewer's focus, the visual information in the surrounding area is modulated with the highest fidelity to match the perceptual visual acuity of the viewer's human visual system, the visual information of the surrounding area By providing a near-eye optical modulation at a point away from where it is, with a fidelity level consistent with the proportionally lower perceptual visual acuity of the human visual system. To achieve over field display system, comprising providing a visual stretching function is depth 窩化 achieve a three-dimensional depth foveal vision compression by the light field image display element, the method according to claim 19. 前記ニアアイ光フィールド表示システムは、tで知覚される左右の眼光フィールド画像表示要素からの視覚的に対応するangletの対を変調することによって、観察者に合焦可能な明視野を変調することを特徴とする方法することを特徴とする左右の光の物理的な画素群の空間座標によって決定される所与の深さにおける視野内の光フィールド画像表示要素の視野内の仮想的な光の点としての人間の視覚系を提供するフィールド画像表示要素は、視覚的に対応するangletの対を生成した、請求項19に記載の方法。   The near-eye light field display system modulates a bright field that is focusable to an observer by modulating a pair of visually corresponding anglets from the left and right eye light field image display elements perceived at t. Virtual field of light in the field of view of the light field image display element in the field of view at a given depth determined by the spatial coordinates of the physical pixel groups of the left and right lights characterized by 20. The method of claim 19, wherein the field image display elements that provide the human visual system as generated generated visually corresponding pairs of anglets. 前記ニアアイ光フィールド表示システムは、多焦点面サンプルの集合を観察者に提示し、それにより、多焦点面は、tであることを特徴とする方法観察者の近接場深度から観察者の遠視野深度まで延在する一組の標準的なホロプター表面であって、表面は0.6度だけ公称的に分離されている、請求項18に記載の方法。   The near-eye light field display system presents a set of multifocal plane samples to an observer, whereby the multifocal plane is at t from the near field depth of the observer to the far field of the observer. 19. The method of claim 18, wherein a set of standard horopter surfaces extending to depth are nominally separated by 0.6 degrees. 前記ニアアイ光フィールド表示システムは、tで知覚される左右の眼光フィールド画像表示要素からの視覚的に対応するangletの対を変調することによって、観察者に合焦可能な明視野を変調することを特徴とする方法することを特徴とする左右の物理画素群の空間座標によって決定される所与の深度における視野内の光フィールド画像画像表示要素’視野内の光の仮想点としての人間の視覚系を提供する光フィールド画像表示素子は、視覚的に対を生成した
対応するangletに対応し、ニアアイ光フィールド表示システムは、マルチ焦点面サンプルの集合を観察者に提示し、それによって、マルチ焦点面は、1つのtである観察者の近接場深度から観察者の遠視野深度まで延在する一組の標準的なホロプター面であって、標準的なホロプター面が公称的に(0)によって分離されていることを特徴とする、視度は、大きさtに比例する光フィールド変調圧縮利得を達成する光の仮想点を使用して、選択された正準ホロプター面の光の仮想点において、正準ホロプター面を変調するニアアイ光フィールド表示システムであるニアアイ光フィールド表示システムによってアドレス可能な全光フィールドの光の可視点における大きさに対する、請求項19に記載の方法。
The near-eye light field display system modulates a bright field that is focusable to an observer by modulating a pair of visually corresponding anglets from the left and right eye light field image display elements perceived at t. A light field image in the field of view at a given depth determined by the spatial coordinates of the left and right physical pixel groups characterized by the characterizing method'the human visual system as a virtual point of light in the field of view Optical field image display element providing a visually generated pair
Corresponding to the corresponding angle, the near-eye light field display system presents the observer with a set of multifocal plane samples, whereby the multifocal plane is taken from the observer's near-field depth of one t. A set of standard horopter surfaces extending to the far depth of field, characterized in that the standard horopter surfaces are nominally separated by (0), the diopter is of magnitude t. Near-eye light field display system that modulates the canonical horopter plane at the virtual point of light of the selected canonical horopter plane using the virtual point of light that achieves proportional optical field modulation compression gain. 20. The method according to claim 19, for the magnitude at the visible point of light of the total light field addressable by the display system.
前記ニアアイ光フィールド表示システムは、tで知覚される左右の眼の表示素子からの視覚的に対応する一対のangletを変調することにより、観察者に合焦可能な明視野を変調することを特徴とする方法することを特徴とする視野内の光の仮想点としての視聴者の人間の視覚系を、左右の光フィールド画像の物理的な画素群の空間座標によって決定される所与の深度における視野内に表示する一対の視覚的に対応するangletを生成した表示素子であって、ニアアイ用光フィールド表示システムは、マルチ焦点面が形成されている複数焦点表面サンプルのセットを観察者に提示する観察者の近接場深度から観察者の遠視野深度まで延在する一組の標準的なホロプター面であって、標準的なホロプター面が公称的に(0)によって分離されていることを特徴とする、1つのtに適合する標準的なホロプター表面の各々を含む光の変調された仮想点の密度視聴者の人間の視覚システムの深度および角度の鋭角が、視聴者からの標準的なホロプター表面の対応する距離であることを特徴とする、請求項19に記載の方法。   The near-eye light field display system modulates a bright field that can be focused on an observer by modulating a pair of visually corresponding anglelets from the display elements of the left and right eyes perceived at t. The viewer's human visual system as a virtual point of light in the field of view at a given depth determined by the spatial coordinates of the physical pixel groups of the left and right light field images. A display element for producing a pair of visually corresponding angles for display in a field of view, a near-eye optical field display system presents to an observer a set of multifocal surface samples in which multifocal planes are formed. A set of standard horopter planes extending from the observer's near field depth to the observer's far field depth, where the standard horopter plane is nominally divided by (0). The density of modulated virtual points of light comprising each of the standard horopter surfaces fitted to one t, characterized in that the acute angle of depth and angle of the human visual system of the viewer is 20. Method according to claim 19, characterized in that it is the corresponding distance of a standard horopter surface from. 前記ニアアイ光フィールド表示システムは、tで知覚される左右のサイドライトフィールド画像表示要素からの視覚的に対応するangletの対を変調することによって、観察者に合焦可能な明視野を変調することを特徴とする方法することを特徴とする左右の物理ピクセル群の空間座標によって決定される所与の深度における視野内の光フィールド画像表示要素’フィールド内の光の仮想点としての人間の視覚システムを提供する光フィールド画像表示素子は、視覚的に対を生成した
対応するangletに対応し、ニアアイ光フィールド表示システムは、マルチ焦点面サンプルの集合を観察者に提示し、それによって、マルチ焦点面は、1つのtである観察者の近接場深度から観察者の遠視野深度まで延在する一組の標準的なホロプター面であって、標準的なホロプター面が公称的に(0)によって分離されていることを特徴とする、光の仮想点を使用して正準ホロプター面を変調するニアアイ光フィールド表示システム、ニアアイ光フィールドディスプレイによってアドレス可能な全光フィールドのvの大きさに対する、選択された正準ホロプター面の光の仮想点の大きさに比例する光フィールド変調圧縮利得を達成することと、組み合わされた光フィールド変調利得と視覚圧縮利得の両方を実現することとを含む、請求項26に記載の方法。
The near-eye light field display system modulates a bright field focusable to an observer by modulating a pair of visually corresponding anglets from the left and right sidelight field image display elements perceived at t. Optical field image display element in the field of view at a given depth determined by the spatial coordinates of the left and right physical pixel groups characterized in that the human visual system as a virtual point of light in the field Optical field image display element providing a visually generated pair
Corresponding to the corresponding angle, the near-eye light field display system presents the observer with a set of multifocal plane samples, whereby the multifocal plane is taken from the observer's near-field depth of one t. Using a virtual point of light, a set of standard horopter surfaces extending to the far field depth, characterized in that the standard horopter surfaces are nominally separated by (0). Near-eye optical field display system for modulating a canonical horopter plane, light proportional to the size of the virtual point of the selected canonical horopter plane for the magnitude of v of the total optical field addressable by the near-eye light field display. Achieving field modulation compression gain and achieving both combined optical field modulation gain and visual compression gain. The method according to claim 26.
前記圧縮された光フィールド画像データは、1つのtを含む上位マクロのセットを参照してフォーマットされる、離散的なウォルシュ、離散ウェーブレットまたは離散コサイン画像変換のいずれかの基底変調係数である、マクロの変調基底変調係数を有する複数のmxm画素を含む、によって提供された観察者の感知された焦点位置を使用して、観察者の目が焦点合わせされている場所から0.6度未満の範囲で正準ホロプター表面を識別するように構成されている、識別された正準ホポクタ表面の感知された深度における視聴者の人間の視覚システムの視力と一致するvpos密度を使用して最高の視覚的知覚を達成するように、識別された正準ホポクタ表面を変調し、最も高い数の基準を使用することを含む最小のワード長の切捨てにおける変調係数は、視聴者の目が合焦されている点の近傍での寄与度が小さい正準ホポクタ表面の残りを用いて変調されるより広い角度ピッチで間隔を置いて配置され、より高いワード長の切捨てにおける基底変調係数の比例的に少ない数を使用することにより、深度中心窩視覚圧縮を組み込むことができる、請求項26に記載の方法。   The compressed optical field image data is a basis modulation coefficient of either discrete Walsh, discrete wavelet or discrete cosine image transform, formatted with reference to a set of upper macros containing one t, macro Less than 0.6 degrees from where the observer's eyes are in focus, using the sensed focus position of the observer provided by including a plurality of mxm pixels having a modulation basis modulation coefficient of At a perceived depth of the identified canonical horopter surface, which is configured to identify the canonical horopter surface at the highest visual using vpos density that matches the visual acuity of the human visual system of the viewer. Modulate the identified canonical Hopter surface to achieve perception and use the smallest word-length truncation that involves using the highest number of criteria. The modulation factor is higher, spaced by a wider angular pitch that is modulated with the rest of the canonical hopter surface, which has a small contribution near the point where the viewer's eye is in focus. 27. The method of claim 26, wherein depth foveal visual compression can be incorporated by using a proportionally small number of basis modulation coefficients in word length truncation. ユーザの人間の視覚システムが表示されたコンテンツの捕捉された深度を知覚することを可能にするために、対応する深度キューを組み込んだ画像コンテンツを変調するために使用される標準的なホロプター表面のすべてのセットを生成するために、局所的な深度フィルタリングをさらに実行することをさらに含む、請求項28に記載の方法   To allow the user's human visual system to perceive the captured depth of the displayed content, a standard horopter surface is used to modulate the image content incorporating the corresponding depth cues. 29. The method of claim 28, further comprising further performing local depth filtering to generate all sets. 前記明視野画像データは、最も多くの捕捉された要素画像またはホゲルのサブセットを識別する、捕捉されたシーンコンテンツの基準要素画像またはホゲルの圧縮されたセットを含む、方法、正準明視野ホロプター面の深さにおける画像内容を十分に表すか又は十分に表すを含み、前記ニアアイ光フィールド表示システムは、前記捕捉されたシーンの前記圧縮された基準ホゲルのセットから、前記正準光フィールドホロプター面についての表示画像をレンダリングすることを特徴とし、
正準明視野ホロプター表面の深さにおける画像内容をほとんどまたは十分に表す、最小数の捕捉されたホゲルのサブセットを識別するコンテンツ、識別された参照ホゲルのサブセットのデータサイズに反比例する圧縮利得を、捕捉された要素画像またはホゲルの総数で割ったものに反比例する、請求項28に記載の方法。
The brightfield image data comprises a reference elemental image of the captured scene content or a compressed set of hogels that identifies the most captured elemental images or a subset of hogels, the method, a canonical brightfield horopter plane. Fully or fully representing the image content at the depth of the near-eye light field display system, wherein the near-eye light field display system comprises the canonical light field horopter surface from the set of compressed reference hogels of the captured scene. Characterized by rendering a display image about
Content that identifies a minimal number of captured hogel subsets that represent most or sufficient image content at the depth of the canonical brightfield horopter surface, compression gain inversely proportional to the data size of the identified subset of reference hogels, 29. The method of claim 28, inversely proportional to the total number of captured elemental images or hogels.
圧縮されたレンダリングを圧縮された基準ホゲルのセットに直接適用して、正準ホロプター面で表示画像を変調するために、左右のサイド画像表示素子によって表示される画像コンテンツを抽出することを特徴とする、請求項34に記載の方法。   Characterized by applying compressed rendering directly to a set of compressed reference hogels to extract the image content displayed by the left and right side image display elements to modulate the displayed image in the canonical horopter plane. 35. The method of claim 34, wherein 反射器およびビームスプリッタ光学アセンブリ、自由型光学ウェッジまたは導波路光学素子を使用する、請求項18に記載の方法。   19. The method of claim 18, using a reflector and beam splitter optics assembly, a free-standing optical wedge or a waveguide optics. 少なくとも1つの対応する光学要素を有する少なくとも1つの眼に光学的に結合するための少なくとも1つの画像表示要素と、少なくとも1つの対応する光学要素を有する少なくとも1つの画像表示要素と、
画像表示要素は、電気的に結合されて、エンコーダ要素から画像データを受け取るように電気的に結合され、エンコーダ要素は、画像プロセッサ要素から画像入力データを受け取るように電気的に結合され、
前記エンコーダおよびプロセッサは、前記観察者の眼の近傍の前記ニアアイディスプレイシステム内に埋め込まれているか、または前記視聴者の眼から離れて離れて配置され、前記ニアアイディスプレイシステムアセンブリに無線または有線接続によって接続され、
前記ニアアイ表示視聴者の視線方向および焦点距離を感知するように光学的に結合された少なくとも1つの眼および頭部追跡要素と、
検出されたデータを画像プロセッサおよびエンコーダ要素に転送するように電気的に結合された眼およびヘッド追跡要素を備える、ニアアイ表示システム。
At least one image display element for optically coupling to at least one eye having at least one corresponding optical element, and at least one image display element having at least one corresponding optical element;
The image display element is electrically coupled to receive image data from the encoder element, the encoder element is electrically coupled to receive image input data from the image processor element,
The encoder and processor are either embedded within the near-eye display system near the observer's eye or located away from the viewer's eye and wirelessly or wired to the near-eye display system assembly. Connected by connection,
At least one eye and head tracking element optically coupled to sense line-of-sight direction and focal length of the near-eye viewing viewer;
A near-eye display system comprising an eye and head tracking element electrically coupled to transfer detected data to an image processor and encoder element.
前記画像表示要素は、前記エンコーダ要素から圧縮された画像データを受信し、前記画像データを最初に伸張することなく、画像を直接表示する、請求項37に記載のシステム。   38. The system of claim 37, wherein the image display element receives compressed image data from the encoder element and displays the image directly without first decompressing the image data. 前記エンコーダ要素は、(nxn)の多重度を含む一組の上位表示マクロのための基底変調係数を抽出するための視覚的伸張変換要素を備え、前記ディスプレイマクロの変調係数を有するピクセルは、前記入力画像データから離散的なウォルシュ、離散ウェーブレット又は離散コサイン画像変換のいずれかの拡張係数であり、
抽出された基底変調係数を基底変調係数セット切捨て基準に基づいて基底変調係数のサブセットに最初に切り詰める量子化要素と、
量子化要素は、選択された基底変調係数のサブセットを、時刻tよりも短いワード長を使用してさらに量子化する基底変調係数セット量子化基準に基づいて基底変調係数の抽出されたサブセットのワード長を決定するステップと、基底変調係数セット量子化基準に基づいて基底変調係数の抽出されたサブセットのワード長を決定するステップと、を含み、
底変調係数の切り捨てられ量子化されたサブセットを時間的に多重化し、基底変調係数の多重化された切り捨てられ量子化されたサブセットを画像表示要素に送信するラン長エンコーダ要素を含む、請求項37に記載のシステム。
The encoder element comprises a visual expansion transform element for extracting a base modulation coefficient for a set of higher order display macros containing (nxn) multiplicity, and the pixels having the modulation coefficient of the display macro are An expansion coefficient of either discrete Walsh, discrete wavelet or discrete cosine image transform from the input image data,
A quantization element that first truncates the extracted base modulation coefficient into a subset of base modulation coefficients based on a base modulation coefficient set truncation criterion;
The quantizing element further quantizes the selected subset of the base modulation coefficients using a word length shorter than the time t. Base modulation coefficient set A word of the extracted subset of the base modulation coefficients based on a quantization criterion. Determining a length, and determining a word length of the extracted subset of basis modulation coefficients based on a basis modulation coefficient set quantization criterion,
38. A run length encoder element that temporally multiplexes the truncated quantized subset of the bottom modulation coefficient and includes a run length encoder element that transmits the multiplexed truncated quantized subset of the base modulation coefficient to the image display element. The system described in.
前記エンコーダ要素は、さらに、
記眼および頭部追跡要素によって感知された前記視聴者の視線方向に基づいて、前記入力画像データから(nxn)次マクロの集合に対する基底変調係数を抽出する視覚的伸張変換要素と、
出された基底変調係数の集合を基底変調係数セット切捨て基準に基づいて基底変調係数の選択された部分集合に最初にトランケートするために、眼および頭部追跡要素によって感知された視聴者の視線方向を使用して、
子化要素は、選択された変調値のサブセットを、tより短いワード長を使用してさらに量子化する基底変調係数セット量子化基準に基づいて基底変調係数の抽出されたサブセットのワード長を決定するステップと、基底変調係数セット量子化基準に基づいて基底変調係数の抽出されたサブセットのワード長を決定するステップと、
時間分割多重化し、基底変調係数の切り捨てられた量子化されたサブセットを時分割多重化し、次いで、多重化されたデータセットを画像表示要素に結合するランレングス符号化器要素を備える、請求項37に記載のシステム。
The encoder element further comprises
A visual expansion transform element for extracting a base modulation coefficient for a set of (nxn) th macros from the input image data based on the viewer's gaze direction sensed by the notation and head tracking elements;
The gaze direction of the viewer sensed by the eye and head tracking elements to first truncate the emitted set of basis modulation coefficients to a selected subset of basis modulation coefficients based on the basis modulation coefficient set truncation criteria. using,
A sub-elemental element further quantizes the selected subset of modulation values using a word length shorter than t, and determines the word length of the extracted subset of the base modulation coefficients based on a basis modulation coefficient set quantization criterion. Determining the word length of the extracted subset of basis modulation coefficients based on the basis modulation coefficient set quantization criterion.
38. A run length encoder element for time division multiplexing, time division multiplexing a truncated quantized subset of base modulation coefficients, and then combining the multiplexed data set with an image display element. The system described in.
少なくとも1つの対応する光学要素を有する、ニアアイディスプレイシステムの目に光学的に結合するための少なくとも1つの画像表示要素;画像処理要素から画像入力データを受け取るように電気的に結合されたエンコーダ要素から画像データを受け取るように電気的に結合された画像表示要素と、
前記エンコーダおよびプロセッサは、前記観察者の眼の近傍の前記ニアアイディスプレイシステム内に埋め込まれているか、または前記視聴者の眼から離れて離れて配置され、前記ニアアイディスプレイシステムアセンブリに無線または有線接続によって接続され、
ニアアイ光視野ビューアの視線方向および焦点距離の各々を感知するように光学的に結合された少なくとも1つの眼および頭部追跡要素と、
検出されたデータを画像プロセッサおよびエンコーダ要素に転送するように電気的に結合された眼およびヘッド追跡要素を備える、ニアアイ光フィールド表示システム。
At least one image display element for optically coupling to an eye of a near eye display system having at least one corresponding optical element; an encoder element electrically coupled to receive image input data from an image processing element An image display element electrically coupled to receive image data from
The encoder and processor are either embedded within the near-eye display system near the observer's eye or located away from the viewer's eye and wirelessly or wired to the near-eye display system assembly. Connected by connection,
At least one eye and head tracking element optically coupled to sense each of the gaze direction and focal length of the near-eye optical field viewer;
A near-eye optical field display system comprising an eye and head tracking element electrically coupled to transfer detected data to an image processor and encoder element.
前記画像表示要素の数は、左右の画像表示要素であり、前記光学要素の数は、2である、請求項41に記載のシステム   42. The system of claim 41, wherein the number of image display elements is a left and right image display element and the number of optical elements is two. 前記画像表示要素は、視聴者に表示される光フィールドの複数のサンプルを、前記視聴者の人間の視覚システムのそれぞれの側に変調する、複数のビューとして、または複数の焦点面サンプルとして、複数の(mxm)のグループを使用してサンプリングする前記ニアアイ光フィールド表示システムの右側およびニアアイ光フィールド表示システムの左側の画像表示素子の各々の物理的なピクセルを表示するように構成されていることを特徴とする、請求項42に記載のシステム。   The image display element modulates a plurality of samples of a light field displayed to a viewer to respective sides of the viewer's human visual system, as a plurality of views or as a plurality of focal plane samples. (Mxm) groups for sampling the physical pixels of each of the image display elements to the right of the near-eye light field display system and to the left of the near-eye light field display system. 43. The system of claim 42, characterized by: ニアアイ光フィールドディスプレイシステムの右側および左側画像表示素子によって変調される光フィールドサンプルは、それぞれ、平行化され、方向変調された光束または光フィールドangletであり、tがtであることを特徴とする光学的開口を形成する各画素に関連付けられた1組の微小光学素子を介して対応する光学素子上に結合され、複数の(mxm))画像表示素子の物理的な画素を制御することを特徴とする画像表示装置を備える、請求項43に記載のシステム。   The optical field samples modulated by the right and left image display elements of the near-eye optical field display system are collimated, directionally modulated luminous fluxes or optical fields anglet, respectively, where t is t. Controlling a physical pixel of a plurality of (mxm) image display elements coupled onto a corresponding optical element via a set of micro-optical elements associated with each pixel forming a physical aperture. 44. The system of claim 43, comprising an image display device that does. 前記複数のピクセルおよび前記複数のグループの各々に関連付けられた前記マイクロ光学要素のセットは、
画像表示素子の(mxm)物理的ピクセルは、より高いtより高い光フィールドangletの角度密度で光フィールドangletをコリメートし、方向的に変調するの範囲内である画像表示要素の中央領域は、画像表示要素の周辺領域内の光フィールドangletの角度密度よりも光学的開口を有する、請求項44に記載のシステム。
A set of the micro-optical elements associated with each of the plurality of pixels and the plurality of groups,
The (mxm) physical pixels of the image display element are within range of collimating and directionally modulating the light field anglet with a higher angular density of the light field anglet than the higher t. 45. The system of claim 44, having an optical aperture that is greater than the angular density of the light field anglet in the peripheral region of the display element.
前記画像表示要素は、前記視聴者の中心窩領域上により高い数のビューを変調し、前記視聴者の視野の周辺領域上に系統的に少ない数のビューを生成することによって、前記視聴者の人間の視覚システムの角速度および奥行き知覚に適合することを特徴とする、請求項42に記載のシステム。   The image display element modulates a higher number of views on the viewer's foveal region and produces a systematically low number of views on a peripheral region of the viewer's field of view, thereby 43. The system according to claim 42, characterized in that it is adapted to the angular velocity and depth perception of the human visual system. 前記エンコーダは、(nxn)のセットについての基底変調係数を抽出する視覚的伸張変換要素をさらに備え、前記入力画像データから、前記眼及び前記頭部追跡要素によって感知された前記視聴者の視線方向に基づいて、
抽出された基底変調係数の集合を基底変調係数セット切捨て基準に基づいて基底変調係数の選択されたサブセットに最初にトランケートするために、
量子化要素は、選択された変調値のサブセットを、tより短いワード長を使用してさらに量子化する基底変調係数セット量子化基準に基づいて基底変調係数の抽出されたサブセットのワード長を決定するステップと、基底変調係数セット量子化基準に基づいて基底変調係数の抽出されたサブセットのワード長を決定するステップと、を含み、
時間分割多重化して基底変調係数の切り捨てられた量子化されたサブセットを時分割多重化し、次いで、多重化されたデータセットを画像表示素子に結合するランレングス符号化器要素と、
それによって、視聴者の目が焦点合わせされている場所に基づいて三次元中心窩視覚圧縮が得られる、請求項42に記載のシステム。
The encoder further comprises a visual stretch transform element for extracting a base modulation coefficient for a set of (nxn), and from the input image data, the gaze direction of the viewer sensed by the eye and the head tracking element. On the basis of,
In order to first truncate the set of extracted base modulation coefficients to a selected subset of the base modulation coefficients based on the base modulation coefficient set truncation criterion,
The quantisation element further quantizes the selected subset of modulation values using a word length shorter than t. Base Modulation Coefficient Set Determines the word length of the extracted subset of the base modulation coefficients based on a quantization criterion. And determining the word length of the extracted subset of basis modulation coefficients based on the basis modulation coefficient set quantization criterion.
A run length coder element for time division multiplexing the time quantized subset of the truncated quantized subset of base modulation coefficients and then combining the multiplexed data set to an image display element;
43. The system of claim 42, which provides three-dimensional foveal visual compression based on where the viewer's eyes are in focus.
前記画像表示要素は、複数焦点平面の集合を観察者に提示することを特徴とするシステムであって、前記複数焦点面は、前記観察者の近視野から遠距離場深度まで延び、名目上約0.6視度だけ隔てられた一組の正準ホロプター表面からなることを特徴とする、請求項42に記載のシステム。   The image display element is a system characterized by presenting a set of multifocal planes to an observer, the multifocal plane extending from the observer's near-field to far-field depth, and nominally approx. 43. The system of claim 42, comprising a set of canonical horopter surfaces separated by 0.6 diopters. 各光学素子が、反射器およびビームスプリッタ光学アセンブリ、自由型光学ウェッジまたは導波路光学素子を含む、請求項42に記載のシステム。   43. The system of claim 42, wherein each optical element comprises a reflector and beam splitter optical assembly, a free-form optical wedge or a waveguide optical element.
JP2019548643A 2017-03-08 2018-03-08 Compression method and system for near-eye display Pending JP2020512735A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762468718P 2017-03-08 2017-03-08
US62/468,718 2017-03-08
US15/912,888 2018-03-06
US15/912,888 US20180262758A1 (en) 2017-03-08 2018-03-06 Compression Methods and Systems for Near-Eye Displays
PCT/US2018/021628 WO2018165484A1 (en) 2017-03-08 2018-03-08 Compression methods and systems for near-eye displays

Publications (1)

Publication Number Publication Date
JP2020512735A true JP2020512735A (en) 2020-04-23

Family

ID=63445217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019548643A Pending JP2020512735A (en) 2017-03-08 2018-03-08 Compression method and system for near-eye display

Country Status (7)

Country Link
US (1) US20180262758A1 (en)
EP (1) EP3593240A1 (en)
JP (1) JP2020512735A (en)
KR (1) KR20190126840A (en)
CN (1) CN110622124A (en)
TW (1) TWI806854B (en)
WO (1) WO2018165484A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7387193B2 (en) 2019-02-22 2023-11-28 アヴァロン ホログラフィックス インク. Layered scene decomposition codec system and method

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015104763A1 (en) * 2014-01-07 2015-07-16 ソニー株式会社 Analysis system, analysis program, and analysis method
US11284109B2 (en) * 2016-01-29 2022-03-22 Cable Television Laboratories, Inc. Visual coding for sensitivities to light, color and spatial resolution in human visual system
US10714050B2 (en) * 2018-03-21 2020-07-14 Daqri, Llc Reducing latency in augmented reality (AR) displays
US10713997B2 (en) * 2018-03-23 2020-07-14 Valve Corporation Controlling image display via mapping of pixel values to pixels
US11347056B2 (en) * 2018-08-22 2022-05-31 Microsoft Technology Licensing, Llc Foveated color correction to improve color uniformity of head-mounted displays
KR102637106B1 (en) * 2018-09-27 2024-02-15 삼성전자주식회사 Method and apparatus for processing hologram image data
US10924727B2 (en) * 2018-10-10 2021-02-16 Avalon Holographics Inc. High-performance light field display simulator
CA3122089A1 (en) 2018-12-07 2020-06-11 Avegant Corp. Steerable positioning element
US20200195944A1 (en) * 2018-12-14 2020-06-18 Advanced Micro Devices, Inc. Slice size map control of foveated coding
US11126261B2 (en) 2019-01-07 2021-09-21 Avegant Corp. Display control system and rendering pipeline
US11375178B2 (en) 2019-03-04 2022-06-28 Dolby Laboratories Licensing Corporation Multi-resolution multi-view video rendering
US11363306B2 (en) * 2019-04-05 2022-06-14 Comcast Cable Communications, Llc Methods, systems, and apparatuses for processing video by adaptive rate distortion optimization
CN116582661A (en) * 2019-05-23 2023-08-11 奇跃公司 Mixed mode three-dimensional display system and method
BR112022001434A2 (en) * 2019-07-28 2022-06-07 Google Llc Methods, systems and media for rendering immersive video content with optimized meshes
US11100899B2 (en) * 2019-08-13 2021-08-24 Facebook Technologies, Llc Systems and methods for foveated rendering
US11481026B2 (en) * 2019-08-22 2022-10-25 Samsung Electronics Co., Ltd. Immersive device and method for streaming of immersive media
US11106039B2 (en) 2019-08-26 2021-08-31 Ati Technologies Ulc Single-stream foveal display transport
US11307655B2 (en) 2019-09-19 2022-04-19 Ati Technologies Ulc Multi-stream foveal display transport
JP7359653B2 (en) * 2019-11-06 2023-10-11 ルネサスエレクトロニクス株式会社 Video encoding device
CN114746903B (en) 2019-12-06 2023-11-14 奇跃公司 Virtual, augmented and mixed reality systems and methods
KR20210158144A (en) 2020-06-23 2021-12-30 엘지디스플레이 주식회사 Gate driver, data driver and display apparatus using the same
CN114365214A (en) * 2020-08-14 2022-04-15 海思智财控股有限公司 System and method for superimposing virtual image on real-time image
EP4073572A1 (en) 2020-09-03 2022-10-19 HES IP Holdings, LLC Systems and methods for improving binocular vision
CN112272294B (en) * 2020-09-21 2023-01-06 苏州唐古光电科技有限公司 Display image compression method, device, equipment and computer storage medium
CN116420104A (en) 2020-09-30 2023-07-11 海思智财控股有限公司 Virtual image display system for a virtual reality and augmented reality device
CN114935971A (en) * 2021-02-05 2022-08-23 京东方科技集团股份有限公司 Display driving chip, display device and display driving method
US20240118550A1 (en) * 2022-10-07 2024-04-11 Hes Ip Holdings, Llc System and method for multi-instances emission for retina scanning based near eye display

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH099253A (en) * 1995-06-19 1997-01-10 Toshiba Corp Picture compression communication equipment
JP2011527775A (en) * 2008-07-09 2011-11-04 オステンド・テクノロジーズ・インコーポレーテッド Image construction based video display system
JP2012519884A (en) * 2009-03-05 2012-08-30 オステンド・テクノロジーズ・インコーポレーテッド Multi-pixel addressing method for video display drivers
US20140361987A1 (en) * 2013-06-11 2014-12-11 Sony Computer Entertainment Europe Limited Eye controls
US20160171704A1 (en) * 2014-12-15 2016-06-16 Sony Computer Entertainment Europe Limited Image processing method and apparatus
JP2016165105A (en) * 2015-03-05 2016-09-08 ノキア テクノロジーズ オーユー Video streaming method

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6252989B1 (en) * 1997-01-07 2001-06-26 Board Of The Regents, The University Of Texas System Foveated image coding system and method for image bandwidth reduction
US6091767A (en) * 1997-02-03 2000-07-18 Westerman; Larry Alan System for improving efficiency of video encoders
US20050018911A1 (en) * 2003-07-24 2005-01-27 Eastman Kodak Company Foveated video coding system and method
WO2006012677A1 (en) * 2004-08-03 2006-02-09 Silverbrook Research Pty Ltd Electronic stylus
US7623560B2 (en) 2007-09-27 2009-11-24 Ostendo Technologies, Inc. Quantum photonic imagers and methods of fabrication thereof
US7850306B2 (en) * 2008-08-28 2010-12-14 Nokia Corporation Visual cognition aware display and visual data transmission architecture
US8913004B1 (en) * 2010-03-05 2014-12-16 Amazon Technologies, Inc. Action based device control
US9529191B2 (en) * 2010-11-03 2016-12-27 Trex Enterprises Corporation Dynamic foveal vision display
US20140152891A1 (en) * 2012-12-05 2014-06-05 Silicon Image, Inc. Method and Apparatus for Reducing Digital Video Image Data
US10514541B2 (en) * 2012-12-27 2019-12-24 Microsoft Technology Licensing, Llc Display update time reduction for a near-eye display
WO2014145003A1 (en) 2013-03-15 2014-09-18 Ostendo Technologies, Inc. Dynamic gamut display systems, methods, and applications thereof
US10019843B2 (en) * 2013-08-08 2018-07-10 Facebook, Inc. Controlling a near eye display
US10244223B2 (en) 2014-01-10 2019-03-26 Ostendo Technologies, Inc. Methods for full parallax compressed light field 3D imaging systems
CN106662749B (en) * 2014-07-15 2020-11-10 奥斯坦多科技公司 Preprocessor for full parallax light field compression
CN104618710B (en) * 2015-01-08 2017-01-18 左旺孟 Dysopia correction system based on enhanced light field display
US10469873B2 (en) * 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH099253A (en) * 1995-06-19 1997-01-10 Toshiba Corp Picture compression communication equipment
JP2011527775A (en) * 2008-07-09 2011-11-04 オステンド・テクノロジーズ・インコーポレーテッド Image construction based video display system
JP2012519884A (en) * 2009-03-05 2012-08-30 オステンド・テクノロジーズ・インコーポレーテッド Multi-pixel addressing method for video display drivers
US20140361987A1 (en) * 2013-06-11 2014-12-11 Sony Computer Entertainment Europe Limited Eye controls
US20160171704A1 (en) * 2014-12-15 2016-06-16 Sony Computer Entertainment Europe Limited Image processing method and apparatus
JP2016165105A (en) * 2015-03-05 2016-09-08 ノキア テクノロジーズ オーユー Video streaming method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7387193B2 (en) 2019-02-22 2023-11-28 アヴァロン ホログラフィックス インク. Layered scene decomposition codec system and method

Also Published As

Publication number Publication date
US20180262758A1 (en) 2018-09-13
WO2018165484A1 (en) 2018-09-13
TW201837540A (en) 2018-10-16
TWI806854B (en) 2023-07-01
CN110622124A (en) 2019-12-27
KR20190126840A (en) 2019-11-12
EP3593240A1 (en) 2020-01-15

Similar Documents

Publication Publication Date Title
JP2020512735A (en) Compression method and system for near-eye display
KR102618255B1 (en) Control of image display through real-time compression of surrounding image areas
US11290699B2 (en) View direction based multilevel low bandwidth techniques to support individual user experiences of omnidirectional video
US8217996B2 (en) Stereoscopic display system with flexible rendering for multiple simultaneous observers
CN106165415B (en) Stereoscopic viewing
US7027659B1 (en) Method and apparatus for generating video images
CN111699693A (en) Image compression for digital reality
WO2021065629A1 (en) Image display system, video distribution server, image processing device, and video distribution method
WO2021065628A1 (en) Image processing device, image data transfer device, image processing method, and image data transfer method
WO2011133496A2 (en) System, method and apparatus for generation, transmission and display of 3d content
WO2021065630A1 (en) Image data transfer device and image data transfer method
US11567567B2 (en) Encoders, methods and display apparatuses incorporating gaze-directed compression ratios
WO2021065632A1 (en) Image data transfer device, image display system, and image compression method
US11330309B2 (en) Foviation and HDR
WO2021065633A1 (en) Image data transfer device and image compression method
KR102546321B1 (en) 3-dimensional image display device and method
US11962819B2 (en) Foviation and HDR
WO2021065627A1 (en) Image processing device, image display system, image data transfer device, and image processing method
WO2021065631A1 (en) Image data transfer device and image compression method
JP4764516B1 (en) Multi-view image encoding device
WO2022230253A1 (en) Information processing device and information processing method
JP2014175813A (en) Stereoscopic video display method and device
Borer Why Holographic 3D Light field Displays are Impossible, and How to Build One Anyway
WO2022259632A1 (en) Information processing device and information processing method
JP7493496B2 (en) Image Composition

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20200121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220810

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230614

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230814

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231114