JP2015506621A - Display processor for 3D display - Google Patents

Display processor for 3D display Download PDF

Info

Publication number
JP2015506621A
JP2015506621A JP2014550652A JP2014550652A JP2015506621A JP 2015506621 A JP2015506621 A JP 2015506621A JP 2014550652 A JP2014550652 A JP 2014550652A JP 2014550652 A JP2014550652 A JP 2014550652A JP 2015506621 A JP2015506621 A JP 2015506621A
Authority
JP
Japan
Prior art keywords
series
images
display
view
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014550652A
Other languages
Japanese (ja)
Inventor
バーレンブルク,バルト・ヘラルト・ベルナルト
ルーレン,ワルテルス・アントニウス・ヘンドリクス
Original Assignee
ウルトラ−デー・コーペラティーフ・ユー・アー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウルトラ−デー・コーペラティーフ・ユー・アー filed Critical ウルトラ−デー・コーペラティーフ・ユー・アー
Publication of JP2015506621A publication Critical patent/JP2015506621A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/351Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/006Pseudo-stereoscopic systems, i.e. systems wherein a stereoscopic effect is obtained without sending different images to the viewer's eyes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

3D画像データから原画像を取得し、原画像から派生画像を導出し、派生画像を含む第1の一連の画像を生成し、(i)3D画像データから更なる原画像を取得し、更なる原画像を備える第2の一連の画像を生成し、または(ii)3D画像データから更なる原画像を取得し、更なる原画像から更なる派生画像を導出し、更なる派生画像および更なる原画像の少なくとも1つを含む第2の一連の画像を生成し、最初に述べた派生画像の数はそれぞれの一連の画像の総数に比べて更なる派生画像の数より大きくし、立体視110を提供するために3Dディスプレイ140に第1の一連の画像を提供し、シュードスコピック視野112を提供するために3Dディスプレイに第2の一連の画像を提供するディスプレイプロセッサ(120)。Obtaining an original image from the 3D image data, deriving a derived image from the original image, generating a first series of images including the derived image, (i) obtaining a further original image from the 3D image data; Generating a second series of images comprising the original image, or (ii) obtaining further original images from the 3D image data, deriving further derived images from the further original images, further derived images and further A second series of images including at least one of the original images is generated, and the number of first-mentioned derived images is greater than the number of further derived images compared to the total number of each series of images, and the stereoscopic view 110 is generated. A display processor (120) that provides a first series of images to the 3D display 140 to provide a second series of images to the 3D display to provide a pseudoscopic field of view 112.

Description

本発明は、3Dディスプレイ上のディスプレイ用のディスプレイプロセッサおよび3次元[3D]イメージデータを処理するための方法に関する。本発明は、更に、前記ディスプレイプロセッサを備える3Dディスプレイ、タブレット装置、デジタルフォトフレーム、およびスマートフォン、ならびに前記方法を実行するためのコンピュータプログラムプロダクトに関する。   The present invention relates to a display processor for display on a 3D display and a method for processing three-dimensional [3D] image data. The invention further relates to a 3D display comprising said display processor, a tablet device, a digital photo frame and a smartphone and a computer program product for carrying out said method.

3Dディスプレイ、特に3Dディスプレイを装備したテレビ受像機は、3Dディスプレイが観察者に立体的奥行き知覚を提供するにつれて、消費者の間で人気が高まっている。いわゆる自動立体視3Dディスプレイは、観察者が偏向眼鏡またはシャッタベース眼鏡をかけることを必要とせずに、前記立体的奥行き知覚を提供する。そのために、レンチキュラーレンズアレイなどの光学部品が用いられ、それによって、ディスプレイは、3Dディスプレイ上の各々の所定ポイントから、少なくともシーンの左視野および右視野を備える視野角を発することができる。これによって、観察者は、視野角内にそれに応じて位置決めされたときに、それぞれの眼によって異なる画像を見ることができる。   3D displays, especially television receivers equipped with 3D displays, are becoming more popular among consumers as 3D displays provide stereoscopic depth perception to viewers. So-called autostereoscopic 3D displays provide the stereoscopic depth perception without requiring the viewer to wear deflected or shutter-based glasses. To that end, an optical component such as a lenticular lens array is used, whereby the display can emit a viewing angle comprising at least a left view and a right view of the scene from each predetermined point on the 3D display. This allows the observer to see different images for each eye when positioned accordingly within the viewing angle.

時として自動多視点ディスプレイとも呼ばれる、ある自動立体視ディスプレイは、左視野および右視野だけではなく、同じシーンの複数の視野を提供する。これは、シーンの立体的な認識を更に得る一方で、観察者が視野角内の複数位置を想定すること、すなわちディスプレイの前で左右に動くことを可能にする。   Some autostereoscopic displays, sometimes referred to as automatic multi-view displays, provide multiple views of the same scene, not just left and right views. This further provides a three-dimensional recognition of the scene while allowing the viewer to assume multiple positions within the viewing angle, i.e. move left and right in front of the display.

但し、観察者によって想定されたすべての位置が、シーンの立体的な認識を得ることと同等に適しているとは限らない。特に、ディスプレイが一連の視野角として視野角をリピートするために配置される場合、例えば、左眼が所定の視野角の最も外側の右側視野を知覚し、右眼が隣接する視野角の最も外側の左側視野を知覚するように、観察者を位置決めしてもよい。このような観察位置において、観察者は、多くの場合シーンが深さを有するように見える、更に間違った、いわゆるシーンのシュードスコピック知覚を得る。シュードスコピック知覚は、頭痛や、視覚的歪の他の徴候を引き起こすことが知られている。   However, not all positions envisioned by the observer are equally suitable for obtaining a three-dimensional recognition of the scene. In particular, if the display is arranged to repeat the viewing angle as a series of viewing angles, for example, the left eye perceives the outermost right field of view of a given viewing angle and the right eye is the outermost of the adjacent viewing angles The viewer may be positioned to perceive the left field of view. At such a viewing position, the observer gets a more false so-called pseudoscopic perception of the scene, often where the scene appears to have depth. Pseudoscopic perception is known to cause headaches and other signs of visual distortion.

更に、前述の観察位置において、両方の視野間の差は、一連の視野角における他の観察位置のものよりも大きい。結果として、あらゆる視覚的歪も、更に悪化する。前記観察位置は、今後、超シュードスコピック観察位置と呼ばれることになる。超シュードスコピック観察位置は、すなわち、シュードスコピック視野を提供するだけでなく、2つの隣接する視野角の2つの最も異なる視野(例えば、左端および右端のもの)に対応する差を提供する。前記観察位置は、また、時として、スーパーシュードスコピック観察位置とも呼ばれる。   Furthermore, at the aforementioned viewing position, the difference between both fields of view is greater than that of the other viewing positions at a series of viewing angles. As a result, any visual distortion is further exacerbated. The observation position will hereinafter be referred to as a super pseudoscopic observation position. The super pseudoscopic viewing position not only provides a pseudoscopic field of view, but also provides a difference corresponding to the two most different fields of view of two adjacent viewing angles (eg, those at the left and right ends). The viewing position is also sometimes referred to as a super pseudoscopic viewing position.

WO2005/091050は、複数の視野を表示するための多視野ディスプレイ装置を記載し、表示される対象物に関するそれぞれの視野角を有する複数の視野が開示される。ディスプレイ装置は、複数の視野角を表示するための光学的手段と、それぞれの視野に対応する画像データのセットを光学的手段に提供するためのドライブ手段とを備え、複数の視野角の最初の1つは、ディスプレイ装置に関する視野の角度分布を有する。   WO 2005/091050 describes a multi-view display device for displaying a plurality of fields of view, with a plurality of fields of view having respective viewing angles with respect to the displayed object. The display device comprises optical means for displaying a plurality of viewing angles and drive means for providing the optical means with a set of image data corresponding to each field of view, wherein the first of the plurality of viewing angles is provided. One has an angular distribution of the field of view for the display device.

画像データのセットは、増加する視野角に隣接する視野の第1の部分と減少する視野角に隣接する視野の第2の部分とを角度分布が有し、最大視野角に対応する最大視野と最小視野角に対応する最小視野との間における視野の最初の1つを角度分布が有するように提供される。   The set of image data has an angular distribution of a first portion of the field of view adjacent to the increasing viewing angle and a second portion of the field of view adjacent to the decreasing viewing angle, and a maximum field corresponding to the maximum viewing angle; It is provided that the angular distribution has an initial one of the fields of view between the minimum field of view corresponding to the minimum field of view.

結果として、前述の多視野ディスプレイ装置は、立体的な目視を観察者に提供する隣接する視野の第1の部分と、シュードスコピック視野を観察者に提供する隣接する視野の第2の部分とを提供する。いくつかのシュードスコピック像を作成することによって、スーパーシュードスコピック領域を防止することができると言われている。   As a result, the multi-field display device described above includes a first portion of the adjacent field of view that provides stereoscopic viewing to the viewer, and a second portion of the adjacent field of view that provides the viewer with a pseudoscopic field of view. I will provide a. It is said that super pseudoscopic regions can be prevented by creating several pseudoscopic images.

国際公開第2005/091050号International Publication No. 2005/091050 米国特許第6064424号明細書US Pat. No. 6,064,424 国際公開第2006/117707号International Publication No. 2006/117707 国際公開第2007/063477号International Publication No. 2007/063477

前述の多視野ディスプレイ装置の課題は、観察者に提供された多視野ディスプレイ装置の視野の品質が不十分であるということである。   The problem with the multi-view display device described above is that the quality of the field of view of the multi-view display device provided to the observer is insufficient.

ディスプレイプロセッサまたは3Dディスプレイ上での3D画像データの改善された表示を可能にする方法を有することは有利だろう。   It would be advantageous to have a method that allows improved display of 3D image data on a display processor or 3D display.

これに関する課題をより適切に解決するために、本発明の第1の態様は、一連の繰り返し視野角のそれぞれにおいて、3D画像データの一連の視野を隣接して発するために配置される3Dディスプレイ上での表示の3次元の[3D]画像データを処理するためのディスプレイプロセッサにして、一連の視野が各視野角内の複数の観察位置における3D画像データの立体視を可能にするディスプレイプロセッサ(120)であって、一連の視野の第1の部分として、各視野角内の複数の観察位置における3D画像データの前記立体視を提供するように発せられるために3Dディスプレイに対して第1の一連の画像を提供し、各視野角内の更なる観察位置における、少なくとも、3D画像データのシュードスコピック視野を提供する、一連の視野内の第1の部分に隣接する一連の視野の第2の部分として、発せられるために3Dディスプレイに対して第2の一連の画像を提供し、3D画像データから原画像を取得し、原画像から派生画像を導出し、派生画像を備える第1の一連の画像を生成し、(i)3D画像データから更なる原画像を取得し、更なる原画像を備える第2の一連の画像を生成し、または(ii)3D画像データから更なる原画像を取得し、更なる原画像から更なる派生画像を導出し、更なる派生画像および更なる原画像の少なくとも1つを備える第2の一連の画像を生成し、最初に述べた派生画像の数はそれぞれの一連の画像の総数に比べて更なる派生画像の数より大きくするために配置されるディスプレイプロセッサを提供する。   In order to better solve this problem, the first aspect of the present invention is on a 3D display arranged to emit a series of fields of view of 3D image data adjacent to each other in a series of repeated viewing angles. Display processor for processing 3D [3D] image data for display at a display processor that allows stereoscopic viewing of 3D image data at a plurality of viewing positions within a viewing angle of a series of fields of view. A first series for a 3D display to be emitted as a first part of a series of fields of view to provide said stereoscopic view of 3D image data at a plurality of viewing positions within each viewing angle. A series of fields of view that provide at least a pseudoscopic field of view of 3D image data at additional viewing positions within each field of view. Providing a second series of images to the 3D display to be emitted as a second part of the series of fields of view adjacent to the first part of the image, obtaining an original image from the 3D image data, Deriving derived images, generating a first series of images comprising the derived images, (i) obtaining a further original image from the 3D image data and generating a second series of images comprising the further original image Or (ii) obtaining a further original image from the 3D image data, deriving a further derived image from the further original image, and comprising a second series of at least one of the further derived image and the further original image An image is generated and a display processor is provided that is arranged to have the number of derived images initially described be greater than the number of further derived images compared to the total number of each series of images.

本発明の更に態様において、3Dディスプレイは、明記されたディスプレイプロセッサを備えて提供される。本発明の更なる態様において、タブレット装置、デジタルフォトフレーム、またはスマートフォンは、明記されたモバイルディスプレイ装置を備えて提供される。   In a further aspect of the invention, a 3D display is provided with a specified display processor. In a further aspect of the invention, a tablet device, digital photo frame, or smartphone is provided with a specified mobile display device.

本発明の一態様において、一連の繰り返し視野角のそれぞれの視野角の各々に隣接して発するために配置される3Dディスプレイ上での表示のための3次元の[3D]画像データを処理する方法において、一連の繰り返し視野のそれぞれの視野角の各々において、3D画像データの一連の視野が各視野角内の複数の観察位置における3D画像データの立体視を可能にする方法が提供される。方法は、一連の視野の第1の部分として、各視野角内の複数の観察位置における3D画像データの前記立体視を提供するように発せられるために3Dディスプレイに対して第1の一連の画像を提供するステップと、各視野角内の更なる観察位置における、少なくとも、3D画像データのシュードスコピック視野を提供する、一連の視野内の第1の部分に隣接する一連の視野の第2の部分として、発せられるために3Dディスプレイに対して第2の一連の画像を提供するステップと、3D画像データから原画像を取得し、原画像から派生画像を導出し、派生画像を備える第1の一連の画像を生成するステップと、(i)3D画像データから更なる原画像を取得し、更なる原画像を備える第2の一連の画像を生成するステップと、または(ii)3D画像データから更なる原画像を取得し、更なる原画像から更なる派生画像を導出し、更なる派生画像および更なる原画像の少なくとも1つを備える第2の一連の画像を生成し、最初に述べた派生画像の数はそれぞれの一連の画像の総数に比べて更なる派生画像の数より大きくするステップとを備える。   In one aspect of the invention, a method of processing three-dimensional [3D] image data for display on a 3D display arranged to emit adjacent to each of a series of repeating viewing angles. In each of the viewing angles of a series of repetitive fields, a method is provided in which a series of fields of 3D image data enables stereoscopic viewing of 3D image data at a plurality of viewing positions within each field of view. The method includes a first series of images for a 3D display to be emitted as a first part of the series of views to provide the stereoscopic view of 3D image data at a plurality of viewing positions within each viewing angle. And a second of a series of fields adjacent to a first portion in the series of fields that provide at least a pseudoscopic field of 3D image data at a further viewing position within each field angle. As a part, providing a second series of images to a 3D display to be emitted, obtaining an original image from the 3D image data, deriving a derived image from the original image, and comprising a first image comprising the derived image Generating a series of images; (i) obtaining a further original image from the 3D image data and generating a second series of images comprising the further original image; or (ii) Obtaining a further original image from the D image data, deriving a further derived image from the further original image, and generating a second series of images comprising at least one of the further derived image and the further original image; The first mentioned number of derived images comprises the step of making the number of further derived images larger than the total number of each series of images.

本発明の更に態様において、コンピュータプログラムプロダクトは、明記された方法をプロセッサシステムに実行させるための命令を備えて提供される。   In a further aspect of the invention, a computer program product is provided with instructions for causing a processor system to perform a specified method.

前述の手段は、3Dディスプレイ上で表示するための3D画像データを処理するためのディスプレイプロセッサを提供する。3D画像データは、立体視を提供する画像データである。すなわち、観察者の眼の各々が画像データ内に含まれるシーンのわずかに違っている視野を知覚することを可能にする。結果として、観察者には奥行き感が提供される。3Dディスプレイは、3Dディスプレイ上の任意のポイントから、3D画像データの一連の視野に隣接して発するための光学的手段を典型的には備える、いわゆる自動立体視多視野ディスプレイである。一連の視野は、3Dディスプレイから発生する視野角の形式で発せられ、視野角は、一連の繰り返し視野角の1つであり、一連の繰り返し視野角のそれぞれの視野の各々は、前述の一連の視野を備え、他の視野角に対する異なる角度方向の3Dディスプレイによって発せられる。   The foregoing means provides a display processor for processing 3D image data for display on a 3D display. The 3D image data is image data that provides stereoscopic viewing. That is, it enables each of the observer's eyes to perceive a slightly different field of view of the scene included in the image data. As a result, the viewer is provided with a sense of depth. A 3D display is a so-called autostereoscopic multi-view display that typically comprises optical means for emitting from any point on the 3D display adjacent to a series of views of 3D image data. A series of fields of view is emitted in the form of a field of view generated from a 3D display, the field of view is one of a series of repeated field angles, and each field of view of the series of repeated field angles is a series of the aforementioned Emitted by a 3D display with a field of view and with different angular orientations relative to other viewing angles.

ディスプレイプロセッサは、一連の視野の一部として、視野角の各々の複数の観察位置における3D画像データの立体視を提供する視野の第1の部分を提供し、それによって視野角の各々において立体視観察領域を提供するために配置される。したがって、視野角の各々の内部の複数の観察位置において、観察者は、奥行き感を提供する視野内の差分によって、自身の眼の各々により3D画像データ内のシーンのわずかに異なる視野を知覚することができる。概念的に、第1の部分内の視野は、3D画像データ内に含まれるシーンと向き合い、前記シーンの前で且つ前記シーンに対して左から右に動く、カメラによって取得された視野に対応する一連の視野を形成する。   The display processor provides a first portion of the field of view that provides a stereoscopic view of the 3D image data at each of a plurality of viewing positions of the viewing angle as part of the series of views, thereby providing a stereoscopic view at each of the viewing angles. Arranged to provide an observation area. Thus, at multiple viewing positions within each of the viewing angles, the viewer perceives a slightly different field of view of the scene in the 3D image data with each of his eyes due to differences in the field of view providing a sense of depth. be able to. Conceptually, the field of view in the first part corresponds to the field of view acquired by the camera facing the scene contained in the 3D image data and moving from left to right in front of the scene and relative to the scene. Create a series of fields of view.

更に、ディスプレイプロセッサは、視野角の各々における少なくとも更なる観察位置における3D画像データのシュードスコピック視野を提供する視野の第2の部分を、一連の視野の一部として提供し、それによって、視野角の各々におけるシュードスコピック観察領域を提供するために配置される。疑似立体視として知られているシュードスコピック視野は、3D画像データ内のシーンのわずかに異なる視野を知覚する観察者の眼の各々を指すが、視野は立体視に対して反転される。例えば、シュードスコピック視野は、右眼により観察するように意図した視野を左眼によって見る場合に取得され、左眼によって観察するように意図した視野は、右眼によって見られる。結果として、観察者には、反転された奥行き感、したがって、典型的には不自然な奥行き感が提供される。   In addition, the display processor provides a second portion of the field of view that provides a pseudoscopic field of view of the 3D image data at at least further viewing positions at each of the viewing angles as part of the series of fields of view. Arranged to provide a pseudoscopic viewing area at each of the corners. A pseudoscopic field of view, known as pseudo-stereoscopic vision, refers to each of the observer's eyes perceiving a slightly different field of view of the scene in the 3D image data, but the field of view is reversed with respect to the stereoscopic vision. For example, a pseudoscopic field is acquired when a field of view intended to be viewed by the right eye is viewed by the left eye, and a field of view intended to be viewed by the left eye is viewed by the right eye. As a result, the viewer is provided with an inverted depth sensation and thus typically an unnatural depth sensation.

第2の部分は、一連の視野内の第1の部分に隣接する。結果として、観察者は、立体視観察領域からシュードスコピック観察領域に動くことによって、立体視からシュードスコピック視野にシームレスに移行することができる。必然的に、シュードスコピック観察領域が、視野の第2の部分にわたって、例えば隣接する視野角内に位置される、所定の立体視観察領域内の右端の視野と隣接する立体視観察領域内の左端の視野との間の差または相違を分散するにつれて、超シュードスコピック観察領域は、低減または回避される。したがって、立体視観察領域に隣接するシュードスコピック観察領域を意図的に提供することによって、超シュードスコピック観察位置内の他に知覚された差分は、多くの視野を通じて分散される。前記差分、および、したがって関連する視覚的歪は、第2の部分内のますます増える視野によって、減少する、ということに留意されたい。   The second part is adjacent to the first part in the series of fields of view. As a result, the observer can seamlessly transition from stereoscopic viewing to a pseudoscopic visual field by moving from the stereoscopic viewing region to the pseudoscopic viewing region. Inevitably, the pseudoscopic viewing area is located over the second portion of the field of view, for example within the adjacent viewing angle, in the stereoscopic viewing area adjacent to the rightmost field of view in the predetermined stereoscopic viewing area. As the difference or difference between the leftmost field of view is dispersed, the super pseudoscopic viewing area is reduced or avoided. Thus, by deliberately providing a pseudoscopic viewing area adjacent to the stereoscopic viewing area, other perceived differences within the super pseudoscopic viewing position are distributed across many fields of view. Note that the difference, and thus the associated visual distortion, decreases with an increasing field of view in the second part.

ディスプレイプロセッサは、一連の視野の第1の部分として発せられるための第1の一連の画像を生成するために、更に配置される。そのために、ディスプレイプロセッサは、3D画像データから原画像を直接取得するために配置される。前記画像の取得は、例えば、3D画像データがいわゆる画像+奥行き形式で提供される際に3D画像データの視野のレンダリングを実行すること、または視野レンダラから前記画像を取得することを備えてもよい。前記画像の取得は、また、例えば、3D画像データがいわゆる左+右画像形式で提供される際に3D画像データの視野の合成を実行すること、または視野シンセサイザから前記画像を取得することを備えてもよい。前記画像は、また、画像データが多視野形式(すなわち、一連の視野を備える)で提供される際に3D画像データから直接取得されてもよい。用語原画像は、3D画像データ内に含まれるシーンの異なる視野(すなわち、シーンに対するカメラの異なる位置に対応する)を示す画像を各々指し、シーンの各々の異なる視野は、3D画像データから直接導出するということに留意されたい。   The display processor is further arranged to generate a first series of images to be emitted as the first part of the series of fields of view. For this purpose, the display processor is arranged to directly acquire the original image from the 3D image data. Acquiring the image may comprise, for example, performing a rendering of the field of view of the 3D image data when the 3D image data is provided in a so-called image + depth format, or acquiring the image from a field of view renderer. . Acquiring the image also comprises performing a synthesis of the field of view of the 3D image data, for example, when the 3D image data is provided in a so-called left + right image format, or acquiring the image from a field of view synthesizer. May be. The image may also be obtained directly from 3D image data when the image data is provided in a multi-view format (ie comprising a series of views). The term original image refers to each image showing a different field of view of the scene (ie, corresponding to a different position of the camera relative to the scene) contained within the 3D image data, and each different field of view of the scene is derived directly from the 3D image data. Note that you do.

ディスプレイプロセッサは、原画像から派生画像を導出するために更に配置される。ここで、用語導出する(deriving)および用語導出された(derived)は、例えば、原画像間に補間画像を生成する、および/または原画像の隣に外挿画像を生成する、補間および/または外挿を指す。ディスプレイプロセッサは、少なくとも派生画像を含むように第1の一連の画像を更に生成する。第1の一連の画像は、派生画像に加えて1つ以上の原画像を含んでもよいし、含まなくてもよい、ということに留意されたい。原画像は、補間画像および/または外挿画像とは異なり、前者は3D画像データから直接取得されるが、後者は原画像に導出し、3D画像データから直接には取得されない。   The display processor is further arranged to derive a derived image from the original image. Here, deriving and deriving are, for example, generating interpolated images between original images and / or generating extrapolated images next to the original images, and / or Refers to extrapolation. The display processor further generates a first series of images to include at least the derived images. Note that the first series of images may or may not include one or more original images in addition to the derived images. Unlike the interpolated image and / or extrapolated image, the original image is acquired directly from the 3D image data, while the latter is derived from the original image and is not acquired directly from the 3D image data.

ディスプレイプロセッサは、前述のような他の同様の方式で、更なる原画像を含む第2の一連の画像を生成するための3D画像データから更なる原画像取得し、または、3D画像データから更なる原画像を取得し、更なる原画像から更なる派生画像を導出し、更なる派生画像および更なる原画像の少なくとも1つを含む第2の一連の画像を生成するために更に配列される。再び、用語導出する(deriving)および用語導出された(derived)は、例えば、更なる原画像間に補間画像を生成する、および/または更なる原画像の隣に外挿画像を生成する、補間および/または外挿を指す。更に、第2の一連の画像が更なる派生画像を含む場合、最初に述べた派生画像の数は、それぞれの一連の画像内の各々の画像の総数に比べて、更なる派生画像の数より大きい。   The display processor obtains the additional original image from the 3D image data to generate a second series of images including the additional original image or updates from the 3D image data in other similar manners as described above. Is further arranged to derive a second series of images including obtaining the original image, deriving the further derivative image from the further original image, and including at least one of the further derivative image and the further original image . Again, deriving and deriving are interpolating, for example generating interpolated images between further original images and / or generating extrapolated images next to further original images And / or extrapolation. Further, if the second series of images includes further derived images, the number of initially derived images is more than the total number of each image in each series of images than the number of further derived images. large.

前述の手段には、一連の視野の第1の部分は、各部分内の画像の総数に比べて、一連の視野の第2の部分よりも多くの補間画像および/または外挿画像によって、更に構成されるという効果がある。したがって、第1の部分内の視野は、第2の部分よりも、補間視野および/または外挿視野である割合が高い。したがって、観察者は、視野角の各々のシュードスコピック観察領域よりも、相対的に多くの立体視観察領域内の補間画像および/または外挿画像に遭遇することになる。   According to the foregoing means, the first part of the series of fields of view further comprises more interpolated and / or extrapolated images than the second part of the series of fields compared to the total number of images in each part. There is an effect that it is composed. Thus, the field in the first part is more likely to be an interpolated field and / or an extrapolated field than the second part. Accordingly, the observer will encounter a relatively greater number of interpolated and / or extrapolated images in the stereoscopic viewing area than the respective pseudoscopic viewing areas of the viewing angle.

本発明は、他の点では関連しない2つの技術を有利に組み合わせ得る、という認識に部分的に基づく。例えば視野のレンダリングまたは視野合成を用いた原画像の取得は、典型的には、原画像から補間された画像および/または外挿された画像の取得よりも計算的に複雑であるので、第1の技術は、3Dディスプレイのための画像を生成する際のコンピュータ負荷を軽減するために補間および/または外挿の使用に関係する。第2の技術は、超シュードスコピック観察領域を回避するために、または超シュードスコピック観察領域のサイズを低減するために、シュードスコピック観察領域の導入に関係する。発明者は、シュードスコピック視野自体によって引き起こされる視覚的歪が更に増大しないように、一連の視野の第2の部分内のシュードスコピック視野間の平滑な遷移を取得することが望ましいことを認識した。視野が補間画像および/または外挿画像を含む場合、これは前記視野間の平滑な遷移を妨害するかもしれない。よって、補間画像および/または外挿画像を生成するために補間および/または外挿を用いることによって一連の視野として発せられるための画像を生成する計算の複雑性を低減する場合、第2の一連の画像を生成する場合よりも、第1の一連の画像を生成する場合に前記補間および/または外挿を適用するほうが望ましい。   The present invention is based in part on the realization that two otherwise unrelated techniques can be advantageously combined. The acquisition of the original image using, for example, field rendering or field synthesis is typically more computationally complex than the acquisition of images interpolated and / or extrapolated from the original image, so the first This technique involves the use of interpolation and / or extrapolation to reduce the computer load in generating images for 3D displays. The second technique relates to the introduction of a pseudoscopic observation region in order to avoid the super pseudoscopic observation region or to reduce the size of the super pseudoscopic observation region. The inventor recognizes that it is desirable to obtain a smooth transition between pseudoscopic fields within the second part of the series of fields so that the visual distortion caused by the pseudoscopic field itself is not further increased. did. If the field of view includes interpolated and / or extrapolated images, this may interfere with smooth transitions between the fields of view. Thus, when reducing the computational complexity of generating an image to be emitted as a series of fields of view by using interpolation and / or extrapolation to generate an interpolated image and / or extrapolated image, the second series It is more desirable to apply the interpolation and / or extrapolation when generating the first series of images than when generating the first image.

必要に応じて、ディスプレイプロセッサは、ゼロ次補間技術および/またはゼロ次外挿技術を用いて、原画像から派生画像を導出するために配置される。用語ゼロ次は、補間および/または外挿された画像を生成するために原画像を繰り返すことを指す。画像の繰り返しは、少ない計算の複雑性を伴う。原画像の繰り返しによって、補間および/または外挿の人為的な影響が回避されるので、原画像の鮮明度は、補間および/または外挿された画像に維持される。有利なことには、3Dディスプレイが、隣接する視野間の光学的クロストークを呈す場合、例えば、3Dディスプレイが、隣接する視野による重要なクロストークを視野が本質的に有するいわゆるフラクショナルビューディスプレイである場合、所定の視野内の画像の繰り返しである補間画像および/または外挿画像を隣接する視野が備えるときに、所定の視野内の画像の鮮明度が維持される。   Optionally, the display processor is arranged to derive a derived image from the original image using zero order interpolation techniques and / or zero order extrapolation techniques. The term zero order refers to repeating the original image to produce an interpolated and / or extrapolated image. Image repetition involves less computational complexity. Since the repetition of the original image avoids the artificial effects of interpolation and / or extrapolation, the sharpness of the original image is maintained in the interpolated and / or extrapolated image. Advantageously, if the 3D display exhibits optical crosstalk between adjacent fields of view, for example, the 3D display is a so-called fractional view display where the field of view essentially has significant crosstalk due to adjacent fields of view. In this case, the sharpness of the image within the predetermined field of view is maintained when the adjacent field of view comprises an interpolated image and / or extrapolated image that is a repeat of the image within the predetermined field of view.

必要に応じて、ディスプレイプロセッサは、1次もしくは高次の補間技術および/または外挿技術を用いて、更なる原画像から更なる派生画像を導出するために配置される。1次もしくは高次の補間技術および/または外挿技術用いて作成された補間画像および/または外挿画像は、典型的には、ゼロ次補間を用いて作成された補間画像および/または外挿画像よりも平滑な更なる原画像間の遷移を提供する。有利なことには、第2の一連の画像が補間画像および/または外挿画像を含む場合、一連の視野の第2の部分内のシュードスコピック視野間の平滑な遷移は、補間および/または外挿の使用にも関わらず維持される。   If necessary, the display processor is arranged to derive further derived images from the further original images using first order or higher order interpolation and / or extrapolation techniques. Interpolated images and / or extrapolated images created using first-order or higher-order interpolation and / or extrapolation techniques are typically interpolated images and / or extrapolated created using zero-order interpolation. Provides a transition between the original images that is smoother than the images. Advantageously, if the second series of images includes an interpolated image and / or an extrapolated image, the smooth transition between the pseudoscopic fields in the second part of the series of fields can be interpolated and / or Maintained despite the use of extrapolation.

必要に応じて、ディスプレイプロセッサは、原画像のすべてまたはサブセットの選択によって、更なる原画像を取得するために配置される。更なる原画像を取得するための計算の複雑性は、第2の一連の画像内の第1の一連の画像からの原画像のすべてまたはサブセットを再使用することによって、低減することができる。有利なことには、少なくとも原画像のいくつかが第2の一連の画像内で再使用される場合、視野のレンダリングまたは視野の合成を実行するによる計算の複雑性は低減される。   Optionally, the display processor is arranged to acquire further original images by selecting all or a subset of the original images. The computational complexity for obtaining additional original images can be reduced by reusing all or a subset of the original images from the first series of images in the second series of images. Advantageously, the computational complexity of performing field rendering or field synthesis is reduced if at least some of the original images are reused in the second series of images.

必要に応じて、第2の一連の画像は、原画像のすべてまたはサブセットから構成される。したがって、更なる原画像がすべて原画像から取得されるので、3D画像データから何らかの原画像を別々に取得することを必要としない。有利なことには、特に3D画像データから更なる原画像を取得するための何らかの視野レンダリングまたは視野合成を実行することを必要としない。   Optionally, the second series of images is composed of all or a subset of the original image. Therefore, since all further original images are acquired from the original image, it is not necessary to acquire any original images separately from the 3D image data. Advantageously, it is not necessary to perform any visual field rendering or visual field synthesis to obtain additional original images, especially from 3D image data.

必要に応じて、ディスプレイプロセッサは、第2の一連の画像をぼかすために配置される。第2の一連の画像をぼかすことによって、前記画像の鮮明度が低減されるので一連の視野の第2の部分内のシュードスコピック視野間のより平滑な遷移が取得され、それにより、視野間の遷移を目立たなくする。有利なことには、補間画像および/または外挿画像内の補間および/または外挿の人為的な影響は、ぼかしによって低減される。   If necessary, the display processor is arranged to blur the second series of images. By blurring the second series of images, a sharper transition between the pseudoscopic fields in the second part of the series of fields is obtained because the sharpness of the images is reduced, so that Make the transitions inconspicuous. Advantageously, the artificial effects of interpolation and / or extrapolation in the interpolated image and / or extrapolated image are reduced by blurring.

必要に応じて、ディスプレイプロセッサ、第2の一連の画像の個々のものに対して空間ローパスフィルタを適用することによって、または第2の一連の画像の複数のものの平均化によって、第2の一連の画像をぼかすために配置されてもよい。空間ローパスフィルタは、画像を別々にぼやかす。すなわち、他の画像の画素は考慮されない。それに対して、複数画像の平均化は、複数画像にわたる画素を平均化することによって画像をぼやかす。両方の技術は、第2の一連の画像をぼやかすのに適切である。   Optionally, the second series of images can be displayed by applying a spatial low pass filter to the display processor, an individual one of the second series of images, or by averaging multiples of the second series of images. It may be arranged to blur the image. The spatial low pass filter blurs the image separately. That is, other image pixels are not considered. In contrast, averaging of multiple images blurs the image by averaging pixels across multiple images. Both techniques are suitable for blurring the second series of images.

必要に応じて、一連の視野の第1の隣接するサブセットおよび一連の視野の第2の部分は、ともに一連の視野を形成する。繰り返し視野角の各々の内に提供されるシュードスコピック観察領域は、したがって、隣接の視野角の立体視観察領域間の遷移を常に形成する。   Optionally, the first adjacent subset of the series of fields and the second part of the series of fields together form a series of fields. The pseudoscopic viewing area provided within each of the repeated viewing angles thus always forms a transition between the stereoscopic viewing areas of adjacent viewing angles.

必要に応じて、3Dディスプレイは、O個の隣接するフラクショナルビューとの光学的クロストークを呈す一連のフラクショナルビューの各々を有する一連のフラクショナルビューとして一連の視野を発するために配置される。したがって、3Dディスプレイは、いわゆるフラクショナルビューディスプレイである。このようなディスプレイは、典型的には、P/Qディスプレイと呼ばれ、Pは、一連の繰り返し視野角のそれぞれの視野角の各々に提供されるフラクショナルビューの数を示し、Qは、光学的クロストークによる前記フラクショナルビューの単一の1つを見る際のユーザにとって目に見えるフラクショナルビューの数を示す。例えばフラクショナルビューディスプレイが20/3ディスプレイである場合に、Qは、O+1に等しく、観察者は、所定のフラクショナルビューを見る際に、2つの隣接するフラクショナルビューを同様に知覚することになり、その結果、観察者は合計3個のフラクショナルビューを知覚する。すなわち、O=2、Q=3である、ということに留意されたい。   Optionally, the 3D display is arranged to emit a series of fields of view as a series of fractional views, each having a series of fractional views that exhibit optical crosstalk with O adjacent fractional views. Therefore, the 3D display is a so-called fractional view display. Such a display is typically referred to as a P / Q display, where P indicates the number of fractional views provided for each viewing angle in a series of repeating viewing angles, and Q is optical Indicates the number of fractional views visible to the user when viewing a single one of the fractional views due to crosstalk. For example, if the fractional view display is a 20/3 display, Q is equal to O + 1, and the viewer will perceive two adjacent fractional views as well when viewing a given fractional view, As a result, the observer perceives a total of three fractional views. Note that O = 2, Q = 3.

必要に応じて、ディスプレイプロセッサは、(i)ゼロ次補間技術および/またはゼロ次外挿技術を用いて、原画像の各々に対するO個の派生画像を導出することによって第1の一連の画像を生成し、(ii)更なる派生画像を含まない第2の一連の画像を生成するために配置される。よって、各原画像に関しては、O個の補間画像および/または外挿画像は、繰り返しによって生成され、Oは、一連のフラクショナルビューの1つに1つによって光学的クロストークを呈す隣接するフラクショナルビューの数に等しい。結果として、観察者は、フラクショナルビューの1つの原画像を知覚する場合に、原画像の繰り返しを備える少なくとも1つの隣接するフラクショナルビューの光学的クロストークの影響下にあってもよい。よって、観察者は、光学的クロストークをあまり知覚しないことになる。光学的クロストークは、また、前記繰り返し画像を各々が含むO個の隣接するフラクショナルビューであってもよい。よって、観察者は、クロストークを全く知覚しない、または些細な量のクロストークを知覚することになる。ゼロ次技術の使用は、したがって、はっきり見えない光学的クロストーク、および平均して更に鮮鋭に見える第1の一連のフラクショナルビューの画像をもたらす。したがって、観察者は、立体視観察領域内の改善された画質を取得することになる。更に、第2の一連の画像は、補間画像および/または外挿画像を含まない。したがって、シュードスコピック観察領域内のフラクショナルビュー間の平滑な遷移が得られる。更に、隣接するフラクショナルビューが互いに混合されるにつれて、隣接するフラクショナルビュー間の光学的クロストークは、前記平滑化を更に増大させる。   Optionally, the display processor (i) derives the first series of images by deriving O derived images for each of the original images using zero order interpolation techniques and / or zero order extrapolation techniques. And (ii) arranged to generate a second series of images that do not contain further derived images. Thus, for each original image, O interpolated and / or extrapolated images are generated by iteration, where O is an adjacent fractional view that exhibits optical crosstalk by one in a series of fractional views. Is equal to the number of As a result, an observer may be under the influence of optical crosstalk of at least one adjacent fractional view with repetition of the original image when perceiving one original image of the fractional view. Therefore, the observer does not perceive optical crosstalk very much. Optical crosstalk may also be O adjacent fractional views, each containing the repeated image. Thus, the observer will not perceive any crosstalk or will perceive a trivial amount of crosstalk. The use of zero-order techniques therefore results in optical crosstalk that is not clearly visible, and a first series of fractional view images that appear sharper on average. Therefore, the observer obtains an improved image quality within the stereoscopic observation area. Furthermore, the second series of images does not include interpolated images and / or extrapolated images. Therefore, a smooth transition between the fractional views in the pseudoscopic observation area is obtained. Furthermore, as adjacent fractional views are mixed together, optical crosstalk between adjacent fractional views further increases the smoothing.

必要に応じて、第1の一連の画像は、第2の一連の画像の総数の実質的にO+1倍を含む。例えば、視野の各々が2つ(すなわちO=2)の隣接する視野によって光学的クロストークを呈す3Dディスプレイに対して、第1の一連の画像は、第2の一連の画像と同数の3(すなわち2+1)倍の画像を含む。結果的に、一連の視野の第1の部分は、一連の繰り返し視野角の1つ1つの一連の視野の第2の部分より3倍大きい。有利なことには、隣接するが異なる視野間の遷移は、視野の第1の部分および第2の部分の各々において実質的に等しい。有利なことには、同量の奥行き知覚は、例えば視野の第1の部分より大きな奥行き知覚を提供する視野の第2の部分の代わりに、視野の前記部分の各々において取得されてもよい。   Optionally, the first series of images includes substantially O + 1 times the total number of the second series of images. For example, for a 3D display in which each of the fields of view exhibits optical crosstalk with two adjacent fields of view (ie, O = 2), the first series of images is the same number of 3 ( That is, 2 + 1) times as many images are included. As a result, the first part of the series of fields of view is three times larger than the second part of the series of fields of view one by one of the series of repeated viewing angles. Advantageously, the transition between adjacent but different views is substantially equal in each of the first and second portions of the view. Advantageously, the same amount of depth perception may be obtained in each of said portions of the field of view, for example instead of a second portion of the field of view providing greater depth perception than the first portion of the field of view.

したがって、上記の手段は、原画像の繰り返しによって、特に、一連のフラクショナルビューの1つ1つで光学的クロストークを呈す隣接フラクショナルビューの数と同数で原画像を繰り返すことによって、立体視観察領域内の隣接するフラクショナルビュー間の光学的クロストークを低減する効果がある。更に、シュードスコピック観察領域内のフラクショナルビュー間の遷移の平滑さを増加させるためにシュードスコピック観察領域内で、繰り返しは利用されない(すなわち、光学的クロストークは低減されない)。   Therefore, the above means can be used for the stereoscopic observation region by repeating the original image, particularly by repeating the original image in the same number as the number of adjacent fractional views that exhibit optical crosstalk in each of the series of fractional views. This has the effect of reducing optical crosstalk between adjacent fractional views. Furthermore, no repetition is utilized within the pseudoscopic viewing area (ie, optical crosstalk is not reduced) to increase the smoothness of transitions between fractional views within the pseudoscopic viewing area.

必要に応じて、一連の視野の第1の部分は、一連の視野の第2の部分よりも少なくとも2倍大きい。そのため、シュードスコピック観察領域よりも少なくとも2倍大きい立体視観察領域が提供される。   Optionally, the first part of the series of fields of view is at least twice as large as the second part of the series of fields of view. Therefore, a stereoscopic observation area that is at least twice as large as the pseudoscopic observation area is provided.

本発明の上記実施形態、具体化、および/または態様の2つ以上は、有用と見なされる任意の方法で組み合わせられてもよい、ということは当業者によって認識されることになる。記載されたディスプレイプロセッサの変更および変形に対応する3Dディスプレイ、タブレット装置、デジタルフォトフレーム、スマートフォン、方法、および/またはコンピュータプログラムプロダクトの変更および変形は、本説明に基づいて当業者によって実施することができる。本発明は、独立クレーム内に規定される。有用なオプションは、従属請求項内に規定される。   It will be appreciated by those skilled in the art that two or more of the above embodiments, embodiments and / or aspects of the invention may be combined in any way deemed useful. Modifications and variations of the 3D display, tablet device, digital photo frame, smartphone, method, and / or computer program product corresponding to the described display processor variations and variations may be implemented by one of ordinary skill in the art based on this description. it can. The invention is defined in the independent claims. Useful options are defined in the dependent claims.

本発明のこれらの態様および他の態様は、以下に記載される実施形態から明らかであり、当該実施形態を参照して解明されることになる。   These and other aspects of the invention are apparent from and will be elucidated with reference to the embodiments described hereinafter.

本発明によるディスプレイプロセッサと、一連の視野角の各々における一連の視野を隣接して発するための3Dディスプレイとを示す。Fig. 4 shows a display processor according to the invention and a 3D display for emitting a series of fields of view adjacent to each other in a series of viewing angles. 一連の視野角における観察位置に応じて一連の視野の各々によって提供された視点の概略図を示す。Fig. 4 shows a schematic view of the viewpoint provided by each of a series of fields of view as a function of observation positions at a series of viewing angles. 単一視野角の一連の視野によって提供された視点の概略図を示し、一連の視野は、立体視を提供する。Fig. 3 shows a schematic view of the viewpoint provided by a series of fields of view with a single viewing angle, the series of fields of view providing a stereoscopic view. 立体視のための第1の部分とシュードスコピック視野のための第2の部分とを含む一連の視野の概略図を示す。FIG. 4 shows a schematic view of a series of fields of view including a first part for stereoscopic viewing and a second part for pseudoscopic field of view. 本発明による第1の部分と第2の部分とを含む一連の視野の概略図を示す。Fig. 2 shows a schematic view of a series of fields of view comprising a first part and a second part according to the invention. 本発明による第1の部分と第2の部分とを含む一連の視野の更なる例を示す。Fig. 4 shows a further example of a series of fields of view comprising a first part and a second part according to the invention. 本発明による第1の部分と第2の部分とを含む一連の視野の更なる例を示す。Fig. 4 shows a further example of a series of fields of view comprising a first part and a second part according to the invention. 本発明によるディスプレイプロセッサと、3Dディスプレイとを備えるタブレット装置を示す。1 shows a tablet device comprising a display processor according to the invention and a 3D display. 本発明による方法を示す。1 shows a method according to the invention. 本発明によるコンピュータプログラムプロダクトを備えるコンピュータ読み取り可能媒体を示す。1 illustrates a computer readable medium comprising a computer program product according to the present invention.

図1は、3Dディスプレイ140に対して一連の画像122を提供するための3Dディスプレイに接続されるディスプレイプロセッサ120を示す。3Dディスプレイ140は、ユーザが眼鏡を着用する必要なしに、3Dディスプレイ140上に表示されたコンテンツの立体視を可能にするための自動立体視3Dディスプレイである。3Dディスプレイ140は、発光素子または光変調素子のアレイから典型的に構成される光生成部分142を備える。例えば、光生成部分142は、ディスプレイの技術分野から周知のように、液晶ディスプレイ(LCD(Liquid Crystal Display))パネルおよびバックライトによって形成されてもよい。   FIG. 1 shows a display processor 120 connected to a 3D display for providing a series of images 122 to the 3D display 140. The 3D display 140 is an autostereoscopic 3D display that enables stereoscopic viewing of content displayed on the 3D display 140 without the need for the user to wear glasses. The 3D display 140 includes a light generating portion 142 that is typically composed of an array of light emitting elements or light modulating elements. For example, the light generating portion 142 may be formed by a liquid crystal display (LCD) panel and a backlight, as is well known from the display art.

3Dディスプレイ140は、光生成部分142によって生成した光を異方向にリダイレクトするための光学的手段144を更に備える。光生成部分142は、一連の視野0〜5が視野角104の形式で3Dディスプレイ140から発せられるように、適切に配置されて、光学的手段144と協働してもよい。更に、3Dディスプレイ140は、一連の画像122が提供されるときに、一連の視野0〜5内の前記画像を隣接して発するために配列されてもよい。したがって、観察者は、一連の視野0〜5の1つを見るときに、一連の画像122のそれぞれの1つを知覚することになる。一連の画像122は、3D画像データ内に含まれるシーンと向き合い、前記シーンの前で且つ前記シーンに対して左から右に動く、カメラに対応してもよい。よって、視野角104内に位置し、一連の視野0〜5の2つの異なるもの0、1を知覚する観察者110は、前記シーンの立体視を取得することができる。   The 3D display 140 further comprises optical means 144 for redirecting the light generated by the light generating portion 142 in a different direction. The light generating portion 142 may be suitably arranged and cooperate with the optical means 144 such that a series of fields 0-5 are emitted from the 3D display 140 in the form of a viewing angle 104. Further, the 3D display 140 may be arranged to emit adjacent images within a series of fields 0-5 when a series of images 122 are provided. Thus, an observer will perceive one of each of the series of images 122 when viewing one of the series of fields of view 0-5. The series of images 122 may correspond to a camera that faces a scene included in the 3D image data and moves from left to right in front of the scene and relative to the scene. Thus, an observer 110 located within the viewing angle 104 and perceiving two different things 0, 1 in a series of views 0-5 can obtain a stereoscopic view of the scene.

3Dディスプレイの上記の構成、および一連の視野0〜5として表示するための一連の画像122を処理する方法は、それ自体知られている、ということに留意されたい。例えば、米国特許第6,064,424号明細書は、光学的手段144としてレンズ形素子を有する自動立体視表示装置を開示し、表示素子(すなわち、発光素子または光変調素子)とレンズ形素子との間の関係について説明している。また、自動立体視ディスプレイは、光学的手段144としてパララックスバリアを備えることでも知られている。   Note that the above configuration of the 3D display and the method of processing a series of images 122 for display as a series of views 0-5 are known per se. For example, US Pat. No. 6,064,424 discloses an autostereoscopic display device having a lens-shaped element as the optical means 144, and a display element (ie, a light emitting element or a light modulating element) and a lens-shaped element. Explains the relationship between. Autostereoscopic displays are also known to include a parallax barrier as the optical means 144.

図1は、一連の繰り返し視野角100の中央の1つである視野角104を示し、視野角102、104、106の各々は、一連の視野0〜5を備える。繰り返し視野角104は、3Dディスプレイ140の光学的手段144の所望の並びに本来の特性とし得る、ということに留意されたい。視野角の繰り返しは、前述の米国特許第6,064,424号明細書内で説明され、更に詳しく述べられる。   FIG. 1 shows a viewing angle 104 that is one of the center of a series of repetitive viewing angles 100, where each of the viewing angles 102, 104, 106 comprises a series of views 0-5. It should be noted that the repeated viewing angle 104 can be a desired as well as an intrinsic property of the optical means 144 of the 3D display 140. Field angle repetition is described in more detail in the aforementioned US Pat. No. 6,064,424.

観察者は、2つの観察位置にて、図1に示される。第1の観察位置110において、観察者は、自身の右眼によって第2の視野1を知覚しながら、自身の左眼によって第1の視野0を知覚する。前記シーンの前で且つ前記シーンに対して左から右に動く、カメラに対する一連の画像122の前述の一致により、観察者は、第1の観察位置110において立体視を得ることになる。第1の観察位置110は、したがって、立体視観察位置110である。第2の観察位置112において、観察者は、自身の右眼によって第4の視野0を知覚しながら、自身の左眼によって第3の視野5を知覚する。観察者は、したがって、第2の観察位置112におけるシュードスコピック視野を得ることになり、すなわち、前記観察位置は、シュードスコピック観察位置112である。この場合、第3の視野5は、中央の視野角104の右端の視野に対応し、第4の視野0は、右側の視野角106の左端の視野に対応する。結果として、非常に大きく且つ反転された奥行き感は、第2の観察位置にて得られ、すなわち、前記観察位置は、超シュードスコピック観察位置112である。   The observer is shown in FIG. 1 at two observation positions. At the first observation position 110, the observer perceives the first visual field 0 with his / her left eye while perceiving the second visual field 1 with his / her right eye. The aforementioned coincidence of the series of images 122 to the camera, moving in front of the scene and from left to right with respect to the scene, gives the observer a stereoscopic view at the first viewing position 110. Accordingly, the first observation position 110 is the stereoscopic observation position 110. At the second observation position 112, the observer perceives the third visual field 5 with his / her left eye while perceiving the fourth visual field 0 with his / her right eye. The observer will thus obtain a pseudoscopic field of view at the second viewing position 112, ie, the viewing position is the pseudoscopic viewing position 112. In this case, the third visual field 5 corresponds to the rightmost visual field of the central viewing angle 104, and the fourth visual field 0 corresponds to the leftmost visual field of the right viewing angle 106. As a result, a very large and inverted depth sensation is obtained at the second viewing position, i.e. the viewing position is the super pseudoscopic viewing position 112.

図2は、一連の繰り返し視野角の各々にわたる一連の視野の概略図を示す。水平軸は、3Dディスプレイ140のディスプレイ面と平行して、且つ3Dディスプレイ140の前で左から右に移動する観察者に対応する順序で各々の繰り返し視野角102、104、106のための一連の視野0〜5の各々を示す。すなわち、観察者は、左の視野角102、中央の視野角104、および最後に右側の視野角106の一連の視野を通じて横断する。垂直軸は、一連の視野0〜5の1つを知覚する観察者によって得られた視点160に対応し、視点160は、3D画像データ内に含まれるシーンに対する。ここで、低値(すなわち垂直軸上の低位置)は、シーンに対する左手視点に対応し、高値(すなわち垂直軸上の高位置)は、シーンに対する右手視点に対応する。図2は、したがって、観察者が左の視野角102内の一連の視野0〜5を通じて横断するときに、シーンに対して左から右に変化する視点160を示し、視点は、その後、中央の視野角104などの一連の視野0〜5を通じて横断するときに、再び左にジャンプし、右に変化する。また、前述の立体視観察位置110および超シュードスコピック観察位置112が図示される。観察者が、視点内の大きな差分により、超シュードスコピック観察位置112において非常に大きく且つ反転された奥行き感を取得することは、図2から明らかである。   FIG. 2 shows a schematic diagram of a series of fields across each of a series of repeated viewing angles. The horizontal axis is a series of values for each repeated viewing angle 102, 104, 106 in an order corresponding to an observer moving from left to right in front of the 3D display 140 parallel to the display surface of the 3D display 140. Each of the fields of view 0-5 is shown. That is, the observer traverses through a series of fields of left viewing angle 102, central viewing angle 104, and finally right viewing angle 106. The vertical axis corresponds to a viewpoint 160 obtained by an observer who perceives one of a series of fields of view 0-5, where the viewpoint 160 is for a scene included in the 3D image data. Here, a low value (ie, a low position on the vertical axis) corresponds to the left-hand viewpoint for the scene, and a high value (ie, a high position on the vertical axis) corresponds to the right-hand viewpoint for the scene. FIG. 2 thus shows a viewpoint 160 that changes from left to right with respect to the scene as the observer traverses through a series of views 0-5 within the left viewing angle 102, which is then centered. When traversing through a series of views 0-5, such as viewing angle 104, it jumps again to the left and changes to the right. In addition, the aforementioned stereoscopic viewing position 110 and super pseudoscopic viewing position 112 are shown. It is clear from FIG. 2 that the observer obtains a very large and inverted depth sensation at the super pseudoscopic observation position 112 due to a large difference in the viewpoint.

図3は、別の一連の視野0〜19の概略図を示す。ここで、一連の視野0〜19は、もっぱら単一の視野角108ために表され、すなわち、明瞭さの理由のために、繰り返し視野角はどれも示されない。図1および図2に示される一連の視野0〜5とは対照的に、図3に表される一連の視野は、20個の視野で構成される。3Dディスプレイ140は、一連のフラクショナルビューとして、一連の視野0〜19を発するために配置されてもよい。ここで、用語フラクショナルは、一連の視野0〜19の1つ1つが、隣接する視野との光学的クロストークを呈すことを示す。すなわち、観察者は、一連の視野0〜19の複数のものの重なりを本質的に知覚する。3Dディスプレイ140は、したがって、いわゆるフラクショナルビュー方式の3Dディスプレイであってもよい。フラクショナルビュー方式の3Dディスプレイと、一連の視野0〜19として表示するための一連の画像122を処理する方法とは、それ自体知られている、ということに留意されたい。例えば、国際公開第2006/117707号パンフレットは、前記フラクショナルビューを提供するように選択されるレンズの傾斜およびピッチをもつ、光学ディレクトリ手段として一群のレンズを有する立体表示装置を開示する。3Dディスプレイ140は、いわゆる20/3ディスプレイであってもよく、「20」は各視野角内で発せられるフラクショナルビューの数を示し、「3」はフラクショナルビュー間のクロストークの程度を示す。ここで、数「3」は、フラクショナルビューの1つを見るときに、フラクショナルビューの合計の3つを知覚する観察者を指すものと理解されるべきである。よって、光学的クロストークは、任意のフラクショナルビューにおいて、2つの付加的で且つ隣接するフラクショナルビューが目に見えるようである。   FIG. 3 shows a schematic diagram of another series of fields of view 0-19. Here, the series of views 0-19 are represented solely for a single viewing angle 108, ie, for reasons of clarity, no repeated viewing angles are shown. In contrast to the series of fields 0-5 shown in FIGS. 1 and 2, the series of fields represented in FIG. 3 is composed of 20 fields. The 3D display 140 may be arranged to emit a series of views 0-19 as a series of fractional views. Here, the term fractional indicates that each one of a series of fields 0-19 exhibits optical crosstalk with adjacent fields. That is, the observer essentially perceives the overlap of a series of fields of view 0-19. Therefore, the 3D display 140 may be a so-called fractional view type 3D display. Note that fractional view 3D displays and methods for processing a series of images 122 for display as a series of views 0-19 are known per se. For example, WO 2006/117707 discloses a stereoscopic display device having a group of lenses as an optical directory means with lens tilt and pitch selected to provide the fractional view. The 3D display 140 may be a so-called 20/3 display, where “20” indicates the number of fractional views emitted within each viewing angle and “3” indicates the degree of crosstalk between the fractional views. Here, the number “3” should be understood to refer to an observer who perceives a total of three of the fractional views when viewing one of the fractional views. Thus, optical crosstalk appears to make two additional and adjacent fractional views visible in any fractional view.

もちろん、3Dディスプレイ140は、また、他の好適な構成(すなわち、5個の視野、9個の視野、20個の視野、他の数の視野ディスプレイ)であってもよい、ということに留意されたい。更に、3Dディスプレイ140は、一連のフラクショナルビューとして一連の視野0〜19を生成するために構成されてもよいし、構成されなくてもよい。但し、以下においては、3Dディスプレイ140は、前述の20/3フラクショナルビュー方式の3Dディスプレイとして構成されるものと想定される。   Of course, it is noted that the 3D display 140 may also have other suitable configurations (ie, 5 fields of view, 9 fields of view, 20 fields of view, other numbers of field of view displays). I want. Further, the 3D display 140 may or may not be configured to generate a series of views 0-19 as a series of fractional views. However, in the following, it is assumed that the 3D display 140 is configured as the above-described 20/3 fractional view 3D display.

図3は、単調に増加する視点160に対応する一連の視野0〜19を示す。すなわち、視点160は、一連の視野0〜19内の第1の視野0と最終視野19との間で単調に増加する。図1および図2に示された一連の視野0〜5の場合のように、観察位置は、観察者が超シュードスコピック視野を得る(すなわち、自身の右眼によって第1の視野0と自身の左眼によって最終視野19と(もしくは逆もまた同様)を知覚する)視野角108と隣接する視野角との間に存在する。光学的クロストークにより、観察者は、自身の右眼によって最終視野19および第2の視野1と、自身の左眼によって第1の視野0および最終視野18の隣とを更に知覚することになる、ということに留意されたい。光学的クロストークがぼやけた知覚を引き起こす、ということに留意されたい。結果的に、超シュードスコピック観察位置にて非常に大きく且つ反転された奥行き感によって引き起こされる視覚的歪は、低減される。しかしながら、著しい視覚的歪は、観察者によって知覚される大きな奥行きにより残る。   FIG. 3 shows a series of views 0-19 corresponding to a monotonically increasing viewpoint 160. That is, the viewpoint 160 increases monotonically between the first field 0 and the last field 19 in the series of fields 0 to 19. As in the case of the series of fields 0-5 shown in FIGS. 1 and 2, the observation position is that the observer obtains a super pseudoscopic field of view (ie, the first field of view 0 and itself with his right eye). Between the viewing angle 108 and the adjacent viewing angle (perceived by the left eye) and the final viewing field 19 (or vice versa). With optical crosstalk, the observer will further perceive the final field of view 19 and the second field of view 1 with his right eye and the neighbor of the first field of view 0 and the final field of view 18 with his left eye. Please note that. Note that optical crosstalk causes blurred perception. As a result, visual distortion caused by a very large and inverted depth sensation at the super pseudoscopic viewing position is reduced. However, significant visual distortion remains due to the large depth perceived by the observer.

図4は、隣接する視野角間の超シュードスコピック視野によって引き起こされる視覚的歪を低減するように構成された一連の視野0〜19を示す。この図において、一連の視野0〜19の各々に対応し、垂直軸上でドット高さによって表される視点160は、一連の視点162によって更に数字表記される。数字表記において、低い数またはより低い数は、シーンに対する左手視点または更なる左手視点160に対応し、高い値またはより高い値は、シーンに対する右手視点または更なる右手視点160に対応する、観察者に提供された視点160を示すということに留意されたい。よって、数字表記は、一連の視野0〜19間の視点160内の相対的差異を図示する役割を果たすが、絶対的な尺度ではない。   FIG. 4 shows a series of fields 0-19 configured to reduce the visual distortion caused by a super pseudoscopic field between adjacent viewing angles. In this figure, the viewpoint 160 corresponding to each of the series of fields 0 to 19 and represented by the dot height on the vertical axis is further numerically represented by the series of viewpoints 162. In numerical notation, a low or lower number corresponds to a left-hand viewpoint or a further left-hand viewpoint 160 for the scene, and a high or higher value corresponds to a right-hand viewpoint or a further right-hand viewpoint 160 for the scene. Note that the viewpoint 160 provided is shown in FIG. Thus, the numeric notation serves to illustrate the relative differences in the viewpoint 160 between a series of fields of view 0-19, but is not an absolute measure.

図4は、立体視が提供される第1の部分0〜14(すなわち、視点160は、第1の視野0における視点「0」から、第1の部分0〜14の最終視野14における視点「14」まで単調に増加する)を含む一連の視野0〜19を示す。更に、一連の視野0〜19は、シュードスコピック視野が提供される第2の部分15〜19(すなわち、視点160は、第1の視野15における視点「11」から第2の部分15〜19の最終視野19における視点「2」まで単調に減少する)を含む。よって、視野角108内の一連の視野0〜19を通じて横断する観察者は、視野角108内の立体視観察領域およびシュードスコピック観察領域に気づくことになる。更に、第2の部分15〜19内の視野の各々の間の視点160内のステップは、第1の部分0〜14内の視点160内の変更が実質的に相殺するように選ばれる。すなわち、一連の視野0〜19を通じて横断する観察者は、視野角108の左辺と実質的に同じ視点を視野角108の右辺においても得ることになる。この場合、第2の部分15〜19内の視点の低減は、約2.5倍の多くの視野を有する第1の部分0〜14の結果として、第1の部分0〜14内の視点の増加より、平均して約2.5倍大きくなるように選択される。   FIG. 4 shows the first parts 0 to 14 in which the stereoscopic view is provided (that is, the viewpoint 160 is changed from the viewpoint “0” in the first field 0 to the viewpoint “0” in the final field 14 of the first parts 0 to 14). A series of fields of view 0-19 are shown, including monotonically increasing to 14 ”. Further, the series of views 0-19 is a second portion 15-19 in which a pseudoscopic view is provided (i.e., the viewpoint 160 is changed from the viewpoint "11" in the first view 15 to the second portions 15-19. Of the final visual field 19 of the final visual field 19 decreases monotonously to the viewpoint “2”). Therefore, an observer who traverses through a series of fields 0 to 19 within the viewing angle 108 notices the stereoscopic viewing region and the pseudoscopic viewing region within the viewing angle 108. Further, the steps in the viewpoint 160 between each of the fields of view in the second portions 15-19 are chosen such that changes in the viewpoint 160 in the first portions 0-14 substantially cancel. That is, an observer traversing through a series of fields of view 0 to 19 obtains substantially the same viewpoint on the right side of the viewing angle 108 as the left side of the viewing angle 108. In this case, the reduction of the viewpoints in the second parts 15-19 results in the viewpoints in the first parts 0-14 as a result of the first parts 0-14 having about 2.5 times as many fields of view. The average is selected to be about 2.5 times larger than the increase.

図3に提供された一連の視野0〜19と比較して、図4に提供された一連の視野0〜19は、小さな立体視観察領域を有するだけでなく、立体視観察領域の左端の視野から隣接する視野角内の立体視観察領域の右端の視野に段階的遷移を提供する、立体視観察領域間のシュードスコピック観察領域の導入の結果として、隣接する視野角間のあらゆる超シュードスコピック観察位置をも回避する、ということに留意されたい。よって、視野角108内の更なる観察位置は、ここではシュードスコピック視野を提供するが、図3の非常に大きく且つ反転される奥行き感は回避される。   Compared to the series of fields 0-19 provided in FIG. 3, the series of fields 0-19 provided in FIG. 4 not only have a small stereoscopic viewing area, but also the leftmost field of the stereoscopic viewing area. Any super pseudoscopic between adjacent viewing angles as a result of the introduction of a pseudoscopic viewing region between stereoscopic viewing regions, providing a step transition to the rightmost visual field of the stereoscopic viewing region within the adjacent viewing angle from Note that the observation position is also avoided. Thus, further viewing positions within the viewing angle 108 provide a pseudoscopic field here, but the very large and inverted depth sensation of FIG. 3 is avoided.

図5は、本発明により提供されるような一連の視野0〜19を示す。再び、一連の視野0〜19は、立体視が提供される第1の部分0〜14と、シュードスコピック視野が提供される第2の部分15〜19とを含む。第2の部分15〜19は、図4のものと同様に示され、図4に示されるように、第1の視野15だけが、視点「11」の代わりに視点「10」を示す。但し、第1の部分0〜14は、ここでは、視野0、1、2が同じ視点「0」を示し、視野3、4、5が同じ視点「3」を示すなどという点で、繰り返し視野を含む。ここで、用語繰り返しは、同一である視点(すなわちシーンの同一画像を示す視野)を指す。第1の部分0〜14内の視点の全体的な傾斜が、図4の傾斜と実質的に同様であることは、見て明らかである。すなわち、但し、第1の部分0〜14は、より粗いステップサイズではあるが、視点160内の全体的に実質的に同様の遷移を提供する。この例では20/3フラクショナルビュー方式の3Dディスプレイである3Dディスプレイ140の結果として、観察者は、平均して、光学的クロストークによる影響をあまり受けないことになる。例えば、図4内に表された一連の視野0〜19の視野4を知覚するときに、観察者は、視野3および視野5を更に知覚することになる。したがって、ユーザは、視点「3」、視点「4」、および視点「5」の混合を知覚することになる。対照的に、図5に表された一連の視野0〜19の視野4を知覚するとき、観察者は、同じ視点「3」の繰り返しを更に知覚することになる。よって、観察者は、異なる視点の混合を知覚しない、または顕著に知覚しないことになる。異なる視点の混合物は、典型的には、ぼやけた印象(すなわち、鮮明度の損失)をもたらす。異なる視点の混合を回避することによって、鮮明度の損失がなくなる、または少なくなる。ある視野は、異なる視点の混合を提供する(例えば、視野5において、観察者は、視点「3」、「3」および「6」の混合を知覚することになる)、ということに留意されたい。しかしながら、平均すると、図5の第1の部分0〜14は、図4の第1の部分0〜14より、より少ないぼやけ(すなわち、更なる鮮明度)を提供する。同時に、両方の第2の部分が繰り返し視野を含むとは限らないので、図5の第2の部分15〜19は、図4の第2の部分15〜19と同様の量のぼやけ(すなわち、同様の鮮明度の損失)を提供する。   FIG. 5 shows a series of views 0-19 as provided by the present invention. Again, the series of views 0-19 includes a first portion 0-14 in which a stereoscopic view is provided and a second portion 15-19 in which a pseudoscopic view is provided. The second portions 15-19 are shown as in FIG. 4, and as shown in FIG. 4, only the first field of view 15 shows the viewpoint “10” instead of the viewpoint “11”. However, the first parts 0 to 14 here are repetitive fields in that the fields 0, 1, and 2 indicate the same viewpoint “0”, the fields 3, 4, and 5 indicate the same viewpoint “3”, and the like. including. Here, the term repetition refers to the same viewpoint (ie, a field of view showing the same image of the scene). Obviously, the overall tilt of the viewpoint in the first portions 0-14 is substantially similar to the tilt of FIG. That is, however, the first portions 0-14 provide a substantially substantially similar transition within the viewpoint 160, albeit with a coarser step size. As a result of the 3D display 140, which is a 20/3 fractional view 3D display in this example, the viewer is, on average, less affected by optical crosstalk. For example, when perceiving the field 4 of the series of fields 0 to 19 represented in FIG. 4, the observer will further perceive the fields 3 and 5. Therefore, the user perceives a mixture of the viewpoint “3”, the viewpoint “4”, and the viewpoint “5”. In contrast, when perceiving the field 4 of the series of fields 0-19 represented in FIG. 5, the observer will perceive the same viewpoint “3” repetition further. Thus, the observer will not perceive or noticeably perceive a mixture of different viewpoints. A mixture of different viewpoints typically results in a blurry impression (ie loss of definition). By avoiding mixing of different viewpoints, the loss of definition is eliminated or reduced. Note that a field of view provides a mixture of different viewpoints (eg, in field of view 5 the viewer will perceive a mixture of viewpoints “3”, “3” and “6”). . However, on average, the first portions 0-14 of FIG. 5 provide less blur (ie, more sharpness) than the first portions 0-14 of FIG. At the same time, the second portions 15-19 of FIG. 5 do not have the same amount of blurring as the second portions 15-19 of FIG. Provide similar sharpness loss).

図5の視点の繰り返しは、一連の視野0〜19の第1の部分0〜14として発せられるために3Dディスプレイ140に対して第1の一連の画像を提供するディスプレイプロセッサ120によって取得されてもよい。ディスプレイプロセッサ120は、原画像および原画像の各々に対するX個(Xはゼロより大きい)の補間画像を備える第1の一連の画像を生成し、ゼロ次補間技術を用いて原画像を補間するために3D画像データから原画像を取得し原画像を補間するために配列される。図5の例において、Xは2と等しく、すなわち、視点「0」、「3」、「6」、「9」および「12」に対応する原画像の各々に対して、2つの補間画像が生成され、一連の視点「0、3、6、9、12」にそれぞれ対応し、且つ一連の視点「0、0、0、3、3、3、6、6、6、9、9、9、12、12、12」にそれぞれ対応する第1の一連の画像を提供するために補間される一連の原画像をもたらす。したがって、5つの原画像は、5個の原画像と10個の補間画像とを備える第1の一連の画像を取得するために補間される。   5 may be obtained by the display processor 120 providing a first series of images to the 3D display 140 to be emitted as the first portion 0-14 of the series of views 0-19. Good. Display processor 120 generates a first series of images comprising X and X (X is greater than zero) interpolated images for each of the original image and the original image, and interpolates the original image using a zero order interpolation technique. The original image is acquired from the 3D image data and arranged to interpolate the original image. In the example of FIG. 5, X is equal to 2, ie, for each of the original images corresponding to viewpoints “0”, “3”, “6”, “9” and “12”, two interpolated images are present. Are generated and correspond to a series of viewpoints “0, 3, 6, 9, 12”, respectively, and a series of viewpoints “0, 0, 0, 3, 3, 3, 6, 6, 6, 9, 9, 9”. , 12, 12, 12 ", resulting in a series of original images that are interpolated to provide a first series of images. Thus, the five original images are interpolated to obtain a first series of images comprising 5 original images and 10 interpolated images.

3D画像データから原画像を取得することは、一連の視点「0、3、6、9、12」に対応する画像を取得するために視野のレンダリングを実行することを含めてもよく、ゼロ次補間技術を用いて原画像を補間することは、原画像の各々を単純に2度繰り返すことを含めてもよい、ということに留意されたい。   Acquiring the original image from the 3D image data may include performing field of view rendering to acquire an image corresponding to a series of viewpoints “0, 3, 6, 9, 12” Note that interpolating the original image using an interpolation technique may include simply repeating each of the original images twice.

図5の第2の部分15〜19は、一連の視野0〜19の第2の部分15〜19として発せられるために3Dディスプレイ140に対して第2の一連の画像を提供することにより、ディスプレイプロセッサ120によって取得されてもよい。更に、ディスプレイプロセッサ120は、更なる原画像の各々に対する更なる原画像およびY補間画像を含む第2の一連の画像を生成するために、3D画像データから更なる原画像を取得し、更なる原画像を補間するために配置されてもよい。図5に示される例において、Yはゼロである、すなわち、補間画像は、更なる原画像の各々ために生成されない。結果として、図5の一連の視点164に対応するための一連の視野0〜19の生成は、合計9個の(すなわち、視点「0」、「3」、「6」、「9」、「12」、「10」、「8」、「4」、「2」に対応する)原画像を取得することを含む。結果的に、一連の視野0〜19内の残りの11個の画像は、補間画像である。   The second portion 15-19 of FIG. 5 provides a second series of images to the 3D display 140 to be emitted as the second portion 15-19 of the series of views 0-19. It may be obtained by the processor 120. Further, the display processor 120 obtains additional original images from the 3D image data to generate a second series of images including additional original images and Y-interpolated images for each additional original image, and further It may be arranged to interpolate the original image. In the example shown in FIG. 5, Y is zero, ie no interpolated image is generated for each of the further original images. As a result, the generation of a series of views 0-19 to correspond to the series of viewpoints 164 of FIG. 5 is a total of nine (ie, viewpoints “0”, “3”, “6”, “9”, “9”, “ 12), “10”, “8”, “4”, “2”). As a result, the remaining 11 images in the series of fields 0 to 19 are interpolated images.

図6aは、本発明による一連の視野0〜19の別の例を示す。再び、一連の視野0〜19は、立体視が提供される第1の部分0〜14と、シュードスコピック視野が提供される第2の部分15〜19とを含む。第1の部分0〜14は、図5のものと同一であるように示される。この例において、ディスプレイプロセッサ120は、原画像のすべてまたはサブセットの選択によって、更なる原画像を取得するように配置されてもよい。この例において、第2の部分15〜19は、視点「0」、「3」、「6」、「9」、「12」に対応する画像から構成され、したがって、原画像からすべて取得されてもよい。結果として、図6aの一連の視点166に対応するための一連の視野0〜19の生成は、合計5個の(すなわち、視点「0」、「3」、「6」、「9」、「12」に対応する)原画像を取得することを含む。結果的に、一連の視野0〜19内の残りの15個の画像は、補間画像である。   FIG. 6a shows another example of a series of fields 0-19 according to the present invention. Again, the series of views 0-19 includes a first portion 0-14 in which a stereoscopic view is provided and a second portion 15-19 in which a pseudoscopic view is provided. First portions 0-14 are shown to be identical to those of FIG. In this example, the display processor 120 may be arranged to obtain additional original images by selection of all or a subset of the original images. In this example, the second parts 15 to 19 are composed of images corresponding to the viewpoints “0”, “3”, “6”, “9”, “12”, and are thus all acquired from the original image. Also good. As a result, the generation of a series of views 0-19 to correspond to the series of viewpoints 166 of FIG. 6a is a total of five (ie, viewpoints “0”, “3”, “6”, “9”, “9”, “ Acquisition of the original image (corresponding to “12”). As a result, the remaining 15 images in the series of views 0-19 are interpolated images.

同様に、第1の一連の画像は、一連の視点「0、0、2、2、4、4、6、6、8、8、10、10」に対応する画像から構成されてもよく、第2の一連の画像は、一連の視点「8、6、4、2、0」に対応してもよい。この例において、3Dディスプレイ140は、17/2フラクショナルビュー方式の3Dディスプレイであってもよい。同様に、第1の一連の画像は、一連の視点「1、1、1、4、4、4、7、7、7、10、10、10、13、13、13、16、16、16、19、19」に対応する画像から構成されてもよく、第2の一連の画像は、一連の視点「17、15、13、11、9、7、5、3」に対応してもよい。この例において、第1の一連の画像の原画像のサブセットだけ(すなわち、もっぱら視点「7」に対応する原画像)が用いられる。この例における3Dディスプレイ140は、28/3フラクショナルビュー方式の3Dディスプレイであってもよい。   Similarly, the first series of images may be composed of images corresponding to a series of viewpoints “0, 0, 2, 2, 4, 4, 6, 6, 8, 8, 10, 10” The second series of images may correspond to a series of viewpoints “8, 6, 4, 2, 0”. In this example, the 3D display 140 may be a 17/2 fractional view 3D display. Similarly, the first series of images is represented by a series of viewpoints “1, 1, 1, 4, 4, 4, 7, 7, 7, 10, 10, 10, 13, 13, 13, 16, 16, 16 , 19, 19 ”, and the second series of images may correspond to a series of viewpoints“ 17, 15, 13, 11, 9, 7, 5, 3 ”. . In this example, only a subset of the original images of the first series of images (ie, the original image corresponding exclusively to viewpoint “7”) is used. The 3D display 140 in this example may be a 28/3 fractional view 3D display.

図6bは、本発明による一連の視野0〜19の別の例を示す。第1の部分0〜14は、図5のものと同一であるように示される。この例において、ディスプレイプロセッサ120は、1次もしくは高次の補間技術を用いて、更なる原画像を補間するために配置されてもよい。例えば、Yは5/3と等しくてもよく、すなわち、更なる原画像の各々に対して、5/3の補間画像が生成される。例えば、更なる原画像は、視点「10」、「6」および「2」に対応してもよい。ここで、視点「6」に対応する更なる原画像は、第1の部分0〜14の原画像から取得されてもよいのに対して、視点、「10」および「2」に対応する更なる原画像は、3D画像データから直接取得されてもよい。1次もしくは高次の補間技術は、補間された視点「8*」をもたらす、視点「10」および「6」に対応する画像間の中間画像を提供するために補間された前記更なる原画像に用いられてもよく、中間画像は前記視点間の補間に対応する。同様に、1次もしくは高次の補間技術は、補間された視点「4*」をもたらす、視点「6」および「2」に対応する画像間の更なる中間画像を提供するために用いられてもよく、更なる中間画像は、前記視点間の補間に対応する。よって、視点「10、8*、6、4*、2」を第2の部分15〜19内に含む一連の視点168を併せて形成する、更なる原画像および補間画像によって構成される第2の部分15〜19を有しながらも、図5に示されるものと同様の第2の部分15〜19が取得されてもよい。   FIG. 6b shows another example of a series of fields 0-19 according to the present invention. First portions 0-14 are shown to be identical to those of FIG. In this example, the display processor 120 may be arranged to interpolate further original images using first order or higher order interpolation techniques. For example, Y may be equal to 5/3, i.e., 5/3 interpolated images are generated for each additional original image. For example, further original images may correspond to viewpoints “10”, “6”, and “2”. Here, the additional original images corresponding to the viewpoint “6” may be obtained from the original images of the first portions 0 to 14, whereas the additional original images corresponding to the viewpoints “10” and “2” are used. The resulting original image may be obtained directly from the 3D image data. The further original image interpolated to provide an intermediate image between the images corresponding to viewpoints “10” and “6”, wherein a first-order or higher-order interpolation technique results in an interpolated viewpoint “8 *” The intermediate image corresponds to the interpolation between the viewpoints. Similarly, first-order or higher-order interpolation techniques are used to provide additional intermediate images between the images corresponding to viewpoints “6” and “2”, resulting in an interpolated viewpoint “4 *”. The further intermediate image corresponds to the interpolation between the viewpoints. Thus, a second composed of further original and interpolated images that together form a series of viewpoints 168 that include viewpoints “10, 8 *, 6, 4 *, 2” in second portions 15-19. The second portions 15 to 19 similar to those shown in FIG. 5 may be acquired.

更なる原画像の一次補間が、更なる原画像の重み付け平均化を実行することを含めてもよい、ということに留意されたい。高次補間は、更なる原画像間の対象物の軌道を分析し、軌道内の中間点に沿って位置された対象物を再作成するために、可能な限り忠実に、更なる原画像を補間することを含めてもよい。このような補間技術が、画像処理の分野から、特に視野補間およびフレーム速度変換の分野から、それ自体知られている、ということに留意されたい。   Note that the primary interpolation of the additional original image may include performing a weighted averaging of the additional original image. Higher-order interpolation analyzes the trajectory of the object between additional original images and recreates the additional original image as faithfully as possible to recreate the object located along the midpoint in the trajectory. Interpolation may be included. It should be noted that such interpolation techniques are known per se from the field of image processing, in particular from the fields of field interpolation and frame rate conversion.

概して、XとYとの間の補間の比は、例えば1:0であってもよい。すなわち、第1の一連の画像には、原画像の半分と補間画像の半分とが含められてもよいのに対して、第2の一連の視野は、更なる原画像で全体が構成されてもよい。同様に、比は、2:0、2:1、3:0、3:1、3:2、4:0、4:1、4:2、および4:3のうちの任意の比、または他の適切な比であってもよい。補間係数、ならびにその結果としての比は、整数である必要がない、ということに留意されたい。例えば、原画像の各々に対する2つの補間画像を補間することによって第1の一連の画像を生成し、且つ更なる原画像の各々に対する画像を補間することによって第2の一連の画像を生成すると、2:であるX:Yの比もしくは約2:1.67のX:Yの比が取得される。 In general, the ratio of interpolation between X and Y may be, for example, 1: 0. That is, the first series of images may include half of the original image and half of the interpolated image, whereas the second series of fields is composed entirely of additional original images. Also good. Similarly, the ratio can be any ratio of 2: 0, 2: 1, 3: 0, 3: 1, 3: 2, 4: 0, 4: 1, 4: 2, and 4: 3, or Other suitable ratios may be used. Note that the interpolation factor, as well as the resulting ratio, need not be an integer. For example, the second series of images by interpolating the first sequence of images to generate a 5/3 images for each and further the original image by interpolating the two interpolation images for each original image When generated, 2: 5/3 a is X: the ratio of Y or about 2: 1.67 X: the ratio of Y is obtained.

X個の画像が、補間された画像、外挿された画像、または補間された画像と外挿された画像との組み合わせを含めてもよい、ということに留意されたい。同様に、Y個の画像は、補間された画像、外挿された画像、または補間された画像と外挿された画像との組み合わせを含めてもよい。例えば、図6bに結果が示される実施形態の代替案において、視点「8」および「4」は、3D画像データから直接取得されてもよい。1次もしくは高次の補間技術は、補間された視点「6*」をもたらす、前記視点間の補間に対応する中間画像を提供するために前記更なる原画像を補間するために用いられてもよい。同様に、1次外挿技術または高次外挿技術は、外挿された視点「10*」および外挿された視点「2*」をもたらす、視点「8」および「4」に対応する画像の隣の更なる画像を提供するために用いられてもよく、更なる画像は、いずれかの視点の外挿に対応する。よって、視点「10、8、6*、4、2*」を第2の部分15〜19内に含む一連の視点を併せて形成する、更なる原画像および補間画像と外挿画像との組み合わせによって構成される第2の部分15〜19を有しながらも、図5に示されるものと同様の第2の部分15〜19が取得されてもよい。   Note that the X images may include interpolated images, extrapolated images, or a combination of interpolated and extrapolated images. Similarly, the Y images may include interpolated images, extrapolated images, or a combination of interpolated and extrapolated images. For example, in an alternative to the embodiment whose results are shown in FIG. 6b, viewpoints “8” and “4” may be obtained directly from 3D image data. A primary or higher order interpolation technique may be used to interpolate the further original image to provide an intermediate image corresponding to the interpolation between the viewpoints, resulting in an interpolated viewpoint “6 *”. Good. Similarly, the primary extrapolation technique or the higher-order extrapolation technique results in images corresponding to viewpoints “8” and “4” resulting in extrapolated viewpoint “10 *” and extrapolated viewpoint “2 *”. May be used to provide an additional image next to the image, the additional image corresponding to any viewpoint extrapolation. Therefore, a combination of a further original image and an interpolated image and an extrapolated image that together form a series of viewpoints including the viewpoints “10, 8, 6 *, 4, 2 *” in the second portions 15 to 19 The second portions 15 to 19 similar to those shown in FIG. 5 may be obtained even though the second portions 15 to 19 are configured.

ディスプレイプロセッサ120は、例えば、第2の一連の画像の個々のものに対して空間ローパスフィルタを適用することによって、または第2の一連の画像の複数のものの平均化によって、第2の一連の画像をぼかすために配置されてもよい。代替え的または付加的に、国際公開第2007/063477号パンフレットから知られるように、奥行き依存のぼやけが適用されてもよい。   The display processor 120 can generate the second series of images, for example, by applying a spatial low pass filter to each of the second series of images, or by averaging multiples of the second series of images. May be arranged to blur. Alternatively or additionally, depth dependent blurring may be applied, as is known from WO 2007/063477.

図7は、ディスプレイプロセッサ120を備えるタブレット装置180を示す。すなわち、ディスプレイプロセッサは、タブレット装置180の内部コンポーネントである。タブレット装置180は、3Dディスプレイ140を更に備える。ディスプレイプロセッサ120は、一連の画像122を提供するための3Dディスプレイ180に接続されるように示される。代替え的には、ディスプレイプロセッサ120は、デジタルフォトフレームまたはスマートフォン内に備えられてもよい。前記装置は、また、3Dディスプレイ140を備えてもよい。代替え的には、ディスプレイプロセッサ120は、3Dディスプレイ140内に備えられてもよく、3Dディスプレイ140は、個別の装置またはスタンドアロン装置を構成する。代替え的には、ディスプレイプロセッサ120は、3Dディスプレイ140に接続可能なセットトップボックス、パーソナルコンピュータ、ゲームコンソール、または同様の装置内に備えられてもよい。   FIG. 7 shows a tablet device 180 with a display processor 120. That is, the display processor is an internal component of the tablet device 180. The tablet device 180 further includes a 3D display 140. Display processor 120 is shown connected to a 3D display 180 for providing a series of images 122. Alternatively, the display processor 120 may be provided in a digital photo frame or smartphone. The device may also include a 3D display 140. Alternatively, the display processor 120 may be included in the 3D display 140, which constitutes a separate device or a stand-alone device. Alternatively, the display processor 120 may be included in a set-top box, personal computer, game console, or similar device that can be connected to the 3D display 140.

図8は、3Dディスプレイ上のディスプレイ用の3D画像データを処理する方法200を示し、3Dディスプレイは、一連の繰り返し視野角のそれぞれの視野角の各々において、3D画像データの一連の視野を、隣接して発するために配置され、一連の視野は、各視野角内の複数の観察位置における3D画像データの立体視を可能にする。方法200は、各視野角内の複数の観察位置における3D画像データの前記立体視を提供するために、一連の視野の第1の部分として発せられるための3Dディスプレイに対して第1の一連の画像を提供することを含む「第1の一連の画像を提供すること(PROVIDING A FIRST SERIES OF IMAGES)」というタイトルの第1のステップ220を含む。方法200は、各視野角内の(少なくとも)更なる観察位置における3D画像データのシュードスコピック視野を提供するために、一連の視野の第2の部分として発せられるための3Dディスプレイに対して第2の一連の画像を提供することを更に含む「第2の一連の画像を提供すること(PROVIDING A SECOND SERIES OF IMAGES)」というタイトルの第2のステップ240を含み、第2の部分は、一連の視野内の第1の部分に隣接する。方法200は、3D画像データから原画像を取得することと、原画像および原画像の各々に対するX個(Xはゼロより大きい)の補間画像を含む第1の一連の画像を生成するために原画像を補間することとを含む「第1の一連の画像を生成すること(GENERATING THE FIRST SERIES OF IMAGES)」というタイトルの第3のステップ260を更に含む。方法200は、3D画像データから更なる原画像を取得することと、更なる原画像および更なる原画像の各々に対するY個(Yはゼロより大きいまたは等しい、およびYはXより小さい)の補間画像を含む第2の一連の画像を生成するために更なる原画像を補間することとを含む「第2の一連の画像を生成すること(GENERATING THE SECOND SERIES OF IMAGES)」というタイトルの第4のステップ280を更に含む。ステップ220、240、260、280を実行される必要がある順序を特定するように図7は理解されないことが留意される。特に、第3のステップ260は、第1のステップ220よりも前に実行されてもよいし、第4のステップ280は、第2のステップ240よりも前に実行されてもよい。   FIG. 8 illustrates a method 200 for processing 3D image data for a display on a 3D display, wherein the 3D display adjoins a series of fields of 3D image data at each of a series of repeating viewing angles. And a series of fields of view allow stereoscopic viewing of 3D image data at multiple viewing positions within each viewing angle. The method 200 includes a first series of 3D displays to be emitted as a first part of a series of views to provide the stereoscopic view of 3D image data at a plurality of viewing positions within each viewing angle. It includes a first step 220 entitled “Providing a first series of images (PROVIDING A FIRST SERIES OF IMAGES)” including providing images. The method 200 is first for a 3D display to be emitted as a second part of a series of views to provide a pseudoscopic view of 3D image data at (at least) further viewing positions within each viewing angle. Including a second step 240 entitled “Providing a second series of images”, the second part further comprising providing a second series of images. Adjacent to the first portion in the field of view. The method 200 obtains an original image from 3D image data and generates an original image and a first series of images including X interpolated images (X is greater than zero) for each of the original images. It further includes a third step 260 titled “Generating a First Sequence of FIRST SERIES OF IMAGES” comprising interpolating the images. The method 200 obtains additional original images from the 3D image data and interpolates Y (Y is greater than or equal to zero and Y is less than X) for each of the additional original image and the additional original image. A fourth entitled "Generating the Second Series of Images" including interpolating further original images to generate a second series of images containing the images. The step 280 is further included. It is noted that FIG. 7 is not understood to identify the order in which steps 220, 240, 260, 280 need to be performed. In particular, the third step 260 may be performed before the first step 220, and the fourth step 280 may be performed before the second step 240.

図9は、本発明による方法をプロセッサシステムに実行させるためのコンピュータプログラムプロダクト302を含むコンピュータ読み取り可能媒体300を示す。コンピュータプログラムプロダクト302は一連の機械読み取り可能な物理マークとして、および/または異なる電気的(例えば磁気的)または光学的な性質もしくは値を有する一連の要素として、コンピュータ読み取り可能媒体上に含められてもよい。   FIG. 9 shows a computer readable medium 300 containing a computer program product 302 for causing a processor system to perform the method according to the invention. The computer program product 302 may be included on a computer-readable medium as a series of machine-readable physical marks and / or as a series of elements having different electrical (eg, magnetic) or optical properties or values. Good.

本発明を実行するように構成された、コンピュータプログラム(特にキャリア上またはキャリア内のコンピュータプログラム)に対して、本発明が適用されることも認識されることになる。プログラムは、本発明による方法を実施するために使用するのに適している、ソースコード、オブジェクトコード、コード中間ソース、部分的にコンパイルされたオブジェクトコードの形式または他の任意の形式であってもよい。このようなプログラムに多数の異なる構造上の設計があってもよいこともまた認識されることになる。例えば、本発明による方法またはシステムの機能を実現するプログラムコードは、1つ以上のサブルーチンに細分されてもよい。これらのサブルーチンに機能を分配する多数の異なる方法は、当業者にとって明らかになる。サブルーチンは、内蔵型のプログラムを形成するために1つの実行可能ファイル内に一緒に保存されてもよい。このような実行可能ファイルは、例えば、プロセッサ命令および/またはインタプリタ命令(例えばJava(登録商標)インタプリタ命令)などのコンピュータ実行可能命令を含んでもよい。代替え的に、サブルーチンの1つ以上またはすべては、少なくとも1個の外部ライブラリファイル内に保存され、メインプログラムと静的にまたは動的に(例えばランタイムに)リンクされてもよい。メインプログラムは、サブルーチンの少なくとも1つに対して少なくとも1つの呼び出しを含む。サブルーチンは、また、互いに関数呼び出しを含んでもよい。コンピュータプログラムプロダクトに関する実施形態は、本明細書において明記された方法の少なくとも1つの各処理ステップに対応するコンピュータ実行可能命令を含む。これらの命令は、サブルーチンに細分されてもよいし、および/または静的にまたは動的にリンクされてもよい1個以上のファイルに保存されてもよい。コンピュータプログラムプロダクトに関する別の実施形態は、本明細書において明記されたシステムおよび/または製品の少なくとも1つの各手段に対応するコンピュータ実行可能命令を含む。これらの命令は、サブルーチンに細分されてもよいし、および/または静的にまたは動的にリンクされてもよい1個以上のファイルに保存されてもよい。   It will also be appreciated that the present invention applies to computer programs (especially computer programs on or in a carrier) configured to carry out the present invention. The program may be in the form of source code, object code, code intermediate source, partially compiled object code or any other form suitable for use in carrying out the method according to the invention. Good. It will also be appreciated that there may be many different structural designs for such programs. For example, program code implementing the functionality of the method or system according to the invention may be subdivided into one or more subroutines. Many different ways of distributing functions to these subroutines will be apparent to those skilled in the art. Subroutines may be stored together in one executable file to form a self-contained program. Such executable files may include computer-executable instructions such as, for example, processor instructions and / or interpreter instructions (eg, Java® interpreter instructions). Alternatively, one or more or all of the subroutines may be stored in at least one external library file and linked statically or dynamically (eg, at runtime) with the main program. The main program includes at least one call to at least one of the subroutines. Subroutines may also include function calls with each other. Embodiments relating to a computer program product include computer-executable instructions corresponding to each processing step of at least one of the methods specified herein. These instructions may be subdivided into subroutines and / or stored in one or more files that may be linked statically or dynamically. Another embodiment relating to a computer program product includes computer-executable instructions corresponding to each means of at least one of the systems and / or products specified herein. These instructions may be subdivided into subroutines and / or stored in one or more files that may be linked statically or dynamically.

コンピュータプログラムのキャリアは、プログラムを伝送することができる任意のエンティティ要素または装置であってもよい。例えば、キャリアは、ROM(例えばCD−ROMまたは半導体ROM)または磁気記録媒体(例えばハードディスク)などの記憶媒体を含んでもよい。更に、キャリアは、電気ケーブルもしくは光ケーブルを介してまたは無線もしくは他の手段によって伝達されてもよい、電気信号または光信号などの伝達可能なキャリアであってもよい。プログラムがこのような信号で具体化される場合、キャリアは、このようなケーブルまたは他の装置もしくは手段によって構成されてもよい。代替え的に、キャリアは、プログラムが組み込まれる集積回路であってもよい。集積回路は、関連方法を実行するように構成される、または関連方法の実行に用いられる。集積回路は、特定用途向けIC(ASIC)であってもよい。プログラムは、また、ファームウェアの形式で(すなわち、ASIC内に保存されたマイクロコードとして)組み込まれてもよいし、またはASICによる使用のために別々に組み込まれてもよい。   A computer program carrier may be any entity element or device capable of transmitting a program. For example, the carrier may include a storage medium such as a ROM (for example, a CD-ROM or a semiconductor ROM) or a magnetic recording medium (for example, a hard disk). Further, the carrier may be a transmissible carrier, such as an electrical signal or an optical signal, which may be transmitted via an electrical or optical cable or by radio or other means. If the program is embodied with such a signal, the carrier may be constituted by such a cable or other device or means. Alternatively, the carrier may be an integrated circuit in which the program is embedded. The integrated circuit is configured or used to perform the associated method. The integrated circuit may be an application specific IC (ASIC). The program may also be incorporated in the form of firmware (ie, as microcode stored within the ASIC) or may be incorporated separately for use by the ASIC.

上記の実施形態が、本発明を限定せずに説明し、当業者が添付の特許請求の範囲から逸脱せずに、多くの他の実施形態を設計することができることになる、ということに留意するべきである。特許請求の範囲において、括弧の間に配置されたあらゆる参照符号も、また、特許請求の範囲を限定するように解釈されるべきでない。動詞「備える(comprise)」の使用およびその動詞の活用は、特許請求の範囲内に明示されたもの以外の構成要素またはステップの存在を除外しない。構成要素の直前の不定冠詞「a」または「an」は、当該構成要素の複数の存在を除外しない。本発明は、いくつかの別個の構成要素を備えるハードウェアによって、および適切にプログラミングされたコンピュータによって実現されてもよい。いくつかの手段を列挙する装置の請求項において、これらの手段のいくつかは、1個のハードウェアおよび同じアイテムのハードウェアによって具体化されてもよい。ある手段が個別の従属請求項内に相互に列挙されるという単なる事実は、これらの手段の組み合わせを有利に用いることができないことを示すものではない。   It is noted that the above embodiments have been described without limiting the invention and that many other embodiments can be designed by those skilled in the art without departing from the scope of the appended claims. Should do. In the claims, any reference signs placed between parentheses shall also not be construed as limiting the claim. Use of the verb “comprise” and utilization of the verb do not exclude the presence of elements or steps other than those expressly recited in the claims. The indefinite article “a” or “an” immediately preceding a component does not exclude the presence of a plurality of such components. The present invention may be implemented by hardware comprising several separate components and by a suitably programmed computer. In the device claim enumerating several means, several of these means may be embodied by one and the same item of hardware. The mere fact that certain measures are mutually recited in individual dependent claims does not indicate that a combination of these measured cannot be used to advantage.

Claims (15)

一連の繰り返し視野角(100)のそれぞれにおいて、3D画像データの一連の視野(0〜5、0〜19)を隣接して発するために配置される3Dディスプレイ(140)上で表示するための3次元の[3D]画像データを処理するためのディスプレイプロセッサ(120)にして、一連の視野が各視野角(102、104、106、108)内の複数の観察位置(110)における3D画像データの立体視を可能にするディスプレイプロセッサ(120)であって、
一連の視野(0〜19)の第1の部分(0〜14)として、各視野角内の複数の観察位置における3D画像データの前記立体視を提供するように発せられるために3Dディスプレイに対して第1の一連の画像を提供し、
各視野角内の更なる観察位置における、少なくとも、3D画像データのシュードスコピック視野を提供する、一連の視野内の第1の部分に隣接する一連の視野(0〜19)の第2の部分(15〜19)として、発せられるために3Dディスプレイに対して第2の一連の画像を提供し、
3D画像データから原画像を取得し、原画像から派生画像を導出し、派生画像を含む第1の一連の画像を生成し、
(i)3D画像データから更なる原画像を取得し、更なる原画像を備える第2の一連の画像を生成し、または(ii)3D画像データから更なる原画像を取得し、更なる原画像から更なる派生画像を導出し、更なる派生画像および更なる原画像の少なくとも1つを含む第2の一連の画像を生成し、最初に述べた派生画像の数はそれぞれの一連の画像の総数に比べて更なる派生画像の数より大きくするために配置される、ディスプレイプロセッサ。
3 for displaying on a 3D display (140) arranged to emit adjacently a series of fields of view (0-5, 0-19) of 3D image data at each of a series of repeated viewing angles (100). With a display processor (120) for processing dimensional [3D] image data, a series of fields of view of 3D image data at a plurality of viewing positions (110) within each viewing angle (102, 104, 106, 108). A display processor (120) that enables stereoscopic viewing,
As a first part (0-14) of a series of fields of view (0-19) for a 3D display to be emitted to provide said stereoscopic view of 3D image data at a plurality of viewing positions within each viewing angle Providing a first series of images,
A second part of a series of fields (0-19) adjacent to the first part in the series of fields, providing at least a pseudoscopic field of 3D image data in a further viewing position within each field of view (15-19) providing a second series of images to the 3D display to be emitted,
Obtaining an original image from the 3D image data, deriving a derived image from the original image, generating a first series of images including the derived image;
(I) acquiring a further original image from the 3D image data and generating a second series of images comprising the additional original image, or (ii) acquiring a further original image from the 3D image data, Deriving further derived images from the image and generating a second series of images including at least one of the further derived images and the further original image, wherein the number of first derived images is the number of each of the series of images. A display processor arranged to be larger than the number of further derived images compared to the total number.
ディスプレイプロセッサが、ゼロ次補間技術および/またはゼロ次外挿技術を用いて原画像から派生画像を導出するために配置される、請求項1に記載のディスプレイプロセッサ(120)。   The display processor (120) of claim 1, wherein the display processor is arranged to derive a derived image from the original image using zero order interpolation techniques and / or zero order extrapolation techniques. ディスプレイプロセッサが、1次もしくは高次の補間技術および/または外挿技術を用いて、更なる原画像から更なる派生画像を導出するために配置される、請求項1または2に記載のディスプレイプロセッサ(120)。   3. A display processor according to claim 1 or 2, wherein the display processor is arranged to derive further derived images from further original images using first order or higher order interpolation and / or extrapolation techniques. (120). ディスプレイプロセッサが、原画像のすべてまたはサブセットを選択することによって、更なる原画像を取得するために配置される、請求項1〜3のいずれか1項に記載のディスプレイプロセッサ(120)。   4. The display processor (120) according to any one of claims 1 to 3, wherein the display processor is arranged to acquire further original images by selecting all or a subset of the original images. 第2の一連の画像が、原画像のすべてまたはサブセットから構成される、請求項4に記載のディスプレイプロセッサ(120)。   The display processor (120) of claim 4, wherein the second series of images is composed of all or a subset of the original images. ディスプレイプロセッサが、第2の一連の画像をぼかすために配置される、請求項1〜5のいずれか1項に記載のディスプレイプロセッサ(120)。   The display processor (120) according to any of the preceding claims, wherein the display processor is arranged to blur the second series of images. ディスプレイプロセッサが、第2の一連の画像の個々の画像に対して空間ローパスフィルタを適用することによって、または第2の一連の画像の複数の画像を平均化することによって、第2の一連の画像をぼかすために配置される、請求項6に記載のディスプレイプロセッサ(120)。   The display processor applies a spatial low pass filter to individual images of the second series of images or averages the plurality of images of the second series of images, The display processor (120) of claim 6, wherein the display processor (120) is arranged to blur. 一連の視野の第1の部分および一連の視野の第2の部分はともに、一連の視野を形成する、請求項1〜7のいずれか1項に記載のディスプレイプロセッサ(120)。   A display processor (120) according to any preceding claim, wherein the first part of the series of fields and the second part of the series of fields together form a series of fields. 請求項1に記載のディスプレイプロセッサ(120)を備える3Dディスプレイ(140)。   A 3D display (140) comprising a display processor (120) according to claim 1. 3Dディスプレイが、O個の隣接するフラクショナルビューとの光学的クロストークを呈す一連のフラクショナルビューの各々を有する一連のフラクショナルビューとして一連の視野を発するために配置される、請求項9に記載の3Dディスプレイ(140)。   The 3D display according to claim 9, wherein the 3D display is arranged to emit a series of fields of view as a series of fractional views, each having a series of fractional views that exhibit optical crosstalk with O adjacent fractional views. Display (140). ディスプレイプロセッサ(120)が、(i)ゼロ次補間技術および/またはゼロ次外挿技術を用いて、原画像の各々に対するO個の派生画像を導出することによって第1の一連の画像を生成し、(ii)更なる派生画像を含まない第2の一連の画像を生成するために配置される、請求項10に記載の3Dディスプレイ(140)。   A display processor (120) generates a first series of images by deriving O derived images for each of the original images using (i) zero order interpolation techniques and / or zero order extrapolation techniques. 11. The 3D display (140) of claim 10, arranged to generate a second series of images that do not include any further derived images. 第1の一連の画像が、第2の一連の画像の画像総数の実質的にO+1倍を備える、請求項10または11に記載の3Dディスプレイ(140)。   12. A 3D display (140) according to claim 10 or 11, wherein the first series of images comprises substantially O + 1 times the total number of images of the second series of images. 請求項1〜8のいずれか1項に記載のディスプレイプロセッサ(120)を備えるタブレット装置(180)、デジタルフォトフレーム、またはスマートフォン。   A tablet device (180), a digital photo frame, or a smartphone comprising the display processor (120) according to any one of claims 1-8. 一連の繰り返し視野角のそれぞれにおいて、3D画像データの一連の視野を隣接して発するために配置される3Dディスプレイ上で表示するための3次元の[3D]画像データを処理する方法(200)にして、一連の視野が各視野角内の複数の観察位置における3D画像データの立体視を可能にする方法(200)であって、
一連の視野の第1の部分として、各視野角内の複数の観察位置における3D画像データの前記立体視を提供するように発せられるために3Dディスプレイに対して第1の一連の画像を提供するステップ(220)と、
各視野角内の更なる観察位置における、少なくとも、3D画像データのシュードスコピック視野を提供する、一連の視野内の第1の部分に隣接する一連の視野の第2の部分として、発せられるために3Dディスプレイに対して第2の一連の画像を提供するステップ(240)と、
3D画像データから原画像を取得し、原画像から派生画像を導出し、派生画像を含む第1の一連の画像を生成するステップ(260)と、
(i)3D画像データから更なる原画像を取得し、更なる原画像を含む第2の一連の画像を生成するステップ(280)、または(ii)3D画像データから更なる原画像を取得し、更なる原画像から更なる派生画像を導出し、更なる派生画像および更なる原画像の少なくとも1つを含む第2の一連の画像を生成し、最初に述べた派生画像の数はそれぞれの一連の画像の総数に比べて更なる派生画像の数より大きくするステップと
を備える方法。
A method (200) for processing 3D [3D] image data for display on a 3D display arranged to emit a series of views of adjacent 3D image data at each of a series of repeated viewing angles. A method (200) for enabling stereoscopic viewing of 3D image data at a plurality of viewing positions within a viewing angle of a series of fields of view,
Providing a first series of images to a 3D display to be emitted as a first part of the series of fields of view to provide the stereoscopic view of 3D image data at a plurality of viewing positions within each viewing angle. Step (220);
To be emitted as a second part of a series of fields of view adjacent to a first part of the series of fields of view, providing at least a pseudoscopic field of view of 3D image data at a further viewing position within each field of view Providing (240) a second series of images to the 3D display;
Obtaining an original image from the 3D image data, deriving a derived image from the original image, and generating a first series of images including the derived image (260);
(I) acquiring a further original image from the 3D image data and generating a second series of images including the additional original image (280), or (ii) acquiring a further original image from the 3D image data Deriving further derived images from the further original images and generating a second series of images including at least one of the further derived images and the further original images, wherein the number of first derived images is And a step of making the number of further derived images greater than the total number of images in the series.
請求項14に記載の方法をプロセッサシステムに実行させるための命令を備えたコンピュータプログラムプロダクト(302)。   A computer program product (302) comprising instructions for causing a processor system to perform the method of claim 14.
JP2014550652A 2012-01-06 2012-01-06 Display processor for 3D display Pending JP2015506621A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2012/050185 WO2013102500A1 (en) 2012-01-06 2012-01-06 Display processor for 3d display

Publications (1)

Publication Number Publication Date
JP2015506621A true JP2015506621A (en) 2015-03-02

Family

ID=45491596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014550652A Pending JP2015506621A (en) 2012-01-06 2012-01-06 Display processor for 3D display

Country Status (12)

Country Link
US (1) US20150042770A1 (en)
EP (1) EP2801200B1 (en)
JP (1) JP2015506621A (en)
KR (1) KR20140130435A (en)
CN (1) CN104041027A (en)
BR (1) BR112014016448A8 (en)
CA (1) CA2860360A1 (en)
ES (1) ES2730701T3 (en)
IL (1) IL233405A0 (en)
RU (1) RU2607282C2 (en)
TW (1) TW201333879A (en)
WO (1) WO2013102500A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018523338A (en) * 2015-05-05 2018-08-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Image generation for autostereoscopic display

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101856568B1 (en) * 2013-09-16 2018-06-19 삼성전자주식회사 Multi view image display apparatus and controlling method thereof
US9967538B2 (en) 2013-11-04 2018-05-08 Massachussetts Institute Of Technology Reducing view transitions artifacts in automultiscopic displays
US9756316B2 (en) * 2013-11-04 2017-09-05 Massachusetts Institute Of Technology Joint view expansion and filtering for automultiscopic 3D displays
US9716879B2 (en) * 2014-07-15 2017-07-25 Shenzhen China Star Optoelectronics Technology Co., Ltd Image display method and device for multi-view stereoscopic display
CN104144337B (en) * 2014-08-05 2016-07-06 深圳市华星光电技术有限公司 The method for displaying image of a kind of multi-viewpoint three-dimensional display and device
US10375379B2 (en) * 2015-09-17 2019-08-06 Innolux Corporation 3D display device
KR102121389B1 (en) * 2015-10-16 2020-06-10 삼성전자주식회사 Glassless 3d display apparatus and contorl method thereof
US10511831B2 (en) 2017-01-04 2019-12-17 Innolux Corporation Display device and method for displaying
EP3687168A1 (en) 2019-01-24 2020-07-29 Ultra-D Coöperatief U.A. Assigning view numbers to display elements of an autostereoscopic display
EP4270946A1 (en) * 2022-02-18 2023-11-01 Innolux Corporation Display device with three-dimensional image display function and three-dimensional image display method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06194758A (en) * 1992-09-16 1994-07-15 Eastman Kodak Co Method and apparatus for formation of depth image
JPH07129792A (en) * 1993-10-29 1995-05-19 Canon Inc Method and device for image processing
JPH09139829A (en) * 1995-11-16 1997-05-27 Matsushita Electric Ind Co Ltd Three-dimensional image facsimile equipment
JP2002159022A (en) * 2000-11-17 2002-05-31 Fuji Xerox Co Ltd Apparatus and method for generating parallax image
JP2004258210A (en) * 2003-02-25 2004-09-16 Toshiba Corp Three-dimensional picture display device and picture display method
JPWO2004004350A1 (en) * 2002-06-28 2005-11-04 シャープ株式会社 Image data distribution system, image data transmitting apparatus and image data receiving apparatus thereof
JP2007529034A (en) * 2004-03-12 2007-10-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Multi-view display device
JP2009239665A (en) * 2008-03-27 2009-10-15 Toshiba Corp Three-dimensional image display method and apparatus
JP2011077679A (en) * 2009-09-29 2011-04-14 Fujifilm Corp Three-dimensional image display apparatus
JP2011101366A (en) * 2009-11-04 2011-05-19 Samsung Electronics Co Ltd High density multi-view image display system and method with active sub-pixel rendering

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100288037B1 (en) * 1992-09-14 2001-05-02 가나이 쓰도무 Method of driving display device
GB2297876A (en) * 1995-02-09 1996-08-14 Sharp Kk Observer tracking autostereoscopic display
GB9513658D0 (en) * 1995-07-05 1995-09-06 Philips Electronics Uk Ltd Autostereoscopic display apparatus
US6064424A (en) 1996-02-23 2000-05-16 U.S. Philips Corporation Autostereoscopic display apparatus
AU2002952872A0 (en) * 2002-11-25 2002-12-12 Dynamic Digital Depth Research Pty Ltd Image generation
RU2231097C1 (en) * 2003-01-08 2004-06-20 Орлов Вячеслав Васильевич Device forming autostereoscopic image
KR100689311B1 (en) * 2003-11-10 2007-03-08 엘지.필립스 엘시디 주식회사 Liquid crystal display device and method for driving the same
TWI251189B (en) * 2004-03-18 2006-03-11 Novatek Microelectronics Corp Driving method of liquid crystal display panel
JP3944188B2 (en) * 2004-05-21 2007-07-11 株式会社東芝 Stereo image display method, stereo image imaging method, and stereo image display apparatus
WO2006117707A2 (en) 2005-04-29 2006-11-09 Koninklijke Philips Electronics N.V. A stereoscopic display apparatus
EP1958459B1 (en) 2005-12-02 2018-06-13 Koninklijke Philips N.V. Depth dependent filtering of image signal
US9438896B2 (en) * 2009-11-13 2016-09-06 Kopin Corporation Method for driving 3D binocular eyewear from standard video stream
JP5494283B2 (en) * 2010-06-24 2014-05-14 ソニー株式会社 3D display device and 3D display device control method
US8547418B2 (en) * 2010-07-19 2013-10-01 Broadcom Corporation Method and system for processing and displaying video in three dimensions using a liquid crystal display
JP5367031B2 (en) * 2011-08-11 2013-12-11 株式会社ソニー・コンピュータエンタテインメント Information processing method and information processing apparatus
KR20140089860A (en) * 2013-01-07 2014-07-16 삼성전자주식회사 Display apparatus and display method thereof

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06194758A (en) * 1992-09-16 1994-07-15 Eastman Kodak Co Method and apparatus for formation of depth image
JPH07129792A (en) * 1993-10-29 1995-05-19 Canon Inc Method and device for image processing
JPH09139829A (en) * 1995-11-16 1997-05-27 Matsushita Electric Ind Co Ltd Three-dimensional image facsimile equipment
JP2002159022A (en) * 2000-11-17 2002-05-31 Fuji Xerox Co Ltd Apparatus and method for generating parallax image
JPWO2004004350A1 (en) * 2002-06-28 2005-11-04 シャープ株式会社 Image data distribution system, image data transmitting apparatus and image data receiving apparatus thereof
JP2004258210A (en) * 2003-02-25 2004-09-16 Toshiba Corp Three-dimensional picture display device and picture display method
JP2007529034A (en) * 2004-03-12 2007-10-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Multi-view display device
JP2009239665A (en) * 2008-03-27 2009-10-15 Toshiba Corp Three-dimensional image display method and apparatus
JP2011077679A (en) * 2009-09-29 2011-04-14 Fujifilm Corp Three-dimensional image display apparatus
JP2011101366A (en) * 2009-11-04 2011-05-19 Samsung Electronics Co Ltd High density multi-view image display system and method with active sub-pixel rendering

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018523338A (en) * 2015-05-05 2018-08-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Image generation for autostereoscopic display

Also Published As

Publication number Publication date
WO2013102500A9 (en) 2013-09-26
KR20140130435A (en) 2014-11-10
BR112014016448A2 (en) 2017-06-13
BR112014016448A8 (en) 2017-07-04
EP2801200A1 (en) 2014-11-12
CA2860360A1 (en) 2013-07-11
RU2607282C2 (en) 2017-01-10
WO2013102500A1 (en) 2013-07-11
US20150042770A1 (en) 2015-02-12
ES2730701T3 (en) 2019-11-12
IL233405A0 (en) 2014-08-31
RU2014132427A (en) 2016-02-27
CN104041027A (en) 2014-09-10
TW201333879A (en) 2013-08-16
EP2801200B1 (en) 2019-03-13

Similar Documents

Publication Publication Date Title
JP2015506621A (en) Display processor for 3D display
US10368046B2 (en) Method and apparatus for generating a three dimensional image
JP5509487B2 (en) Enhanced blur of stereoscopic images
JP3944188B2 (en) Stereo image display method, stereo image imaging method, and stereo image display apparatus
JP4403162B2 (en) Stereoscopic image display device and method for producing stereoscopic image
US8670607B2 (en) Image processing method, image processing device and recording medium
Daly et al. Perceptual issues in stereoscopic signal processing
US8368696B2 (en) Temporal parallax induced display
JP2004295013A (en) Stereoscopic display device
JP2010524309A (en) Method and configuration for three-dimensional display
JP2011176800A (en) Image processing apparatus, 3d display apparatus, and image processing method
RU2707726C2 (en) Image generation for autostereoscopic display
US20150365645A1 (en) System for generating intermediate view images
JP2017520968A (en) Drive value generation for displays
US9967537B2 (en) System for generating intermediate view images
Ogawa et al. Swinging 3D lamps: a projection technique to convert a static 2D picture to 3D using wiggle stereoscopy
JP2011176822A (en) Image processing apparatus, 3d display apparatus, and image processing method
Makiguchi et al. 21‐1: Reducing Image Quality Variation with Motion Parallax for Glassless 3D Screens using Linear Blending Technology
JP7344886B2 (en) Overscan for 3D displays
Jeong et al. Depth image‐based rendering for multiview generation
KR20110086650A (en) Creating an auto-stereoscopic image with augmented 3d depth effect

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151215

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160519

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160927