JP2009500878A - Depth illusion digital imaging - Google Patents

Depth illusion digital imaging Download PDF

Info

Publication number
JP2009500878A
JP2009500878A JP2008506034A JP2008506034A JP2009500878A JP 2009500878 A JP2009500878 A JP 2009500878A JP 2008506034 A JP2008506034 A JP 2008506034A JP 2008506034 A JP2008506034 A JP 2008506034A JP 2009500878 A JP2009500878 A JP 2009500878A
Authority
JP
Japan
Prior art keywords
scene
generating
features
images
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008506034A
Other languages
Japanese (ja)
Inventor
ベンジオン ランダ,
Original Assignee
ヒューマンアイズ テクノロジーズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヒューマンアイズ テクノロジーズ リミテッド filed Critical ヒューマンアイズ テクノロジーズ リミテッド
Publication of JP2009500878A publication Critical patent/JP2009500878A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

シーンの表示画像のシーケンスを生成するステップ;シーン内の特徴の速度を設定して、シーンの非遠近歪みを表示画像に生成するステップ;および表示画像を逐次的に表示するステップ、を含む所望の奥行錯覚を有するシーンの視覚表示を生成する方法。
【選択図】 図2
Generating a sequence of display images of the scene; setting the speed of features in the scene to generate non-perspective distortion of the scene in the display image; and sequentially displaying the display image A method for generating a visual representation of a scene having a depth illusion.
[Selection] Figure 2

Description

(関連出願)
本願は、「Depth Illusion Digital Imaging」と称する2005年4月11日に出願の米国特許仮出願第60/670087号の米国特許法第119条(e)項に基づく特典を主張し、その開示内容を参照によって本書に援用する。
(Related application)
This application claims the benefit under Section 119 (e) of US Patent Act No. 60/670087 of US Provisional Patent Application No. 60/670087 filed April 11, 2005, referred to as “Depth Illusion Digital Imaging”, and its disclosure. Is incorporated herein by reference.

(発明の分野)
本発明は、奥行知覚を提供するシーンの視覚表示を生成する方法、および奥行知覚度を制御するための方法に関する。
(Field of Invention)
The present invention relates to a method for generating a visual representation of a scene that provides depth perception, and a method for controlling depth perception.

人間の立体視は、一次または生理学的な、および二次または心理学的な、ときには絵画的と呼ばれる奥行手掛かりに頼って、目または網膜の二次元表面で受け取ったシーンから三次元情報を読み取る。目の遠近調節、または目がオブジェクトに焦点を合わせるためにもたらすレンズの形状変化量のような一部の生理学的手掛かりは単眼視によって、すなわち単一の目によって提供されるが、多くの生理学的奥行手掛かりは、2つの目を持つ人の機能である両眼手掛かりである。両眼手掛かりは、輻輳、つまりオブジェクトに焦点を合わせるために目が回転する角度、および網膜歪覚を含む。網膜歪覚とは、左右の目の位置の相違のためにそれらに映る同一シーンの像間の相違を指す。   Human stereo vision relies on depth cues, referred to as primary or physiological, and secondary or psychological, sometimes pictorial, to read 3D information from scenes received at the 2D surface of the eye or retina. Some physiological cues, such as eye accommodation or the amount of lens shape change that the eye brings to focus on an object, are provided by monocular vision, i.e. by a single eye, but many physiological cues A depth cue is a binocular cue that is a function of a person with two eyes. Binocular cues include vergence, the angle at which the eye rotates to focus on the object, and retinal distortion. Retinal distortion refers to the difference between the images of the same scene that appear in them due to the difference in the position of the left and right eyes.

両眼が心理学的奥行手掛かりを提供する必要は一般的になく、単独で働く各々の目がこれらの手掛かりを提供することができる。心理学的奥行手掛かりは、人が写真や絵画を見るときに経験する奥行知覚を説明するために使用され、相対的大きさ、リニアパースペクティブ(linear perspective)、視線より上のオブジェクトの高さ、介在物、陰影付け、影、相対的明るさ、色(色立体視)、および大気減衰を含む。これらの心理学的手掛かりは、奥行の感覚を提供するために地形表現で幅広く使用される。運動手掛かりはしばしば心理学的手掛かりとして分類される。しかし、それらは異なる距離にあるオブジェクトの網膜像の相対変位に変化を生じるので、運動手掛かりは実際には、三次元情報を伝達する生理学的反応を生み出す。心理学的手掛かりの多くは生理学的手掛かりと組み合わされて、増強された三次元効果を生み出すことができる。   It is not generally necessary for both eyes to provide psychological depth cues, and each eye working alone can provide these cues. Psychological depth cues are used to describe the depth perception that people experience when looking at photographs and paintings, relative size, linear perspective, object height above line of sight, intervention Includes objects, shading, shadows, relative brightness, color (color stereoscopic), and atmospheric attenuation. These psychological cues are widely used in terrain representation to provide a sense of depth. Motor cues are often classified as psychological cues. However, because they cause changes in the relative displacement of the retinal image of objects at different distances, motion cues actually produce physiological responses that convey three-dimensional information. Many psychological cues can be combined with physiological cues to produce enhanced three-dimensional effects.

例えば二次元の紙、ビデオ、およびコンピュータシステムの画像から奥行情報を与える生理学的または心理学的手掛かりのいずれかを伝達するための、様々な三次元立体表示技術が存在する。上述の通り、印刷表現は一般的に心理学的手掛かりを使用する。しかし、アナグリフ印刷物は、色スペクトルを赤および緑/青成分に分割し、かつそれらが適切な目に「経路選択」されて三次元のシーンを表現するように画像をマスキングすることに基づく、左右の画像の物理的分離に依存する。フィルム製品は分離のための偏光フィルムを含み、色画像を印刷させることができる。分離した画像を伝達するために、フィルムは依然として、一般的に一方の目に対し水平偏光を持ち、他方には垂直偏光を持つ眼鏡を必要とする。ビデオおよびコンピュータシステムはアナグリフおよび偏光の両方を使用し、これらの方法は一般的に、ソフトコピー写真測量システムで左/右の分離を達成するために実現される。これらのシステムはまた、レンチキュラおよびホログラフィックディスプレイのような技術と共に運動および他の特殊手法により、立体画像の分離を強化することを可能にする。   There are a variety of three-dimensional stereoscopic display techniques for conveying either physiological or psychological cues that provide depth information from, for example, two-dimensional paper, video, and computer system images. As described above, printed representations generally use psychological cues. However, anaglyph prints are based on splitting the color spectrum into red and green / blue components and masking the image so that they are “routed” to the appropriate eye to represent a three-dimensional scene. Depends on the physical separation of images. The film product includes a polarizing film for separation, and a color image can be printed. In order to transmit a separate image, the film still requires glasses that generally have horizontal polarization for one eye and vertical polarization for the other. Video and computer systems use both anaglyphs and polarization, and these methods are generally implemented to achieve left / right separation in softcopy photogrammetry systems. These systems also make it possible to enhance the separation of stereoscopic images by motion and other special techniques along with technologies such as lenticular and holographic displays.

三次元ディスプレイの裸眼立体視方法は、多種多様な概念および方法に基づいており、人間の目‐脳系における奥行情報の合成を達成するために3D眼鏡を着用する必要はない。裸眼立体視ディスプレイは左右の画像または交互画像対の立体視に依存し、レンチキュラディスプレイ、視差障壁ディスプレイのみならず、運動視差に基づくディスプレイをも含む。   The 3D display autostereoscopic method is based on a wide variety of concepts and methods, and it is not necessary to wear 3D glasses to achieve the synthesis of depth information in the human eye-brain system. An autostereoscopic display relies on left and right images or a stereoscopic view of alternating image pairs and includes not only lenticular displays and parallax barrier displays, but also displays based on motion parallax.

論文「Mapping Perceived Depth To Regions Of Interest In Sterescopic Images」、Nick Holliman、Stereoscopic Displays and Virtual Reality Systems XI、SPIE−IS&T Electronic Imaging会報、SPIE Vol.5291、2004、ISBN 0‐8194‐5194は、定義された関心領域(ROI)で知覚される奥行がシーンの他の領域と比較して改善されるように、シーン奥行におけるROIを立体3Dディスプレイにマッピングする方法を記載している。立体ディスプレイにおける所与の動的奥行範囲に対しては、ROIはシーンの他の領域より大きいディスプレイ比率にマッピングされる。   Papers "Mapping Perceptive Depth To Regions Of Interest In Stereoscopic Images", Nick Holliman, Stereoscopic Displays and Vital EIS, PI I & T 5291, 2004, ISBN 0-8194-5194 makes the ROI in the scene depth into a stereoscopic 3D display so that the depth perceived in the defined region of interest (ROI) is improved compared to other areas in the scene. Describes how to map. For a given dynamic depth range in a stereoscopic display, the ROI is mapped to a display ratio that is larger than other areas of the scene.

全てPelegらの米国特許第6532036号、第6665003号、第6795109号、第6831677号、およびRobinsonらの第6795575号は、モザイク画像の観察者に奥行の間隔を提供するように、立体的左右画像対として表示するのに適したシーンの左右モザイク画像を生成する方法を記載しており、それらの開示内容を参照によって本書に援用する。Pelegらの米国特許出願第09/861859号は、異なるディスパリティを特徴とする画像が充分に高速で表示され、したがって両眼が同一画像を略同時に見るように、奥行感覚を生成する代替的方法を記載しており、その開示内容を参照によって本書に援用する。該方法は左右画像分離またはマスキングを使用しない。   U.S. Pat. Nos. 6,320,036, 6,665,003, 6,695,109, 6,683,677, and Robinson et al., 6,695,575, all of Peleg et al. A method for generating left and right mosaic images of a scene suitable for display as a pair is described, the disclosures of which are incorporated herein by reference. US patent application Ser. No. 09/861859 to Peleg et al. Describes an alternative method of generating a depth sensation so that images featuring different disparities are displayed sufficiently fast, so that both eyes see the same image substantially simultaneously. The disclosure of which is incorporated herein by reference. The method does not use left-right image separation or masking.

本願と同一の発明者らの一部による「Depth Illusion Digital Imaging」と称する2005年3月16日出願の米国特許出願第60/661907号は、左右マスキング無しに観察者に対して順次表示されたときに、所望の奥行知覚を有するシーンの表示を達成する、シーンの複数の「表示画像」を生成するための方法および装置を記載しており、その開示内容を参照によって本書に援用する。   US Patent Application No. 60/661907, filed March 16, 2005, referred to as “Depth Illusion Digital Imaging” by some of the same inventors as the present application was sequentially displayed to the observer without left-right masking. Occasionally, a method and apparatus for generating a plurality of “display images” of a scene that achieves display of the scene with a desired depth perception is described, the disclosure of which is incorporated herein by reference.

本発明の一部の実施形態の1態様は、左右マスキング無しに観察者に対して順次かつ充分に高速で表示されたときに、所望の奥行知覚を有するシーンの表示を達成する、シーンの複数の「表示画像」を生成するための方法および装置を提供することに関する。   One aspect of some embodiments of the present invention is a plurality of scenes that achieve display of a scene with a desired depth perception when displayed sequentially and sufficiently fast to an observer without left-right masking. To provide a method and apparatus for generating a “display image”.

本発明の一部の実施形態の1態様は、表示されるシーンの奥行知覚を制御するための方法を提供することに関する。本発明の一部の実施形態では、該方法は奥行知覚を増強するために使用される。本発明の一部の実施形態では、該方法は奥行知覚を低減するために使用される。   One aspect of some embodiments of the invention relates to providing a method for controlling depth perception of a displayed scene. In some embodiments of the invention, the method is used to enhance depth perception. In some embodiments of the invention, the method is used to reduce depth perception.

本発明の一部の実施形態の1態様は、シーンにおける特徴の速度、または特徴が撮像される焦点距離を、シーンの他の特徴の速度または撮像装置の焦点距離に関係なく制御して、奥行知覚の増強を達成するように特徴の相対運動を生成することに関する。本発明の一部の実施形態では、特徴の速度の制御は、奥行知覚を低減するために使用される。   An aspect of some embodiments of the present invention is to control the depth of a feature in a scene, or the focal length at which the feature is imaged, regardless of the speed of other features in the scene or the focal length of the imaging device. It relates to generating relative motion of features to achieve perceptual enhancement. In some embodiments of the invention, feature speed control is used to reduce depth perception.

本発明の発明者らは、特定の奥行手掛かりを含むシーンが通常の二次元ディスプレイ(コンピュータディスプレイまたはテレビ画面など)に提示されたときに、観察者が奥行増強画像(「3D」画像)を知覚することができることを発見した。   The inventors of the present invention perceive a depth-enhanced image ("3D" image) by an observer when a scene containing a specific depth cue is presented on a normal two-dimensional display (such as a computer display or television screen). I found that I can do it.

発明者らはさらに、奥行知覚を誘発または増強するように思われる奥行手掛かりの性質が、真の三次元シーン(「立体視」)を見たときに左右の目から受け取る2つの視差のある画像を脳が統合する性質に関係することが好ましいことを発見した。特に、各目が別々に見る画像は相互に視差変位するが、どちらも光学カメラによって取り込まれるものとは少し異なるノーマル「パースペクティブ」ビューである。しかし立体視は、各目が見るノーマルパースペクティブビューとはかなり異なる、脳が「見る」新しい単一の像を形成する。実際、脳が知覚する単一の統合された像は、各目が見るノーマルパースペクティブビューと比較して、幾つかの重要な点でかなり歪んでいる。   The inventors further have two parallax images that the nature of the depth cues that appear to induce or enhance depth perception is received from the left and right eyes when viewing a true three-dimensional scene ("stereoscopic") We found that it is preferable to be related to the nature of the brain integration. In particular, the images that each eye sees separately are parallaxally displaced from each other, but both are normal “perspective” views that are slightly different from those captured by the optical camera. However, stereoscopic vision forms a new single image that the brain “sees”, which is quite different from the normal perspective view that each eye sees. In fact, the single integrated image perceived by the brain is considerably distorted in several important respects compared to the normal perspective view seen by each eye.

例えば、単眼で見たときに、観察者から地平線まで走る鉄道線路のような平行線は、地平線で収束するように見える。しかし、立体視したときに、脳は線路を「より平行」であるように知覚する。すなわち、どちらか一方の目だけで見えるパースペクティブビューと比較して、線路間の距離が手前ではより狭く見え、遠方ではより広く見えることにより、収束が小さいように知覚する。換言すると、立体視は近くのオブジェクトの収縮および遠くのオブジェクトの拡大を生み出す。ここで「近い」および「遠い」とは、人の焦点面に対する相対的なものである。   For example, when viewed with a single eye, parallel lines such as railroad tracks that run from the observer to the horizon appear to converge at the horizon. However, when viewed stereoscopically, the brain perceives the tracks as being “more parallel”. That is, as compared with a perspective view that can be seen only by one of the eyes, the distance between the tracks appears to be narrower in the foreground and wider in the distance, so that the convergence is perceived to be small. In other words, stereoscopic viewing produces contraction of nearby objects and enlargement of distant objects. Here, “near” and “far” are relative to a person's focal plane.

近いオブジェクトおよび遠いオブジェクトの大きさの変化の3D知覚に対する効果は比較的限定的であるが、遠くのオブジェクトが近くのオブジェクトの相対速度と比較してより速く移動するように、画像シーケンス内の画像のオブジェクトの関係が立体視を連想させるように歪められる場合、結果的に得られるシーンは、運動シーケンスで奥行知覚増強画像を誘発するために使用することができる(すなわち奥行手掛かりを含む)。   The effects on the 3D perception of near and far object size changes are relatively limited, but the images in the image sequence so that the far object moves faster compared to the relative speed of the near object. The resulting scene can be used to induce depth perception enhancement images in motion sequences (ie including depth cues) if the object relationships are distorted to resemble stereoscopic viewing.

「運動シーケンス」とは、シーンの画角が徐々に変化する(すなわち「観察者」または「カメラ」がシーンの少なくとも一部に対して移動している)、映画またはビデオシーケンスのような一連の静止フレームに、上述した奥行手掛かりのあるシーンが提示されるということである。本発明の実施形態では、シーンを撮像する位置は、多くの異なる形の曲線のいずれかに添って存在することができる。位置は、シーンに対して横方向に移動し、かつ/またはシーンに対してズームインおよび/またはズームアウト運動を実行することができる。例えば、本発明の一部の実施形態では、位置は三次元の非平面曲線に沿って存在し、該曲線はシーンに対する3つの空間座標のファンクションを適切に記述することを要求される。本発明の一部の実施形態では、位置は平面曲線に沿って存在する。本発明の一部の実施形態では、位置は直線に沿って存在する。   A “motion sequence” is a series of movies or video sequences, such as a movie or video sequence, where the angle of view of the scene changes gradually (ie, the “observer” or “camera” moves relative to at least a part of the scene). That is, the scene with the depth clue described above is presented on the still frame. In embodiments of the present invention, the location where the scene is imaged can exist along any of a number of differently shaped curves. The position can move laterally with respect to the scene and / or perform zoom-in and / or zoom-out motions on the scene. For example, in some embodiments of the invention, the position exists along a three-dimensional non-planar curve, which is required to adequately describe a function of three spatial coordinates for the scene. In some embodiments of the invention, the position exists along a plane curve. In some embodiments of the invention, the position exists along a straight line.

光心、光軸、および焦点面のような実際のカメラの実際の特徴を表わすために本書で使用する用語は、適宜、コンピュータグラフィックスカメラの対応する特徴を指すことに留意されたい。   Note that the terms used herein to describe actual features of an actual camera, such as the optical center, optical axis, and focal plane, refer to corresponding features of a computer graphics camera as appropriate.

どんな理論にも束縛されることなく、奥行手掛かりおよび相対運動の結合により、真の三次元画像を見たときに脳が見る立体視誘発画像を充分に連想させる画像が形成され、脳が奥行手掛かりのあるシーンを、普通の二次元ディスプレイに提示されるものであるが、真の三次元画像と認識するように思われる。   Without being bound by any theory, the combination of depth cues and relative motion creates images that are sufficiently reminiscent of stereoscopic induction images seen by the brain when viewing true three-dimensional images, and the brain is a depth cues. It seems that a certain scene is recognized as a true three-dimensional image although it is presented on an ordinary two-dimensional display.

言うまでもなく、光学カメラを使用して、上述した必要な遠近歪みを具現するような仕方でシーンを取り込んで、前記奥行手掛かりのある撮像を達成することは不可能である。しかし、本発明に従って、そのような奥行手掛かりを手動で、または好ましくはコンピュータを使用して、人工的に生み出すことは可能である。コンピュータを使用してそのような画像を形成する場合、特定の像面および特定の視野角を特定の処理(拡大または縮小など)に自動的に委ねるアルゴリズムを使用することが可能である。   Needless to say, it is impossible to capture an image with the depth clue by using an optical camera to capture a scene in a manner that embodies the necessary perspective distortion described above. However, in accordance with the present invention, such depth cues can be created artificially, either manually or preferably using a computer. When using a computer to form such an image, it is possible to use an algorithm that automatically delegates a specific image plane and a specific viewing angle to a specific process (such as enlargement or reduction).

例えば所望の焦点距離(または注意の中心)にあるオブジェクトは、特定の焦点距離の仮想レンズを通して見られるとみなす一方、より近くのオブジェクトは焦点距離が徐々に短くなるレンズを通して見られ、より遠くのオブジェクトは焦点距離が徐々に長くなるレンズを通して見られるとみなしながら、近くのオブジェクトはより小さく、より遠くのオブジェクトはより大きくすることができ、そのような焦点距離および拡大の比率のみならず、そのような拡大のアスペクト比も、事前に調節可能に決定される。さらに、視野の周辺領域の画像が必ずしも視野の中心の画像と同程度の歪みを持たないように、仮想レンズの焦点距離をカメラからの距離(または焦点面より前または後の距離)の関数としてだけでなく、視野角の関数としても変化させることも可能であり、かつ望ましい。焦点距離のこの変化は、近いオブジェクトおよび遠いオブジェクトの相対運動を歪ませ、したがって運動シーケンスのフレーム間の画像を歪ませることに注目されたい。   For example, an object at the desired focal length (or center of attention) is considered to be seen through a virtual lens of a specific focal length, while closer objects are seen through a lens with progressively shorter focal lengths While considering an object to be seen through a lens with progressively longer focal lengths, nearby objects can be smaller and farther objects can be larger, not only such focal length and magnification ratio, but also The enlargement aspect ratio is also determined in advance to be adjustable. In addition, the focal length of the virtual lens as a function of the distance from the camera (or the distance before or after the focal plane) so that the image around the field of view does not necessarily have the same degree of distortion as the image at the center of the field of view. It is also possible and desirable to vary not only as a function of viewing angle. Note that this change in focal length distorts the relative motion of near and far objects and thus distorts the image between frames of the motion sequence.

本発明の別の実施形態では、所望の焦点距離(または注意の中心)にあるオブジェクトは、特定の焦点距離の仮想レンズを通して見られるとみなす一方、より近くのオブジェクトは焦点距離が徐々に短くなるレンズを通して見られ、より遠くのオブジェクトは焦点距離が徐々に長くなるレンズを通して見られるとみなしながら、各像面におけるオブジェクトの大きさを、カメラからのそれらの距離に対するそれぞれの正確な割合または寸法に維持することができる。この場合もまた、視野の周辺領域の画像は必ずしも視野の中心の画像と同じ焦点距離のレンズを通して見られないように、仮想レンズの焦点距離を、カメラからの距離(または焦点面より前または後の距離)の関数としてだけでなく、視野角の関数としても変化させることが可能である。   In another embodiment of the present invention, an object at a desired focal length (or center of attention) is considered to be seen through a virtual lens at a specific focal length, while closer objects are progressively shorter in focal length. The size of objects in each image plane can be scaled to their exact proportions or dimensions relative to their distance from the camera, assuming that the farther objects are seen through the lens as they are seen through the lens and the focal length gradually increases. Can be maintained. Again, the focal length of the virtual lens is set to the distance from the camera (or before or after the focal plane) so that the image in the peripheral area of the field of view is not necessarily viewed through a lens with the same focal length as the image in the center of the field of view. It is possible to change not only as a function of distance) but also as a function of viewing angle.

これらの上記実施形態の各々において、焦点距離の差異は、カメラ運動レートに対する近いオブジェクトまたは遠いオブジェクトの相対運動を変化させる。上述した実施形態では、異なる焦点距離の仮想レンズは各々、レンズの光軸に関して同軸的に配置された異なるカメラのものとすることができ、好ましくは、同一地点に、またはシーンの任意の地点から同一距離に共同配置することができる。換言すると、複数の仮想カメラは、各々の焦点距離が異なりかつ各々がシーンの指定された平面に関連付けられる複数のレンズを持つ、単一のカメラとみなすことができる。この方法は、各カメラレンズが必要なあらゆるカメラ運動を通して仮想シーンの適切な平面を自動的に取り込む、コンピュータ画像の自動または半自動生成に特に適している。本発明の一部の実施形態では、様々な焦点距離のレンズ(および任意選択的に撮像面)は、同一光軸に沿って間隔をおいて配置される。本発明の一部の実施形態では、仮想レンズの焦点距離は、シーンに対する、あるいはシーンにおける単数または複数の特定の特徴に対するそれらの位置の関数として変化する。   In each of these above embodiments, the focal length difference changes the relative motion of a near or far object relative to the camera motion rate. In the embodiments described above, the virtual lenses of different focal lengths can each be from different cameras arranged coaxially with respect to the optical axis of the lens, preferably at the same point or from any point in the scene Can be co-located at the same distance. In other words, multiple virtual cameras can be viewed as a single camera with multiple lenses, each with a different focal length and each associated with a specified plane of the scene. This method is particularly suitable for automatic or semi-automatic generation of computer images, where each camera lens automatically captures the appropriate plane of the virtual scene through any camera movement required. In some embodiments of the invention, lenses of various focal lengths (and optionally imaging surfaces) are spaced along the same optical axis. In some embodiments of the invention, the focal length of the virtual lens varies as a function of their position relative to the scene or to one or more particular features in the scene.

この発明の方法は特に、元来カメラによって取り込まれたコンピュータ「操作」画像、またはアニメ映画またはコンピュータゲームのように完全にコンピュータ生成される画像、またはそれらの組合せに特に有用である。   The method of the present invention is particularly useful for computer “manipulation” images originally captured by cameras, or images that are completely computer generated, such as animated movies or computer games, or combinations thereof.

本発明の態様に係る画像の第2型の例示的操作では、シーン内の要素の相対運動は、それらの奥行の関数として変化する。本発明の1実施形態では、コンピュータ生成される(または少なくとも部分的にコンピュータ生成またはコンピュータ操作される)シーンのビデオシーケンスが作成され、カメラはシーン内の少なくとも1つの要素に対して任意の方向に、または組合せ方向に、または他の運動方向(水平、垂直、対角、回転、ズーム、またはその他)に移動する。シーン内の他の要素の相対運動は、これらの他の要素の少なくとも一部が、第1要素よりカメラから近いか遠いかに関係なく、シーンのオブジェクトが相互に固定相対位置にあった場合に第1要素からのそれらのそれぞれの距離から決定されるより高い相対運動レートで移動するように行なわれる。   In a second type of exemplary manipulation of images according to aspects of the present invention, the relative motion of the elements in the scene varies as a function of their depth. In one embodiment of the present invention, a video sequence of a computer-generated (or at least partially computer-generated or computer-operated) scene is created and the camera is in any orientation relative to at least one element in the scene. Or move in the combined direction or in other motion directions (horizontal, vertical, diagonal, rotation, zoom, or other). The relative motion of the other elements in the scene is determined when the objects in the scene are in a fixed relative position relative to each other, regardless of whether at least some of these other elements are closer or farther from the camera than the first element. It is done to move at a higher relative motion rate determined from their respective distances from one element.

例証として、比較的静止状態の子供、背景の木、および前景のボールを含むコンピュータ生成シーンを想定し、子供の親が動く車両からビデオカメラでシーンを撮影していると仮定する。車両が動くにつれて、親は子供がカメラの視界の中心に維持されるようにカメラの照準を合わせ、よって子供を実質的に画像の中心にしたシーンの一連のカメラ画像を取得する。各々の画像で、子供は実質的にシーンの中心に位置するが、運動視差のため、画像のビデオシーケンスを見るときに、背景の木および前景のボールは子供に対して反対方向に移動する。運動視差はビデオシーケンスに少量の奥行を与える。しかし、ビデオシーケンスの画像は二次元画像であるため、実際のシーンを見たときに奥行の感覚を与える両眼手掛かりは、ビデオシーケンスから欠落している。その結果、ビデオシーケンスは、実際のシーンと比較して平坦に見え、「活気」が損なわれる傾向がある。   As an illustration, assume a computer-generated scene that includes a relatively stationary child, a background tree, and a foreground ball, and that the child's parent is shooting the scene with a video camera from a moving vehicle. As the vehicle moves, the parent aims the camera so that the child is maintained in the center of the camera's field of view, thus obtaining a series of camera images of the scene with the child substantially in the center of the image. In each image, the child is substantially located in the center of the scene, but due to motion parallax, the background tree and foreground ball move in the opposite direction relative to the child when viewing the video sequence of images. Motion parallax gives a small amount of depth to a video sequence. However, since the image of the video sequence is a two-dimensional image, a binocular cue that gives a sense of depth when viewing an actual scene is missing from the video sequence. As a result, the video sequence looks flat compared to the actual scene and tends to lose “liveness”.

本発明の実施形態では、表示されるビデオシーケンスに奥行感覚の増強および現実味をもたらすために、子供に対する木およびボール(ならびに任意選択的に、様々な距離にある他の特徴)の速度を増大する。表示画像の増加速度は、子供に対するそれらの距離に対応しかつそこから予想されるボールおよび木の速度より大きい。増加した相対速度は奥行感覚を増強し、子供と木とボールとの間の空間的分離を増大し、したがって画像に活気のある3D奥行をもたらす。   Embodiments of the present invention increase the speed of trees and balls (and optionally other features at various distances) to the child to provide depth sensation and realism to the displayed video sequence. . The increasing speed of the displayed image is greater than the speed of the ball and tree corresponding to and expected from their distance to the child. The increased relative speed enhances the depth sensation and increases the spatial separation between the child, the tree and the ball, thus providing a lively 3D depth in the image.

親によって取得された非増強ビデオシーケンスでは、ボール、木、および子供は全て依然として静止しており、それらの実世界の相対位置は変化していないことに注目されたい。ビデオシーケンス画像におけるボールおよび木の相対運動は、親がビデオシーケンスを取得する間の彼または彼女の運動の結果にすぎない。対照的に、本発明の実施形態に係るシーンの奥行増強画像は、木およびボールが子供に対して移動する「実世界」の画像に対応する。したがって、取得される仮想シーンの画像を上から見た場合、オブジェクトの相対位置はビデオシーケンス中に(例えば画像間に)移動する。   Note that in the unenhanced video sequence acquired by the parent, the ball, tree, and child are all still stationary and their real-world relative positions have not changed. The relative movement of the ball and tree in the video sequence image is only the result of his or her movement while the parent acquires the video sequence. In contrast, a scene depth augmented image according to an embodiment of the present invention corresponds to a “real world” image in which trees and balls move relative to a child. Thus, when viewing an image of the acquired virtual scene from above, the relative position of the object moves during the video sequence (eg, between images).

シーンのノーマルパースペクティブビューの場合、カメラによって撮影されたかコンピュータによって生成されたかに関係なく、シーンの動かない要素の相対位置はカメラ運動によって変化せず、したがってこれらの要素によって画定される円の半径は、そのようなカメラ運動に関係なく変化しないことが理解される。どんな特定の例または理論によっても束縛されることを希望するものではないが、発明者らは、本発明に従ってビデオシーケンスの奥行知覚の増強された感覚を生み出すのは、背景または前景(または中景)要素のこの誇張された相対運動であると考える。   In the normal perspective view of the scene, regardless of whether it was filmed by the camera or generated by the computer, the relative position of the non-moving elements in the scene does not change with camera motion, so the radius of the circle defined by these elements is It is understood that it does not change regardless of such camera movement. While not wishing to be bound by any particular example or theory, the inventors create the enhanced perception of depth perception of the video sequence in accordance with the present invention as the background or foreground (or the foreground). ) Think of this exaggerated relative movement of elements.

前述の例はオブジェクトを3つしか含まないが、本発明の範囲は非限定数のオブジェクトまたは要素を企図している。例えば前述の例では、芝生の芝の各葉に、あるいはいずれかのシーンにおける他のオブジェクトまたは要素のいずれかまたは全部に、同じ相対運動のルールを適用することができる。実際、シーンの全ての画素に対し、カメラからまたは別の基準点からの公称距離の関数として特定の相対運動レートを指定することができる。さらに、前記相対運動は視界全体にわたって直線的である必要はない(例えばフレームの中心でより顕著とし、周辺領域ではあまり目立たず、あるいはその逆とすることができる)。   Although the above example includes only three objects, the scope of the present invention contemplates an unlimited number of objects or elements. For example, in the example described above, the same rules of relative motion can be applied to each leaf of the lawn grass, or to any or all of the other objects or elements in any scene. In fact, for every pixel in the scene, a specific relative motion rate can be specified as a function of the nominal distance from the camera or from another reference point. Furthermore, the relative movement need not be linear throughout the field of view (eg, it can be more pronounced at the center of the frame and less noticeable in the surrounding area, or vice versa).

さらに、本発明で企図される奥行知覚の錯覚は、シーンの様々な奥行にかなりの数の要素があるときに増強されるが、必ずしも背景運動および前景運動の両方が存在する必要はないことが明らかになった。シーン内で移動する要素の少なくとも一部の相対運動は、前述の半径変化ルールに従うことが好ましい。   In addition, the depth perception illusions contemplated by the present invention are enhanced when there are a significant number of elements at various depths of the scene, but both background and foreground motions need not necessarily be present. It was revealed. The relative motion of at least some of the moving elements in the scene preferably follows the radius change rules described above.

本発明の1実施形態では、シーン内の各々の要素および/またはオブジェクトの相対運動を自動的に、または半自動的に、コンピュータプログラムまたはアルゴリズムによって制御することをさらに企図する。   One embodiment of the invention further contemplates controlling the relative movement of each element and / or object in the scene automatically or semi-automatically by a computer program or algorithm.

本発明の実施形態に係るシーン内の特徴の速度変化は、シーン内の特徴の相互に対する距離の変化またはそれらのスケールの変化を必ずしも随伴しないことが注目される。速度の変化は距離およびスケールの変化から切り離すことができるが、そのような変化と組み合わせて、またはそれらと協調して実行することもできる。   It is noted that changes in the speed of features in a scene according to embodiments of the present invention are not necessarily accompanied by changes in the distance between features in the scene or changes in their scale. Changes in speed can be decoupled from changes in distance and scale, but can also be performed in combination with or in concert with such changes.

一般に、運動シーケンスにおけるより遠い特徴の速度を、シーケンスにおけるより近い特徴からのその距離に対応する速度に対して増大または減少することによって、特徴間の奥行差の印象がそれぞれ増大または減少される。   In general, the impression of the depth difference between features is increased or decreased, respectively, by increasing or decreasing the speed of the farther features in the motion sequence relative to the speed corresponding to that distance from the closer features in the sequence.

本発明の一部の実施形態では、速度の予想外の変化は、時間的に変化するシーンの歪みを生じ、かつ従来のパースペクティブイメージング(perspective imaging)では再生することのできない可塑性の外観上の尺度をシーンに与えるように構成される。例えばノーマルパースペクティブビジョンおよびパースペクティブプロジェクションは、三次元シーンの直線を直線にマッピングする。他方、本発明の実施形態に係る速度変化は往々にして直線を曲線にマッピングし、それは一連の表示画像の提示中に時間的に変化することがある。発明者らは、目‐脳視覚系に対するそのような挑戦が、脳を刺激して比較的強い奥行感覚の増強を発生させるのに効果を発揮することができることを見出した。   In some embodiments of the present invention, an unexpected change in speed results in temporally distorted scene distortions and an appearance measure of plasticity that cannot be reproduced by conventional perspective imaging. Is configured to give to the scene. For example, normal perspective vision and perspective projection map straight lines in a three-dimensional scene to straight lines. On the other hand, speed changes according to embodiments of the present invention often map straight lines to curves, which may change over time during the presentation of a series of display images. The inventors have found that such a challenge to the eye-brain visual system can be effective in stimulating the brain to generate a relatively strong depth sensation enhancement.

下述するような本発明の実施形態に係る様々な方法のいずれも、シーン内の特徴の速度を独立して調整し、かつシーンの表示画像の運動シーケンスを生成するために使用することができる。一部の実施形態では、シーンは、シーン内の異なる奥行に各々配置されるレイヤに分割することができる。   Any of the various methods according to embodiments of the present invention as described below can be used to independently adjust the speed of features in the scene and generate a motion sequence of the displayed images of the scene. . In some embodiments, the scene can be divided into layers that are each placed at different depths in the scene.

レイヤは必ずしも平坦ではなく、例えば本発明の一部の実施形態では、レイヤは湾曲し、異なる厚さの領域を持つことができる。本発明の一部の実施形態では、レイヤは球状であるか、あるいは球状領域を有する。任意選択的に、レイヤは円筒状であるか、あるいは円筒状領域を有する。任意選択的にレイヤは平面状である。   The layer is not necessarily flat, for example, in some embodiments of the invention, the layer may be curved and have regions of different thickness. In some embodiments of the invention, the layer is spherical or has a spherical region. Optionally, the layer is cylindrical or has a cylindrical region. Optionally, the layer is planar.

少なくとも1つのレイヤは、該レイヤに配置された静止した特徴がシーン内の他の静止した特徴に対して移動して、本発明の実施形態に従ってシーンに所望の奥行感覚を生成するように、速度を割り当てられ、あるいは特定の焦点距離のレンズを通して見られる。シーケンスにおける異なる時間に、すなわち表示画像が表示される時間に、少なくとも1つのレイヤの特徴が、その割当て速度またはそれが見られるレンズの焦点距離の関数として、シーン内の他の特徴から変位されるように、運動シーケンスディスプレイにシーンを映し出すために、レイヤは例えばコンピュータを使用して処理される。   At least one layer has a speed such that stationary features placed in the layer move relative to other stationary features in the scene to produce a desired depth sensation in the scene according to embodiments of the invention. Or viewed through a lens with a specific focal length. At different times in the sequence, i.e. when the displayed image is displayed, the features of at least one layer are displaced from other features in the scene as a function of its assigned speed or the focal length of the lens at which it is viewed. As such, the layers are processed using, for example, a computer to project the scene to the motion sequence display.

本発明の実施形態に従ってシーンを分割したレイヤの厚さは、異なることができる。任意選択的に、各レイヤは均一な厚さを有する。本発明の一部の実施形態では、レイヤの厚さは異なることができる。例えば、速度が奥行の比較的平滑または精細な関数であることが望ましい領域では、レイヤは任意選択的に比較的薄い。速度を奥行の粗い関数とすることのできる他の領域では、レイヤは任意選択的に厚い。本発明の一部の実施形態では、レイヤは厚さ零に近づき、シーン内の特徴の速度またはそれが見られる焦点距離は奥行の平滑な関数になる。   The thickness of the layer into which the scene is divided according to the embodiment of the present invention can be different. Optionally, each layer has a uniform thickness. In some embodiments of the invention, the thickness of the layers can be different. For example, in regions where it is desirable for the velocity to be a relatively smooth or fine function of depth, the layer is optionally relatively thin. In other areas where the speed can be a rough function of depth, the layer is optionally thick. In some embodiments of the invention, the layer approaches zero thickness and the speed of the feature in the scene or the focal length at which it is seen is a smooth function of depth.

本発明の実施形態では、シーンの表示画像における特徴の速度を増大させるには、該表示画像のために特徴が撮像される距離が減少され、かつ/または特徴が撮像される焦点距離が増大される。シーンにおける特徴の見かけの速度を低減させるには、特徴が撮像される距離が増大され、かつ/または特徴が撮像される焦点距離が低減される。シーンにおける遠くのオブジェクトのより近い特徴に対する見かけの速度を増大することによって、特徴間の視差および奥行の見かけの差は増大する。同様に、シーンにおける遠くの特徴のより近い特徴に対する見かけの速度を低減することによって、特徴間の視差および奥行の見かけの差は減少する。   In an embodiment of the invention, to increase the speed of a feature in a display image of a scene, the distance at which the feature is imaged for the display image is decreased and / or the focal distance at which the feature is imaged is increased. The To reduce the apparent speed of features in a scene, the distance at which features are imaged is increased and / or the focal length at which features are imaged is reduced. By increasing the apparent speed for closer features of distant objects in the scene, the apparent difference in parallax and depth between features is increased. Similarly, by reducing the apparent speed of distant features to closer features in the scene, the parallax and depth apparent differences between features are reduced.

使用されるレイヤまたは焦点距離の個数が多ければ多いほど(すなわちシーンにおける変化が多いほど)、三次元効果が大きくなり、かつ真に迫ってくると考えられる。したがって、可能な範囲内で、計算時間等の限界を考慮しながら、レイヤの個数を増やすべきであり、かつ焦点距離の変化をできるだけ持続させるべきである。   It is believed that the more layers or focal lengths used (ie, the more changes in the scene), the greater the three-dimensional effect and the closer it will be. Therefore, within the possible range, the number of layers should be increased while taking into account limitations such as calculation time, and the change in focal length should be kept as long as possible.

本発明の一部の実施形態の1態様は、シーン内の特徴のスケールを変更することによって、シーンの表示画像に奥行手掛かりを生成することに関係する。   One aspect of some embodiments of the invention relates to generating depth cues in a displayed image of a scene by changing the scale of the features in the scene.

発明者らは、奥行知覚を増強させるために、特徴のスケール変化によって奥行手掛かりを生成しようとするシーンの特徴の特性の変化を随伴することが有利になり得ることを突き止めた。特に、発明者らは、直観に反するように見える特徴のスケール変化が、奥行手掛かりをサポートするのに有利であることを見出した。例えばシーンの画像内の特徴はそれらの奥行に比例し、遠い特徴は小さく、近い特徴は大きいが、発明者らは、奥行知覚を助長するにあたって、特徴をそれらの意図された奥行に比例してスケーリングすることから離れることが有利になり得ることを突き止めた。   The inventors have found that it can be advantageous to accompany changes in the characteristics of scene features that attempt to generate depth cues by changing the scale of the features to enhance depth perception. In particular, the inventors have found that changes in the scale of features that appear counterintuitive are advantageous in supporting depth cues. For example, features in the scene image are proportional to their depth, distant features are small and close features are large, but in order to facilitate depth perception, the inventors consider features to be proportional to their intended depth. We have found that it can be advantageous to move away from scaling.

特に、シーンのより深い奥行の感覚を助長するにあたって、本発明の実施形態では、シーンの中心から遠い特徴を、それらの奥行から予想されるより大きくスケーリングすることが有利になり得る。同様に、シーン内のより近い特徴を、それらの意図された奥行に比例するより小さくスケーリングすることが有利になり得る。発明者らには、この効果は、既知の大きさのオブジェクトがそれらの距離に関係なく一定の大きさを持つように知覚されるという、知覚される大きさの恒常現象に関連付けられるように感じられる。   In particular, in facilitating a deeper sense of depth in the scene, in embodiments of the present invention, it may be advantageous to scale features far from the center of the scene more than expected from their depth. Similarly, it may be advantageous to scale closer features in the scene to a smaller scale proportional to their intended depth. We feel that this effect is associated with a perceived magnitude homeostatic phenomenon where objects of known size are perceived to have a constant size regardless of their distance. It is done.

例えば第1人物が第2人物から歩いて遠ざかるときに、たとえ第2人物の目の網膜における第1人物の像が実際には、第1人物が第2人物から遠ざかるにつれて小さくなっても、第2人物は一般的に第1人物が小さくなっているという印象を持たない。同様に、遠ざかる鉄道線路に沿って見るときに、たとえ線路の近い部分の網膜像の線路間の間隔が線路の遠い部分の網膜像の線路間の間隔より大きくても、線路は平行しているように知覚される。つまり、線路間の間隔は、距離と共に小さくなるとは知覚されない。奥行手掛かりの生成および/またはサポートにおける本発明の実施形態に係るスケーリング効果の根拠に関しては、どんな特定の理論または解釈によっても限定されないが、スケーリングの効果は大きさの恒常性と並存することに帰することができるように思われる。   For example, when the first person walks away from the second person, even though the image of the first person in the retina of the second person's eye actually becomes smaller as the first person moves away from the second person, Two people generally do not have the impression that the first person is smaller. Similarly, when viewed along a railway line that moves away, the lines are parallel even if the distance between the lines of the retinal image near the line is larger than the distance between the lines of the retinal image near the line. Perceived as. In other words, it is not perceived that the distance between the tracks decreases with distance. The basis for the scaling effect according to embodiments of the present invention in the generation and / or support of depth cues is not limited by any particular theory or interpretation, but the effect of scaling is attributed to coexisting with magnitude constancy. Seems to be able to.

本発明の実施形態に係る方法は任意選択的に、増強された奥行知覚を達成する表示画像を生成し、かつ/または表示するのに使用される、フロッピー(登録商標)ディスク、CD、フラッシュメモリ、またはASICのような、様々なコンピュータアクセス可能な記憶媒体のいずれかにコード化される。本発明の実施形態に係る方法および装置は多くの異なる様々な用途および二次元の視覚的表現形式の奥行知覚を増強するために使用することができる。例えば、該方法は、コンピュータゲーム画像、アニメ映画、視覚広告、およびビデオトレーニングの奥行知覚を増強するために使用することができる。   A method according to embodiments of the present invention optionally uses a floppy disk, a CD, a flash memory used to generate and / or display a display image that achieves enhanced depth perception. Or any of a variety of computer-accessible storage media, such as ASICs. The methods and apparatus according to embodiments of the present invention can be used to enhance depth perception in many different different applications and two-dimensional visual representation formats. For example, the method can be used to enhance the depth perception of computer game images, animated movies, visual advertising, and video training.

したがって、本発明の実施形態では、所望の奥行錯覚を有するシーンの視覚表示を生成する方法であって、
シーンの表示画像のシーケンスを生成するステップと、
シーン内の特徴の速度を設定して、シーンの非遠近歪みを表示画像に生成するステップと、
表示画像を逐次的に表示するステップと、
を含む方法を提供する。
Accordingly, in an embodiment of the present invention, a method for generating a visual display of a scene having a desired depth illusion, comprising:
Generating a sequence of display images of the scene;
Setting the speed of features in the scene and generating non-perspective distortion of the scene in the display image;
Sequentially displaying display images;
A method comprising:

本発明の実施形態では、さらに、増強された奥行錯覚を有するシーンの視覚表示を生成する方法であって、
シーン内の少なくとも一部の特徴に関連して異なる位置に対して各画像を取得し、シーンの画像のシーケンスを生成するステップと、
表示画像を逐次的に表示するステップと、
を含み、
前記シーケンスを生成するステップが、
シーン内の特徴の位置を画像毎に系統的に設定して、画像の非遠近歪みを生成し、画像のシーケンスに増強された奥行知覚を提供するステップ、
を含んで成る方法を提供する。
In an embodiment of the present invention, there is further provided a method for generating a visual display of a scene having an enhanced depth illusion,
Acquiring each image for a different location in relation to at least some features in the scene and generating a sequence of images of the scene;
Sequentially displaying display images;
Including
Generating the sequence comprises:
Systematically setting the position of features in the scene for each image, generating non-perspective distortion of the image, and providing enhanced depth perception to the sequence of images;
A method comprising the steps of:

本発明の実施形態では、さらに、増強された奥行錯覚を有するシーンの視覚表示を生成する方法であって、
シーン内の少なくとも一部の特徴に関連して異なる位置から仮想カメラによって各画像を取得し、シーンの表示画像のシーケンスを生成するステップと、
表示画像を逐次的に表示するステップと、
を含み、
前記シーケンスを生成するステップが、シーン内の少なくとも1つの特徴に、シーン内で相互に対して名目上静止している特徴間の相対運動を生成する速度を提供するステップを含み、前記少なくとも1つの特徴の中の特定の特徴に提供される速度が、カメラに対するシーン内の特定の特徴の奥行の関数である、
方法を提供する。
In an embodiment of the present invention, there is further provided a method for generating a visual display of a scene having an enhanced depth illusion,
Acquiring each image by a virtual camera from a different location in relation to at least some features in the scene and generating a sequence of display images of the scene;
Sequentially displaying display images;
Including
Generating the sequence includes providing at least one feature in the scene with a speed to generate relative motion between features that are nominally stationary relative to each other in the scene; The speed provided for a particular feature in the feature is a function of the depth of the particular feature in the scene relative to the camera.
Provide a method.

任意選択的に、該方法は、請求項3に記載の視覚表示を生成するステップを含み、仮想カメラ位置は非平面三次元軌道に沿って存在する。代替的に、仮想カメラ位置は平面軌道に沿って存在する。任意選択的に、仮想カメラ位置は線形軌道に沿って存在する。   Optionally, the method comprises the step of generating a visual display according to claim 3, wherein the virtual camera position is along a non-planar three-dimensional trajectory. Alternatively, the virtual camera position exists along a planar trajectory. Optionally, the virtual camera position exists along a linear trajectory.

任意選択的に、位置の一部は他の位置よりシーンに近い。任意選択的に、少なくとも2つの位置がシーンに対して横方向に相互に変位する。   Optionally, some of the locations are closer to the scene than others. Optionally, at least two positions are displaced relative to each other laterally with respect to the scene.

本発明の実施形態では、カメラに対して異なる奥行にある特徴は異なる焦点距離で撮像される。   In embodiments of the invention, features at different depths relative to the camera are imaged at different focal lengths.

本発明の実施形態では、シーンはレイヤに分割される。任意選択的に、同一レイヤの特徴に対しては同一速度が設定される。任意選択的に、異なるレイヤに対しては異なる速度が設定される。   In an embodiment of the invention, the scene is divided into layers. Optionally, the same speed is set for features in the same layer. Optionally, different speeds are set for different layers.

本発明の実施形態では、仮想カメラの少なくとも1つの位置で、カメラはカメラの光軸に沿って異なる位置から異なるレイヤを撮像する。   In an embodiment of the invention, at least one position of the virtual camera, the camera images different layers from different positions along the camera's optical axis.

本発明の実施形態では、カメラに近い特徴には第1方向の速度が提供され、中間距離の特徴は静止し、より遠い距離の特徴には前記第1方向とは略反対の第2方向の速度が提供される。代替的に、カメラに近い特徴には第1方向の第1速度が提供され、中間距離の特徴には前記第1方向の前記第1速度より小さい第2速度が提供され、非常に大きい距離の特徴は静止する。代替的に、カメラに近い特徴は静止し、中間距離の特徴には第1方向の第1速度が提供され、遠い距離の特徴には前記第1方向の前記第1速度より大きい第2速度が提供される。任意選択的に、第1方向は前記異なる位置間の運動方向と略平行である。   In an embodiment of the present invention, features close to the camera are provided with a velocity in a first direction, features with an intermediate distance are stationary, and features with a greater distance are in a second direction substantially opposite to the first direction. Speed is provided. Alternatively, features close to the camera are provided with a first speed in a first direction, and features with an intermediate distance are provided with a second speed that is less than the first speed in the first direction, for very large distances. The feature is stationary. Alternatively, features near the camera are stationary, features at intermediate distance are provided with a first velocity in a first direction, and features at a far distance have a second velocity greater than the first velocity in the first direction. Provided. Optionally, the first direction is substantially parallel to the direction of motion between the different positions.

本発明の実施形態では、運動する特徴には相応して配置された静止オブジェクトに提供される変化と一貫性のある位置の変化または追加速度が提供される。   In an embodiment of the invention, the moving feature is provided with a change in position or an additional speed consistent with the change provided to the correspondingly arranged stationary object.

本発明の実施形態では、さらに、増強された奥行錯覚を有するシーンの視覚表示を生成する方法であって、
少なくとも一部のシーンの特徴に関連して異なる位置から仮想カメラによって各画像を取得して、シーンの表示画像のシーケンスを生成するステップと、
表示画像を逐次的に表示するステップと、
を含み、
仮想カメラがシーン内の特定の特徴を撮像する焦点距離が、カメラからの特定の特徴の距離の関数である、
方法を提供する。
In an embodiment of the present invention, there is further provided a method for generating a visual display of a scene having an enhanced depth illusion,
Acquiring each image by a virtual camera from a different location in relation to at least some scene features to generate a sequence of display images of the scene;
Sequentially displaying display images;
Including
The focal length at which the virtual camera images a particular feature in the scene is a function of the distance of the particular feature from the camera,
Provide a method.

任意選択的に、カメラから遠い一部の特徴は、カメラに比較的近い特徴を撮像するために使用される焦点距離より大きい焦点距離で撮像される。   Optionally, some features far from the camera are imaged at a focal length that is greater than the focal length used to image features that are relatively close to the camera.

任意選択的に、該方法は、観察者の両眼によって見ることができるように表示画像を表示することを含む。   Optionally, the method includes displaying the display image so that it can be viewed by both eyes of the observer.

本発明の実施形態では、さらに、前述の請求項のいずれかに従って生成される視覚表示画像を提供する。   Embodiments of the present invention further provide a visual display image generated according to any of the preceding claims.

本発明の実施形態では、さらに、本発明に係る視覚表示画像を含む視覚表示画像のシーケンスを提供する。   The embodiment of the present invention further provides a sequence of visual display images including the visual display image according to the present invention.

本発明の実施形態では、さらに、撮像位置が画像間で移動し、かつ静止オブジェクトがオブジェクトと撮像位置との間の距離に応じて画像間で相互に対して移動する、視覚画像のシーケンスを提供する。   Embodiments of the present invention further provide a sequence of visual images in which the imaging position moves between images and a stationary object moves relative to each other according to the distance between the object and the imaging position. To do.

本発明の実施形態では、さらに、本発明に係る方法または画像または視覚画像のシーケンスをコード化した、コンピュータアクセス可能な記憶媒体を提供する。   Embodiments of the present invention further provide a computer-accessible storage medium that encodes a method or a sequence of images or visual images according to the present invention.

(図面の簡単な記述)
本発明の実施形態の非限定的な実施例を以下で、この段落の後に列挙する本書に添付された図に関連して説明する。図において、複数の図に現われる同一の構造、要素、または部分には一般的に、それらが現われる全ての図で同一番号が付けられる。図に示される構成要素および特徴の寸法は、提示の便宜および明確さを図るために選択されたものであり、必ずしも縮尺通りではない。
図1Aは、先行技術に従って表示画像の運動シーケンスを提供するために撮像される、概要で論じたボール、少女、および木を含むシーンを模式的に示す。
図1Bは、本発明の実施形態に従って運動シーケンスを提供するために撮像される、図1Aに示したシーンを模式的に示す。
図1Cは、図1Aに示すように先行技術に従って生成され、かつ図1Bに示すように本発明に従って生成された、表示画像のシーケンスを模式的に示す。
図2は、本発明の実施形態に従ってシーンをレイヤに分割し、レイヤに速度を割り当てることを模式的に示す。
図3A〜3Eは、本発明の実施形態に従ってシーンの表示画像を生成するために使用されるシーンのバージョンの歪みを模式的に示す。
図4は、本発明の実施形態に係る、図3A〜3Eに示した歪みの平面図を示す。
図5Aは、シーンの異なる特徴を異なる焦点距離で撮像することによって表示画像を生成することを模式的に示す。
図5Bは、図1Aに示すように先行技術に従って生成され、かつ図5Aに示すように本発明に従って生成された表示画像のシーケンスを模式的に示す。
(Simple description of the drawing)
Non-limiting examples of embodiments of the present invention are described below with reference to the figures attached to this document listed after this paragraph. In the figures, identical structures, elements or portions that appear in more than one figure are generally numbered the same in all the figures in which they appear. The dimensions of the components and features shown in the figures have been selected for the convenience and clarity of presentation and are not necessarily to scale.
FIG. 1A schematically illustrates a scene including the ball, girl, and tree discussed in the overview that is imaged to provide a motion sequence of displayed images according to the prior art.
FIG. 1B schematically illustrates the scene shown in FIG. 1A that is imaged to provide a motion sequence in accordance with an embodiment of the present invention.
FIG. 1C schematically shows a sequence of display images generated according to the prior art as shown in FIG. 1A and generated according to the present invention as shown in FIG. 1B.
FIG. 2 schematically illustrates dividing a scene into layers and assigning speeds to the layers according to an embodiment of the present invention.
3A-3E schematically illustrate distortion of a version of a scene used to generate a display image of the scene according to an embodiment of the present invention.
FIG. 4 shows a top view of the distortion shown in FIGS. 3A-3E, according to an embodiment of the present invention.
FIG. 5A schematically illustrates generating a display image by capturing different features of the scene at different focal lengths.
FIG. 5B schematically shows a sequence of display images generated according to the prior art as shown in FIG. 1A and generated according to the present invention as shown in FIG. 5A.

図1Aは、先行技術に従って、砂時計アイコン520で表わされる移動するカメラによって撮像される、木501、木の前の少女502、および少女の前のボール503を含むシーン500を模式的に示す。砂時計アイコンのくびれ521はカメラ520の光心を表わし、破線522はカメラの光軸を表わす。任意選択的に、カメラ520は直線軌道530に沿って、ブロック矢印531によって示される方向に定速で移動し、シーン500のカメラ画像を規則的間隔で取得する。   FIG. 1A schematically illustrates a scene 500 including a tree 501, a girl 502 in front of a tree, and a ball 503 in front of a girl, imaged by a moving camera represented by an hourglass icon 520, according to the prior art. The hourglass icon constriction 521 represents the optical center of the camera 520, and the broken line 522 represents the optical axis of the camera. Optionally, the camera 520 moves at a constant speed along the linear trajectory 530 in the direction indicated by the block arrow 531 and acquires camera images of the scene 500 at regular intervals.

例として、カメラ520は、シーン500の画像を取得する軌道530に沿った各々の位置で、その光軸が少女502と交差するように方向付けられる。カメラ520は、シーンの画像の運動シーケンスを提供するのに使用するために、それが軌道530に沿ってシーン500の対応する表示画像IM1〜IM5を取得する5つの位置P1〜P5に模式的に示される。シーン500は実際のシーンとすることができ、カメラ520は、例えば車に乗っているシーン内の少女の親によって保持された実際のカメラとすることができる。しかし、提示の便宜を図るために、画像500は合成画像であり、カメラ520はシーン500の画像を取得するコンピュータグラフィックスカメラであると仮定する。   As an example, the camera 520 is oriented such that its optical axis intersects the girl 502 at each position along the trajectory 530 that captures the image of the scene 500. The camera 520 is schematically shown in five positions P1-P5 where it obtains corresponding display images IM1-IM5 of the scene 500 along a trajectory 530 for use in providing a motion sequence of the images of the scene. Indicated. The scene 500 can be an actual scene, and the camera 520 can be, for example, an actual camera held by a girl's parent in a scene in a car. However, for convenience of presentation, it is assumed that image 500 is a composite image and camera 520 is a computer graphics camera that acquires an image of scene 500.

画像IM1〜IM5は裏から、上下さかさまに、かつ左右が反転された状態で、それらがカメラ520によって取得される向きに図示されている。画像IM1〜IM5はそれぞれ観察者に見える、画像IM1〜IM5の向きに対して左右を逆転し、上下を正しく向けた画像IM1〜IM5である。画像IM1〜IM5の一部に対し、カメラ520の光心521を通過して画像に入射する木501の中心点561からの光線560は、該中心点の画像における位置を示す。同様に、光線570は、画像IM1〜IM5の一部に対し、ボール503の中心点571の画像の位置を示す。少女502の中心点580は、全ての画像IM1〜IM5で、画像が光軸522と交差する位置に投影される。 Images IM <b> 1 to IM <b> 5 are illustrated in the orientation in which they are acquired by the camera 520 from the back, upside down and in a state where the left and right are inverted. The images IM1 * to IM5 * are images IM1 to IM5 that are viewed by the observer and are reversed right and left with respect to the directions of the images IM1 to IM5 and correctly oriented up and down. For a part of the images IM1 to IM5, a light beam 560 from the center point 561 of the tree 501 that passes through the optical center 521 of the camera 520 and enters the image indicates the position of the center point in the image. Similarly, the light ray 570 indicates the position of the image of the center point 571 of the ball 503 with respect to a part of the images IM1 to IM5. The center point 580 of the girl 502 is projected at a position where the image intersects the optical axis 522 in all the images IM1 to IM5.

提示の便宜を図るために、位置P3で、光軸522は、木501および少女502の中心点561および580を通過し、かつボールの中心571の真上にあたるボール503の外周上の最上部「頂」点572を通過する。位置P1およびP2はそれぞれ、位置P3でカメラ520の光心521を通過する軌道530に垂直な面における位置P4およびP5の鏡像である。位置P3で少女、木、およびボールは相互に前後に整列するので、画像IM3が取得される位置P3で、ボール、少女、および木の画像は、互いに重ねて層化される。画像IM1〜IM5で、運動視差のため、木501は少女502の左側から少女の右側に徐々に移動し、ボール503は少女の右側から左側に徐々に移動する。ボールおよび木が少女に対して移動する量は、画像IM1〜IM5が逐次的に示されたときに、少量の奥行知覚をもたらすことができる。   For convenience of presentation, at position P 3, the optical axis 522 passes through the center points 561 and 580 of the tree 501 and the girl 502 and is directly above the ball center 571 on the outer periphery of the ball 503. Pass the “top” point 572. Positions P1 and P2 are mirror images of positions P4 and P5, respectively, in a plane perpendicular to the trajectory 530 passing through the optical center 521 of the camera 520 at the position P3. Since the girl, tree, and ball are aligned one after another at the position P3, the image of the ball, girl, and tree is layered on top of each other at the position P3 where the image IM3 is acquired. In the images IM1 to IM5, due to motion parallax, the tree 501 gradually moves from the left side of the girl 502 to the right side of the girl, and the ball 503 gradually moves from the right side to the left side of the girl. The amount that the ball and tree move relative to the girl can provide a small amount of depth perception when the images IM1-IM5 are shown sequentially.

図1Bは、本発明に従って増強された奥行感覚を生成するシーン500の運動シーケンスのための画像表示を提供するように撮像されるシーン500を模式的に示す。   FIG. 1B schematically illustrates a scene 500 that is imaged to provide an image display for a motion sequence of the scene 500 that generates an enhanced depth sensation in accordance with the present invention.

図1Aの場合と同様に、図1Bで、カメラ520は軌道530に沿って移動し、光軸522が少女502と各々交差する位置P1〜P5でシーン500の画像を取得する。しかし、図1Aとは異なり、木501およびボール502は、カメラ520による撮像中に静止していない。代わりに、木501は任意選択的に、撮像中にブロック矢印590で示すように左から右に移動し、任意選択的にボール503は、ブロック矢印591で示すように、撮像中に右から左に移動する。カメラ520の位置P1〜P5で、木501はそれぞれ対応する位置T1〜T5で撮像され、ボール503はそれぞれ位置B1〜B5で撮像される。位置P1〜P5でカメラ520によって取得される図はIM11〜IM15と表示され、表示配向の状態ではIM11〜IM15と表示される。 As in FIG. 1A, in FIG. 1B, the camera 520 moves along the trajectory 530 and acquires an image of the scene 500 at positions P1 to P5 where the optical axis 522 intersects the girl 502, respectively. However, unlike FIG. 1A, the tree 501 and the ball 502 are not stationary during imaging by the camera 520. Instead, the tree 501 optionally moves from left to right as shown by the block arrow 590 during imaging, and optionally the ball 503 moves from right to left during imaging as shown by the block arrow 591. Move to. At positions P1 to P5 of the camera 520, the tree 501 is imaged at corresponding positions T1 to T5, and the ball 503 is imaged at positions B1 to B5, respectively. The figures acquired by the camera 520 at the positions P1 to P5 are displayed as IM11 to IM15, and are displayed as IM11 * to IM15 * in the display orientation state.

一部の実施形態では、木501およびボール503は、好ましくはカメラ520の移動と平行な方向に定速で移動する。任意選択的に、それらは変動速度で移動する。例として、図1Bで、木501は定速で移動し、位置T1〜T5は等間隔である。ボール503は位置B2〜B4の間を定速で移動する。しかし、位置B1およびB2の間、ならびに位置B4〜B5の間では、ボール503は任意選択的に、それが位置B2〜B4間で移動する速度より高い速度で移動する。   In some embodiments, the tree 501 and the ball 503 move at a constant speed, preferably in a direction parallel to the movement of the camera 520. Optionally, they move at a varying speed. As an example, in FIG. 1B, the tree 501 moves at a constant speed, and the positions T1 to T5 are equally spaced. The ball 503 moves at a constant speed between the positions B2 to B4. However, between positions B1 and B2 and between positions B4 and B5, the ball 503 optionally moves at a higher speed than the speed at which it moves between positions B2 and B4.

位置B1およびB2の間、ならびにB4およびB5の間のボール503の速度の増大は、P3から比較的遠い位置で取得される画像における少女とボールとの間の相対運動を増強する。P3から遠い位置では、ボールからの光線が光軸522と交差する角度が比較的大きいので、ボール503が所与の同一速度で移動する場合、透視画像IM11およびIM15におけるボールと少女との間の相対運動は、画像IM12〜IM14の場合と比較して実質的に低減される。   Increasing the velocity of the ball 503 between positions B1 and B2 and between B4 and B5 enhances the relative motion between the girl and the ball in an image acquired at a position relatively far from P3. At a position far from P3, the angle at which the light beam from the ball intersects the optical axis 522 is relatively large, so that when the ball 503 moves at the same given speed, between the ball and the girl in the perspective images IM11 and IM15. The relative movement is substantially reduced compared to the case of the images IM12 to IM14.

木501およびボール503の「人工的な」運動のため、画像IM11〜IM15のシーケンスでは、木およびボールは、画像I1〜I5における場合より、少女に対して、かつ相互に対して、かなり大きい距離を移動する。比較を容易にするために、図1Aで取得された画像IM1〜IM5および画像IM11〜IM15を図1Cに示す。画像IM118〜IM15における木およびボールの大きい相対運動の結果、本発明の実施形態に係る画像IM11〜IM15を含む運動シーケンスは、画像I1〜I5を含む対応する運動シーケンスと比較して、増強された奥行知覚を示す。 Due to the “artificial” movement of the trees 501 and balls 503, in the sequence of images IM11 * to IM15 * , the trees and balls are relative to the girl and to each other than in the images I1 * to I5 * . Move a fairly large distance. For ease of comparison, images IM1 * to IM5 * and images IM11 * to IM15 * acquired in FIG. 1A are shown in FIG. 1C. Image IM118~IM15 * results of a large relative movement of the tree and the ball in the exercise sequence including image IM11 * ~IM15 * according to the embodiment of the present invention, as compared to corresponding movement sequence including the image I1 * ~I5 * Show enhanced depth perception.

図1Aおよび1Bにおける軌道530に沿ったカメラ520の移動はシーン500と相対的なものであり、位置P1〜P5で取得した画像は言うまでもなく、カメラを静止状態に維持し、シーンを動かすことによって再現することができることが注目される。「不動カメラ」の場合、図1Bに示すような、本発明に係るシーン500における特徴の速度変化の効果は、速度のベクトル加法によってもたらすことができる。図1Aに係る画像は実際のカメラによって取得することができるが、図1Bの画像は一般的にそのように取得することができないことが注目される。しかし、本発明の方法は、実際のオブジェクトの複合画像およびアニメーションの両方に適する。それらは実像を操作する際に限定的に使用することもできる。   The movement of the camera 520 along the trajectory 530 in FIGS. 1A and 1B is relative to the scene 500, by keeping the camera stationary and moving the scene, not to mention the images acquired at positions P1-P5 It is noted that it can be reproduced. In the case of the “non-moving camera”, the effect of the speed change of the feature in the scene 500 according to the present invention as shown in FIG. 1B can be brought about by the vector addition of speed. It should be noted that while the image according to FIG. 1A can be acquired by an actual camera, the image of FIG. 1B cannot generally be acquired as such. However, the method of the present invention is suitable for both composite images and animations of actual objects. They can also be used in a limited way when manipulating real images.

一般に、シーン500のようなシーンは、単なる木、少女、およびボールより多くの特徴を有し、通常、草、石、低木、木にぶらさがったブランコ、およびおそらく、この物語を作りあげる間静止させておくことが困難であることが最も確実である犬を含むであろう。シーン500の現実味を維持するために、一般的に、木およびボールの速度を調整することに加えて、シーン内の特徴(図示せず)の速度を調整することが有利である。   In general, a scene such as scene 500 has more features than just a tree, a girl, and a ball, usually grass, stones, shrubs, swings hung on a tree, and perhaps stationary during the creation of this story. Will include dogs that are most certain to be difficult to keep. In order to maintain the realism of the scene 500, it is generally advantageous to adjust the speed of features (not shown) in the scene in addition to adjusting the speed of the trees and balls.

本発明の実施形態では、シーン500における追加的特徴の速度を調整するために、シーンは、任意選択的に各々軌道と平行でありかつ軌道530から異なる距離に配置されるレイヤに分割される。図2は、本発明の実施形態に従って複数のレイヤ600に分割されたシーン500を模式的に示す。任意選択的に、レイヤ600は平面状であり、同一の均等な厚さを有する。   In an embodiment of the invention, to adjust the speed of additional features in the scene 500, the scene is divided into layers that are each optionally parallel to the trajectory and located at different distances from the trajectory 530. FIG. 2 schematically shows a scene 500 divided into a plurality of layers 600 according to an embodiment of the present invention. Optionally, layer 600 is planar and has the same uniform thickness.

本発明の実施形態では、シーン500内の特徴の速度の比較的平滑な変化がそれらのそれぞれの奥行の関数として存在するように、各レイヤ600には速度が提供される。601、602、および603と表示されたレイヤは、木501、少女502、およびボール503をそれぞれ含む。線611に沿ってレイヤ600に対向して配列された矢印610は、本発明の実施形態に従ってレイヤに割り当てられる速度を模式的に示す。所与のレイヤ600に割り当てられる速度は、レイヤに対向する矢印610によって示される。矢印の方向は速度の方向を模式的に示し、矢印の長さはその大きさを模式的に示す。木501およびボール503を含むレイヤ601および603は反対方向の速度を割り当てられ、それらのそれぞれの方向で最大の、必ずしも等しくない速度を有する。カメラ520は、その向きを光軸522が少女に向けられるように調整しながら、軌道530に沿って移動すると想定されるので、少女502を含むレイヤ602は速度零を割り当てられる。   In an embodiment of the present invention, each layer 600 is provided with a speed so that relatively smooth changes in the speed of features in the scene 500 exist as a function of their respective depths. The layers labeled 601, 602, and 603 include a tree 501, a girl 502, and a ball 503, respectively. An arrow 610 arranged along the line 611 and facing the layer 600 schematically illustrates the rate assigned to the layer in accordance with an embodiment of the present invention. The rate assigned to a given layer 600 is indicated by the arrow 610 facing the layer. The direction of the arrow schematically indicates the direction of the speed, and the length of the arrow schematically indicates the magnitude thereof. Layers 601 and 603, including tree 501 and ball 503, are assigned speeds in opposite directions and have maximum, not necessarily equal speeds in their respective directions. Since the camera 520 is assumed to move along the trajectory 530 while adjusting its orientation so that the optical axis 522 is directed at the girl, the layer 602 that includes the girl 502 is assigned zero velocity.

速度610は、本発明の実施形態では、様々な方法で決定することができる。例えばZが所与のレイヤ600の軌道530からの距離であり、かつZが少女502の軌道からの距離である場合、速度610の大きさは(Z−Z)の累乗に比例し、例えば(Z−Z1/2または(Z−Zまたは指数関数eα|(Z−Z)|とすることができる。さらに、例えば軌道530に沿ったカメラ200の進行によって測定されるように、かつ画像IM11〜IM15(図1Bおよび1C)が運動シーケンスで表示される場合に表示の時間感覚に変換されるように、速度610は必ずしも時間的に一定ではない。例えば、図1Bに位置B1〜B5で示すように、かつ図の説明で述べたように、ボール503には一定速度が割り当てられない。また、図2では、シーン500内の特徴の速度はそれらが配置されるレイヤ600の速度610によって決定され、該速度は本質的に異なる速度を有するレイヤ間の境界で不連続であるが、本発明の一部の実施形態では、特徴の速度はシーンにおける奥行の連続関数であることが注目される。したがってレイヤの個数を増加することが望ましいと考えられる。 The speed 610 can be determined in various ways in embodiments of the present invention. For example, if Z is the distance from the trajectory 530 of a given layer 600 and Z 0 is the distance from the trajectory of girl 502, then the magnitude of velocity 610 is proportional to the power of (Z−Z 0 ), For example, it can be (Z−Z 0 ) 1/2 or (Z−Z 0 ) 2 or the exponential function e α | (Z−Z 0 ) |. Further, for example, as measured by the progress of the camera 200 along the trajectory 530, and when the images IM11 * -IM15 * (FIGS. 1B and 1C) are displayed in motion sequences, they are converted into a time sensation of display. In addition, the speed 610 is not necessarily constant over time. For example, as indicated by positions B1 to B5 in FIG. 1B and as described in the description of the figure, the ball 503 is not assigned a constant speed. Also in FIG. 2, the speed of features in the scene 500 is determined by the speed 610 of the layer 600 in which they are placed, which is discontinuous at the boundary between layers with essentially different speeds. It is noted that in some embodiments of the invention, the feature speed is a continuous function of depth in the scene. Therefore, it is considered desirable to increase the number of layers.

本発明の様々な実施形態では、他の速度プロファイルを使用することができることが注目される。図2に示す実施形態の場合、子供は静止している。本発明の他の実施形態では、静止面は事実上、カメラの運動面と無限遠との間の任意の平面とすることができる。   It is noted that other speed profiles can be used in various embodiments of the invention. In the case of the embodiment shown in FIG. 2, the child is stationary. In other embodiments of the invention, the stationary surface can be virtually any plane between the camera's motion plane and infinity.

画像IM11〜IM15の運動シーケンスによって生じる奥行知覚の感覚は、速度610の選択によって生じる、ボール、少女、木、およびそれらの間に介在するレイヤ600の特徴の増大する相対速度によって増強されるだけではない。発明者らは、奥行感覚の増強が、速度の選択によって画像IM11〜IM15のシーケンスに導入される歪みによっても引き起こされるようであることを突き止めた。 The sense of depth perception caused by the motion sequence of images IM11 * -IM15 * is enhanced by the increasing relative speed of the ball, girl, tree, and layer 600 features intervening between them, resulting from the selection of speed 610. not only. The inventors have found that the enhancement of depth sensation seems to also be caused by distortion introduced into the sequence of images IM11 * -IM15 * by the choice of speed.

例えば、シーン500の取得された画像のシーケンスは、木501が移動せず、前提として少女は立ち止まっており、無生物のボールは自発的には動かない、「実際」のシーンであると仮定する。木、ボール、および少女は、直線が木および少女の中心点561および580ならびにボール503の頂点572を通過するように、図1Aに示すのと同様に互いに前後に整列するものと仮定する。カメラ520が位置P3に配置されたときに、線は任意選択的に光軸522と一致する。例えば図1Aに示す従来の透視撮像法では、この線は、シーン500の全ての直線と同様に、カメラの全ての位置でカメラ520によって得られる直線にマッピングされる。   For example, assume that the sequence of acquired images of the scene 500 is an “actual” scene where the tree 501 does not move, the girl is stationary as a premise, and the inanimate ball does not move spontaneously. Assume that the tree, ball, and girl are aligned back and forth as shown in FIG. 1A so that the straight line passes through the tree and girl center points 561 and 580 and the vertex 572 of the ball 503. When the camera 520 is placed at position P3, the line optionally coincides with the optical axis 522. For example, in the conventional fluoroscopic imaging method shown in FIG. 1A, this line is mapped to a straight line obtained by the camera 520 at every position of the camera, like every straight line in the scene 500.

しかし、本発明の実施形態に従ってシーン500を撮像する場合、シーン内の特徴および/またはレイヤに割り当てられる速度は、透視撮像法の制約を取り除くひずみを導入し、結果的に直線が曲線にマッピングされる。図3A〜3Eは、例えば図1Bに示したのと同様の本発明の実施形態に係る速度の選択を使用してシーン500を撮像することによって、画像IM11〜IM15に導入される「遠近破壊(perspective breaking)」歪みを模式的に示す。 However, when imaging a scene 500 in accordance with an embodiment of the present invention, the speed assigned to features and / or layers in the scene introduces distortion that removes the limitations of fluoroscopic imaging, resulting in the mapping of straight lines to curves. The FIGS. 3A-3E show the “perspective” introduced into the images IM11 * -IM15 * , for example by imaging the scene 500 using a speed selection according to an embodiment of the invention similar to that shown in FIG. 1B. FIG. 5 schematically illustrates a “perspective breaking” strain.

図3A〜3Eは、カメラ520の位置P1〜P5(図1B)の各々について、少女502に対する木501およびボール503の位置を示す。木、少女、およびボールの空間関係を視覚化するのを助けるために、少女に対して静止しており、かつ少女の中心点580にその原点を有するxyz座標系が各々の図に示されている。線621〜625は、図3A〜3Eで中心点561および580ならびに頂点572を接続し、全ての図で、各線621〜625は、例えば図2に従って速度が調整されるシーン500内の他の各々の特徴の同じ点を通過するものと推定される。画像3Cで、線623は直線であり、「実際のシーン500」で木、少女、およびボールが座標系のy軸に沿って整列するという前提を正しく反映している。しかし、図3A、3B、3D、および3Eでは、本発明の実施形態に係る速度変化は、実際のシーンを歪んだシーンに変形させ、線623は、もはや直線ではない線621、622、624、および625にそれぞれ変形される。同様に、実像では直線である(図3C)ほとんどすべての他の線が、直線ではない線に変形される。   3A-3E show the position of the tree 501 and ball 503 relative to the girl 502 for each of the positions P1-P5 (FIG. 1B) of the camera 520. FIG. Each figure shows an xyz coordinate system that is stationary with respect to the girl and has its origin at the girl's center point 580 to help visualize the spatial relationship of the tree, girl, and ball. Yes. Lines 621-625 connect the center points 561 and 580 and the vertex 572 in FIGS. 3A-3E, and in all figures, each line 621-625 is each other in the scene 500 where the speed is adjusted, eg, according to FIG. It is estimated that it passes through the same point of the feature. In image 3C, line 623 is a straight line and correctly reflects the assumption that trees, girls, and balls are aligned along the y-axis of the coordinate system in “actual scene 500”. However, in FIGS. 3A, 3B, 3D, and 3E, the speed change according to embodiments of the present invention transforms the actual scene into a distorted scene, and the line 623 is no longer a straight line 621, 622, 624, And 625, respectively. Similarly, almost all other lines that are straight lines in the real image (FIG. 3C) are transformed into non-straight lines.

図4は、線623が位置P1、P2、P3、およびP4で受ける歪みが容易に見えるように、図3A〜3Eに示したシーンを相互に上下に重ね合わせた平面図、すなわちz軸に沿った観点から見た図を示す。木501およびボール503の各々の位置は、木およびボールの位置に対応するカメラ520の位置で表示されている。少女502の位置は変化しないので、いずれのカメラ位置も表示されていない。   FIG. 4 is a plan view of the scenes shown in FIGS. 3A-3E overlaid on top of each other, i.e., along the z-axis, so that the distortion that line 623 experiences at positions P1, P2, P3, and P4 is easily visible. The figure seen from the standpoint. Each position of the tree 501 and the ball 503 is displayed at the position of the camera 520 corresponding to the position of the tree and the ball. Since the position of the girl 502 does not change, no camera position is displayed.

従来の透視撮像法のように直線が直線にマッピングされないだけでなく、図3A〜3Eおよび図4に示すように、直線が投影された略曲線は時間と共に変化する。画像IM11〜IM15(図1B、図1C)は歪みを記録し、したがって実際のシーンに対応する画像のシーケンスを提供しない。代わりに、画像は、本発明の実施形態では、任意選択的にたとえごくわずかでも多少可塑性があり、かつ画像IM11〜IM15に記録されるように、画像を逐次的に見たときに奥行感覚の増強をもたらす経時変化歪みを特徴とするシーンを記録する。 Not only does the straight line not be mapped to the straight line as in the conventional fluoroscopic imaging method, but also, as shown in FIGS. 3A to 3E and FIG. Images IM11 * -IM15 * (FIGS. 1B, 1C) record distortion and therefore do not provide a sequence of images corresponding to the actual scene. Instead, the image is, in embodiments of the present invention, optionally depth even when slightly visible and is recorded in the images IM11 * -IM15 * when viewed sequentially. Record scenes characterized by time-varying distortions that result in enhanced sensation.

本発明の一部の実施形態では、シーン500のようなシーン内の特徴は、画像シーケンスにおける特徴の相対速度、および画像を使用する運動シーケンスの奥行知覚を制御するために、異なる焦点距離で撮像される。例えば、シーン内の所与の特徴の他の特徴に対する相対速度は、該特徴を他の特徴より大きい焦点距離で撮像することによって増大または低減することができる。   In some embodiments of the invention, features in a scene, such as scene 500, are imaged at different focal lengths to control the relative speed of the features in the image sequence and the depth perception of the motion sequence using the image. Is done. For example, the relative speed of a given feature with respect to other features in the scene can be increased or decreased by imaging the feature with a larger focal length than the other features.

本発明の実施形態では、異なる焦点距離を持つカメラが、実像が目によって映し出される方法を模倣するものであると発明者らが信じる方法で、光軸に沿って間隔配置される。特に、ある焦点距離で所与の平面が、視界がαの角度を成す第1レンズで撮像される。異なる平面を撮像するように意図された他の焦点距離の場合、カメラは、それらの視野角で特定の平面の同一領域が見える軸に沿った位置に配置される。   In an embodiment of the invention, cameras with different focal lengths are spaced along the optical axis in a way that we believe to mimic the way a real image is projected by the eye. In particular, a given plane at a certain focal length is imaged with a first lens whose field of view forms an angle α. For other focal lengths intended to image different planes, the cameras are placed at positions along the axis where the same area of a particular plane is visible at their viewing angles.

したがって、本発明の実施形態では、同一シーンに照準を合わせたカメラの組が光軸に沿って間隔配置される。前段落の規定に従うことによって、各カメラの焦点距離は、各々の特定のカメラのシーンからの様々な距離のために発生する、相対スケールの変化を補償するように調整される。その結果、全てのカメラは、同一スケールで、しかし異なる焦点距離で、同一シーンを見る。   Therefore, in the embodiment of the present invention, a set of cameras aiming at the same scene is spaced along the optical axis. By following the provisions of the previous paragraph, the focal length of each camera is adjusted to compensate for the relative scale changes that occur for different distances from the scene of each particular camera. As a result, all cameras see the same scene at the same scale, but at different focal lengths.

全てのカメラがシーンの奥行の一部分しか見ないので、(軸方向に間隔配置された異なるカメラによって見られる)全ての「スライス」から構成されるピクチャは、シーン全体を投影する。カメラが光軸に対し横方向に移動するときに、シーン間の遠近感の変化が増強されるという事実のため、結果的に得られる画像シリーズは、かなり増強された奥行のかなり増強された知覚を伝達する。画像間の遠近感の変化の増大によって生じるこの種の奥行増強は、公知の方法を使用する現実の世界またはコンピュータグラフィックスの世界のいずれにおいても、一定焦点距離を持つ従来のレンズを使用して達成することは、不可能ではないにしても困難である。   Since all cameras see only a portion of the depth of the scene, a picture made up of all “slices” (seen by different axially spaced cameras) projects the entire scene. Due to the fact that the change in perspective between scenes is enhanced when the camera moves laterally with respect to the optical axis, the resulting image series has a significantly enhanced perception of significantly enhanced depth. To communicate. This type of depth enhancement caused by an increased perspective change between images, using a conventional lens with a constant focal length, either in the real world using known methods or in the computer graphics world. Achieving is difficult if not impossible.

上記の方法論は、この実施形態がなぜ機能するかについての発明者らの理解に基づくが、発明者らは、立証されていない説明によって束縛されることを望んではいない。しかし、該実施形態は被写界深度の知覚の増強を達成することが明らかになった。   The above methodology is based on our understanding of why this embodiment works, but we do not want to be bound by an unproven explanation. However, it has been found that this embodiment achieves enhanced perception of depth of field.

図5Aは、本発明の実施形態に従ってシーン500の異なる特徴を異なる焦点距離で撮像する効果を模式的に示す。図1Aおよび1Bの場合と同様に、図5Aで、カメラ520はシーン500を軌道530に沿って位置P1〜P5で撮像する。しかし、位置P1、P2、P3、P4、およびP5で、カメラ520は少女およびボールを焦点距離F1で画像IM21、IM22...IM25それぞれに撮像し、かつ木501を焦点距離F2で画像IM31、IM32...IM35それぞれに撮像する。提示の便宜を図り、かつ混乱を防止するために、画像IM23、IM24、IM25、IM33、IM34、およびIM35だけが図5Aに示されている。例として、F2はF1より大きい。   FIG. 5A schematically illustrates the effect of imaging different features of the scene 500 at different focal lengths in accordance with an embodiment of the present invention. As in FIGS. 1A and 1B, in FIG. 5A, camera 520 images scene 500 along trajectory 530 at positions P1-P5. However, at positions P1, P2, P3, P4, and P5, the camera 520 captures the girl and the ball at the focal length F1 in the images IM21, IM22. . . IM25 is imaged, and the tree 501 is imaged at the focal length F2 with images IM31, IM32. . . Each IM35 is imaged. Only images IM23, IM24, IM25, IM33, IM34, and IM35 are shown in FIG. 5A for convenience of presentation and prevention of confusion. As an example, F2 is greater than F1.

木をより高い焦点距離で撮像する結果、画像IM31...IM35における木の動きは、焦点距離F1で画像IM21...IM25に撮像された場合の木の動きと比較して、増加する。本発明の実施形態に係る表示画像は、IM21...IM25の特徴がIM31...IM35の特徴の上に重なって遠い特徴が近い特徴によって適切に塞がれるように、画像IM21...IM25を画像IM31...IM35と整列しかつ結合することによって形成される。複合画像CI23〜33、CI24〜34、およびCI25〜35は、それらを形成する元になった画像、それぞれIM23およびIM33、IM24およびIM34、ならびにIM35およびIM36の背後に並んで図示される。図5Aに示す複合表示画像CI21〜31、CI22〜32、...CI25〜35は、上下を正しく向けて左右を反転した複合画像CI21〜31、CI22〜32、...CI25〜35に対応する。 As a result of imaging the tree at a higher focal length, the image IM31. . . The movement of the tree at IM35 is the image IM21. . . It increases compared to the movement of the tree when imaged by IM25. The display image according to the embodiment of the present invention is IM21. . . The feature of IM25 is IM31. . . The images IM21.. IM21. So that the distant features overlying the features of IM 35 are properly occluded by the close features. . . IM25 is converted into an image IM31. . . Formed by aligning and bonding with IM35. Composite images CI23-33, CI24-34, and CI25-35 are shown side by side behind the images from which they are formed, IM23 and IM33, IM24 and IM34, and IM35 and IM36, respectively. Composite display images CI21-31 * , CI22-32 * ,. . . CI25-35 * are composite images CI21-31, CI22-32,. . . Corresponds to CI25-35.

図5Bは、本発明の実施形態に係る複合画像を先行技術の画像と容易に比較することができるように、複合表示画像CI21〜31、CI22〜32、...CI25〜35、および図1Aに示すように先行技術によって取得された画像IM1〜IM5を示す。画像は、木をより長い焦点距離F2で撮像することによって、木および少女およびボールの間の相対運動が実質的に増大することを示す。増大する相対運動は、複合表示画像が運動シーケンスに表示されたときに、先行技術の画像IM1〜IM5によってもたらされる奥行知覚と比較して、増大する奥行知覚をもたらす。 FIG. 5B illustrates composite display images CI21-31 * , CI22-32 * ,... So that composite images according to embodiments of the present invention can be easily compared with prior art images. . . CI25-35 * and images IM1 * -IM5 * acquired by the prior art as shown in FIG. 1A. The image shows that relative motion between the tree and the girl and the ball is substantially increased by imaging the tree with a longer focal length F2. Increasing relative motion results in increased depth perception as compared to the depth perception provided by the prior art images IM1 * -IM5 * when the composite display image is displayed in a motion sequence.

上記説明では、静止しているオブジェクトに奥行感覚を与えることを記載したが、本発明は全てのオブジェクトが静止しているシーンに限定されないことは理解されるであろう。特に、運動するオブジェクトには一般的に、オブジェクトの「実際」の運動に加えて、その瞬間レイヤ位置に基づいて、上述したような運動が提供される。同様に、変動焦点距離のカメラを使用してシーンを撮像する場合、焦点距離の影響は、オブジェクトの実際の運動によって変化する瞬間位置に適合するように変化する。   In the above description, it has been described that a depth sensation is given to a stationary object, but it will be understood that the present invention is not limited to a scene in which all objects are stationary. In particular, moving objects are typically provided with movement as described above based on their instantaneous layer position in addition to the “real” movement of the object. Similarly, when a scene is imaged using a camera with a variable focal length, the influence of the focal length changes to match the instantaneous position that changes with the actual movement of the object.

さらに、速度および焦点距離は自動的に、またはマウスもしくは類似物を介するユーザ入力に応答して、調整することができることも理解されるであろう。   It will further be appreciated that the speed and focal length can be adjusted automatically or in response to user input via a mouse or the like.

本願の説明および特許請求の範囲において、動詞「含む/備える(comprise)」、「含む(include)」、および「有する(have)」ならびにそれらの活用形の各々は、動詞の目的語が必ずしも動詞の主語の構成員、構成要素、要素、または部分の完全なリストではないことを示すために使用される。   In the description and claims of this application, each of the verbs “comprise”, “include”, “have” and their conjugations is intended to mean that the verb object is not necessarily a verb. Used to indicate that the subject is not a complete list of members, components, elements, or parts.

本発明は、その実施形態の詳細な説明を用いて説明されてきたが、それは単なる実施例として提示したものであって、必ずしも本発明の範囲を限定するように意図されていない。説明された実施形態は様々な特徴を備えるが、それらの全てが本発明の全ての実施形態に必要なわけではない。本発明のある実施形態は、特徴の一部または特徴の可能な組合せだけを利用する。説明された本発明の実施形態の変形、および記述した実施形態に示した特徴の異なる組合せを含む本発明の実施形態は、当業者には明らかであろう。本発明の範囲は、添付の特許請求の範囲によってのみ限定される。   Although the present invention has been described using detailed descriptions of embodiments thereof, it has been presented by way of example only and is not necessarily intended to limit the scope of the invention. The described embodiments comprise various features, not all of which are required for all embodiments of the invention. Some embodiments of the invention utilize only some of the features or possible combinations of features. Embodiments of the invention that include variations of the described embodiments of the invention and different combinations of features shown in the described embodiments will be apparent to those skilled in the art. The scope of the present invention is limited only by the appended claims.

先行技術に従って表示画像の運動シーケンスを提供するために撮像される、概要で論じたボール、少女、および木を含むシーンを模式的に示す。FIG. 2 schematically illustrates a scene including a ball, a girl, and a tree discussed in the overview that is imaged to provide a motion sequence of a displayed image according to the prior art. 本発明の実施形態に従って運動シーケンスを提供するために撮像される、図1Aに示したシーンを模式的に示す。1B schematically illustrates the scene shown in FIG. 1A imaged to provide a motion sequence in accordance with an embodiment of the present invention. 図1Aに示すように先行技術に従って生成され、かつ図1Bに示すように本発明に従って生成された、表示画像のシーケンスを模式的に示す。1A schematically shows a sequence of display images generated according to the prior art as shown in FIG. 1A and generated according to the present invention as shown in FIG. 1B. 本発明の実施形態に従ってシーンをレイヤに分割し、レイヤに速度を割り当てることを模式的に示す。Fig. 4 schematically illustrates dividing a scene into layers and assigning speeds to the layers according to an embodiment of the present invention. 本発明の実施形態に従ってシーンの表示画像を生成するために使用されるシーンのバージョンの歪みを模式的に示す。Fig. 4 schematically illustrates distortion of a version of a scene used to generate a display image of a scene according to an embodiment of the present invention. 本発明の実施形態に係る、図3A〜3Eに示した歪みの平面図を示す。FIG. 3C shows a top view of the distortion shown in FIGS. 3A-3E according to an embodiment of the invention. シーンの異なる特徴を異なる焦点距離で撮像することによって表示画像を生成することを模式的に示す。It schematically shows that a display image is generated by imaging different features of a scene at different focal lengths. 図1Aに示すように先行技術に従って生成され、かつ図5Aに示すように本発明に従って生成された表示画像のシーケンスを模式的に示す。1A schematically illustrates a sequence of display images generated in accordance with the prior art as shown in FIG. 1A and generated in accordance with the present invention as shown in FIG. 5A.

Claims (25)

シーンの表示画像のシーケンスを生成するステップ;
シーン内の特徴の速度を設定して、シーンの非遠近歪みを表示画像に生成するステップ;および
表示画像を逐次的に表示するステップ、
を含む、所望の奥行錯覚を有するシーンの視覚表示を生成する方法。
Generating a sequence of display images of the scene;
Setting the speed of features in the scene to generate non-perspective distortion of the scene in the display image; and sequentially displaying the display image;
Generating a visual representation of a scene having a desired depth illusion.
シーン内の少なくとも一部の特徴に関連して異なる位置に対して各画像を取得し、シーンの画像のシーケンスを生成するステップ;および
表示画像を逐次的に表示するステップ、
を含み、
前記シーケンスを生成するステップが、
シーン内の特徴の位置を画像毎に系統的に設定して、画像の非遠近歪みを生成し、画像のシーケンスに増強された奥行知覚を提供するステップ、
を含む、増強された奥行錯覚を有するシーンの視覚表示を生成する方法。
Acquiring each image for a different location relative to at least some features in the scene and generating a sequence of images of the scene; and sequentially displaying the displayed images;
Including
Generating the sequence comprises:
Systematically setting the position of features in the scene for each image, generating non-perspective distortion of the image, and providing enhanced depth perception to the sequence of images;
Generating a visual representation of a scene having an enhanced depth illusion.
シーン内の少なくとも一部の特徴に関連して異なる位置から仮想カメラによって各画像を取得し、シーンの表示画像のシーケンスを生成するステップ;および
表示画像を逐次的に表示するステップ、
を含み、
前記シーケンスを生成するステップが、シーン内の少なくとも1つの特徴に、シーン内で相互に対して名目上静止している特徴間の相対運動を生成する速度を提供するステップを含み、少なくとも1つの特徴の中の特定の特徴に提供される速度が、カメラに対するシーン内の特定の特徴の奥行の関数である、増強された奥行錯覚を有するシーンの視覚表示を生成する方法。
Acquiring each image by a virtual camera from a different location in relation to at least some features in the scene and generating a sequence of display images of the scene; and sequentially displaying the display images;
Including
Generating the sequence includes providing at least one feature in the scene with a speed to generate relative motion between features that are nominally stationary relative to each other in the scene; A method for generating a visual display of a scene with an enhanced depth illusion, wherein the speed provided to the particular feature in the image is a function of the depth of the particular feature in the scene relative to the camera.
仮想カメラ位置は非平面三次元軌道に沿って存在する、請求項3に記載の視覚表示を生成する方法。   The method of generating a visual display according to claim 3, wherein the virtual camera position is along a non-planar three-dimensional trajectory. 仮想カメラ位置は平面軌道に沿って存在する、請求項3に記載の視覚表示を生成する方法。   The method of generating a visual display according to claim 3, wherein the virtual camera position is along a planar trajectory. 仮想カメラ位置は線形軌道に沿って存在する、請求項3に記載の視覚表示を生成する方法。   The method of generating a visual display according to claim 3, wherein the virtual camera position is along a linear trajectory. 位置の一部は他の位置よりシーンに近い、請求項3〜6のいずれかに記載の視覚表示を生成する方法。   The method of generating a visual display according to any of claims 3 to 6, wherein some of the locations are closer to the scene than other locations. 少なくとも2つの位置がシーンに対して横方向に相互に変位する、請求項3〜7のいずれかに記載の視覚表示を生成する方法。   8. A method of generating a visual display according to any of claims 3 to 7, wherein at least two positions are displaced relative to each other laterally with respect to the scene. カメラに対して異なる奥行にある特徴は異なる焦点距離で撮像される、請求項3〜8のいずれかに記載の視覚表示を生成する方法。   The method of generating a visual display according to any of claims 3 to 8, wherein features at different depths relative to the camera are imaged at different focal lengths. シーンはレイヤに分割される、請求項3〜9のいずれかに記載の視覚表示を生成する方法。   The method of generating a visual display according to any of claims 3 to 9, wherein the scene is divided into layers. 同一レイヤの特徴に対しては同一速度が設定される、請求項10に記載の視覚表示を生成する方法。   The method of generating a visual display according to claim 10, wherein the same speed is set for features of the same layer. 異なるレイヤに対しては異なる速度が設定される、請求項10または11に記載の視覚表示を生成する方法。   12. A method for generating a visual display according to claim 10 or 11, wherein different speeds are set for different layers. 仮想カメラの少なくとも1つの位置で、カメラはカメラの光軸に沿って異なる位置から異なるレイヤを撮像する、請求項3〜12のいずれかに記載の視覚表示を生成する方法。   The method for generating a visual display according to any of claims 3 to 12, wherein at at least one position of the virtual camera, the camera images different layers from different positions along the optical axis of the camera. カメラに近い特徴には第1方向の速度が提供され、中間距離の特徴は静止し、より遠い距離の特徴には前記第1方向とは略反対の第2方向の速度が提供される、請求項3〜13のいずれかに記載の視覚表示を生成する方法。   Features near the camera are provided with a velocity in a first direction, features at an intermediate distance are stationary, and features at a greater distance are provided with a velocity in a second direction substantially opposite to the first direction. Item 14. A method for generating a visual display according to any one of Items 3 to 13. カメラに近い特徴には第1方向の第1速度が提供され、中間距離の特徴には前記第1方向の前記第1速度より小さい第2速度が提供され、非常に大きい距離の特徴は静止する、請求項14に記載の視覚表示を生成する方法。   Features close to the camera are provided with a first velocity in the first direction, features with an intermediate distance are provided with a second velocity less than the first velocity in the first direction, and features with very large distances are stationary. 15. A method of generating a visual display according to claim 14. カメラに近い特徴は静止し、中間距離の特徴には第1方向の第1速度が提供され、遠い距離の特徴には前記第1方向の前記第1速度より大きい第2速度が提供される、請求項14に記載の視覚表示を生成する方法。   Features close to the camera are stationary, features at intermediate distances are provided with a first speed in a first direction, and features at far distances are provided with a second speed greater than the first speed in the first direction. 15. A method for generating a visual display according to claim 14. 前記第1方向は前記異なる位置間の運動方向と略平行である、請求項14〜16のいずれかに記載の視覚表示を生成する方法。   17. A method for generating a visual display according to any of claims 14 to 16, wherein the first direction is substantially parallel to the direction of motion between the different positions. 運動する特徴には相応して配置された静止オブジェクトに提供される変化と一貫性のある位置の変化または追加速度が提供される、請求項1〜17のいずれかに記載の視覚表示を生成する方法。   18. A visual display as claimed in any one of the preceding claims, wherein the moving feature is provided with a change in position or an additional speed consistent with the change provided to the correspondingly arranged stationary object. Method. 少なくとも一部のシーンの特徴に関連して異なる位置から仮想カメラによって各画像を取得して、シーンの表示画像のシーケンスを生成するステップ;および
表示画像を逐次的に表示するステップ、
を含み、
仮想カメラがシーン内の特定の特徴を撮像する焦点距離が、カメラからの特定の特徴の距離の関数である、増強された奥行錯覚を有するシーンの視覚表示を生成する方法。
Acquiring each image with a virtual camera from a different position in relation to at least some scene features to generate a sequence of display images of the scene; and sequentially displaying the display images;
Including
A method of generating a visual representation of a scene with an enhanced depth illusion, where the focal length at which a virtual camera images a particular feature in the scene is a function of the distance of the particular feature from the camera.
カメラから遠い少なくとも一部の特徴は、カメラに比較的近い特徴を撮像するために使用される焦点距離より大きい焦点距離で撮像される、請求項19に記載の視覚表示を生成する方法。   20. The method for generating a visual display of claim 19, wherein at least some features far from the camera are imaged at a focal length that is greater than a focal length used to image features that are relatively close to the camera. 観察者の両眼によって見ることができるように表示画像を表示することを含む、請求項1〜20のいずれかに記載の視覚表示を生成する方法。   21. A method of generating a visual display according to any of claims 1 to 20, comprising displaying a display image for viewing by both eyes of an observer. 請求項1〜21のいずれかに従って生成される視覚表示画像。   A visual display image generated according to any one of claims 1 to 21. 請求項22に記載の視覚表示画像を含む視覚表示画像のシーケンス。   A sequence of visual display images comprising the visual display image of claim 22. 撮像位置が画像間で移動し、かつ静止オブジェクトがオブジェクトと撮像位置との間の距離に応じて画像間で相互に対して移動する、視覚画像のシーケンス。   A sequence of visual images in which an imaging position moves between images and a stationary object moves relative to each other according to the distance between the object and the imaging position. 請求項1〜21のいずれかに記載の方法または請求項22〜24のいずれかに記載の画像または視覚画像のシーケンスをコード化した、コンピュータアクセス可能な記憶媒体。   A computer-accessible storage medium encoded with the method according to any of claims 1 to 21 or the sequence of images or visual images according to any of claims 22 to 24.
JP2008506034A 2005-04-11 2006-04-11 Depth illusion digital imaging Pending JP2009500878A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US67008705P 2005-04-11 2005-04-11
PCT/IB2006/051114 WO2006109252A2 (en) 2005-04-11 2006-04-11 Depth illusion digital imaging

Publications (1)

Publication Number Publication Date
JP2009500878A true JP2009500878A (en) 2009-01-08

Family

ID=37087409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008506034A Pending JP2009500878A (en) 2005-04-11 2006-04-11 Depth illusion digital imaging

Country Status (5)

Country Link
EP (1) EP1875306A2 (en)
JP (1) JP2009500878A (en)
KR (1) KR20080007451A (en)
IL (1) IL186613A0 (en)
WO (1) WO2006109252A2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014042238A (en) * 2012-08-23 2014-03-06 Stmicroelectronics (Canada) Inc Apparatus and method for depth-based image scaling of 3d visual content
WO2016009970A1 (en) * 2014-07-17 2016-01-21 株式会社ソニー・コンピュータエンタテインメント Stereoscopic image presentation device, stereoscopic image presentation method, and head-mounted display
JP2016192688A (en) * 2015-03-31 2016-11-10 大和ハウス工業株式会社 Video display system and video display method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111862511B (en) * 2020-08-10 2021-08-24 湖南海森格诺信息技术有限公司 Target intrusion detection device and method based on binocular stereo vision

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1074269A (en) * 1996-06-26 1998-03-17 Matsushita Electric Ind Co Ltd Stereoscopic cg moving image generator
JPH11259672A (en) * 1998-03-13 1999-09-24 Mitsubishi Electric Corp Three-dimensional virtual space display device
JP2004334661A (en) * 2003-05-09 2004-11-25 Namco Ltd Image generating system, program, and information storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPO894497A0 (en) * 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
US7752648B2 (en) * 2003-02-11 2010-07-06 Nds Limited Apparatus and methods for handling interactive applications in broadcast networks

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1074269A (en) * 1996-06-26 1998-03-17 Matsushita Electric Ind Co Ltd Stereoscopic cg moving image generator
JPH11259672A (en) * 1998-03-13 1999-09-24 Mitsubishi Electric Corp Three-dimensional virtual space display device
JP2004334661A (en) * 2003-05-09 2004-11-25 Namco Ltd Image generating system, program, and information storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014042238A (en) * 2012-08-23 2014-03-06 Stmicroelectronics (Canada) Inc Apparatus and method for depth-based image scaling of 3d visual content
US9838669B2 (en) 2012-08-23 2017-12-05 Stmicroelectronics (Canada), Inc. Apparatus and method for depth-based image scaling of 3D visual content
WO2016009970A1 (en) * 2014-07-17 2016-01-21 株式会社ソニー・コンピュータエンタテインメント Stereoscopic image presentation device, stereoscopic image presentation method, and head-mounted display
US10306214B2 (en) 2014-07-17 2019-05-28 Sony Interactive Entertainment Inc. Stereoscopic image presenting device, stereoscopic image presenting method, and head-mounted display
JP2016192688A (en) * 2015-03-31 2016-11-10 大和ハウス工業株式会社 Video display system and video display method

Also Published As

Publication number Publication date
EP1875306A2 (en) 2008-01-09
KR20080007451A (en) 2008-01-21
IL186613A0 (en) 2008-01-20
WO2006109252A2 (en) 2006-10-19
WO2006109252A3 (en) 2007-06-21

Similar Documents

Publication Publication Date Title
US20090066786A1 (en) Depth Illusion Digital Imaging
JP6873096B2 (en) Improvements in and on image formation
US8953023B2 (en) Stereoscopic depth mapping
TWI523488B (en) A method of processing parallax information comprised in a signal
CN108141578B (en) Presentation camera
Devernay et al. Stereoscopic cinema
WO2006001361A1 (en) Stereoscopic image creating method and device
US9118894B2 (en) Image processing apparatus and image processing method for shifting parallax images
US20110141246A1 (en) System and Method for Producing Stereoscopic Images
JP2007527665A (en) System and method for managing stereoscopic observation
WO2018010677A1 (en) Information processing method, wearable electric device, processing apparatus, and system
Zhang et al. Depth of field affects perceived depth in stereographs
JP2009500878A (en) Depth illusion digital imaging
US10110876B1 (en) System and method for displaying images in 3-D stereo
WO2008012821A2 (en) Computer graphics imaging
WO2009109804A1 (en) Method and apparatus for image processing
Bickerstaff Case study: the introduction of stereoscopic games on the Sony PlayStation 3
Mikšícek Causes of visual fatigue and its improvements in stereoscopy
Schild et al. Integrating stereoscopic video in 3D games
WO2017141139A1 (en) A method for image transformation
Rhee et al. Stereoscopic view synthesis by view morphing
US9609313B2 (en) Enhanced 3D display method and system
Laldin Perceived Acceleration in Stereoscopic Animation
Laldin et al. The effects of depth warping on perceived acceleration in stereoscopic animation
Jung et al. Enhanced Linear Perspective using Adaptive Intrinsic Camera Parameters

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110726

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110922

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111018