JP2007264633A - Surround visual field system, method for synthesizing surround visual field relating to input stream, and surround visual field controller - Google Patents

Surround visual field system, method for synthesizing surround visual field relating to input stream, and surround visual field controller Download PDF

Info

Publication number
JP2007264633A
JP2007264633A JP2007074117A JP2007074117A JP2007264633A JP 2007264633 A JP2007264633 A JP 2007264633A JP 2007074117 A JP2007074117 A JP 2007074117A JP 2007074117 A JP2007074117 A JP 2007074117A JP 2007264633 A JP2007264633 A JP 2007264633A
Authority
JP
Japan
Prior art keywords
visual field
surround
surround visual
motion
control signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007074117A
Other languages
Japanese (ja)
Inventor
Kiran Bhat
バット キラン
Kar-Han Tan
ハン タン カー
Anoop Bhattacharjya
バタチャージャ アヌープ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US11/390,907 external-priority patent/US20070126864A1/en
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of JP2007264633A publication Critical patent/JP2007264633A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To synthesize a three-dimensional surround visual field. <P>SOLUTION: A surround visual field that has a characteristic or characteristics which relate to an audio/visual presentation is displayed in an area partially surrounding or surrounding the video content being displayed. This surround visual field may comprise a plurality of elements that further enhance the effect of the content being displayed. For example, elements within the surround visual field move in relation to motion within the video content being displayed. Other characteristics of the video content may also be supplemented by the surround visual field or, surround visual field can be partially made at least so that it may correspond to contents itself. The surround visual field may be a rendering of a three-dimensional environment. Further, one or more otherwise idle display areas may be used to display a surround visual field. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は一般的にオーディオ/ビデオ・プレゼンテーションの視覚的向上に関わり、より具体的にはオーディオ/ビジュアル・プレゼンテーションに関連するサラウンド・ビジュアル・フィールドの合成および表示に関わる。   The present invention relates generally to visual enhancement of audio / video presentations, and more specifically to the synthesis and display of surround visual fields associated with audio / visual presentations.

オーディオ/ビジュアル娯楽産業における各種の技術進歩によりメディア・コンテンツを視聴する個人の体験を非常に向上させている。これら技術進歩のいくつかはテレビ、映画上映システム、コンピュータ、携帯ビデオ装置、および類似するその他の電子装置などの装置で表示されるビデオの質を改良している。他の進歩はメディア・コンテンツの表示中個人に提供されるオーディオの質を改良している。オーディオ/ビジュアル・プレゼンテーション技術におけるこれらの進歩はこのメディア・コンテンツを視聴する個人の楽しさを向上させることが目的であった。   Various technological advances in the audio / visual entertainment industry have greatly improved the personal experience of viewing media content. Some of these technological advances have improved the quality of video displayed on devices such as televisions, movie screening systems, computers, portable video devices, and other similar electronic devices. Other advances have improved the quality of audio provided to individuals during the display of media content. These advancements in audio / visual presentation technology were aimed at improving the enjoyment of individuals viewing this media content.

メディア・コンテンツのプレゼンテーションにおいて重要な要素は視聴されるプレゼンテーションに個人が没入することを促進することである。メディア・プレゼンテーションは多くの場合、個人がある場面の一部分であると感じ、またはコンテンツが「生」で視聴されていると感じることでより魅力が高められる。このような動的なプレゼンテーションは視聴者の不信を一時的に停止させ、より満足できる体験を作り出す。   An important element in media content presentations is to encourage individuals to immerse in the presentations that are viewed. Media presentations are often more attractive by feeling that an individual is part of a scene or that content is being viewed “live”. Such dynamic presentations temporarily stop viewers' distrust and create a more satisfying experience.

この没入の原理はメディア体験のオーディオ要素に関して既にかなり対処されている。サラウンド・サウンドなどのオーディオ・システムは部屋の中でいくつかの起点からオーディオ・コンテンツを個人に提供して実体験を模倣する。例えば、複数のラウドスピーカを部屋に配置し、オーディオ・コントローラに接続することができる。オーディオ・コントローラは対応するビデオ表示および部屋内のスピーカ位置に関連してある特定のスピーカから音を発生させることができる。このようなオーディオ・システムはビデオの場面が表示される音場をシミュレートすることを意図している。   This immersive principle has already been dealt with quite a bit with respect to the audio component of the media experience. Audio systems such as surround sound imitate real experience by providing audio content to individuals from several sources in the room. For example, multiple loudspeakers can be placed in a room and connected to an audio controller. The audio controller can generate sound from a particular speaker in relation to the corresponding video display and speaker location in the room. Such an audio system is intended to simulate a sound field in which a video scene is displayed.

米国特許出願公開第2004/0119725号明細書US Patent Application Publication No. 2004/0119725

現在のビデオ表示技術は個人に対し没入体験を作り出すのにこれだけの効果をもたらしていない。いくつかの手法では没入感を高めるために外部光源または映写機を従来のディスプレーと併せて用いる。例えばPhilips社のAmbilight TVはテレビの背後に一定数のカラー・バックライトの1つを投影する。このような手法はコンテンツを表示する際に装置の表示領域全体を利用するという問題に対処していないため不十分である。さらに、現行のビデオ表示装置はしばしば装置を視聴する個人の視野範囲に完全に適応しておらず、またはディスプレーのかなりの部分を利用していない。その結果没入効果が低減され、従って個人の視聴体験が低減される。
従って、上述の制限に対応したシステム、装置、および方法が望まれる。
Current video display technology has not been so effective in creating immersive experiences for individuals. Some techniques use an external light source or projector in conjunction with a conventional display to enhance the immersive feeling. For example, Philips' Ambilight TV projects one of a certain number of color backlights behind the TV. Such a technique is insufficient because it does not address the problem of using the entire display area of the device when displaying content. In addition, current video display devices often do not fully adapt to the viewing range of the individual viewing the device or utilize a significant portion of the display. As a result, the immersive effect is reduced, thus reducing the personal viewing experience.
Accordingly, systems, apparatus, and methods that address the above limitations are desired.

本発明の一実施形態は表示されるオーディオまたはビジュアル・コンテンツに関連するサラウンド・ビジュアル・フィールドを提供する。発明の一実施形態でサラウンド・ビジュアル・フィールドは合成されコンテンツを表示する装置を部分的または完全に囲む表面に映写される。このサラウンド・ビジュアル・フィールドは表示されるコンテンツの視聴体験をさらに向上させることを意図している。従ってサラウンド・ビジュアル・フィールドは表示されるコンテンツの特性の一つまたはいくつかを増強、拡張、または別の形で補足することができる。当業者はサラウンド・ビジュアル・フィールドが1つ以上のキューまたは制御信号に関連し得ることを理解しよう。入力ストリームに関連するキューまたは制御信号は表示コンテンツ内の動き、色、輝度、オーディオ、ジャンル、および行為を含むがこれらに限定されず、1つ以上の特徴ならびに1つ以上のセンサまたはカメラ、ゲーム装置の入力、または他の入力を含むがこれらに限定されず、ユーザ提供入力に関連するキューを含むと解釈される。一実施形態で、サラウンド・ビジュアル・フィールドにおける1つ以上の要素は1つのキューまたは複数のキューに応答することにより該1つのキューまたは複数のキューに関連することができる。   One embodiment of the present invention provides a surround visual field associated with displayed audio or visual content. In one embodiment of the invention, the surround visual field is synthesized and projected onto a surface that partially or completely surrounds the device displaying the content. This surround visual field is intended to further improve the viewing experience of the displayed content. Accordingly, the surround visual field can augment, expand, or otherwise supplement one or several of the characteristics of the displayed content. One skilled in the art will appreciate that the surround visual field may be associated with one or more cues or control signals. The cue or control signal associated with the input stream includes, but is not limited to, movement, color, brightness, audio, genre, and behavior within the display content. This includes, but is not limited to, device inputs, or other inputs, and includes queues associated with user-provided inputs. In one embodiment, one or more elements in the surround visual field can be associated with the queue or queues by responding to the queue or queues.

発明の一実施形態で、サラウンド・ビジュアル・フィールドはオーディオ/ビデオ・コンテンツのプレゼンテーション中に映写または表示される。このサラウンド・ビジュアル・フィールドのサイズ、場所、および形状はビジュアル・フィールドの制作者により定義されることができ、表示されるコンテンツに関連することができ、または別途定義されることができる。さらに、サラウンド・ビジュアル・フィールドの特性は各種の形状、テクスチャ、パターン、波または表示装置のコンテンツの視聴を向上させる他の任意の視覚上の効果を含むことができる。当業者であれば各種オーディオ/ビジュアルまたは映写システムを用いてサラウンド・ビジュアル・フィールドを生成し制御することができることを理解しよう。これらのシステムはすべて本発明の範囲に入ることが意図される。   In one embodiment of the invention, the surround visual field is projected or displayed during the presentation of audio / video content. The size, location, and shape of this surround visual field can be defined by the visual field producer, can be related to the displayed content, or can be defined separately. Furthermore, the characteristics of the surround visual field can include various shapes, textures, patterns, waves or any other visual effect that enhances viewing of the content of the display device. Those skilled in the art will appreciate that various visual / visual or projection systems can be used to generate and control the surround visual field. All these systems are intended to fall within the scope of the present invention.

発明の代表的な一実施形態で、サラウンド・ビジュアル・フィールドは表示されるコンテンツ内の動きに関係することができる。例えば、表示されるコンテンツ内の動きをモデル化し外挿することができる。サラウンド・ビジュアル・フィールド、またはその構成要素、はコンテンツ内の外挿された動きに従って動くことができる。サラウンド・ビジュアル・フィールド内の形状、パターンまたは他の任意の要素もコンテンツの動きまたは他の任意の特性にさらに関係する特性を有することができる。   In an exemplary embodiment of the invention, the surround visual field can relate to movement within the displayed content. For example, the movement in the displayed content can be modeled and extrapolated. The surround visual field, or its components, can move according to extrapolated movement in the content. Shapes, patterns or any other element within the surround visual field can also have characteristics that are further related to the movement of the content or any other characteristics.

発明の実施形態において、三次元のサラウンド・ビジュアル・フィールドを合成または生成することができ、この場合サラウンド・フィールドの1つ以上の要素は入力ストリームに関連する1つ以上のキューにより影響される。例えば、三次元サラウンド・ビジュアル・フィールド環境内において表示コンテンツに関連する動きキューが提供されモデル化され得る。サラウンド・ビジュアル・フィールドまたはその中の要素はコンテンツ内の外挿された動きに従い動くことができる。光源、図形、カメラの動きおよび三次元サラウンド・ビジュアル・フィールド環境における合成要素の力学も入力ストリームにさらに関連する特性を有することができる。   In an embodiment of the invention, a three-dimensional surround visual field can be synthesized or generated, where one or more elements of the surround field are affected by one or more cues associated with the input stream. For example, motion cues associated with display content can be provided and modeled within a 3D surround visual field environment. The surround visual field or elements therein can move according to extrapolated movement in the content. Light source, graphics, camera movement, and dynamics of composite elements in a 3D surround visual field environment can also have properties that are further related to the input stream.

実施形態において、サラウンド・ビジュアル・フィールドは空き表示領域の1つ以上の部分で表示することができる。他の実施形態と同様、サラウンド・ビジュアル・フィールドまたはその部分は入力ストリームから抽出された1つ以上の制御信号に基づき修正または変更することができる。あるいは、またはその上、空き表示領域に表示されるサラウンド・ビジュアル・フィールドは制作された、または部分的に制作されたコンテンツまたはキューに基づくことができる。   In embodiments, the surround visual field can be displayed in one or more portions of the empty display area. As with other embodiments, the surround visual field or portion thereof can be modified or changed based on one or more control signals extracted from the input stream. Alternatively, or additionally, the surround visual field displayed in the empty display area can be based on produced or partially produced content or cues.

発明の実施形態について言及され、それらの例が添付図面に示される。   Reference will now be made to embodiments of the invention, examples of which are illustrated in the accompanying drawings.

発明の特長および利点は本要約部分および続く詳細な説明部分において実施形態の形で全般的に説明されるが、発明の範囲はこれら特定の実施形態に限定されるべきではないことが理解されよう。本出願の図面、明細書、およびクレームに鑑み当業者であればさらに多くの特長および利点が明らかになるであろう。   While the features and advantages of the invention will be generally described in the form of embodiments in this summary and the following detailed description, it will be understood that the scope of the invention should not be limited to these specific embodiments. . Many more features and advantages will be apparent to those skilled in the art in view of the drawings, specification, and claims of this application.

オーディオ/ビジュアル・コンテンツと併せて用いることができるシステム、装置、および方法が説明される。発明の一実施形態で、サラウンド・ビジュアル・フィールドは合成され、オーディオ/ビジュアル・コンテンツのプレゼンテーション中に表示される。サラウンド・ビジュアル・フィールドは各種視覚的効果からなることができ、画像、各種パターン、色、形状、テクスチャ、グラフィックス、テキスト等々を含むがこれらに限定されるものではない。一実施形態で、サラウンド・ビジュアル・フィールドはオーディオ/ビジュアル・コンテンツに関係する一特性または複数の特性を有し、コンテンツの視聴体験を補足する。一実施形態ではサラウンド・ビジュアル・フィールド内の要素、またはサラウンド・ビジュアル・フィールド自体、がオーディオ/ビジュアル・コンテンツまたはオーディオ/ビジュアル・コンテンツが表示される環境に対して視覚的に変化する。例えば、サラウンド・ビジュアル・フィールド内の要素が表示ビデオ・コンテンツ内の動きおよび/あるいは色に関連して動くことができる。   Systems, apparatus, and methods that can be used in conjunction with audio / visual content are described. In one embodiment of the invention, the surround visual field is synthesized and displayed during the presentation of the audio / visual content. The surround visual field can consist of various visual effects, including but not limited to images, various patterns, colors, shapes, textures, graphics, text, and the like. In one embodiment, the surround visual field has one or more characteristics related to audio / visual content and supplements the content viewing experience. In one embodiment, the elements in the surround visual field, or the surround visual field itself, change visually with respect to the audio / visual content or the environment in which the audio / visual content is displayed. For example, elements in the surround visual field can move in relation to movement and / or color in the displayed video content.

発明の別の実施形態で、サラウンド・ビジュアル・フィールドはオーディオ/ビジュアル・コンテンツに関係するように制作され、視聴時に自動的に生成されないことができる。例えば、サラウンド・ビジュアル・フィールドはコンテンツとサラウンド・ビジュアル・フィールド双方がコンテンツの視聴体験を向上させるべくコンテンツに同期化されることができる。当業者であればサラウンド・ビジュアル・フィールドとオーディオ/ビジュアル・コンテンツは多数の方法で関連付けされ個人に視覚的に呈示することができ、これらすべて本発明の範囲に入ることが理解されよう。   In another embodiment of the invention, the surround visual field may be created to relate to audio / visual content and not automatically generated when viewed. For example, the surround visual field can be synchronized to the content to enhance the viewing experience of both the content and the surround visual field. Those skilled in the art will appreciate that the surround visual field and audio / visual content can be associated and presented visually to the individual in a number of ways, all of which are within the scope of the present invention.

以下の叙述において、説明の目的から、発明を理解させるために具体的な詳細が記載される。しかし当業者であれば発明がこれらの詳細なしに実施できることを理解しよう。当業者であれば、以下にいくつか説明される本発明の実施形態は映写システム、劇場システム、テレビ、家庭用娯楽システム、および他種のオーディオ/ビジュアル娯楽システムを含むいくつかの異なったシステムおよび装置に組み入れることができることを理解しよう。本発明の実施形態はまたソフトウェア、ハードウェア、ファームウェア、またはこれらの組み合わせに存在し得る。ブロック図で以下に示される構造および装置は発明の代表的実施形態を図示し、発明を分かりにくくすることを避けることを意図している。さらに、図内の構成要素および/あるいはモジュール間の接続は直接接続に限定する意図はない。むしろこれらの構成要素およびモジュール間のデータは中間的構成要素およびモジュールにより修正、再フォーマット、またはその他変更することができる。   In the following description, for the purposes of explanation, specific details are set forth in order to provide a thorough understanding of the invention. However, one skilled in the art will understand that the invention may be practiced without these details. Those skilled in the art will appreciate that several embodiments of the present invention, described below, may include several different systems, including projection systems, theater systems, televisions, home entertainment systems, and other types of audio / visual entertainment systems. Understand that it can be incorporated into the device. Embodiments of the invention may also reside in software, hardware, firmware, or a combination thereof. The structures and devices shown below in the block diagram illustrate exemplary embodiments of the invention and are intended to avoid obscuring the invention. Further, the connections between the components and / or modules in the figures are not intended to be limited to direct connections. Rather, the data between these components and modules can be modified, reformatted, or otherwise changed by intermediate components and modules.

明細書において「一実施形態」または「ある実施形態」への言及はその実施形態に関連して説明される特定の特性、構造、特徴、または機能が発明の少なくとも1つの実施形態に含まれることを意味する。明細書の各種個所で「一実施形態で」または「ある実施形態で」という句の出現は必ずしも皆同じ実施形態に言及しているものではない。   References herein to “one embodiment” or “an embodiment” include that a particular property, structure, feature, or function described in connection with that embodiment is included in at least one embodiment of the invention Means. The appearances of the phrases “in one embodiment” or “in an embodiment” in various places in the specification are not necessarily all referring to the same embodiment.

[概要]
図1は発明の一実施形態による、劇場または家庭用ビデオ環境に組み入れることができるサラウンド・ビジュアル・フィールド表示システムを示す。システム100は第1領域110の中にビデオ・コンテンツおよび第1領域110を囲む第2領域130にサラウンド・ビジュアル・フィールドを映写する映写機120を含む。サラウンド・ビジュアル・フィールドは必ずしも第1領域110の周囲に映写される必要はない。むしろ、この第2領域は130は第1領域110を部分的に囲み、第1領域110に隣接し、または他の方法で個人の視野内に映写することができる。
[Overview]
FIG. 1 illustrates a surround visual field display system that can be incorporated into a theater or home video environment, according to one embodiment of the invention. System 100 includes a projector 120 that projects video content in a first area 110 and a surround visual field in a second area 130 that surrounds the first area 110. The surround visual field does not necessarily have to be projected around the first area 110. Rather, this second region 130 partially surrounds the first region 110, can be adjacent to the first region 110, or otherwise projected within the individual's field of view.

映写機は単独の通常の映写機、単独のパノラマ映写機、複数の集成映写機、ミラー・プロジェクタ、パノラマ映写フィールドを有する新規映写機、これらの映写機の任意の混成、またはサラウンド・ビジュアル・フィールドが放射され制御され得る他の任意の映写機であることができる。広角光学を用いることにより、1つ以上の映写機により広い視野を映写することができる。これを達成する方法は魚眼レンズの使用および曲面ミラー、コーン・ミラーまたは鏡面ピラミッドの使用が係わる反射屈折システムを含むがこれらに限定されない。第2領域130に映写されるサラウンド・ビジュアル・フィールドは各種サイズおよび属性を有する不連続的要素を含み得る各種の画像、パターン、形状、色、およびテクスチャを含むことができ、第1領域110に表示されるオーディオ・ビデオ・コンテンツの特性に関係することができる。これらのパターンおよびテクスチャは限定されることなく星空パターン、花火、波、または他の任意のパターンまたはテクスチャを含むことができる。   Projectors can be controlled by radiating and controlling a single ordinary projector, a single panoramic projector, multiple multitude projectors, a mirror projector, a new projector with a panoramic projection field, any hybrid of these projectors, or a surround visual field Can be any other projector. By using wide-angle optics, a wide field of view can be projected by one or more projectors. Methods to achieve this include, but are not limited to, catadioptric systems involving the use of fisheye lenses and the use of curved mirrors, cone mirrors or specular pyramids. The surround visual field projected in the second region 130 may include various images, patterns, shapes, colors, and textures that may include discontinuous elements having various sizes and attributes. It can relate to the characteristics of the displayed audio / video content. These patterns and textures can include, without limitation, starry patterns, fireworks, waves, or any other pattern or texture.

発明の一実施形態で、サラウンド・ビジュアル・フィールドは第2領域130に映写されるが、実際のビデオが表示されている第1領域110内には映写されない。発明の別の実施形態ではサラウンド・ビジュアル・フィールドは第1領域110に映写され、または第1領域110および第2領域130双方に映写されることもできる。一実施形態で、サラウンド・ビジュアル・フィールドが第1領域110に映写される場合、表示されるビデオ・コンテンツの特定面がサラウンド・ビジュアル・フィールドによって際立てられ、強調され、またはその他補足されることができる。例えば、ビデオ・コンテンツ内で特定の動きをしている対象にビジュアル・フィールドを映写することにより第1領域110内で表示されるその特定の動きを際立たせることができる。   In one embodiment of the invention, the surround visual field is projected in the second area 130, but not in the first area 110 where the actual video is displayed. In another embodiment of the invention, the surround visual field may be projected in the first area 110 or may be projected in both the first area 110 and the second area 130. In one embodiment, when a surround visual field is projected in the first area 110, certain aspects of the displayed video content are highlighted, highlighted, or otherwise supplemented by the surround visual field. Can do. For example, by projecting a visual field onto a subject that has a specific movement in the video content, that specific movement displayed in the first region 110 can be highlighted.

さらに別の実施形態で、ビデオのコンテンツを効果的にそのフレーム外に拡張するテクスチャ合成パターンを生成することができる。ビデオ・フレーム内に規則的または準規則的なパターンが存在する場合、映写機120は同じまたは類似パターンを第1領域110外に広げ第2領域130に映写することができる。例えば、ビデオ・フレーム内のとうもろこし畑を、とうもろこし畑の延長のように見えるパターンを生成することにより第1領域110外に広げることができる。   In yet another embodiment, a texture synthesis pattern can be generated that effectively extends the content of the video out of its frame. If there is a regular or quasi-regular pattern in the video frame, the projector 120 can spread the same or similar pattern out of the first area 110 and project it in the second area 130. For example, a corn field in a video frame can be extended outside the first region 110 by generating a pattern that looks like an extension of the corn field.

図2は発明の一実施形態による、テレビ受信機に対するサラウンド・ビジュアル・フィールドを示す。明確な視聴画面210を有するテレビ受信機がテレビ受信機の後にある壁の表面230に映写されるサラウンド・ビジュアル・フィールドで補足される。例えば、大型テレビ受信機、または映写画像または表示のセットを表示するための壁からなるビデオ・ウォールを用いてビデオ・コンテンツを表示することができる。この表面230はサイズおよび形状においてさまざまで良く、単独の壁に限定されることなく、部屋の中で好ましいだけの領域に広げることができる。さらに、表面230は必ずしも図示のようにテレビ受信機を囲む必要がなく、テレビ受信機を部分的に囲み、または壁もしくは複数の壁の他の場所に位置することができる。上述のように、サラウンド・ビジュアル・フィールドはテレビ受信機画面210に表示されるコンテンツに関連付ける各種特性を有することができる。サラウント・ビジュアル・フィールドを壁の表面に映写するために発明の各種実施形態を用いることができ、その内2つの例が以下に説明される。   FIG. 2 illustrates a surround visual field for a television receiver, according to one embodiment of the invention. A television receiver with a clear viewing screen 210 is supplemented with a surround visual field projected onto the wall surface 230 behind the television receiver. For example, video content may be displayed using a large television receiver or a video wall consisting of walls for displaying a projected image or set of displays. This surface 230 may vary in size and shape and is not limited to a single wall, but can be spread over as much of the area as is desirable in the room. Further, the surface 230 need not necessarily surround the television receiver as shown, but may partially surround the television receiver or be located elsewhere on the wall or walls. As described above, the surround visual field can have various characteristics associated with content displayed on the television receiver screen 210. Various embodiments of the invention can be used to project a surround visual field onto a wall surface, two examples of which are described below.

図3はテレビ受信機310または他の表面に表示されるコンテンツを補足するためにサラウンド・ビジュアル・フィールドが直接一領域330に映写される一実施形態を示す。領域330は1つの壁にのみ示されるように図示されているが、使用される映写機320または部屋の構成により複数の壁に広がることができる。映写機320は映写されるサラウンド・ビジュアル・フィールドを制御する装置(図示されず)に統合されるか接続される。一実施形態では、この装置にテレビ画面310に表示されるビデオ・ストリームを提供することができる。別の実施形態でこの装置はテレビ画面310に表示されるコンテンツにサラウンド・ビジュアル・フィールドを映写に同期化するように制作されたデータを含むことができる。発明の各種実施形態において、オーディオ/ビデオ・ストリームは入力ストリームの1つ以上特性に関し分析され、サラウンド・ビジュアル・フィールドがテレビ画面310に表示されるコンテンツに同期化するよう正しく表現され、動画化される。   FIG. 3 illustrates one embodiment in which a surround visual field is projected directly into an area 330 to supplement content displayed on the television receiver 310 or other surface. Although region 330 is shown as shown on only one wall, it can extend over multiple walls depending on the projector 320 or room configuration used. Projector 320 is integrated or connected to a device (not shown) that controls the surround visual field to be projected. In one embodiment, the device can be provided with a video stream that is displayed on the television screen 310. In another embodiment, the device can include data produced to synchronize the surround visual field with the projection in the content displayed on the television screen 310. In various embodiments of the invention, the audio / video stream is analyzed for one or more characteristics of the input stream, and the surround visual field is correctly represented and animated to synchronize with the content displayed on the television screen 310. The

発明のさらに別の実施形態で、ビデオ表示とサラウンド・ビジュアル・フィールドがテレビ受信機、コンピュータ・モニタ、ラップトップ・コンピュータ、携帯装置等々表示装置の境界内で表示することができる。この特定の実施形態ではサラウンド・ビジュアル・フィールドを表示装置の境界を超えて広げる映写装置があってもなくても良い。表示装置の境界内に表示されるサラウンド・ビジュアル・フィールドは各種形状を有することができ、画像、パターン、テクスチャ、テキスト、変化する色、またはその他のコンテンツを含む各種のコンテンツを含むことができる。   In yet another embodiment of the invention, the video display and surround visual field can be displayed within the boundaries of the display device, such as a television receiver, computer monitor, laptop computer, portable device, and the like. In this particular embodiment, there may or may not be a projection device that extends the surround visual field beyond the boundaries of the display device. The surround visual field displayed within the boundaries of the display device can have a variety of shapes and can include a variety of content including images, patterns, textures, text, changing colors, or other content.

図4は発明の別の実施形態による、サラウンド・ビジュアル・フィールドを提供する反射システムを示す。システム400はサラウンド・ビジュアル・フィールドを生成する単独の映写機または複数の映写機440を含むことができる。発明の一実施形態では複数の光映写機440がビジュアル・フィールドを生成し、鏡面ピラミッド420に反射されて事実上バーチャル映写機を作り出す。複数の光映写機440は同じ映写機のハウジングに統合されるか、または別々のハウジングに収納されることができる。鏡面ピラミッド420はサラウンド・ビジュアル・フィールドの表示に好ましい領域に映写機からの光を反射することができる複数の反射面を有する。鏡面ピラミッド420のデザインはビジュアル・フィールドの表示に望まれる領域およびシステム内で使用される映写機の種類と台数によって異なることができる。さらに、映写機からのビジュアル・フィールドを望まれる表面に反射させるために他種の反射装置もシステム内で用いることができる。別の実施形態で、鏡面ピラミッド420の1つの反射面を使用し、事実上平面鏡を用いる単独の映写機を用いることができる。単独の映写機はまた鏡面ピラミッド420の複数面に映写することもでき、この場合複数のバーチャル光心が作られる。   FIG. 4 illustrates a reflection system that provides a surround visual field according to another embodiment of the invention. System 400 may include a single projector or multiple projectors 440 that generate a surround visual field. In one embodiment of the invention, a plurality of projectors 440 generate a visual field that is reflected by the specular pyramid 420 to effectively create a virtual projector. Multiple projectors 440 can be integrated into the same projector housing or housed in separate housings. The specular pyramid 420 has a plurality of reflective surfaces that can reflect light from the projector in a region that is preferred for display of the surround visual field. The design of the specular pyramid 420 can vary depending on the area desired for visual field display and the type and number of projectors used in the system. In addition, other types of reflectors can be used in the system to reflect the visual field from the projector to the desired surface. In another embodiment, a single projector using one reflective surface of the specular pyramid 420 and effectively using a plane mirror can be used. A single projector can also project on multiple surfaces of the specular pyramid 420, in which case multiple virtual optical centers are created.

発明の一実施形態で、単独または複数の映写機440はテレビ410の後にある壁450の表面に反射され映写されるサラウンド・ビジュアル・フィールド430を映写する。上述のように、このサラウンド・ビジュアル・フィールドは各種の画像、形状、パターン、テクスチャ、色、等々からなることができ、テレビ410に表示されるコンテンツに各種の方法で関係することができる。   In one embodiment of the invention, the projector or projectors 440 project a surround visual field 430 that is reflected and projected onto the surface of the wall 450 behind the television 410. As described above, this surround visual field can consist of various images, shapes, patterns, textures, colors, etc. and can be related to the content displayed on television 410 in various ways.

当業者であれば、サラウンド・ビジュアル・フィールドにおいて各種の効果を達成するためにシステム400の中で各種の反射装置および構成を用いることができることを理解しよう。さらに、映写機440または複数の映写機はテレビ410またはテレビ410を収納する家具に統合されることができる。当業者であればさらに入力コンテンツおよびサラウンド・フィールドを表示するために、単独表示またはタイル表示のような表示セットを含むがこれらに限定されず1台以上のテレビを利用することができることを理解しよう。   Those skilled in the art will appreciate that various reflectors and configurations can be used in the system 400 to achieve various effects in the surround visual field. Further, the projector 440 or the plurality of projectors can be integrated into the television 410 or furniture that houses the television 410. Those skilled in the art will further appreciate that one or more televisions can be used to display input content and surround fields, including but not limited to display sets such as single display or tiled display. .

[サラウンド・ビジュアル・フィールドの用途]
上述の説明は家庭用テレビおよび映写システム、劇場システム、表示装置、および携帯表示装置などのオーディオ/ビジュアル環境に関連したサランウド・ビジュアル・フィールドの使用について全般的に述べているが、発明は他の多数の環境に応用することができる。さらに、サラウンド・ビジュアル・フィールドを生成し制御するのに用いられるシステムは上述の基本的な実施をさらに補足する追加的機能を有することができる。下記にそのような例をほんの少数示し、当業者であれば以下に説明されない他の用途も本発明の範囲に入ることを理解しよう。
[Use of surround visual field]
While the above description generally describes the use of the Salangdo visual field in connection with audio / visual environments such as home television and projection systems, theater systems, display devices, and portable display devices, the invention is It can be applied to many environments. Furthermore, the system used to generate and control the surround visual field can have additional functions that further complement the basic implementation described above. Only a few such examples are given below, and those skilled in the art will appreciate that other applications not described below are within the scope of the present invention.

[ゲームの用途]
サラウンド・ビジュアル・フィールドは個人がやっているビデオ・ゲームの特性に関連して作成され制御されることができる。例えば、ユーザが左方向に動いている場合、前に表示された画面のコンテンツを縫い合わせてサラウンド領域の右側に表示することができる。ゲーム・コントローラの振動といった他の効果も振動の体験を増強するために、表示されるサラウンド・ビジュアル・フィールドに関連付けすることができる。一実施形態で、サラウンド・ビジュアル・フィールドはやっているゲームのビデオ・ストリームを処理して合成される。
[Use of game]
The surround visual field can be created and controlled in relation to the characteristics of the video game that the individual is playing. For example, when the user is moving in the left direction, the contents of the previously displayed screen can be stitched together and displayed on the right side of the surround area. Other effects such as game controller vibrations can also be associated with the displayed surround visual field to enhance the vibration experience. In one embodiment, the surround visual field is synthesized by processing the video stream of the game being played.

[対話式サラウンド・ビジュアル・フィールド]
サラウンド・ビジュアル・フィールドはビデオを視聴し、音楽を聴き、ビデオ・ゲームをやる、等々のユーザによって対話式に制御することができる。一実施形態で、ユーザは表示されるサラウンド・ビジュアル・フィールドのある面を制御することができる。別の実施形態では、システムが動作している部屋における視聴者の場所に応答するなど、サラウンド・ビジュアル・フィールドがその環境を感知し、環境内のイベントに応答することができる。
[Interactive Surround Visual Field]
The surround visual field can be interactively controlled by users such as watching videos, listening to music, playing video games, and so on. In one embodiment, the user can control certain aspects of the surround visual field that is displayed. In another embodiment, the surround visual field can sense its environment and respond to events in the environment, such as responding to the viewer's location in the room where the system is operating.

サラウンド・ビジュアル・システムで視点補正を提供することもできる。視聴者がサラウンド・ビジュアル・システムの映写の瞬間中心と同じ位置にいないことがしばしばある。このような場合、サラウンド・ビジュアル・フィールドが部屋の三次元的形状によって歪んで見える可能性がある。例えば映写機の瞬間中心と視聴者の位置との間の不一致が原因で、均一なパターンが片側でより密集して見え、反対側ではよりまばらに見える可能性がある。しかし、視聴者の位置が感知できれば、システムはサラウンド・ビジュアル・フィールドの映写においてその不一致を補正することができる。この位置は、テレビのリモコンに配置されたセンサ(例、赤外LED)の使用を含む各種の手法を用いて感知することができる。ユーザが入力キューを提供できるようにカメラ、マイクロホンなど他のセンサ、およびゲーム・コントローラ、キーボード、ポインティング・デバイス等々など他の入力装置を用いることができる。   Perspective correction can also be provided by a surround visual system. Often the viewer is not in the same position as the momentary center of the surround visual system projection. In such cases, the surround visual field may appear distorted by the three-dimensional shape of the room. For example, a uniform pattern may appear more dense on one side and more sparse on the other side due to a mismatch between the instantaneous center of the projector and the viewer's position. However, if the viewer's position can be sensed, the system can correct the discrepancy in the surround visual field projection. This position can be sensed using a variety of techniques including the use of sensors (eg, infrared LEDs) located on the television remote control. Other sensors such as cameras, microphones, and other input devices such as game controllers, keyboards, pointing devices, etc. can be used so that the user can provide input queues.

[センサ強化表示]
サラウンド・ビジュアル・フィールドのシステム内の構成要素に配置されるセンサを用いて構成要素間の正しい位置合わせおよび較正が維持されることを保証し、システムが具体的な環境に適合するようにし、および/あるいは入力キューを提供することができる。例えば、図3に示されるシステムにおいて、映写機320が映写領域の中でどこにテレビが位置するかを特定することが重要である。この特定により映写機320は(1)サラウンド・ビジュアル・フィールド(領域330内)をテレビ受信機の画面310の周囲に集中させ、(2)望ましい場合サラウンド・ビジュアル・フィールドがテレビに映写されるのを防ぎ、(3)サラウンド・ビジュアル・フィールドのパターンがテレビ受信機の表示とシームレスに合わされることを補助することができる。
[Sensor enhancement display]
Ensure that correct alignment and calibration between components is maintained using sensors placed on components in the surround visual field system, ensure that the system is adapted to the specific environment, and An input queue can be provided. For example, in the system shown in FIG. 3, it is important for the projector 320 to identify where the television is located within the projection area. This identification causes the projector 320 to (1) focus the surround visual field (in area 330) around the television receiver screen 310, and (2) allow the surround visual field to be projected on the television if desired. And (3) assisting the surround visual field pattern to be seamlessly matched with the television receiver display.

一実施形態で、センサは映写または表示の光学系統とは別途に装着されることができる。別の実施形態ではセンサがビーム・スプリッタなどを用い映写機または表示の光路を共有するように設計されることができる。   In one embodiment, the sensor can be mounted separately from the projection or display optics. In another embodiment, the sensors can be designed to share the light path of the projector or display using a beam splitter or the like.

さらに別の実施形態で、ある種の媒体はサラウンド・ビジュアル・フィールドで表示できる1つ以上のサラウンド・ビデオ・トラックを組み込むことができる。このような媒体の可能な一形態は光学上の幻影または強調を作り出すためにサラウンド・ビジュアル・フィールド内で適宜展開できる内蔵スプライトまたは動画化された視覚物体であり得る。例えば、表示ビデオ内の爆発をサラウンド・ビジュアル・フィールドで爆発効果をシミュレートすることによりテレビ受信機の境界を超えて延長することができる。さらに別の例では投げられた槍を、テレビ画面を超えて延長し、サラウンド・ビジュアル・フィールド内でその軌道を視覚化することができる。サラウンド・ビジュアル・フィールド内におけるこれらの延長は個人またはコンテンツ・プロバイダなどが制作し、表示されているメディア・コンテンツに同期化することができる。   In yet another embodiment, certain media may incorporate one or more surround video tracks that can be displayed in a surround visual field. One possible form of such media can be a built-in sprite or animated visual object that can be deployed as appropriate within the surround visual field to create an optical illusion or enhancement. For example, an explosion in a display video can be extended beyond the boundaries of a television receiver by simulating the explosion effect in a surround visual field. In yet another example, a thrown kite can be extended beyond the television screen to visualize its trajectory in the surround visual field. These extensions within the surround visual field can be produced by an individual or content provider and synchronized with the media content being displayed.

テレプレゼンスおよび強化現実など他の実施も本発明により提供することができる。テレプレゼンスはサラウンド・ビジュアル・フィールドを用いて部屋以外の場所で取り込んだイメージを表示し視聴者が別の場所に運ばれるという錯覚を作り出す。例えば、海岸の行楽地または熱帯雨林からのパノラマ光景を示すパターンを壁上に表示することができる。加えて、各種サラウンド・ビジュアル・フィールドのシステムにおける視覚センサにより取り込まれたイメージを用いて実在および合成物体を混合したイメージを壁に作り出すことができる。   Other implementations such as telepresence and augmented reality can also be provided by the present invention. Telepresence uses a surround visual field to display images captured in places other than the room, creating the illusion that viewers are transported to another location. For example, a pattern showing a panoramic view from a beach resort or rainforest can be displayed on the wall. In addition, images captured by visual sensors in various surround visual field systems can be used to create images on the wall that are a mixture of real and composite objects.

[サラウンド・ビジュアル・フィールドの動画化]
上述のように、本発明は表示されるオーディオ/ビジュアル・コンテンツに関係したサラウンド・ビジュアル・フィールドの生成と制御を可能にする。一実施形態で、サラウンド・ビジュアル・フィールドを通常のビデオ・ストリームからサンプリングした色に基づいてカラー化することができる。例えば、ビデオ・ストリームは支配的な色を表示する際サラウンド・ビジュアル・ストリームが特定のシミュレーションを表示している場合、サラウンド・ビジュアル・フィールドはそのフィールド内にこの支配的な色を反映することができる。サラウンド・ビジュアル・フィールド内の要素を支配的な色に変更することができ、サラウンド・ビジュアル・フィールド自体を支配的な色に変更することができ、またはサラウンド・ビジュアル・フィールドの他の特性を用いてビデオ・ストリーム内の色を補足することができる。このサラウンド・ビジュアル・フィールドのカラー化はカラーフィルタのシーケンス、稲妻、等々、通常のコンテンツにごく普通に使用される照明のムード効果を強化するために用いることができる。
[Animation of surround visual field]
As mentioned above, the present invention allows the generation and control of surround visual fields related to displayed audio / visual content. In one embodiment, the surround visual field can be colored based on colors sampled from a regular video stream. For example, if a video stream displays a dominant color and the surround visual stream displays a particular simulation, the surround visual field may reflect this dominant color within that field. it can. Elements in the surround visual field can be changed to the dominant color, the surround visual field itself can be changed to the dominant color, or other characteristics of the surround visual field can be used To supplement the colors in the video stream. This colorization of the surround visual field can be used to enhance the mood effect of lighting normally used for normal content, such as a sequence of color filters, lightning, etc.

さらに別の実施形態で、サラウンド・ビジュアル・フィールドのシステムは「サラウンド・サウンド」オーディオ・コンポーネントなどビデオ・ストリームのオーディオ特性に関係することができる。例えば、サラウンド・ビジュアル・フィールドはビデオ・ストリームのオーディオ部分の強度、オーディオ部分の音程、または他のオーディオ特性に応答することができる。このように、サラウンド・ビジュアル・フィールドはビデオ・ストリームの視覚コンテンツのみに限定されず、オーディオまたは他の特性関係することができる。   In yet another embodiment, the surround visual field system can relate to the audio characteristics of the video stream, such as a “surround sound” audio component. For example, the surround visual field can be responsive to the strength of the audio portion of the video stream, the pitch of the audio portion, or other audio characteristics. Thus, the surround visual field is not limited to the visual content of the video stream, but can be related to audio or other characteristics.

例示の目的で、ビデオ・コンテンツ内の動きを用いてサラウンド・ビジュアル・フィールド内の要素の動きを定義する実施形態を説明する。当業者であれば、オーディオ/ビジュアル・コンテンツの他の各種特性を用いてサラウンド・ビジュアル・フィールドを生成または制御することができることを理解しよう。さらに、サラウンド・ビジュアル・フィールドのキューまたはコンテンツは個人が制作し、表示されるコンテンツに関係し、および/あるいは同期化することができる。   For illustrative purposes, an embodiment is described that uses movement in video content to define movement of elements in a surround visual field. Those skilled in the art will appreciate that various other characteristics of audio / visual content can be used to generate or control a surround visual field. Furthermore, the surround visual field cues or content can be related to and / or synchronized with the content produced and displayed by the individual.

[動きに関わるサラウンド・ビジュアル・フィールド]
図5は発明の一実施形態で、サラウンド・ビジュアル・フィールドを生成するためにビデオ・コンテンツ内の動きを用いる代表的なサラウンド・ビジュアル・フィールド・コントローラを示す。コントローラ500は映写装置に統合され、映写装置に接続され、または他の方法で視聴領域に映写され表示されるサラウンド・ビジュアル・フィールドを制御するよう有効化されることができる。一実施形態で、コントローラ500はビデオ信号を与えられ、これが続いて処理されビデオ信号の特性、またはキュー/制御信号に関して少なくとも1つのサラウンド・ビジュアル・フィールドを生成し制御する。例えばコントローラ500は表示されるビデオ・コンテンツ内の動きに関係するサラウンド・ビジュアル・フィールドを表示し制御することができる。
[Surround visual field related to movement]
FIG. 5 illustrates an exemplary surround visual field controller that uses motion in video content to generate a surround visual field in one embodiment of the invention. The controller 500 may be integrated into the projection device, connected to the projection device, or otherwise enabled to control a surround visual field that is projected and displayed in the viewing area. In one embodiment, the controller 500 is provided with a video signal that is subsequently processed to generate and control at least one surround visual field with respect to the characteristics of the video signal, or cue / control signals. For example, the controller 500 can display and control surround visual fields related to movement within the displayed video content.

一実施形態で、コントローラ500は連続ビデオ・フレームのペア間の大域動きのモデルを作成する動き推定構成要素510、大域動きモデルをビデオ・フレームの境界を超えて外挿する動きフィールド外挿構成要素540、およびサラウンド・ビジュアル・フィールドとその中の要素を外挿動きモデルに関連して表示し制御するサラウンド・ビジュアル・フィールド動画化構成要素550を含む。一実施形態で、動き推定構成要素510は連続ビデオ・フレームのペア間の光学的流動ベクトルを特定する光学的流動推定構成要素515および特定された光学的流動ベクトルを用いて大域動きモデルを構築するグローバル動きモデル化構成要素525を含む。以下に各構成要素をより詳細に説明する。   In one embodiment, the controller 500 creates a global motion model 510 between pairs of consecutive video frames, a motion field extrapolation component that extrapolates the global motion model across video frame boundaries. 540, and a surround visual field animation component 550 that displays and controls the surround visual field and the elements therein in relation to the extrapolation motion model. In one embodiment, motion estimation component 510 constructs a global motion model using optical flow estimation component 515 that identifies an optical flow vector between pairs of consecutive video frames and the identified optical flow vector. A global motion modeling component 525 is included. Each component will be described in detail below.

[動き推定構成要素]
動き推定構成要素510はビデオ・フレームのペア間の動きを分析し、フレーム・ペア間の動きが推定できるモデルを作成する。モデルの精度はモデルを生成するために用いられた光学的流動ベクトルの密度、使用されるモデルの種類とモデル内のパラメータ数、およびビデオ・フレームのペア間における動きの量と一貫性を含むいくつかの要因に依存することができる。以下の実施形態は連続するビデオ・フレームに関して説明されている。しかし本発明はビデオ信号内における任意の2つ以上のフレーム間で動きを推定して外挿し、この外挿された動きを用いてサラウンド・ビジュアル・フィールドを制御することができる。
[Motion estimation component]
The motion estimation component 510 analyzes motion between pairs of video frames and creates a model that can estimate motion between pairs of frames. The accuracy of the model depends on the density of the optical flow vector used to generate the model, the type of model used and the number of parameters in the model, and the amount and consistency of motion between the video frame pair. Depending on the factors. The following embodiments are described with respect to successive video frames. However, the present invention can estimate and extrapolate motion between any two or more frames in the video signal, and use the extrapolated motion to control the surround visual field.

一例において、ビデオ信号内にコード化される動きベクトルを抽出してビデオ・フレーム間の動きの軌道を特定するのに用いることができる。当業者であればこれらの動きベクトルは各種のビデオコード化規格(例、MPEG、H.264、等々)に定義されるものを含み各種の方法でビデオ信号にコード化され、そこから抽出され得ることを理解しよう。以下さらに詳細に説明する別の例では、ビデオ・フレーム間の動きを描く光学的流動ベクトルを特定することができる。その他各種の方法を用いてビデオ信号内の動きを特定することができ、これらすべて本発明の範囲に入ることが意図される。   In one example, motion vectors encoded in the video signal can be extracted and used to identify motion trajectories between video frames. Those skilled in the art can encode and extract these motion vectors into video signals in various ways, including those defined in various video coding standards (eg, MPEG, H.264, etc.). Let's understand that. In another example described in more detail below, an optical flow vector that describes motion between video frames can be identified. Various other methods can be used to identify motion within the video signal, all of which are intended to fall within the scope of the present invention.

[光学的流動推定構成要素]
発明の一実施形態で、光学的流動推定構成要素は一対のフレーム間で複数の光学的流動ベクトルを特定する。ベクトルはピクセル対ピクセルのベクトルおよびブロック対ブロックのべクトルを含み各種の動き細分性において定義することができる。これらのベクトルを用いてフレーム間の動きを描く光学的流動ベクトル・フィールドを作成することができる。
[Optical flow estimation component]
In one embodiment of the invention, the optical flow estimation component identifies a plurality of optical flow vectors between a pair of frames. Vectors can be defined in various motion granularities, including pixel-to-pixel vectors and block-to-block vectors. These vectors can be used to create an optical flow vector field that describes the motion between frames.

ベクトルは相関法、コード化動きベクトルの抽出、時空的動きの勾配に基づく検出方法、特性に基づく動き検出方法、およびその他ビデオ・フレーム間の動きを追跡する方法を含む各種の手法を用いて特定することができる。   Vectors are identified using a variety of techniques, including correlation methods, coded motion vector extraction, spatio-temporal motion gradient detection methods, feature-based motion detection methods, and other methods for tracking motion between video frames. can do.

光学的流動を判定する相関法は第1画像の部分を類似する輝度パターンを有する第2画像の部分と比較することを含み得る。相関は通常画像の特性を一致させ、または一旦別の方法で特性が判定された後画像の動きを見出すために用いられる。   The correlation method for determining optical flow may include comparing a portion of the first image with a portion of a second image having a similar luminance pattern. Correlation is usually used to match the characteristics of an image or to find the motion of an image once the characteristics have been determined by another method.

ビデオ・フレームのコード化において生成された動きベクトルを用いて光学的流動を判定することができる。通常、動き推定手順はコード化処理中に実施され、ピクセルの類似ブロックを特定し、複数のビデオ・フレームにまたがりこれらピクセルのブロックの動きを描く。これらのブロックは16×16マクロブロックおよびその中のサブブロックを含み、各種のサイズであり得る。この動き情報は抽出され、光学的流動ベクトル・フィールドを生成することができる。   The optical flow can be determined using the motion vectors generated in the coding of the video frame. Typically, a motion estimation procedure is performed during the encoding process to identify similar blocks of pixels and draw the motion of these blocks of pixels across multiple video frames. These blocks include 16 × 16 macroblocks and sub-blocks therein, and can be of various sizes. This motion information can be extracted to generate an optical flow vector field.

光学的流動の勾配に基づく判定方法は画像の各点における画像の流れを推定するのに時空偏導関数を用いる。例えば、画像輝度関数の時空導関数を用いて輝度またはピクセル強度の変化を特定することができ、これらは画像の光学的流動を部分的に判定し得る。光学的流動を特定するのに勾配に基づく方法を用いると、観察された光学的流動が画像勾配の強い領域(例、縁)以外の領域における実際の画像流動からずれる結果になることがある。しかしこのずれもビデオ・フレームのペアに対し大域動きモデルを展開する場合許容できる程度であり得る。   The determination method based on the gradient of optical flow uses a spatiotemporal partial derivative to estimate the image flow at each point of the image. For example, the spatio-temporal derivative of the image luminance function can be used to identify changes in luminance or pixel intensity, which can partially determine the optical flow of the image. Using gradient-based methods to identify optical flow may result in the observed optical flow deviating from actual image flow in regions other than regions with strong image gradients (eg, edges). However, this deviation may be acceptable when developing a global motion model for a pair of video frames.

特性に基づく光学的流動の判定方法はフレーム内で縁など、少数の明確な画像の特性における光学的流動を演算し分析することに的が絞られる。例えば明確な特性の組をマップして2つの連続ビデオ・フレーム間で動きを特定することができる。一連のフレームを通じて特性をマップし、より多数の連続ビデオ・フレームを通じてある特性の動きの進路を定義できる他の方法も知られている。   The characteristic-based optical flow determination method is focused on computing and analyzing optical flow at a small number of distinct image characteristics, such as edges within a frame. For example, a distinct set of characteristics can be mapped to identify motion between two consecutive video frames. Other methods are also known that can map characteristics through a series of frames and define the course of movement of a characteristic through a larger number of consecutive video frames.

図6は発明の一実施形態による、連続するビデオ・フレーム間のピクセル・レベルにおける代表的な光学的流動ベクトルを示す。第1フレームのフレーム(k−1)610内の第1組のピクセル点が特定される。この特定はそれ以前のフレーム内で特定された動き、ビデオ・フレーム610のコード化から抽出した動きベクトル情報に基づいて行なうことができ、無作為に生成、またはその他の方法で複数の点が選択されるように特定することができる。   FIG. 6 shows a representative optical flow vector at the pixel level between successive video frames, according to one embodiment of the invention. A first set of pixel points in frame (k-1) 610 of the first frame is identified. This identification can be based on motion identified in previous frames, motion vector information extracted from the coding of video frame 610, randomly generated, or otherwise selected for multiple points. Can be specified.

第1ビデオ・フレーム610における位置から第2ビデオ・フレーム620における位置までのピクセルの二次元上の動きを描くベクトルが特定される。例えば、位置(x1,y1)611における第1ピクセルの動きは動きベクトル641によって第2フレームにおけるその位置(u1,v1)621に特定できる。光学的流動ベクトルのフィールドが第1フレーム610と第2フレーム620間のピクセルの動きを描く可変数(N)のベクトルを含むことができる。 A vector describing the two-dimensional motion of the pixel from the position in the first video frame 610 to the position in the second video frame 620 is identified. For example, the movement of the first pixel at the position (x 1 , y 1 ) 611 can be specified by the motion vector 641 to the position (u 1 , v 1 ) 621 in the second frame. The field of optical flow vectors may include a variable number (N) of vectors that describe the movement of pixels between the first frame 610 and the second frame 620.

図7は発明の一実施形態による、ブロック間の光学的流動ベクトルが特定される連続するビデオ・フレームのペアを示す。上述のように光学的流動ベクトルは第1フレーム、フレーム(k−1)710と第2フレーム、フレーム(k)720間でマクロブロックおよびその中のサブブロックを含むピクセル・ブロックの動きも描くことができる。これらのベクトルは、ビデオが表示装置で再生できるようにビデオ・ブロック間の動きと歪み双方が提供されるコード化されたビデオから抽出されることを含み、上述の各種手法を用いて生成することができる。抽出された動きベクトルを用いて光学的流動ベクトルのフィールドを次に生成することができる。光学的流動ベクトルのフィールドは動きの推定を行なうことによっても生成することができ、この場合第1フレーム710内のブロックは第2フレームにおいて同じまたはほぼ同じのピクセル値を有する類似ブロックを検索することにより第2フレーム720内で特定される。一旦各フレームでブロックが特定されると、ブロックの二次元上の動きを描く動きベクトルを生成することができる。   FIG. 7 shows a pair of consecutive video frames in which optical flow vectors between blocks are specified, according to one embodiment of the invention. As described above, the optical flow vector also depicts the motion of the pixel block including the macroblock and the sub-blocks therein between the first frame, frame (k-1) 710 and second frame, frame (k) 720. Can do. These vectors are generated using the various techniques described above, including being extracted from the coded video that provides both motion and distortion between the video blocks so that the video can be played on the display device. Can do. Using the extracted motion vectors, a field of optical flow vectors can then be generated. The field of the optical flow vector can also be generated by performing motion estimation, in which case the blocks in the first frame 710 search for similar blocks having the same or nearly the same pixel values in the second frame. Is specified in the second frame 720. Once a block is identified in each frame, a motion vector that describes the two-dimensional motion of the block can be generated.

[大域動きモデル化構成要素]
光学的流動ベクトルを用いて連続するビデオ・フレームのペア間で起こる動きの大域モデルを生成することができる。特定された光学的流動ベクトルのフィールドを用い、ビデオ・フレームのペア間の動きをモデル化することができる。ビデオ・フレームのペア間のオプション光学的流動を推定するのに各種モデルを用いることができる。通常モデルの精度はモデル内で定義されるパラメータの数およびそれらが表す動きの特性に依存する。例えば、3個のパラメータのモデルは2軸に沿った移動および関連回転角を表すことができる。4個のパラメータのモデルは2軸に沿った移動、回転角、およびフレーム内の動きを描く倍率を表すことができる。
[Global motion modeling component]
An optical flow vector can be used to generate a global model of motion that occurs between pairs of consecutive video frames. Using the identified optical flow vector field, motion between pairs of video frames can be modeled. Various models can be used to estimate the optional optical flow between a pair of video frames. Usually the accuracy of a model depends on the number of parameters defined in the model and the characteristics of the motion they represent. For example, a three parameter model can represent movement along two axes and the associated rotation angle. The four parameter model can represent the movement along two axes, the rotation angle, and the magnification at which the motion in the frame is drawn.

発明の一実施形態で、ビデオ・フレーム内の動きをモデル化するのに「アフィン・モデル」(「Affine Model」)と呼ばれる6個のパラメータのモデルが用いられる。この具体的なモデルは移動ベクトル、回転角、2軸に沿った2つの倍率、および倍率の方位角を表す。全般的にこのモデルはビデオ・フレームのペア間の動きを表す回転、並進、拡張、およびずれの合成である。   In one embodiment of the invention, a six parameter model called an “Affine Model” is used to model motion within a video frame. This specific model represents the movement vector, the rotation angle, two magnifications along the axis, and the azimuth angle of the magnification. In general, this model is a composition of rotation, translation, expansion, and displacement that represents motion between a pair of video frames.

大域動きモデル化構成要素525は光学的流動ベクトル・フィールドの情報を受信し、ビデオ・フレームのペア間の大域動きを推定する6個のパラメータのアフィン・モデルを生成する。このモデルからフレーム・ペア間の動きは次の2つの方程式により推定できる:
u=a1+a2x+a3y・・・式(1)
v=a4+a5x+a6y・・・式(2)
ここでa1…a6はモデルのパラメータである。
A global motion modeling component 525 receives the optical flow vector field information and generates a six parameter affine model that estimates the global motion between a pair of video frames. From this model, motion between frame pairs can be estimated by the following two equations:
u = a 1 + a 2 x + a 3 y Expression (1)
v = a 4 + a 5 x + a 6 y (2)
Here a 1 ... a 6 is a parameter of the model.

6個のパラメータ、a1からa6、を解くためには少なくとも3つの光学的流動ベクトルが前以て定義されている必要がある。しかし、モデルに望まれる精度により、モデルを作成する光学的流動ベクトル・フィールドはモデルの堅牢性と精度を向上させるためにより高い密度であることができる。 In order to solve the six parameters, a 1 to a 6 , at least three optical flow vectors need to be defined in advance. However, depending on the accuracy desired for the model, the optical flow vector field that creates the model can be of higher density to improve the robustness and accuracy of the model.

大域動きモデル化構成要素525は提供された光学的流動ベクトル・フィールドに関するパラメータを最適化することによりモデルを定義する。例えば、N個の光学的流動ベクトルおよび対応するN個の点のペア(x1,y1)…(xN,yN)と(u1,v1)…(uN,vN)が提供される場合、a1からa6のパラメータは最適化計算または手順により解くことができる。 Global motion modeling component 525 defines the model by optimizing parameters for the provided optical flow vector field. For example, N optical flow vectors and corresponding N point pairs (x 1 , y 1 )... (X N , y N ) and (u 1 , v 1 )... (U N , v N ) If provided, the parameters a 1 to a 6 can be solved by optimization calculations or procedures.

6個のパラメータを最適化してモデルと光学的流動ベクトル・フィールド間の最小エラーが特定されると、大域動きモデルが生成される。パラメータを最適化する1つの方法は光学的流動ベクトル・フィールドの各ベクトルに対し適合する最小二乗エラーである。光学的流動ベクトル・フィールドおよび対応モデル化ベクトル間で最小二乗エラーを提供するパラメータ値が選択される。 Once the six parameters are optimized to identify the minimum error between the model and the optical flow vector field, a global motion model is generated. One way to optimize the parameters is a least square error that fits for each vector in the optical flow vector field. A parameter value is selected that provides a least square error between the optical flow vector field and the corresponding modeled vector.

図8は発明の一実施形態による、大域動きモデル810内の動きベクトルをどのように生成できるかの例を示している。この例では(xi,yi)820に関する動きはアフィン・モデルの(ui,vi)830を計算する方程式850を解くことにより特定される。これらの2点から動きベクトル825を計算して大域動きモデル810を成長させるのに用いることができる。 FIG. 8 shows an example of how motion vectors in the global motion model 810 can be generated according to one embodiment of the invention. In this example, the motion for (x i , y i ) 820 is identified by solving equation 850 that computes (u i , v i ) 830 for the affine model. A motion vector 825 can be calculated from these two points and used to grow the global motion model 810.

大域動きモデルを生成するために上述の如くアフィン・モデルを使用することは他のモデルを除外する意図ではない。例えば、さらに三次元の回転を表す8個のパラメータのモデルも用いることができ、ビデオ・フレーム内の動きをより正確に描くことができる可能性がある。しかし、パラメータが増えるとモデルを構築し外挿するのにさらに演算が必要となる。従って当業者であれば大域動きモデルの望ましい精度およびシステムで利用可能な演算能力によって各種モデルを用いることができることを理解しよう。   The use of an affine model as described above to generate a global motion model is not intended to exclude other models. For example, an eight parameter model representing a further three-dimensional rotation can also be used, which may be able to more accurately depict the motion within the video frame. However, as the parameters increase, more computation is required to build and extrapolate the model. Accordingly, those skilled in the art will appreciate that various models can be used depending on the desired accuracy of the global motion model and the computing power available in the system.

図9は発明の一実施形態による、ビデオ・フレーム間の典型的な大域動きモデル910を示す。図はこれまでの図に示される4つの光学的流動ベクトルに関連する動きを推定する4つのベクトルを含む、モデル内の複数の動きベクトルを示している。   FIG. 9 illustrates an exemplary global motion model 910 between video frames, according to one embodiment of the invention. The figure shows a plurality of motion vectors in the model, including four vectors that estimate the motion associated with the four optical flow vectors shown in the previous figures.

図10Aはビデオ・フレームにオーバーレイされた代表的な光学的流動ベクトル・フィールド1010を示し、図10Bは代表的なベクトル・フィールドから生成され、同じビデオ・フレームにオーバーレイされた大域動きモデル1030を示す。これを検討することにより当業者であれば大域動きモデルを用いてビデオ・フレーム内のモデル化された動きをビデオ・フレームの境界を超えて外挿できることを理解しよう。   FIG. 10A shows a representative optical flow vector field 1010 overlaid on a video frame, and FIG. 10B shows a global motion model 1030 generated from the representative vector field and overlaid on the same video frame. . By reviewing this, one skilled in the art will understand that a global motion model can be used to extrapolate modeled motion within a video frame across video frame boundaries.

[動きフィールド外挿構成要素]
動きフィールド外挿構成要素540は大域動きモデルをビデオ・フレームの境界を超えて延長し、これらフレームの境界を超えたサラウンド・ビジュアル・フィールド内の要素がフレーム内の動きに応答できるようにする。発明の一実施形態で、(xN,yN)から(uN,vN)までの動きベクトルを定義するアフィン・モデルの方程式を用いてフレームの境界を超えて推定された動きを拡張し、ここで(xN,yN)はビデオ・フレームの境界を超えて位置する。
[Motion field extrapolation components]
The motion field extrapolation component 540 extends the global motion model beyond the boundaries of the video frame and allows elements within the surround visual field that cross these frame boundaries to respond to motion within the frame. In one embodiment of the invention, the estimated motion across frame boundaries is extended using affine model equations that define motion vectors from (x N , y N ) to (u N , v N ). Where (x N , y N ) is located beyond the boundaries of the video frame.

図11は発明の一実施形態により実施できる典型的な動きの外挿を示す。やや上方への角度を持ち左の境界に向かう動きを持つ第1の動きベクトルの組1120が示される。この動きは大域動きモデルを用いることによりフレームの境界を超えて外挿することができる。それにより、ビデオ・フレームの境界を超えた第2の動きベクトルの組1130が生成される。別の例では、右回りの回転を有する第3の動きベクトルの組1140が示される。この回転の動きも大域動きモデルを用いることによりビデオ・フレームを超えて外挿することができ、その結果フレームの境界外に第4の動きベクトルの組1150が生成される。   FIG. 11 illustrates exemplary motion extrapolation that can be performed according to an embodiment of the invention. A first set of motion vectors 1120 is shown having a slightly upward angle and a motion toward the left boundary. This motion can be extrapolated across frame boundaries by using a global motion model. Thereby, a second set of motion vectors 1130 beyond the boundaries of the video frame is generated. In another example, a third set of motion vectors 1140 having a clockwise rotation is shown. This rotational motion can also be extrapolated beyond the video frame by using a global motion model, resulting in a fourth set of motion vectors 1150 outside the frame boundaries.

これらの動きベクトル(例、1130,1150)を用いて、ビデオ・フレームの表示の周りに映写されるサラウンド・ビジュアル・フィールド、および・あるいはその中の要素、の動きを定義することができる。フレーム内の動きが変化するにつれ、大域動きモデルが応答し、その結果サラウンド・ビジュアル・フィールドが変化する。発明の一実施形態で、サラウンド・ビジュアル・フィールド内の要素はその後大域動きモデルを用いて外挿された動きベクトルに応答し、これらに制御される。   These motion vectors (eg, 1130, 1150) can be used to define the motion of the surround visual field and / or elements therein that are projected around the display of the video frame. As the motion in the frame changes, the global motion model responds, resulting in a change in the surround visual field. In one embodiment of the invention, elements in the surround visual field are then responsive to and controlled by extrapolated motion vectors using a global motion model.

図12は発明の一実施形態による、表示されたビデオ・フレームの周りのサラウンド・ビジュアル・フィールドの動きを制御するために用いることができる典型的な外挿された大域動きモデルを示す。フレーム内の大域動きモデル1220により定義されたベクトルが示され、フレーム自体の中の動きを推定する。このモデルはフレームの境界を超えて拡張され、外挿された大域動きモデル1230を提供する。外挿された大域動きモデル1230内のベクトルはサラウンド・ビジュアル・フィールド内の要素の動きを制御することができる。   FIG. 12 illustrates an exemplary extrapolated global motion model that can be used to control the motion of the surround visual field around a displayed video frame, according to one embodiment of the invention. The vector defined by the global motion model 1220 in the frame is shown and estimates the motion in the frame itself. This model extends beyond the frame boundaries to provide an extrapolated global motion model 1230. The vectors in the extrapolated global motion model 1230 can control the motion of elements in the surround visual field.

サラウンド・ビジュアル・フィールドはビデオ・フレームを表示する装置に映写することもできる。この場合、サラウンド・ビジュアル・フィールド内における要素の装置上の動きはビデオ・フレームにおける動きを推定する大域動きモデル1220内のベクトルにより制御される。   The surround visual field can also be projected on a device that displays a video frame. In this case, the motion of the element in the surround visual field on the device is controlled by a vector in the global motion model 1220 that estimates the motion in the video frame.

[サラウンド・ビジュアル・フィールド動画化構成要素]
サラウンド・ビジュアル・フィールド動画化構成要素は映写されるサラウンド・ビジュアル・フィールドをビデオ・コンテンツの少なくとも1つの特性に従って作成、動画化、および維持する。一実施形態では上述のように、サラウンド・ビジュアル・フィールド内の要素が表示されるビデオ内の動きに関係して動く。
[Surround Visual Field Animation Component]
The surround visual field animation component creates, animates, and maintains the projected surround visual field according to at least one characteristic of the video content. In one embodiment, as described above, elements in the surround visual field move in relation to movement in the video being displayed.

サラウンド・ビジュアル・フィールドは各種の手法を用いて生成され維持されることができる。発明の一実施形態で、サラウンド・ビジュアル・フィールド内要素はフィールド内で無作為に生成され、時間につれ次第に消える。次第に消えた要素に置き換わる別の要素が無作為にサラウンド・ビジュアル・フィールドに挿入される。これら別の要素も時間につれ減衰し次第に消える。サラウンド・ビジュアル・フィールド内における要素の減衰と要素の無作為の置き換えにより、要素の長期にわたる動きによりサランド・ビジュアル・フィールド内で要素が集中しまたはグループ化することを削減する。   Surround visual fields can be generated and maintained using various techniques. In one embodiment of the invention, elements in the surround visual field are randomly generated in the field and disappear over time. Another element that randomly replaces the missing element is randomly inserted into the surround visual field. These other elements also decay with time and disappear gradually. Element decay and random replacement of elements within the surround visual field reduce the concentration or grouping of elements within the surround visual field due to long-term movement of the elements.

[サラウンド・ビジュアル・フィールド要素の形状]
動きに加え、サラウンド・ビジュアル・フィールドの要素を含む他の特性も外挿大域動きモデルにより制御することができる。例えば、フィールド内の各要素の形状は大域動きモデル内のベクトルで決定されることができる。図13は要素の形状が対応する動きベクトルに関連付けされる一方法を示す。
[Surround visual field element shape]
In addition to motion, other characteristics including elements of the surround visual field can be controlled by the extrapolated global motion model. For example, the shape of each element in the field can be determined by a vector in the global motion model. FIG. 13 illustrates one way in which the shape of an element is associated with a corresponding motion vector.

発明の一実施形態で、要素1310の形状は大域動きモデルに対する要素1310の位置に対応する動きベクトル1320に影響される。例えば要素1310は対応する動きベクトル1320の軸および動きベクトルの方向に与えられる加重に沿って拡張されることができる。図13に示される例では、形状を変えた要素1340は動きの軸に沿って引き伸ばされ、その結果動きベクトルの方向に向かったより細い尾部1360とより広い頭部1350がもたらされる。   In one embodiment of the invention, the shape of element 1310 is affected by a motion vector 1320 that corresponds to the position of element 1310 relative to the global motion model. For example, an element 1310 can be expanded along a weight given to the axis of the corresponding motion vector 1320 and the direction of the motion vector. In the example shown in FIG. 13, the deformed element 1340 is stretched along the axis of motion, resulting in a narrower tail 1360 and a wider head 1350 in the direction of the motion vector.

形状を変えた要素1340の他の特性も動きベクトル1320を反映するように変更できる。例えば形状を変えた要素1340の頭部における輝度は明るく、要素の尾部1360に近づくにつれ徐々に暗くなることができる。この動きに対する輝度の減退は要素がサラウンド・ビジュアル・フィールド内で動く際知覚される動きのブレを増強することができる。   Other characteristics of the changed element 1340 can also be changed to reflect the motion vector 1320. For example, the brightness of the head of the element 1340 having a changed shape is bright and can gradually become darker as it approaches the tail 1360 of the element. This reduction in luminance with respect to motion can enhance perceived motion blur as the element moves in the surround visual field.

さらに別の実施形態で、要素の形状は要素自体に関係する連続した動きベクトルの動きに対応することができる。図14は要素の形状と動きが大域動きモデル内で時間につれ生じる複数の動きベクトルに従って定義されることができる。この実施形態で、要素は2つのビデオ・フレームのペアからモデル化された2つの連続した動きベクトル1410,1420に対して動く。2つのベクトルで定義された軌道は第1ベクトル1410の終りと第2ベクトル1420の初めに鋭い旋回を含む。この旋回により軌道に従う要素の動きを見る場合質が落ちる可能性があり、要素が動く時にひきつる可能性がある。   In yet another embodiment, the shape of the element can correspond to the motion of a continuous motion vector related to the element itself. FIG. 14 can be defined according to a plurality of motion vectors where the shape and motion of an element occur over time in the global motion model. In this embodiment, the element moves with respect to two consecutive motion vectors 1410, 1420 modeled from two video frame pairs. A trajectory defined by two vectors includes a sharp turn at the end of the first vector 1410 and the beginning of the second vector 1420. This swirling can degrade the quality of the movement of the element following the trajectory and can be tangled when the element moves.

軌道は急な動きの変化を含まない曲線軌道1430に円滑化することができる。この円滑化は各種の数学方程式およびモデルによって行なうことができる。例えば、形状を変えた要素1450は曲線1430に沿って要素1450が引き伸ばされる形で曲線軌道を反映することができる。形を変えた要素1450の輝度は変化することができ、動きの様子をさらに増強するために点の頭部近くの輝度が最も明るく、尾部に近づくにつれ徐々に明るさを減らすようにすることができる。   The trajectory can be smoothed into a curved trajectory 1430 that does not include a sudden change in motion. This smoothing can be done with various mathematical equations and models. For example, an altered element 1450 can reflect a curved trajectory with the element 1450 stretched along the curve 1430. The brightness of the deformed element 1450 can vary, and the brightness near the head of the point is the brightest to further enhance the movement, and gradually decreases as it approaches the tail. it can.

当業者であればサラウンド・ビジュアル・フィールドの動きを強調するために要素の形状を変更させる方法は他にもあることを理解しよう。   Those skilled in the art will appreciate that there are other ways to change the shape of an element to emphasize the movement of the surround visual field.

図15は発明の一実施形態によるサラウンド・ビジュアル・フィールドを含むビデオ・プレゼンテーションを示す一例である。この例で、画面1510上では左回りの動きがフレーム内で支配的であるビデオが表示されている。この支配的動きはモデル化、外挿され、サラウンド・ビジュアル・フィールド1530を動画化するために用いられる。この具体的な例ではサラウンド・ビジュアル・フィールド1530も左回りで回転しており、それにより画面1510内の動きを増強している。このサラウンド・ビジュアル・フィールドは個人に対し動きが表示される領域を大幅に広げビデオ自体の没入効果を高める可能性がある。   FIG. 15 is an example illustrating a video presentation including a surround visual field according to one embodiment of the invention. In this example, a video in which the counterclockwise movement is dominant in the frame is displayed on the screen 1510. This dominant motion is modeled, extrapolated, and used to animate the surround visual field 1530. In this specific example, the surround visual field 1530 also rotates counterclockwise, thereby enhancing the movement within the screen 1510. This surround visual field can greatly expand the area where motion is displayed to the individual and increase the immersive effect of the video itself.

[三次元サラウンド環境の作成]
実施形態において、各種手法を用いて通常の表示の視野を向上させる対話式で没入型の三次元(3D)環境を作成することができる。例えば、地形、海、等々の自然現象の三次元環境を合成し、サラウンド・ビデオ・フィールドとして二次元描写を表示することができる。前述のとおり、本発明の実施形態は入力ストリームの関連する1つ以上のキューまたは制御信号を用いサラウンド・フィールド・プレゼンテーションを作成することにより娯楽システムの没入を向上させることができる。実施形態において、三次元環境は対話的であり得、入力ストリームの変化に応答して例えば情景照明、カメラの動き、オーディオ等々環境内の要素が変化する。
[Create a 3D surround environment]
In embodiments, an interactive and immersive three-dimensional (3D) environment can be created that uses various techniques to improve the field of view of normal displays. For example, a three-dimensional environment of natural phenomena such as terrain, sea, etc. can be synthesized and a two-dimensional depiction displayed as a surround video field. As mentioned above, embodiments of the present invention can improve the immersiveness of the entertainment system by creating a surround field presentation using one or more associated cues or control signals of the input stream. In an embodiment, the three-dimensional environment may be interactive, with elements in the environment changing, such as scene lighting, camera movement, audio, etc., in response to changes in the input stream.

実施形態において、対話性は物理的シミュレーションを用いて達成でき、この場合サラウンド情景の1つ以上の力学または要素は入力ストリームに関連する1つ以上のキューまたは制御信号によって制御される。一実施形態で、これらの三次元サラウンド・シミュレーションをリアルタイムで表現するために入力ストリームからのデータを使用し、画像ベースの1つ以上の表現アルゴリズムを用いることができる。一実施形態で、サラウンド・フィールドは画像ベースの表現および制作されたキューおよび/あるいは制作されたコンテンツを含むがこれらに限定されず予め演算されたデータから生成されることができる。   In an embodiment, interactivity can be achieved using physical simulation, where one or more dynamics or elements of the surround scene are controlled by one or more cues or control signals associated with the input stream. In one embodiment, data from the input stream can be used to represent these three-dimensional surround simulations in real time, and one or more image-based representation algorithms can be used. In one embodiment, the surround field can be generated from pre-computed data, including but not limited to image-based representations and produced cues and / or produced content.

[サラウンド・フィールド・コントローラ]
図16は発明の一実施形態による代表的なサラウンド・フィールド・コントローラ1600を示し、ここでキューまたは制御信号は入力ストリームから抽出され、または他のソースから受信され、サラウンド・フィールドを生成するために用いられる。コントローラ1600はディスプレー装置(映写装置を含むとみなされる)の中に統合され、ディスプレー装置に接続され、または他の方法で視聴領域に表示されるサラウンド・フィールドの制御を可能にされている。コントローラ1600はソフトウェア、ハードウェア、ファームウェア、またはこれらの組み合わせにおいて実施され得る。一実施形態で、コントローラ1600は少なくとも1つのサラウンド・ビジュアル・フィールドを生成し、および/あるいは制御するために後に処理され得る1つ以上の入力信号を受信する。
[Surround Field Controller]
FIG. 16 illustrates an exemplary surround field controller 1600 according to one embodiment of the invention, where queues or control signals are extracted from the input stream or received from other sources to generate the surround field. Used. The controller 1600 is integrated into a display device (considered to include a projection device), connected to the display device, or otherwise enabled to control the surround field displayed in the viewing area. Controller 1600 may be implemented in software, hardware, firmware, or a combination thereof. In one embodiment, the controller 1600 receives one or more input signals that can be subsequently processed to generate and / or control at least one surround visual field.

図16に描かれるように、コントローラ1600は制御信号またはキュー抽出構成要素1610を含み、これは入力オーディオ/ビデオ・ストリーム、入力装置(ゲーム・コントローラなど)、1つ以上のセンサ(リモコンに含まれる位置センサなど)、および埋め込まれまたは制作された制御信号または制作されたコンテンツを含む多種のソースから制御信号を抽出または引き出す複数の抽出構成要素1612〜1620からなることができる。例えば、コントローラ1600は表示されているコンテンツ内の動きに関連するサラウンド・ビジュアル・フィールドを表現し制御することができる。一実施形態で、制御信号抽出構成要素1610が前述のようにビデオから動きのキューまたは制御信号を取得することができる。一実施形態で、制御信号抽出構成要素1610はオーディオ・チャンネル間の位相差、音量レベル、オーディオ周波数分析等々のオーディオ信号を用いてオーディオ信号から制御信号を取得することができる。一実施形態で、コンテンツ・プロバイダが入力ビデオ・ストリームに制御信号を埋め込み、またはデータ・チャンネルに制御信号を含むことができる。   As depicted in FIG. 16, the controller 1600 includes a control signal or cue extraction component 1610 that includes an input audio / video stream, an input device (such as a game controller), one or more sensors (included in the remote control). And a plurality of extraction components 1612-1620 that extract or derive control signals from a variety of sources including embedded or produced control signals or produced content. For example, the controller 1600 can represent and control surround visual fields associated with movement within the displayed content. In one embodiment, the control signal extraction component 1610 can obtain a motion cue or control signal from the video as described above. In one embodiment, the control signal extraction component 1610 can obtain a control signal from an audio signal using audio signals such as phase differences between audio channels, volume levels, audio frequency analysis, and the like. In one embodiment, the content provider can embed control signals in the input video stream or include control signals in the data channel.

一実施形態で、制御信号抽出構成要素1610はサラウンド・ビジュアル・フィールド生成/動画化構成要素1650に結合していることができる。「結合」または「通信上結合」の用語は、モジュール、装置、またはシステムのいずれに関して用いられようと、直接接続、1つ以上の中間装置を通じた間接接続、および無線接続を含むと理解される。抽出された制御信号はサラウンド・フィールド生成構成要素または動画化構成要素1650に供給され、これが制御信号を用いてサランド・フィールドを作成または合成する。サラウンド・フィールド生成構成要素1650は図5に関連して説明されたように1つ以上のサブコンポーネントまたはモジュールで構成されることができる。実施形態において、サラウンド・フィールド生成構成要素1650は物理ベースのモデル化と制御信号を用いて三次元環境を生成し、サラウンド・フィールドの要素をして写実的に反応させることができる。サラウンド・フィールド生成構成要素1650の実施形態は画像ベースの手法および/あるいは制作されたコンテンツなどの予め演算されたデータを用いてサラウンド・フィールドを生成することができる。実施形態において、サラウンド・フィールド生成構成要素1650は非写実的効果、または動きの延長もしくはハイライト、情景延長、色延長もしくはハイライト等々補足効果を生成することができる。   In one embodiment, the control signal extraction component 1610 can be coupled to a surround visual field generation / animation component 1650. The term “coupled” or “communicatively coupled”, whether used with respect to a module, device, or system, is understood to include direct connection, indirect connection through one or more intermediate devices, and wireless connection. . The extracted control signal is provided to a surround field generation component or an animation component 1650, which creates or synthesizes a surround field using the control signal. The surround field generation component 1650 can be comprised of one or more subcomponents or modules as described in connection with FIG. In an embodiment, the surround field generation component 1650 can generate a three-dimensional environment using physics-based modeling and control signals, and make the elements of the surround field react realistically. Embodiments of the surround field generation component 1650 can generate a surround field using pre-computed data such as image-based techniques and / or produced content. In embodiments, the surround field generation component 1650 can generate non-realistic effects, or supplemental effects such as motion extensions or highlights, scene extensions, color extensions or highlights, and the like.

サラウンド・フィールド生成構成要素または動画化構成要素1650はサラウンド・フィールドを作成する際2つ以上の制御信号を用いることができる。実施形態において、生成構成要素1650はサラウンド・フィールドにおける要素がコンテンツ制作者のデザインと一致するよう動画化するために複数の制御信号を用いることができる。生成構成要素1650はさらに制御信号を使用または比較することにより相反する制御信号を解決するための判定を簡略化することができる。   The surround field generation component or animation component 1650 can use more than one control signal in creating the surround field. In an embodiment, the generation component 1650 can use multiple control signals to animate the elements in the surround field to match the content creator's design. The generation component 1650 can further simplify the determination to resolve conflicting control signals by using or comparing the control signals.

実施形態において、コントローラ1600はコンテンツ・プロバイダが提供するサラウンド・フィールド情報に基づきサラウンド・フィールドを動画化できる。例えば、ビデオ・ゲームまたは映画のプロバイダは入力ストリームと併せてサラウンド・フィールド情報を制作または含むことができる。一実施形態で、サラウンド・フィールドは完全に制作されることができる。別の実施形態で、サラウンド・フィールドは部分的に制作されることができる。実施形態において、1つ以上の制御信号が提供され、提供された制御信号に関連したサラウンド・フィールドが生成され得る。   In an embodiment, the controller 1600 can animate the surround field based on the surround field information provided by the content provider. For example, a video game or movie provider can produce or include surround field information in conjunction with an input stream. In one embodiment, the surround field can be fully produced. In another embodiment, the surround field can be partially created. In an embodiment, one or more control signals may be provided and a surround field associated with the provided control signal may be generated.

コントローラ1600の特定の構成は本発明に全く重要でないことが特記される。当業者であれば他の構成または機能性がコントローラから除外され、またはこれに含まれることができ、そのような構成は発明の範囲内であることを理解しよう。   It is noted that the particular configuration of controller 1600 is not critical to the present invention. Those skilled in the art will appreciate that other configurations or functionality can be excluded from or included in the controller and such configurations are within the scope of the invention.

[画像およびビデオからの動画化制御信号の誘導]
前記考察のとおり、サラウンド・ビデオに表示される要素は入力ストリームから抽出された制御信号またはキューに基づき動画化され得る。一実施形態で、入力ストリームからの制御信号は1つ以上のソースから取得することができ、これにはビデオ・フレーム(色および動きなど)、オーディオ・チャンネル、ゲーム・コントローラ、入力センサから得られた視聴者の位置、リモコン、および他のセンサからの入力が含まれるが、これらに限定されるものではない。実施形態において、1つ以上のキューで駆動され、またはそれに関連する1つまたは複数の動画制御信号が演算され得る。
[Derivation of animation control signals from images and videos]
As discussed above, the elements displayed in the surround video can be animated based on control signals or cues extracted from the input stream. In one embodiment, control signals from the input stream can be obtained from one or more sources, which can be obtained from video frames (such as color and motion), audio channels, game controllers, input sensors. But includes, but is not limited to, viewer position, remote control, and input from other sensors. In embodiments, one or more video control signals driven by or associated with one or more cues may be computed.

[光源]
一実施形態で、入力制御信号を用いて三次元サラウンド環境における単独または複数の光源の位置、輝度、および/あるいは色を制御することができる。例えば、ソースのビデオが例えば光、月、太陽、車のヘッドライト等々明るい物体が左から右へなど、ある方向に動いているのを表示する場合、その明るい物体と同じ色のバーチャル光源も3Dサラウンド環境内で同じ方向に動くことができ、表面の陰影の差および影の動きにより情景の様相に変化を引き起こすことができる。情景におけるバーチャル光源はさらにビデオ・フレームの全体的な輝度に基づきその輝度を変化させることができる。
[light source]
In one embodiment, input control signals can be used to control the position, brightness, and / or color of one or more light sources in a three-dimensional surround environment. For example, if the source video displays a bright object moving in one direction, such as light, moon, sun, car headlights, etc., from left to right, a virtual light source of the same color as the bright object is also 3D It can move in the same direction within the surround environment and can cause changes in the appearance of the scene due to surface shading differences and shadow movement. The virtual light source in the scene can further change its brightness based on the overall brightness of the video frame.

[風フィールド]
別の説明例においてソースのビデオ・ストリームにおける動きをさらに用いて3Dサラウンド環境内で風フィールドを生じさせることができる。例えば、物体がビデオを横切って動いた場合、バーチャル三次元サラウンド・フィールドに風フィールドに生じさせ、情景内の要素を同じ方向に動かすことができる。つまり、例えば樹木など情景内の要素は風フィールドに関連して動き、または揺れることができる。
[Wind Field]
In another illustrative example, motion in the source video stream can be further used to create a wind field in a 3D surround environment. For example, if an object moves across the video, a virtual three-dimensional surround field can be created in the wind field and the elements in the scene can be moved in the same direction. That is, elements in the scene, such as trees, can move or sway in relation to the wind field.

[かく乱]
一実施形態で、1つ以上の入力キューから検出されたイベントは三次元サラウンド環境においてかく乱を導入するために用いることもできる。実施形態において、ビデオがわずかまたはゼロの動きの期間からたくさんの動きがある情景に移行する場合、「かく乱」イベントを導入しサラウンド情景における要素がイベントに反応できるようにしても良い。
[Disturbance]
In one embodiment, events detected from one or more input queues can also be used to introduce disturbances in a 3D surround environment. In an embodiment, if the video transitions from a slight or zero motion period to a scene with a lot of motion, a “disturb” event may be introduced to allow elements in the surround scene to react to the event.

例示として魚が泳いでいるサラウンド情景を考察する。1つまたは複数の入力キューがオーディオ音量の劇的な増加、および/あるいはビデオ内の急激な動きなどかく乱イベントを示す場合、魚はかく乱が導入されるとより高速に素早く動き、泳ぐことができる。一実施形態で、魚はかく乱の中心点と見られる位置から泳いで離れるようにさせることもできる。   As an example, consider a surround scene where fish are swimming. If one or more input cues show a disruption event, such as a dramatic increase in audio volume and / or a sudden movement in the video, the fish can move and swim faster and faster when the disturbance is introduced. . In one embodiment, the fish may be allowed to swim away from what is seen as the center point of the disturbance.

[三次元サラウンド・フィールドの合成]
本発明の一態様は三次元環境の合成で、これは次にサラウンド・フィールドとして表示できる。実施形態において、サラウンド・フィールドは当業者に周知の物理ベースのシミュレーションおよび表現手法を用いて合成することができる。一実施形態で、山、森、波、雲等々の自然現象の写実的な背景を合成することができる。実施形態において、他の背景または環境が描写され、少なくとも部分的に1つ以上の制御信号に従い反応し得る。対話式コンテンツを生成しサラウンド・フィールドで表示するには二次元および/あるいは三次元シミュレーションを入力ストリームから抽出された制御信号に結合され、または信号が提供されることができる。
[Composition of 3D surround field]
One aspect of the present invention is the synthesis of a three-dimensional environment, which can then be displayed as a surround field. In embodiments, the surround field can be synthesized using physics-based simulation and representation techniques well known to those skilled in the art. In one embodiment, a realistic background of natural phenomena such as mountains, forests, waves, clouds, etc. can be synthesized. In embodiments, other backgrounds or environments are depicted and may react at least in part according to one or more control signals. To generate interactive content and display it in a surround field, two-dimensional and / or three-dimensional simulations can be combined or provided with control signals extracted from the input stream.

例示の目的からパーリン・ノイズ関数(Perlin noise function)により力学が近似される以下の3Dシミュレーションの実施形態を考察する。パーリン・ノイズ関数はコンピュータ・グラフィックスで地形、テクスチャ、および水のモデル化に広く使用され、これは次において考察される:Ken Perlinの「画像シンセサイザ」(「An image synthesizer」)、Computer Graphics(Proceedings of SIGGRAPH 1985)、 Vol. 19、287296頁、1985年7月、Claes Johansの「リアルタイムの水の表現」(「Real-time water rendering」)、 Master of Science Thesis、Lund 大学、2004年3月、およびKen Perlin とEric M. Hoffert の「ハイパーテクスチャ」(「Hypertexture」 )、Computer Graphics(Proceedings of SIGGRAPH 1989)、 Vol. 23、253262頁、1989年7月。これらは各々言及により全体として本明細書に組み入れられる。本明細書で説明される手法は物理ベースのシステムを含むがこれに限定されず、他種の3Dシミュレーションに拡張し得ることが特記される。   For purposes of illustration, consider the following 3D simulation embodiment in which dynamics are approximated by a Perlin noise function. The Perlin noise function is widely used in computer graphics to model terrain, texture, and water, and is discussed in the following: Ken Perlin's "Image Synthesizer" ("An image synthesizer"), Computer Graphics ( Proceedings of SIGGRAPH 1985), Vol. 19, pp. 287296, July 1985, Claes Johans' "Real-time water rendering", Master of Science Thesis, Lund University, March 2004 , And Ken Perlin and Eric M. Hoffert, "Hypertexture" (Hypertexture), Computer Graphics (Proceedings of SIGGRAPH 1989), Vol. 23, 253262, July 1989. Each of which is incorporated herein by reference in its entirety. It is noted that the techniques described herein include, but are not limited to, physics-based systems and can be extended to other types of 3D simulations.

一次元パーリン関数は異なった振幅および周波数におけるいくつかのノイズ・ゼネレータNoise(x)を合計することにより得られる:   A one-dimensional perlin function is obtained by summing several noise generators Noise (x) at different amplitudes and frequencies:

関数Noise(x)はシードされた乱数ゼネレータ(seeded random number generator)で、入力パラメータとして整数を取り、入力に基づいた乱数を戻す。ノイズ・ゼネレータの数はパラメータoctavesによって制御でき、各レベルにおける周波数は二乗で増分される。パラメータαは各レベルの振幅を制御し、βは全体のスケーリングを制御する。方程式(4)の二次元版を用いると自然に見える地形をシミュレートすることができる。方程式(4)の三次元版を用いると水のシミュレーションを作成することができる。 The function Noise (x) is a seeded random number generator that takes an integer as an input parameter and returns a random number based on the input. The number of noise generators can be controlled by the parameter octaves, and the frequency at each level is incremented by a square. The parameter α controls the amplitude of each level, and β controls the overall scaling. Using the two-dimensional version of equation (4), natural terrain can be simulated. Using a three-dimensional version of equation (4), a water simulation can be created.

リアルタイムで水をシミュレートするためのパラメータは入力ビデオ・ストリームを用いて応答式三次元サラウンド・フィールドを合成することにより駆動される。カメラの動き、光源、および三次元の水のシミュレーションはビデオからサンプリングされた動きベクトル、色、およびオーディオ信号に結合することができる。   Parameters for simulating water in real time are driven by synthesizing a responsive 3D surround field using the input video stream. Camera motion, light source, and three-dimensional water simulation can be combined into sampled motion vectors, colors, and audio signals from the video.

一実施形態で、バーチャル・カメラの動きは入力ビデオ・ストリームの主要な動きに支配されることができる。前述のような三次元シミュレーションの応答式「フライスルー」(「fly-through」)を作成するには前述のようなアフィン動きモデルをビデオ・ストリームからの動きベクトルに合わせることができる。アフィン動きフィールドは画像中心(cx,cy)周囲でパン、ティルト、およびズーム成分に分解させることができる。これらの3成分を用いてシミュレーションにおいてカメラの動きを制御することができる。 In one embodiment, the motion of the virtual camera can be governed by the main motion of the input video stream. To create a 3D simulation response “fly-through” as described above, an affine motion model as described above can be matched to a motion vector from a video stream. The affine motion field can be decomposed into pan, tilt and zoom components around the image center (c x , c y ). Using these three components, the movement of the camera can be controlled in the simulation.

図17は入力ビデオ・ストリーム1710および動きベクトル・フィールド1740を表し、パン・ティルト・ズーム成分は動きベクトル・フィールドから演算されることができる。一実施形態で、パン・ティルト・ズーム成分はある中心1750から等距離にある4点1760A〜1760Dにおける動きベクトルの投射を演算することにより得ることができる。4点1760A〜1760Dおよび投射の方向が図17に描かれている。   FIG. 17 represents an input video stream 1710 and a motion vector field 1740, where the pan, tilt and zoom components can be computed from the motion vector field. In one embodiment, the pan, tilt and zoom components can be obtained by computing the motion vector projections at four points 1760A-1760D that are equidistant from a center 1750. The four points 1760A-1760D and the direction of projection are depicted in FIG.

パン成分は画像中心1750の周囲にある4つの対称点(xi,yi)1760A〜1760Dの速度ベクトル(ui,vi)を合計することにより得られる: The pan component is obtained by summing the velocity vectors (u i , v i ) of the four symmetry points (x i , y i ) 1760A-1760D around the image center 1750:

ティルト成分は同じ4点における速度ベクトルの垂直成分を合計することにより得られる:   The tilt component is obtained by summing the vertical components of the velocity vector at the same four points:

一実施形態で、制御信号を用いて三次元合成内の光源を制御することができる。三次元のシミュレーションには通常表現される出力の最終的な色を制御する表現パラメータがある。合成環境における色合いは入力ストリームから抽出される1つ以上の色値により制御または影響され得る。一実施形態で、三次元環境は三次元光源Clight、全体的な明るさCavg、および周囲の色Cambにより制御または影響され得る。一実施形態で、ビデオの各フレームに対し平均輝度、最も明るい色、および中央値の色を演算し、これらの値を各々Cavg、、および、Cambに割り当てることができる。当業者であれば他の色値または色サンプリングの頻度を用いられることを理解しよう。 In one embodiment, the control signal can be used to control the light source in the 3D synthesis. Three-dimensional simulations have expression parameters that control the final color of the output that is usually represented. Hue in the composition environment may be controlled or influenced by one or more color values extracted from the input stream. In one embodiment, the three-dimensional environment may be controlled or influenced by the three-dimensional light source C light , the overall brightness C avg , and the ambient color C amb . In one embodiment, the average luminance, brightest color, and median color can be computed for each frame of video and these values can be assigned to C avg and C amb , respectively. One skilled in the art will appreciate that other color values or frequency of color sampling can be used.

一実施形態で、シミュレーションの力学は方程式(4)のパラメータαおよびβにより制御することができる。例示として、水のシミュレーションにおいて、パラメータαは水の波紋量を制御し、パラメータβは波の全体的なサイズを制御する。一実施形態で、これら2つのシミュレーション・パラメータは次のようにオーディオ振幅Aampと動き振幅Mampに結合することができる: In one embodiment, the simulation dynamics can be controlled by the parameters α and β in equation (4). Illustratively, in a water simulation, the parameter α controls the amount of ripples in the water, and the parameter β controls the overall size of the waves. In one embodiment, these two simulation parameters can be combined into an audio amplitude A amp and a motion amplitude M amp as follows:

ここでMamp=Vpan+Vtilt+Vzoom、f(Aamp)とg(Mamp)はパラメータを許容間隔(αmin,αmax)と(βmin,βmax)との間で変化させる線形関数である。上記方程式の結果、シミュレーションは入力ビデオ・ストリームのオーディオおよび動きイベント双方に応答する。 Here, M amp = V pan + V tilt + V zoom , f (A amp ) and g (M amp ) are linear shapes that change the parameters between the allowable intervals (α min , α max ) and (β min , β max ). It is a function. As a result of the above equations, the simulation is responsive to both audio and motion events in the input video stream.

コンピュータ・アニメーションを含むがこれに限定されず、シミュレーションおよび表現手法の当業者であれば、サラウンド・フィールドを生成するために他の実施形態が実施され得、このような実施は本発明の範囲に含まれることを理解しよう。   Those skilled in the art of simulation and representation techniques, including but not limited to computer animation, may implement other embodiments to generate the surround field, and such implementation is within the scope of the present invention. Let's understand that it is included.

[静止情景]
当業者であれば自然、田舎、都会、屋内、屋外、超現実、幻想等々任意の静止情景がサラウンド・フィールドで用いられることを理解しよう。森、空、砂漠などの情景の三次元モデルは入力ストリームからの光源で制御され得る静止情景のサラウンド・ビデオに良く適している。
[Still scene]
Those skilled in the art will appreciate that any static scene, such as nature, countryside, urban, indoor, outdoor, surreal, fantasy, etc., can be used in a surround field. Three-dimensional models of scenes such as forests, sky, and deserts are well suited for surround video of still scenes that can be controlled by light sources from the input stream.

図18に描かれる三次元サラウンド背景1830を考察する。描写例において、サラウンド・フィールド1830は地形の背景情景で、照明は入力ビデオ・ストリーム1810の光源に関連している。サラウンド・フィールド1830の照明を三次元環境でモデル化するために光源(この場合は太陽)の位置、輝度、および色など入力ビデオ1810に関連するキューを用いることができる。太陽が異なったビデオ・フレームを通して昇るにつれ、サラウンド・フィールド1830は入力ストリーム1810における日の出の三次元モデル化に応答して、濃淡と影を含み色と照明を変化させることができる。図18Aと図18Bに描写されるように、入力ストリームの照明状態が変化するにつれ、それらの変化は三次元環境においてモデル化され、サラウンド・フィールドの地形はその変化する状態に応答する。   Consider the three-dimensional surround background 1830 depicted in FIG. In the depicted example, the surround field 1830 is a terrain background scene and lighting is associated with the light source of the input video stream 1810. In order to model the illumination of the surround field 1830 in a three-dimensional environment, cues associated with the input video 1810 such as the location, brightness, and color of the light source (in this case the sun) can be used. As the sun rises through different video frames, the surround field 1830 can change color and lighting, including shades and shadows, in response to a three-dimensional modeling of the sunrise in the input stream 1810. As depicted in FIGS. 18A and 18B, as the lighting conditions of the input stream change, those changes are modeled in a three-dimensional environment and the surround field terrain responds to the changing conditions.

[動的情景]
前述のように、入力ビデオに応答して動くサラウンド・ビデオを生成すると強力な没入感を作り出すことができる。実施形態においてこの効果を達成するために、背景の部分が数的にシミュレートされるか、あるいは物理の法則を用いて動画化することができる。サラウンド・フィールドの実際的な外見を向上させるために数学的方程式またはモデルを用いることができる。実施形態において、初期条件および境界条件を設定し、物理ベースの動画化を用いることにより、入力ストリームに関連する制御信号をモデルに適用し、サラウンド・フィールド内の要素のインタラクションを生成するために用いることができる。物理ベースの動画化は数字的シミュレーションを含み、または運動法則、流体力学等々周知の数学的関係を適用することができる。このような方法および他の方法はコンピュータ・アニメーションの当業者にとって知られており、本発明の範囲に含まれる。
[Dynamic scene]
As described above, generating a surround video that moves in response to the input video can create a strong sense of immersion. To achieve this effect in embodiments, the background portion can be numerically simulated or animated using physical laws. Mathematical equations or models can be used to improve the practical appearance of the surround field. In an embodiment, by setting initial and boundary conditions and using physics-based animation, the control signal associated with the input stream is applied to the model and used to generate the interaction of the elements in the surround field. be able to. Physics-based animation includes numerical simulations, or well-known mathematical relationships such as laws of motion, fluid dynamics, etc. can be applied. Such and other methods are known to those skilled in the art of computer animation and are within the scope of the present invention.

物理ベースのモデル化を使用して、サラウンド・シミュレーションは入力ストリームから引き出された制御信号を用い駆動され、実際的なサラウンド・フィールドのインタラクションを得ることができる。例えば、入力ビデオからの動きベクトルを用い、サラウンド・フィールドのシミュレーション状態に影響する外的な風を作り出すことができる。別の説明例として、オーディオ・トラックにおける突然の音を用い、水のシミュレーションに波紋を作り出し、またはオーディオ・キューに応答してサラウンド・フィールド内の要素を動かすことができる。   Using physics-based modeling, surround simulation can be driven with control signals derived from the input stream to obtain realistic surround field interaction. For example, a motion vector from the input video can be used to create an external wind that affects the simulated state of the surround field. As another illustrative example, sudden sounds in an audio track can be used to create ripples in a water simulation or move elements in a surround field in response to an audio cue.

図19A〜図19Dに描かれる画像を例として考察する。入力ストリーム1910は光源1920を含む。光源1920の位置、輝度、および色などストリームから抽出された制御信号を用い、三次元サラウンド・フィールド要素を照らすことができる。例えば水の表面に反射される光1925が特記され、これは光源1920が三次元サラウンド環境内にあった場合の効果を表している。   Consider the images depicted in FIGS. 19A-19D as examples. Input stream 1910 includes a light source 1920. Control signals extracted from the stream, such as the position, brightness, and color of the light source 1920, can be used to illuminate the 3D surround field element. For example, light 1925 reflected on the surface of water is noted, which represents the effect when light source 1920 is in a three-dimensional surround environment.

サラウンド・フィールドのモデル化は入力ストリーム1910およびサラウンド・フィールド1930間の連続性を提供することも含み得ることが特記される。例えば図19Bに描かれるように、光源1920が入力ストリーム1910のフレームから外れると、光源1920Bがサラウンド・フィールド1930内の要素となり、入力ビデオ1910に存在していた間と同じ動き軌道に沿って移動を続けることができる。   It is noted that the surround field modeling may also include providing continuity between the input stream 1910 and the surround field 1930. For example, as depicted in FIG. 19B, when the light source 1920 is out of the frame of the input stream 1910, the light source 1920B becomes an element in the surround field 1930 and moves along the same motion trajectory as it was in the input video 1910. Can continue.

描かれた実施形態において、図19Cで起こった突然の爆発的イベントはサラウンド・フィールドの反応をどのようにモデル化できるかを示す。ビデオ・ストリーム1910に示される爆発における1つの色または複数の色に関連して背景と水双方の色が変化することができる。さらに、水の表面も図19Cに描かれる爆発的イベントに関連して乱されている。爆発など1つのキューがサランド・フィールドにおいて1つ以上のモードに作用し得ることが特記され、この場合水の色と動きに作用している。水の実際的な動きは爆発の強さおよび位置など入力ストリームからのキュー、および物理ベースの動画化により決定され、後者には「実践的な液体アニメーション」(「Practical Animation of Liquids」)、Proceedings of ACM SIGGRAPH 2001、Computer Graphics Proceedings、Annual Conference Series、2330頁、2001年8月においてNick Foster およびRonald Fedkiw により開示される方法を含むがこれらに限定されない。同文献は言及により全体として本明細書に組み入れられる。図19Dはさらに入力ストリームにおける爆発が鎮まるにつれサラウンド・フィールドの色が変わり、水が落ち着くところを示す。   In the depicted embodiment, the sudden explosive event that occurred in FIG. 19C shows how the surround field response can be modeled. Both the background and water colors can change in relation to one or more colors in the explosion shown in the video stream 1910. Furthermore, the water surface is also disturbed in connection with the explosive event depicted in FIG. 19C. It is noted that one cue, such as an explosion, can affect one or more modes in the Sarand field, in this case affecting the color and movement of the water. The actual movement of the water is determined by cues from the input stream, such as the intensity and position of the explosion, and physics-based animations, including “Practical Animation of Liquids”, Proceedings including, but not limited to, methods disclosed by Nick Foster and Ronald Fedkiw in of ACM SIGGRAPH 2001, Computer Graphics Proceedings, Annual Conference Series, page 2330, August 2001. This document is incorporated herein by reference in its entirety. FIG. 19D further shows the surround field color changing as the explosion in the input stream subsides and the water settles.

[サラウンドの表現]
高解像度サラウンド・ビデオ・フィールドをリアルタイムで表現するのは演算能力を集約的に使用する可能性がある。実施形態において、演算量を削減するために混成表現システムを用いることができる。一実施形態で、混成表現システムは情景の静止部分に画像ベースの手法を、情景の動的部分に光輸送ベースの手法を用いることができる。画像ベースの手法は通常基準画像など予め演算されたデータを用い、高速処理ができる。一実施形態で、自然現象の実際のシーケンスなど制作されたコンテンツまたは画像を用いることにより必要とされる演算量を削減することができる。
[Surround expression]
Representing a high-resolution surround video field in real time may use computing power intensively. In an embodiment, a hybrid representation system can be used to reduce the amount of computation. In one embodiment, the hybrid representation system may use an image-based approach for the static part of the scene and a light transport-based approach for the dynamic part of the scene. The image-based method can usually perform high-speed processing using precalculated data such as a reference image. In one embodiment, the amount of computation required can be reduced by using produced content or images, such as an actual sequence of natural phenomena.

[非写実的なサラウンド]
現実的な三次元サラウンド・フィールドのモデル化に加え、非現実的サラウンド・フィールドを含むがこれに限定されず、他のサラウンド・フィールドも描き得ることが特記される。一実施形態で、非写実的サラウンド背景は入力ストリームから引き出された制御信号から直接合成できる。例えば、図20に示す入力光景2010からの色を用いてサラウンド背景2030を合成することができる。この例において、各行の背景色は入力光景に沿って中央色値を演算することにより得られる。当業者であれば、各種の非現実的/非写実的サラウンド・フィールドが表示され得、これにはアクション・ライン、動きまたは色のハイライト、漫画的環境の作成が含まれるがこれらに限定されないことを理解しよう。さらに図20に示されるように、入力ストリームはビデオ・データに加え画像も含むと理解されることが特記される。
[Non-realistic surround]
It should be noted that in addition to realistic 3D surround field modeling, other surround fields may be drawn, including but not limited to unrealistic surround fields. In one embodiment, the non-photorealistic surround background can be synthesized directly from control signals derived from the input stream. For example, the surround background 2030 can be synthesized using the colors from the input scene 2010 shown in FIG. In this example, the background color of each row is obtained by computing the median color value along the input scene. A person skilled in the art may display a variety of unreal / non-photorealistic surround fields, including but not limited to creating action lines, movement or color highlights, and cartoon environments. Let's understand that. Further, as shown in FIG. 20, it is noted that the input stream is understood to include images in addition to video data.

当業者であればさまざまな種類およびスタイルのサラウンド・フィールドを表現することができ、本発明の範囲内にあることを理解しよう。当業者であれはいずれの特定のサラウンド・フィールド、または入力ストリームに関するキューの取得方法、またはサラウンド・フィールドをモデル化しもしくはそれに作用する方法も本発明に不可欠ではないことを理解しよう。さらに、サラウンド・フィールドの一要素とはサラウンド・フィールドまたはピクセル、ピクセルの集まり、および得が枯れ他画像またはオブジェクト、または描かれた画像もしくはオブジェクトのグループを含むがこれらに限られず、その一部分を意味するとみなされることが理解される。   Those skilled in the art will appreciate that various types and styles of surround fields can be represented and are within the scope of the present invention. Those skilled in the art will understand that any particular surround field, or how to get a queue for an input stream, or how to model or act on a surround field is not essential to the present invention. In addition, an element of a surround field means a portion of the surround field or pixel, a collection of pixels, and any other image or object, including but not limited to a drawn image or group of objects. It is understood that

[1つまたは複数の空き表示領域の利用]
前述のように、発明の実施形態においてビデオ表示およびサラウンド・ビジュアル・フィールドはテレビ受信機、コンピュータ・モニタ、ラップトップ・コンピュータ、携帯装置、ゲーム装置など、従来の表示装置の境界内で表示することができる。
[Use of one or more empty display areas]
As described above, video display and surround visual fields in embodiments of the invention are displayed within the boundaries of conventional display devices such as television receivers, computer monitors, laptop computers, portable devices, gaming devices, etc. Can do.

例えば映写機、LCDパネル、モニタ、テレビ受信機、等々の表示装置は必ずしもその表示能力を全部利用しない。図21Aおよび21Bは入力ストリーム2110からコンテンツを提示する際に存在する未使用ピクセルなど空き表示領域の2つの例を示す図21Aはレターボックス・フォーマットの入力ストリーム2110Aを標準ディスプレー2100Aにて提示するところを示す。ビデオ・コンテンツのアスペクト比がディスプレーのアスペクト比と異なるため、ディスプレー2100Aの上側と下側に未使用の表示領域2130Aが存在する。図21Bは例えば映写機(図示せず)などで壁に表示された画像2100Bを示す。図21Bに示すように、台形像効果(key-stoning)およびズームなど通常の操作により主表示領域2110Bの周囲に未使用の領域2130Bが作り出される。このように、本発明の一態様はこの未使用または空き表示領域2130を利用することに関わる。   For example, display devices such as projectors, LCD panels, monitors, television receivers, etc. do not necessarily use all of their display capabilities. FIGS. 21A and 21B show two examples of empty display areas such as unused pixels existing when presenting content from the input stream 2110. FIG. 21A shows an input stream 2110A in letterbox format on the standard display 2100A. Indicates. Since the aspect ratio of the video content is different from the aspect ratio of the display, there are unused display areas 2130A above and below the display 2100A. FIG. 21B shows an image 2100B displayed on the wall by a projector (not shown), for example. As shown in FIG. 21B, an unused area 2130B is created around the main display area 2110B by a normal operation such as keystone effect (key-stoning) and zooming. As described above, one aspect of the present invention relates to using this unused or empty display area 2130.

本発明は主表示内の空き表示領域2100を利用することにより没入効果を生み出す。本発明の実施形態は使用しない限り空いている表示領域のすべてまたは一部を用いることができる。実施形態において、空き表示領域にリアルタイムの対話式な縁を表示することができる。   The present invention creates an immersive effect by utilizing the empty display area 2100 in the main display. The embodiment of the present invention can use all or part of the vacant display area unless used. In the embodiment, a real-time interactive edge can be displayed in the empty display area.

実施形態において、テクスチャ合成アルゴリズムを用いて空き表示領域に表示する縁を合成することができる。用いられるテクスチャ合成アルゴリズムは「テクスチャ合成および移転用画像キルティング」(「Image quilting for texture synthesis and transfer」)、Proceedings of ACM SIGGRAPH 2001、Computer Graphics Proceedings、Annual Conference Series、341346頁、2001年8月、においてAlexei A. EfrosおよびWilliam T. Freemanにより説明されたもの、ならびに「グラフカット・テクスチャ:グラフカットを用いた画像およびビデオ合成」(「Graphcut textures: Image and video synthesis using graph cuts」)、ACM Transactions on Graphics、22(3):277286、2003年7月、において Vivek Kwatra、Arno Schodl、Irfan Essa、Greg Turk、およびAaron Bobickにより説明されるものが含まれるがこれらに限定されず、各々言及により本明細書に全体として組み入れられる。実施形態において、合成された縁は合成処理を誘導するために入力ビデオ・ストリームからの色および縁情報を用いることができる。さらに、合成されたテクスチャは入力ストリームからの2D動きベクトルに応答するよう動画化することができ、これは「例に基づく合成におけるテクスチャの最適化」(「Texture optimization for example-based synthesis」)、Proceedings of ACM SIGGRAPH 2005、においてVivek Kwatra、Irfan Essa、Aaron Bobick、およびNipun Kwatra により説明される手法に類似しており、これは言及により本明細書に全体として組み入れられる。当業者に知られる他のアルゴリズムを用いることもできる。   In the embodiment, the edge to be displayed in the empty display area can be synthesized using the texture synthesis algorithm. The texture synthesis algorithm used is "Image quilting for texture synthesis and transfer", Proceedings of ACM SIGGRAPH 2001, Computer Graphics Proceedings, Annual Conference Series, page 341346, August 2001. Explained by Alexei A. Efros and William T. Freeman and “Graphcut textures: Image and video synthesis using graph cuts”, ACM Transactions on Graphics, 22 (3): 277286, July 2003, including but not limited to those described by Vivek Kwatra, Arno Schodl, Irfan Essa, Greg Turk, and Aaron Bobick, each of which is incorporated herein by reference. Incorporated into the book as a whole. In an embodiment, the synthesized edges can use color and edge information from the input video stream to guide the composition process. Furthermore, the synthesized texture can be animated to respond to 2D motion vectors from the input stream, which is referred to as “Texture optimization for example-based synthesis”, Similar to the approach described by Vivek Kwatra, Irfan Essa, Aaron Bobick, and Nipun Kwatra in Proceedings of ACM SIGGRAPH 2005, which is incorporated herein by reference in its entirety. Other algorithms known to those skilled in the art can also be used.

リアルタイムの性能を向上させるために、別の実施形態は入力ビデオ・ストリームのフレームに対し縁付きの空間的に拡張された画像を合成することに関わることができる。上記手法を含むがこれらに限定されず、コンピュータ・グラフィックス手法を用い、入力ビデオ・ストリームにリアルタイムで応答する没入型の縁を作り出すことができる。   In order to improve real-time performance, another embodiment may involve compositing a bordered spatially expanded image for frames of the input video stream. Including but not limited to the above techniques, computer graphics techniques can be used to create immersive edges that respond in real time to the input video stream.

一実施形態で、入力フレーム周囲の空き表示領域を利用する一態様はバーチャル光源で照明される背景平面を表示することに関わり得る。一実施形態で、これらバーチャル光源の色は入力ストリームの1つ以上の色と一致するように適合できる。一実施形態で、光源は入力ビデオ・ストリームの1つ以上の支配的な色に一致することができる。   In one embodiment, one aspect of utilizing an empty display area around an input frame may involve displaying a background plane illuminated with a virtual light source. In one embodiment, the colors of these virtual light sources can be adapted to match one or more colors of the input stream. In one embodiment, the light source can match one or more dominant colors of the input video stream.

例として、図22に描かれる4つの光源2200x−1〜2200x−4に照明されるバンプ・マップの背景板2230を考察する。一実施形態で、平面2230の各点における照明はテクスチャ・マップおよび法線マップにより影響され得る。法線マップは二次元の高さフィールドで、表面法線を乱すために用いられ、これは光がどのように表面から反射するかに影響する。バンプ・マップはしばしばコンピュータ・ゲームにおいて、真の三次元モデルを必要とせずに表面にしわや窪みを作るために用いられる。図示された実施形態において、4点の光源の組2200x−1〜2200x−4が使用される。一実施形態で、光源の位置は入力ビデオの4つの角に対応することができる。本発明にとって光源の数または構成のいずれも肝要ではないことが特記される。   As an example, consider a bump map background plate 2230 that is illuminated by the four light sources 2200x-1 through 2200x-4 depicted in FIG. In one embodiment, the illumination at each point on the plane 2230 can be affected by a texture map and a normal map. A normal map is a two-dimensional height field that is used to perturb surface normals, which affects how light reflects off the surface. Bump maps are often used in computer games to create wrinkles and depressions on the surface without the need for a true 3D model. In the illustrated embodiment, a four-point light source set 2200x-1 to 2200x-4 is used. In one embodiment, the position of the light source can correspond to four corners of the input video. It is noted that neither the number or the configuration of the light sources is critical to the present invention.

実施形態において、背景板の外観は1つ以上の光源によって影響され得る。図示される例において背景板は光源がそれに近づけられると光源からの光を反射する。例えば2200Aにおいて、光源2200A−1〜2200A−4は板2230から離れている。従って光源2200A−1〜2200A−4はより小さな点の光源で、明るさが限定されて見える。光源が板2230に仮想的に近づけられると、より明るく照らされる。光のパターンが変化すること、バンプ・マッピングにより不連続な深度の領域(例えば大陸の縁付近)において影が現れること、マップの色も影響され得ること、および光源2200x−1〜2200x−4は独立して動かせることが特記される。実施形態において、光源の色は入力ストリームの色に関連づけるために調節され得る。   In embodiments, the appearance of the background plate can be affected by one or more light sources. In the example shown, the background plate reflects light from the light source when the light source is brought close to it. For example, in 2200A, the light sources 2200A-1 to 2200A-4 are separated from the plate 2230. Accordingly, the light sources 2200A-1 to 2200A-4 are smaller-point light sources and appear to be limited in brightness. When the light source is virtually brought close to the plate 2230, it is illuminated more brightly. The light pattern changes, the bump mapping causes shadows to appear in areas of discontinuous depth (eg, near the continental edges), the map color can be affected, and the light sources 2200x-1 to 2200x-4 are It is noted that it can be moved independently. In an embodiment, the color of the light source may be adjusted to relate to the color of the input stream.

各光2200x−1〜2200x−4の色は入力画像の角付近の一部をサンプリングし、中央値の色を演算することにより得ることができる。実施形態において、単純な経験測(heuristics)を用いて色の変化を判定することができる。他の実施形態において、平均値シフト(Mean Shift)を含むがこれに限らず、より高度なサンプリング手法を用いて光源2200x−1〜2200x−4の色を割り当てることができる。   The colors of the lights 2200x-1 to 2200x-4 can be obtained by sampling a part near the corner of the input image and calculating the median color. In an embodiment, color changes can be determined using simple heuristics. In other embodiments, including but not limited to mean shift, more advanced sampling techniques can be used to assign the colors of light sources 2200x-1 to 2200x-4.

一実施形態で、本発明は背景画像を合成するために自己遮蔽(self-shadowing)およびバンプ・マッピングに加え、拡散および鏡面照明(specular lighting)を実施することができる。図22における背景画像は自己遮蔽とバンプ・マッピングに加え、拡散および鏡面照明を利用して合成したサラウンド・ビジュアル・フィールドの例を示す。   In one embodiment, the present invention can implement diffuse and specular lighting in addition to self-shadowing and bump mapping to synthesize a background image. The background image in FIG. 22 shows an example of a surround visual field synthesized using diffusion and specular illumination in addition to self-occlusion and bump mapping.

図23は入力画像に対し点光源による照明でもたらされたバンプ・マップのサラウンド・ビジュアル・フィールドの縁を示す。ディスプレー2300Aは自然情景を描く入力ストリーム画像2310および空き表示領域2320の部分からなる。入力ストリーム画像2310の一部から明るさと色を取った光で照明されたバンプ・マップのテクスチャ背景を利用し、没入効果を向上させるために空き表示領域2320にサラウンド・ビジュアル・フィールド2330を生成し提示することができる。色および/あるいは輝度を入力ストリーム画像2310の部分に関連付けることによりサラウンド・ビジュアル・フィールドを向上させるために制御信号またはキューを入力画像2310から抽出することができる。例えば、画像2310Aの明るい部分に近いサラウンド・ビジュアル・フィールド2330Aの領域は色および輝度において関連していることができる。図23に示すように自己遮蔽のバンプ・マップ背景は、光と影が視野を拡張し、入力ビデオ・ストリームに動的に応答するのでディスプレー2300Bの没入感をかなり向上させる。表示された画像はリアルタイムで生成され、Direct3D HLSLシェーディング言語(shading language)を用いてグラフィックス・プロセッサで実施された。   FIG. 23 shows the surround visual field edge of the bump map resulting from illumination with a point light source for the input image. The display 2300A includes an input stream image 2310 that draws a natural scene and an empty display area 2320. A surround visual field 2330 is generated in the empty display area 2320 in order to improve the immersive effect by using the texture background of the bump map illuminated with light that is bright and colored from a part of the input stream image 2310. Can be presented. Control signals or cues can be extracted from the input image 2310 to improve the surround visual field by associating color and / or brightness with portions of the input stream image 2310. For example, the area of the surround visual field 2330A that is close to the bright portion of the image 2310A can be related in color and brightness. The self-occluded bump map background, as shown in FIG. 23, significantly improves the immersive feel of the display 2300B because light and shadows expand the field of view and respond dynamically to the input video stream. The displayed images were generated in real time and implemented on a graphics processor using the Direct3D HLSL shading language.

実施形態において、空き表示領域に表示されるサラウンド・ビジュアル・フィールドを用い、ムード照明を作成することができ、これは入力ストリームから抽出される1つ以上の制御信号に基づき変化または変更することができる。あるいは、空き表示領域に表示されるサラウンド・ビジュアル・フィールドは制作または生成された特別の縁を有することができる。例えば縁はロゴ、テキスト、文字、図形、または他の要素を含み得る。このような要素は入力ストリームに関連し、入力ストリームから抽出された1つ以上の制御信号に基づき変化または変更することができる。   In an embodiment, a surround visual field displayed in the empty display area can be used to create mood lighting, which can change or change based on one or more control signals extracted from the input stream. it can. Alternatively, the surround visual field displayed in the empty display area can have a special edge created or generated. For example, the edges may include logos, text, characters, graphics, or other elements. Such elements are associated with the input stream and can be changed or changed based on one or more control signals extracted from the input stream.

ディスプレーの空き表示領域を利用してサラウンド・ビジュアル・フィールドを表示することは本明細書で開示された実施形態に限定されないことが特記される。ディスプレー装置の境界内に表示されるサラウンド・ビジュアル・フィールドは前記で考察した装置または方法のいずれかまたはすべてを用いることができ、動き、画像、パターン、テクスチャ、テキスト文字、図形、変化する色、数が変化する光源、サラウンド・ビジュアル・フィールドの三次元合成、および他のコンテンツおよび効果など各種コンテンツまたは効果を含むがこれらに限定されない。同様に、空き表示領域の利用に関連して説明された実施形態のいずれも本明細書で言及されたものを含みサラウンド・ビジュアル・フィールドの方法およびシステムで用いることができる。   It is noted that displaying the surround visual field using the display empty display area is not limited to the embodiments disclosed herein. The surround visual field displayed within the boundaries of the display device can use any or all of the devices or methods discussed above, including motion, images, patterns, textures, text characters, figures, changing colors, This includes but is not limited to a variety of content or effects such as light sources of varying numbers, 3D synthesis of surround visual fields, and other content and effects. Similarly, any of the embodiments described in connection with the use of the empty display area can be used in surround visual field methods and systems, including those mentioned herein.

本発明の実施形態はさらに各種コンピュータ実施の操作を実行するためのコンピュータ・コードを有するコンピュータ読み取り可能な媒体を有するコンピュータ製品に関係することができる。媒体およびコンピュータ・コードは本発明の目的のために特別に設計され構成されたものであり得、または関連技術に熟練した者が知り、利用できる種類のものであり得る。コンピュータ読み取り可能な媒体の例は:ハード・ディスク、フロッピー(登録商標)・ディスク、および磁気テープなどの磁気媒体、CD−ROMおよびホログラフィー装置などの光媒体、光磁気媒体、および特定用途向け集積回路(ASIC)、プログラマブル論理デバイス(PLD)、フラッシュ・メモリ・デバイス、およびROMとRAMデバイスなど、プログラム・コードを格納し、または格納して実行するように特別に構成されたハードウェア・デバイスを含むが、これらに限定されない。コンピュータ・コードの例はコンパイラにより作成されるように機械コード、およびインタープリタを用いてコンピュータが実行する高レベル・コードを含む。   Embodiments of the invention can further relate to a computer product having a computer readable medium having computer code for performing various computer-implemented operations. The media and computer code may be specially designed and constructed for the purposes of the present invention, or may be of a type known and usable by those skilled in the relevant arts. Examples of computer readable media are: magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs and holographic devices, magneto-optical media, and application specific integrated circuits. Includes hardware devices specifically configured to store or store and execute program code, such as (ASIC), programmable logic devices (PLD), flash memory devices, and ROM and RAM devices However, it is not limited to these. Examples of computer code include machine code as produced by a compiler, and high-level code that is executed by a computer using an interpreter.

発明は各種の変更や別の形態があり得るが、その具体的な例が図面に示され、本明細書で詳しく説明された。しかし発明は開示された特定の携帯に限定されるものではなく、逆に発明は添付クレームの精神および範囲に含まれるすべての変更、同等物、および代替が含まれることを理解しよう。   While the invention is susceptible to various modifications and alternative forms, specific examples thereof have been shown in the drawings and have been described in detail herein. However, it is to be understood that the invention is not limited to the particular portables disclosed, and conversely, the invention includes all modifications, equivalents, and alternatives falling within the spirit and scope of the appended claims.

発明の一実施形態による、映写機を含むサラウンド・ビジュアル・フィールド。A surround visual field including a projector according to an embodiment of the invention. 発明の一実施形態による、サラウンド・ビジュアル・フィールドを有するテレビ受信機。A television receiver having a surround visual field according to an embodiment of the invention. 発明の一実施形態による、映写機からのサラウンド・ビジュアル・フィールドを有するテレビ受信機。A television receiver having a surround visual field from a projector according to an embodiment of the invention. 発明の一実施形態による、映写機および反射装置からのサラウンド・ビジュアル・フィールドを有するテレビ受信機。A television receiver having a surround visual field from a projector and reflector according to an embodiment of the invention. 発明の一実施形態による、映写されたサラウンド・ビジュアル・フィールドが表示コンテンツ内の動きに関係する、代表的サラウンド・ビジュアル・フィールド・コントローラのブロック図。1 is a block diagram of a representative surround visual field controller in which a projected surround visual field relates to movement in display content, according to one embodiment of the invention. FIG. 発明の一実施形態による、連続するフレーム・ペアおよびフレーム・ペア内のピクセル間の代表的な光学的流動ベクトルを示す図。FIG. 3 illustrates a representative optical flow vector between successive frame pairs and pixels in a frame pair, according to one embodiment of the invention. 発明の一実施形態による、連続するフレーム・ペアおよびフレーム・ペア内のピクセル・ブロック間の代表的な光学的流動ベクトルを示す図。FIG. 3 illustrates a representative optical flow vector between successive frame pairs and pixel blocks within a frame pair, according to one embodiment of the invention. 発明の一実施形態による、フレーム・ペア間の動きを表わす大域動きモデル内における2つのピクセル間の数学的関係を示す図。FIG. 3 illustrates a mathematical relationship between two pixels in a global motion model that represents motion between frame pairs, according to one embodiment of the invention. 発明の一実施形態による、フレーム・ペア間の計算された大域動きモデルの例示。FIG. 4 illustrates an example of a calculated global motion model between frame pairs according to an embodiment of the invention. 発明の一実施形態による、ビデオ・フレームおよびオーバーレイされた光学的流動ベクトルと大域動きモデルの例。FIG. 4 is an example of a video frame and overlaid optical flow vector and global motion model, according to one embodiment of the invention. 発明の一実施形態による、ビデオ・フレーム外に動きベクトルを外挿している図。FIG. 4 is a diagram illustrating extrapolation of motion vectors outside a video frame, according to one embodiment of the invention. 発明の一実施形態による、ビデオ・フレーム、ビデオ・フレームにオーバーレイされた大域動きモデル、およびビデオ・フレームの境界を超えて外挿された大域動きモデルの例。FIG. 4 is an example of a video frame, a global motion model overlaid on the video frame, and a global motion model extrapolated beyond the boundaries of the video frame, according to one embodiment of the invention. 発明の一実施形態による、動きに関して変更された代表的サラウンド・ビジュアル・フィールドの要素。FIG. 4 is a representative surround visual field element modified with respect to motion, according to one embodiment of the invention. FIG. 発明の一実施形態による、複数の動きベクトルに関して変更された代表的サラウンド・ビジュアル・フィールドの要素。FIG. 3 is a representative surround visual field element modified with respect to a plurality of motion vectors according to an embodiment of the invention. FIG. 発明の一実施形態による、ビデオ内の動きに関した代表的なサラウンド・ビジュアル・フィールドの図。1 is a representative surround visual field diagram for motion in a video, according to one embodiment of the invention. FIG. 代表的なサラウンド・ビジュアル・フィールド・コントローラの機能的ブロック図。映写されたサラウント・ビジュアル・フィールドは1つ以上の入力を受信し、キューまたは制御信号を入力から抽出し、これらの制御信号を用いて発明の実施形態によるサラウンド・ビジュアル・フィールドを生成する。Functional block diagram of a typical surround visual field controller. The projected surround visual field receives one or more inputs, extracts cue or control signals from the inputs, and uses these control signals to generate a surround visual field according to embodiments of the invention. 発明の一実施形態による、動きベクトル・フィールドからパン・ティルト・ズーム成分を演算する方法の図。FIG. 4 is a diagram of a method for computing a pan, tilt and zoom component from a motion vector field according to one embodiment of the invention. 発明の一実施形態による、入力ビデオ・ストリームに関連する代表的なサラウンド・ビジュアル・フィールドの図。FIG. 2 is a representative surround visual field associated with an input video stream, according to one embodiment of the invention. 発明の一実施形態による、入力ビデオ・ストリームに関連する代表的なサラウンド・ビジュアル・フィールドの図。FIG. 2 is a representative surround visual field associated with an input video stream, according to one embodiment of the invention. 発明の一実施形態による、入力画像に関連する代表的なサラウンド・ビジュアル・フィールドの図。FIG. 4 is a representative surround visual field associated with an input image, according to one embodiment of the invention. 表示領域の部分が未使用の代表的なディスプレーの図。The figure of the typical display in which the part of a display area is unused. 発明の一実施形態による、代表的なサラウンド・ビジュアル・フィールドの図。1 is a representative surround visual field diagram according to one embodiment of the invention. FIG. 発明の実施形態による、代表的なサラウンド・ビジュアル・フィールドの図。FIG. 3 is a representative surround visual field diagram according to an embodiment of the invention.

符号の説明Explanation of symbols

500…サラウンド・ビジュアル・フィールド・コントローラ、510…動き推定構成要素、515…希薄光学的流動推定構成要素、525…大域動きモデル化構成要素、540…動きフィールド外挿構成要素、550…サラウンド・ビジュアル・フィールド動画化構成要素、610…フレーム(k−1)、620…フレーム(k)、710…フレーム(k−1)、720…フレーム(k)、810…動きモデル、910…典型的大域動きモデル、1110…典型的な大域動きモデル、1600…サラウンド・ビジュアル・フィールド・コントローラ、1610…キュー/制御信号抽出構成要素、1612…ビデオ、1614…オーディオ、1616…コントローラ、1618…センサ、1620…埋め込み、1650…サラウンド・ビジュアル・フィールド生成構成要素/動画化構成要素。   500 ... surround visual field controller, 510 ... motion estimation component, 515 ... sparse optical flow estimation component, 525 ... global motion modeling component, 540 ... motion field extrapolation component, 550 ... surround visual Field animation component, 610 ... frame (k-1), 620 ... frame (k), 710 ... frame (k-1), 720 ... frame (k), 810 ... motion model, 910 ... typical global motion Model, 1110 ... Typical global motion model, 1600 ... Surround visual field controller, 1610 ... Cue / control signal extraction component, 1612 ... Video, 1614 ... Audio, 1616 ... Controller, 1618 ... Sensor, 1620 ... Embedded , 1650 ... Surround video Le field generation component / animated component.

Claims (20)

サラウンド・ビジュアル・フィールド・システムで、
入力ストリームに関連する少なくとも1つの制御信号を取得し複数の要素からなる三次元サラウンド・ビジュアル・フィールドを生成するサラウンド・ビジュアル・フィールド・コントローラで、三次元サラウンド・ビジュアル・フィールド内の少なくとも1つの要素は制御信号により影響されるコントローラと、
サラウンド・ビジュアル・フィールド・コントローラに通信上結合し、第1領域に入力ストリームを表示し、第1領域を少なくとも部分的に囲む第2領域にサラウンド・ビジュアル・フィールドを表示する表示装置とを含むシステム。
Surround visual field system
A surround visual field controller that obtains at least one control signal associated with an input stream and generates a multi-element 3D surround visual field, at least one element in the 3D surround visual field Is the controller affected by the control signal,
A display device that is communicatively coupled to a surround visual field controller, displays an input stream in a first region, and displays a surround visual field in a second region at least partially surrounding the first region. .
前記少なくとも1つの制御信号はビデオ・データ、オーディオ・データ、ゲーム・コントローラ、入力装置、リモコン、センサ、および制作されたキューからなるグループから選択される少なくとも1つのソースから取得される、請求項1に記載されるシステム。   The at least one control signal is obtained from at least one source selected from the group consisting of video data, audio data, game controller, input device, remote control, sensor, and produced cue. The system described in 前記ビデオ・データは色、位置、動き、およびコンテンツからなるグループから選択される少なくとも1つに関連する情報を含む、請求項2に記載されるシステム。   The system of claim 2, wherein the video data includes information associated with at least one selected from the group consisting of color, position, motion, and content. 前記少なくとも1つの制御信号から動きを近似させるために動きモデルが用いられる、請求項2に記載されるシステム。   The system of claim 2, wherein a motion model is used to approximate motion from the at least one control signal. 前記動きモデルはアフィン(affine)動きモデルである、請求項4に記載されるシステム。   The system of claim 4, wherein the motion model is an affine motion model. 前記表示装置は前記第1領域に入力ストリームを表示する第1の表示装置および前記第2領域にサラウンド・ビジュアル・フィールドを表示する第2の表示装置を含む、請求項1に記載されるシステム。   The system of claim 1, wherein the display device includes a first display device that displays an input stream in the first region and a second display device that displays a surround visual field in the second region. 前記サラウンド・ビジュアル・フィールド・コントローラは物理ベースのモデルを含み、前記少なくとも1つの要素は現実的な様態において影響される、請求項2に記載されるシステム。   The system of claim 2, wherein the surround visual field controller includes a physics-based model and the at least one element is affected in a realistic manner. 前記サラウンド・ビジュアル・フィールド・コントローラはサラウンド・ビジュアル・フィールドの少なくとも一部を表現するために画像ベースの方法を利用する、請求項2に記載されるシステム。   The system of claim 2, wherein the surround visual field controller utilizes an image-based method to represent at least a portion of the surround visual field. 入力ストリームに関連するサラウンド・ビジュアル・フィールドを生成する方法で、
入力ストリームに関連する制御信号を抽出するステップと、複数の要素からなる三次元環境に基づくサラウンド・ビジュアル・フィールドを生成するステップで、三次元環境内の少なくとも1つの要素は制御信号に影響されるものとを含む方法。
By generating a surround visual field associated with the input stream,
Extracting a control signal associated with the input stream and generating a surround visual field based on a multi-dimensional 3D environment, wherein at least one element in the 3D environment is affected by the control signal A method involving things.
さらに、
前記入力ストリームを第1領域に表示するステップと、
前記第1領域を少なくとも部分的に囲む前記第2領域にサラウンド・ビジュアル・フィールドを表示するステップを含む、請求項9に記載される方法。
further,
Displaying the input stream in a first region;
The method of claim 9, comprising displaying a surround visual field in the second area at least partially surrounding the first area.
前記制御信号はビデオ・データ、オーディオ・データ、ゲーム・コントローラ、入力装置、リモコン、センサ、および制作されたキューからなるグループから選択される少なくとも1つのソースから抽出される、請求項9に記載される方法。   10. The control signal of claim 9, wherein the control signal is extracted from at least one source selected from the group consisting of video data, audio data, game controller, input device, remote control, sensor, and produced cue. Method. 複数の要素からなる三次元環境に基づくサラウンド・ビジュアル・フィールドを生成するステップで、三次元環境内の少なくとも1つの要素は制御信号に影響されるステップは、
動きモデルを用いて入力ストリームからの動きを近似する動きフィールドを生成するステップと、
画像中心の周りで動きフィールドをパン、ティルト、およびズーム成分に分解するステップと、
パン、ティルト、およびズーム成分を用いて三次元環境内のバーチャル・カメラの動きの方向制御するステップと、を含む、請求項9に記載される方法。
Generating a surround visual field based on a three-dimensional environment comprising a plurality of elements, wherein at least one element in the three-dimensional environment is influenced by a control signal;
Generating a motion field approximating motion from the input stream using a motion model;
Breaking the motion field around the center of the image into pan, tilt and zoom components;
Using the pan, tilt, and zoom components to control the direction of movement of the virtual camera in the three-dimensional environment.
動きモデルはアフィン動きモデルである、請求項12に記載される方法。   The method of claim 12, wherein the motion model is an affine motion model. 複数の要素を含む三次元環境に基づくサラウンド・ビジュアル・フィールドを生成するステップで、三次元環境内の少なくとも1つの要素は制御信号に影響されるステップは、
物理ベースのモデルを用いて現実的な様態において前記少なくとも1つの要素に影響するステップを含む、請求項9に記載される方法。
Generating a surround visual field based on a three-dimensional environment including a plurality of elements, wherein at least one element in the three-dimensional environment is influenced by a control signal;
The method of claim 9, comprising influencing the at least one element in a realistic manner using a physics-based model.
複数の要素からなる三次元環境に基づくサラウンド・ビジュアル・フィールドを生成するステップで、三次元環境内の少なくとも1つの要素は制御信号に影響されるステップは、サラウンド・ビジュアル・フィールドの少なくとも一部を表現するために画像ベースの方法を用いるステップを含む、請求項9に記載される方法。   Generating a surround visual field based on a three-dimensional environment comprising a plurality of elements, wherein at least one element in the three-dimensional environment is influenced by a control signal, wherein at least a part of the surround visual field is The method of claim 9, comprising using an image based method to represent. 1つ以上のプロセッサにより実行されると、前記1つ以上のプロセッサに少なくとも請求項9に記載される工程を行なわせる1つ以上の命令シーケンスを搭載するコンピュータ読み取り可能な媒体。   A computer readable medium carrying one or more instruction sequences that, when executed by one or more processors, cause the one or more processors to perform at least the steps recited in claim 9. サラウンド・ビジュアル・フィールド・コントローラで、
第1領域に表示される入力ストリームに関連する入力ソースを受信するように結合され、入力ソースから少なくとも1つの制御信号を取得する制御信号抽出構成要素と、
制御信号抽出構成要素に結合し、前記少なくとも1つの制御信号を受信してサラウンド・ビジュアル・フィールドの三次元表現および前記少なくとも1つの制御信号に関連するサラウンド・ビジュアル・フィールド内の少なくとも1つの要素に効果を生じさせるサラウンド・ビジュアル・フィールド生成構成要素と、を含むサラウンド・ビジュアル・フィールド・コントローラ。
Surround visual field controller
A control signal extraction component coupled to receive an input source associated with an input stream displayed in the first region and obtaining at least one control signal from the input source;
Coupling to a control signal extraction component and receiving the at least one control signal to receive a three-dimensional representation of the surround visual field and at least one element in the surround visual field associated with the at least one control signal A surround visual field controller including an effect to generate a surround visual field generation component.
入力ソースはビデオ・データ、オーディオ・データ、ゲーム・コントローラ、入力装置、リモコン、センサ、および制作されたキューからなるグループから選択される少なくとも1つである、請求項17に記載されるサラウンド・ビジュアル・フィールド・コントローラ。   18. The surround visual of claim 17, wherein the input source is at least one selected from the group consisting of video data, audio data, game controller, input device, remote control, sensor, and produced cue. -Field controller. 前記サラウンド・ビジュアル・フィールド生成構成要素は物理ベースのモデルを利用してサラウンド・ビジュアル・フィールド内の前記少なくとも1つの要素への効果を動画化する、請求項17に記載されるコントローラ。   The controller of claim 17, wherein the surround visual field generation component uses a physics-based model to animate an effect on the at least one element in the surround visual field. 制作されたデータを利用してサラウンド・ビジュアル・フィールドを生成する、請求項17に記載されるコントローラ。   The controller of claim 17, wherein the generated data is used to generate a surround visual field.
JP2007074117A 2006-03-28 2007-03-22 Surround visual field system, method for synthesizing surround visual field relating to input stream, and surround visual field controller Withdrawn JP2007264633A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/390,907 US20070126864A1 (en) 2005-12-05 2006-03-28 Synthesizing three-dimensional surround visual field

Publications (1)

Publication Number Publication Date
JP2007264633A true JP2007264633A (en) 2007-10-11

Family

ID=38637621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007074117A Withdrawn JP2007264633A (en) 2006-03-28 2007-03-22 Surround visual field system, method for synthesizing surround visual field relating to input stream, and surround visual field controller

Country Status (1)

Country Link
JP (1) JP2007264633A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014509759A (en) * 2011-03-02 2014-04-21 マイクロソフト コーポレーション Immersive display experience
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005017739A1 (en) * 2003-08-19 2005-02-24 Koninklijke Philips Electronics N.V. A visual content signal display apparatus and a method of displaying a visual content signal therefor
JP2005099064A (en) * 2002-09-05 2005-04-14 Sony Computer Entertainment Inc Display system, display control apparatus, display apparatus, display method and user interface device
EP1551178A1 (en) * 2003-12-18 2005-07-06 Koninklijke Philips Electronics N.V. Supplementary visual display system
JP2005251508A (en) * 2004-03-03 2005-09-15 Sony Corp Display device and video display method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005099064A (en) * 2002-09-05 2005-04-14 Sony Computer Entertainment Inc Display system, display control apparatus, display apparatus, display method and user interface device
WO2005017739A1 (en) * 2003-08-19 2005-02-24 Koninklijke Philips Electronics N.V. A visual content signal display apparatus and a method of displaying a visual content signal therefor
EP1551178A1 (en) * 2003-12-18 2005-07-06 Koninklijke Philips Electronics N.V. Supplementary visual display system
JP2005251508A (en) * 2004-03-03 2005-09-15 Sony Corp Display device and video display method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014509759A (en) * 2011-03-02 2014-04-21 マイクロソフト コーポレーション Immersive display experience
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device

Similar Documents

Publication Publication Date Title
JP4548413B2 (en) Display system, animation method and controller
US20070126864A1 (en) Synthesizing three-dimensional surround visual field
US11303872B2 (en) Methods and system for generating and displaying 3D videos in a virtual, augmented, or mixed reality environment
US11210838B2 (en) Fusing, texturing, and rendering views of dynamic three-dimensional models
US9396588B1 (en) Virtual reality virtual theater system
US20070126932A1 (en) Systems and methods for utilizing idle display area
US9342918B2 (en) System and method for using indirect texturing to efficiently simulate and image surface coatings and other effects
CN106527857A (en) Virtual reality-based panoramic video interaction method
US11488348B1 (en) Computing virtual screen imagery based on a stage environment, camera position, and/or camera settings
KR20060048551A (en) Interactive viewpoint video system and process
US10859852B2 (en) Real-time video processing for pyramid holographic projections
US20080018792A1 (en) Systems and Methods for Interactive Surround Visual Field
JP2007264633A (en) Surround visual field system, method for synthesizing surround visual field relating to input stream, and surround visual field controller
WO2019241712A1 (en) Augmented reality wall with combined viewer and camera tracking
JP2007272230A (en) Method for utilizing idle display area of display device unused while input stream is being displayed, surround visual field system, and surround visual field controller
Hisatomi et al. Method of 3D reconstruction using graph cuts, and its application to preserving intangible cultural heritage
US20190295312A1 (en) Augmented reality wall with combined viewer and camera tracking
Dai Stylized rendering for virtual furniture layout
Jacquemin et al. Alice on both sides of the looking glass: Performance, installations, and the real/virtual continuity
Raskar Projectors: advanced graphics and vision techniques
CN115375824A (en) Interactive panoramic space ray tracking method based on RGBD panoramic video
Sarmiento et al. Panoramic immersive videos-3d production and visualization framework
Hanson et al. ACE RANGE LI
JP2008123477A (en) Method and system for modeling collective behavior of group including a plurality of components

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20120309