JP2002518723A - Creating animation from video - Google Patents

Creating animation from video

Info

Publication number
JP2002518723A
JP2002518723A JP2000554125A JP2000554125A JP2002518723A JP 2002518723 A JP2002518723 A JP 2002518723A JP 2000554125 A JP2000554125 A JP 2000554125A JP 2000554125 A JP2000554125 A JP 2000554125A JP 2002518723 A JP2002518723 A JP 2002518723A
Authority
JP
Japan
Prior art keywords
video
image
animation
background
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000554125A
Other languages
Japanese (ja)
Inventor
チェン,シェンチャン・エリック
ターン,ウェイ−ツウ・ヘレン
ブラント,ジョナサン
Original Assignee
プレゼンター.コム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US09/096,726 external-priority patent/US6081278A/en
Priority claimed from US09/096,720 external-priority patent/US6278466B1/en
Priority claimed from US09/096,487 external-priority patent/US6268864B1/en
Application filed by プレゼンター.コム filed Critical プレゼンター.コム
Publication of JP2002518723A publication Critical patent/JP2002518723A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/02Non-photorealistic rendering
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 アニメーションを創出および格納するため、およびアニメーションをビデオにリンクさせるための装置と方法。ビデオ画像のシーケンス(10)は、ビデオ画像のシーケンスに描写されたシーンの第1変形を識別するために検査される。第1画像および第2画像は、ビデオ画像のシーケンスから得られ、第1画像は第1変形前のシーンを表し、第2画像は第1変形後のシーンを表す。アニメーション(12)の格納については、ビデオから創出されたキーフレームのセットは、アニメーション・オブジェクト(30)に格納されている。キーフレームのセットから選択されたキーフレームの第1シーケンスを示す1つまたは複数の値(33、35)は、第1シーケンスのキーフレームの間で補間するための情報と共に、アニメーション・オブジェクト(30)に格納されている。キーフレームのセットから選択されたキーフレームの第2シーケンスを示す1つまたは複数の値も、第2シーケンスのキーフレームの間で補間するための情報と共にアニメーション・オブジェクトに格納されている。第2シーケンスのキーフレームの数は、第1シーケンスのキーフレームの数より少ない。ビデオとアニメーションの連結については、第1ビデオのそれぞれのフレームに対応する要素を含むデータ構造が生成されている。第2ビデオから創出されたアニメーションを示す情報は、1つまたは複数のデータ構造の要素に格納されている。 (57) Abstract: An apparatus and method for creating and storing animation and linking animation to video. The sequence of video images (10) is examined to identify a first variant of the scene depicted in the sequence of video images. The first image and the second image are obtained from a sequence of video images, wherein the first image represents the scene before the first deformation and the second image represents the scene after the first deformation. For the storage of animation (12), a set of keyframes created from the video is stored in an animation object (30). One or more values (33, 35) indicating a first sequence of keyframes selected from the set of keyframes, along with information for interpolating between the keyframes of the first sequence, are included in the animation object (30). ) Is stored. One or more values indicating a second sequence of keyframes selected from the set of keyframes are also stored in the animation object along with information for interpolating between keyframes of the second sequence. The number of key frames in the second sequence is less than the number of key frames in the first sequence. As for the connection between the video and the animation, a data structure including elements corresponding to respective frames of the first video is generated. Information indicating the animation created from the second video is stored in one or more elements of the data structure.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】 (発明の分野) 本発明は画像アニメーションの分野に関する。さらに詳細には、ビデオから自
動的にアニメーションを創出することに関する。
[0001] The present invention relates to the field of image animation. More particularly, it relates to automatically creating animations from videos.

【0002】 (発明の背景) インターネットは、エンド・ユーザに完全なモーション・ビデオを配信するた
めに、ますます人気のある媒体となってきている。しかし、帯域幅が制限されて
いるために、大半のユーザは、要求に応じて高品質なビデオをダウンロードして
見るということができない。たとえば、1秒間に30フレームで640×480
画素に圧縮した解像度のビデオを配信するためには、画像データを約8Mbs(
メガ・ビット毎秒)で伝送しなければならず、必要な帯域幅は、今日大半のイン
ターネット・ユーザが利用可能な28.8Kbs(キロ・ビット毎秒)のモデム
速度の約300倍である。産業用標準圧縮技術(たとえば、MPEG−Movi
ng Picture Expert Group)を使用しても、インターネ
ットに関するビデオ・エフェクトは、今日ではテレビで経験するよりも低品質の
スライド・ショーのようなものであることが多い。
BACKGROUND OF THE INVENTION The Internet has become an increasingly popular medium for delivering complete motion video to end users. However, due to limited bandwidth, most users cannot download and watch high quality video on demand. For example, 640 x 480 at 30 frames per second
In order to deliver a video having a resolution compressed to pixels, the image data is converted to about 8 Mbs (
Megabits per second), the required bandwidth is about 300 times the modem speed of 28.8 Kbs (kilobits per second) available to most Internet users today. Industrial standard compression techniques (eg, MPEG-Mobi
Even with the use of the ng Picture Expert Group, video effects on the Internet are often like today's lower quality slide shows than experienced on television.

【0003】 ビデオ・エフェクトを創出するためにキーフレームと補間法を使用するアニメ
ーションは、潜在的に、ビデオを伝送するよいりもはるかに狭い帯域幅しか必要
としない。パーソナル・コンピュータの性能が改良されたので、テレビ品質のビ
デオ・エフェクトは、狭い帯域幅モデムを使用して受信することができる比較的
少ないキーフレームからリアルタイムで合成することができる。数秒毎にキーフ
レームの伝送が必要なアニメーション・シーケンスは、ビデオに比較して膨大な
帯域幅のセービングで配信され、さらに、非常に優れた画質を提供することがで
きる。
[0003] Animations that use keyframes and interpolation to create video effects potentially require much less bandwidth to transmit the video. As personal computer performance has improved, television quality video effects can be synthesized in real time from relatively few key frames that can be received using a low bandwidth modem. Animation sequences that require the transmission of key frames every few seconds can be delivered with enormous bandwidth savings compared to video, and still provide very good image quality.

【0004】 必要な帯域幅が狭いということに加え、アニメーションは、再生画質およびフ
レーム・レートの両方でビデオよりもスケーリング可能である。ビデオ・エフェ
クトは再生中に稼動中して合成されるので、フレーム・レートと画質は、再生プ
ロセッサのスピード、ネットワークの帯域幅、およびユーザの好みなどのいくつ
かの要因に基づいて、動的に調整することができる。
In addition to requiring less bandwidth, animation is more scalable than video in both playback quality and frame rate. As video effects are synthesized on the fly during playback, frame rate and image quality can be dynamically determined based on several factors, such as playback processor speed, network bandwidth, and user preferences. Can be adjusted.

【0005】 ユーザの交流や他のタイプの編集のために特徴を追加することも、アニメーシ
ョンではビデオよりもはるかに容易である。たとえば、カメラのパニング・パス
または被写体の動きの早さを調節するには、アニメーションの数個のキーフレー
ムに関連付けられた運動パラメータを変化させるだけでよい。同じエフェクトを
達成するためにビデオ・クリップを編集するには、何百というフレームの変更が
必要である。同様に、移動する被写体をある時間にわたって追跡するホット・ス
ポットを取り付けることは、アニメーションではビデオよりもはるかに容易に達
成することができる。
[0005] Adding features for user interaction and other types of editing is also much easier with animation than with video. For example, to adjust the panning path of the camera or the speed of the subject's movement, it is only necessary to change the motion parameters associated with a few keyframes of the animation. Editing a video clip to achieve the same effect requires hundreds of frame changes. Similarly, installing a hot spot that tracks a moving subject over time can be achieved much more easily with animation than with video.

【0006】 アニメーションは欠点を有する。熟練した人間のアニメータは、伝統的に高品
質のアニメーションを創出することを要求されてきたので、アニメーションの工
程は高価で費用がかかることが多い。さらに人間のアニメータは、手でキーフレ
ームをスケッチすることが多いので、アニメーションは漫画のように見える傾向
があり、たいてい本物の世界のシーンを描写するために必要とされる真に迫った
画像に欠けている。ある場合には、アニメーションは、建築用ブロックのような
原始的な二次元および三次元物体で創出される。このタイプのアニメーションも
、自然な様相よりはむしろ人工的な様相を有する傾向があり、通常グラフィック
情報の表示に限定されている。
[0006] Animation has drawbacks. Since skilled human animators have traditionally been required to create high quality animations, the animation process is often expensive and expensive. Furthermore, since human animators often sketch keyframes by hand, animations tend to look like cartoons, often with the true-to-life images needed to portray real world scenes. Missing. In some cases, animations are created with primitive two-dimensional and three-dimensional objects, such as building blocks. This type of animation also tends to have an artificial rather than a natural appearance, and is usually limited to displaying graphic information.

【0007】 (発明の概要) アニメーションを創出する方法および装置を開示する。ビデオ画像のシーケン
スは、ビデオ画像のシーケンスに描写されたシーンの第1変形を識別するために
検査される。第1画像と第2画像はビデオ画像のシーケンスから得られる。第1
画像は第1変形前のシーンを表し、第2画像は第1変形後のシーンを表す。第1
変形を示し、さらにビデオ画像のシーケンスの表示に似たビデオ・エフェクトを
作成するように第1画像と第2画像の間で補間するために使用することができる
情報が生成される。
SUMMARY OF THE INVENTION A method and apparatus for creating an animation is disclosed. The sequence of video images is examined to identify a first variation of the scene depicted in the sequence of video images. The first image and the second image are obtained from a sequence of video images. First
The image represents the scene before the first transformation, and the second image represents the scene after the first transformation. First
Information is generated that indicates the deformation and that can be used to interpolate between the first and second images to create a video effect similar to displaying a sequence of video images.

【0008】 アニメーションを格納する方法および装置についても開示する。ビデオから創
出された1セットのキーフレームは、アニメーション・オブジェクトに格納され
る。キーフレームのセットから選択したキーフレームの第1シーケンスを示す1
つまたは複数の値は、第1シーケンスのキーフレーム間で補間するための情報と
共にアニメーション・オブジェクトに格納される。キーフレームのセットから選
択したキーフレームの第2シーケンスを示す1つまたは複数の値は、ビデオから
創出した1セットのキーフレームをアニメーション・オブジェクトに格納する第
1シーケンスのキーフレーム間で補間するための情報と共にアニメーション・オ
ブジェクトに格納される。第2シーケンスのキーフレームの数は、第1シーケン
スのキーフレームの数より少ない。
[0008] A method and apparatus for storing animation is also disclosed. A set of keyframes created from the video are stored in the animation object. 1 indicating the first sequence of keyframes selected from the set of keyframes
The one or more values are stored in the animation object along with information for interpolating between the first sequence of keyframes. The one or more values indicating a second sequence of keyframes selected from the set of keyframes are used to interpolate between the first sequence of keyframes storing the set of keyframes created from the video in the animation object. Is stored in the animation object together with the information of The number of key frames in the second sequence is less than the number of key frames in the first sequence.

【0009】 ビデオとアニメーションをリンクする方法と装置についても開示する。第1ビ
デオのそれぞれのフレームに対応する要素を含むデータ構造が生成され、第2ビ
デオから創出されたアニメーションの画像を示す情報は、データ構造の1つまた
は複数の要素に格納される。
A method and apparatus for linking video and animation are also disclosed. A data structure is generated that includes an element corresponding to each frame of the first video, and information indicating an image of the animation created from the second video is stored in one or more elements of the data structure.

【0010】 本発明の他の特徴および利点は、添付の図、および下記の詳細な説明から明ら
かになろう。
[0010] Other features and advantages of the invention will be apparent from the accompanying drawings, and from the detailed description that follows.

【0011】 本発明を例によって説明し、参考文献と同様に類似の要素を示す添付図の図表
に制限はない。
The present invention is illustrated by way of example, and there is no limitation on the figures of the accompanying drawings that show similar elements as well as references.

【0012】 (詳細な説明) 本明細書において説明する実施形態によれば、ビデオは、キーフレームおよび
キーフレーム間で補間するための情報を含むアニメーションを自動的に創出する
ために分析される。キーフレームおよび補間情報は、アニメーション再生中に即
座に(オンザフライに)画像を合成するために使用することが可能である。表示
されるときに、合成された画像は、元のビデオを近似するビデオ・エフェクトを
作成する。画像の運動や色の変化などのビデオ・エフェクトは、アニメーション
では通常ビデオよりはるかに少ない情報で表示することができるので、アニメー
ションは、インターネットなどの通信ネットワーク経由で伝送されるとき、非常
に少ない帯域幅を費やすだけである。たとえば、本明細書で説明する方法および
装置を使用して、何百という画像のフレームを含むビデオを、極少数のキーフレ
ームおよびキーフレーム間で補間するための情報を含むアニメーションを創出す
るために使用することが可能である。アニメーション再生能力を有するデスクト
ップ・コンピュータなどの再生システムでアニメーションを受信するとき、再生
システムは、アニメーションが受信されるにつれ、画像を合成および表示するた
めに、アニメーションに与えられているキーフレームと補間情報を使用すること
ができる。アニメーションはビデオよりもコンパクトであり、同時にビデオを受
信および表示する帯域幅を有さない再生システムによっても、アニメーションを
同時に受信および表示することができるので、ビデオに基づいてアニメーション
を自動的に創出することが、本発明に開示する実施形態の意図する利点である。
さらに、再生中にユーザがアニメーションを見ることとビデオを見ることを切り
替えられるようにアニメーションとビデオをクロスリンククロスリンクすること
は、本明細書で開示する実施形態のさらに意図する利点である。選択可能な時間
的および空間的解像度を有するアニメーションを提供し、再生システムの特徴に
適した時間的および空間的解像度を有するアニメーションを選択し、再生システ
ムに配信するサーバ・システムを提供することは、本明細書で開示する実施形態
のさらに意図する利点である。
DETAILED DESCRIPTION According to embodiments described herein, a video is analyzed to automatically create animations that include keyframes and information for interpolating between keyframes. The keyframes and interpolation information can be used to synthesize the image immediately (on the fly) during animation playback. When displayed, the composited image creates a video effect that approximates the original video. Because video effects, such as image motion and color changes, can be displayed with much less information in animation than normal video, animation has very low bandwidth when transmitted over communications networks such as the Internet. Just spend the breadth. For example, using the methods and apparatus described herein to create an animation that includes information for interpolating a video containing hundreds of image frames between a very small number of keyframes and keyframes. It is possible to use. When receiving an animation on a playback system, such as a desktop computer having animation playback capabilities, the playback system will provide keyframes and interpolation information provided with the animation to synthesize and display the image as the animation is received. Can be used. Animations are more compact than video and automatically create animations based on video because animations can be received and displayed simultaneously, even by playback systems that do not have the bandwidth to receive and display video at the same time. This is the intended advantage of the embodiments disclosed in the present invention.
Further, it is a further intended advantage of the embodiments disclosed herein that the animation and the video be crosslinked so that the user can switch between watching the animation and watching the video during playback. Providing a server system that provides animations with selectable temporal and spatial resolutions, selects animations with temporal and spatial resolutions appropriate for the characteristics of the playback system, and distributes the animations to the playback system It is a further intended advantage of the embodiments disclosed herein.

【0013】 これらおよび他の意図する利点について下記で説明する。[0013] These and other intended advantages are described below.

【0014】 用語 本明細書では、「ビデオ」という用語は、所定のレートでカメラによって獲得
された画像シーケンス、または所定のレートで再生のために画像生成器によって
生成された画像シーケンスを指す。画像のシーケンスにある各画像はビデオのフ
レームに含まれ、画像で表されている実世界の主題はシーンと呼ばれる。ビデオ
・データは、各フレームごとにフレームの画像を表すデータがあるように格納さ
れる。このデータは、圧縮形態、または非圧縮ビット・マップである。理論的に
はあらゆる獲得レートが使用可能であるが、通常獲得レートは、シーンで人間が
知覚可能な運動を獲得するのに十分な速さ(たとえば毎秒10フレーム以上)で
ある。
Terminology As used herein, the term “video” refers to an image sequence acquired by a camera at a predetermined rate or generated by an image generator for playback at a predetermined rate. Each picture in the sequence of pictures is contained in a frame of video, and the real-world subject represented by the picture is called a scene. The video data is stored such that for each frame there is data representing an image of the frame. This data is in a compressed form or an uncompressed bit map. While any acquisition rate can be used in theory, the normal acquisition rate is fast enough (eg, 10 frames per second or more) to acquire human perceptible motion in the scene.

【0015】 フィルム、NTSCビデオ(National Television St
andard Code)、または他のあらゆる中継または録画ビデオ・フォー
マットを含む源からビデオを提供することが可能であるが、これに限定されるも
のではない。ビデオは、陰極線管ディスプレイ(CRT)、液晶ディスプレイ、
プラズマ・ディスプレイなどを含むいくつかの異なるタイプのディスプレイで表
示することが可能である。
Film, NTSC Video (National Television St)
video can be provided from, including, but not limited to, standard code, or any other relay or recorded video format. Video can be displayed on a cathode ray tube display (CRT), liquid crystal display,
It is possible to display on several different types of displays, including plasma displays.

【0016】 本明細書で使用する用語「アニメーション」は、キーフレムおよびキーフレー
ム間で補間するための情報を含むデータ構成を指す。キーフレームは、シーンの
増分変形を記述、または記述するために使用することができる画像である。ある
実施形態では、新しいキーフレームをシーンの各増分変形(incremental transf
ormation)に提供し、システムの要求とユーザの好みに応じて、増分変形を構成
するものを決定する基準を調整することができる。基準が鋭敏になるにつれ(す
なわちシーンの変形が小さくなるにつれ)、多くのキーフレームがアニメーショ
ンに存在するようになる。
As used herein, the term “animation” refers to a data structure that includes information for interpolating between keyframes and keyframes. A keyframe is an image that describes, or can be used to describe, incremental deformations of a scene. In one embodiment, a new keyframe is added to each incremental transf
and the criteria that determine what constitutes an incremental deformation can be adjusted according to system requirements and user preferences. As the criteria become more sensitive (ie, as the deformation of the scene decreases), more keyframes will be present in the animation.

【0017】 ある実施形態によれば、2つのタイプのキーフレーム、背景フレームとオブジ
ェクト・フレームがアニメーションに存在する。背景フレームは、背景運動また
は色の変化に起因するキーフレームである。背景運動は、通常シーンを録画する
ために使用するカメラの配置の変化によって生じる。典型的なカメラの配置の変
化には、カメラの並進、回転、パニング、傾斜、またはズームが含まれるが、こ
れに限定されるものではない。色の変化は、シーンの照明の変化(口径の変化な
どカメラの配置の変化に起因することもある)に起因することが多いが、シーン
内の広範な領域で色が変化することにより生じることもある。
According to one embodiment, there are two types of key frames, background frames and object frames, in the animation. Background frames are key frames that result from background motion or color changes. Background motion is usually caused by changes in the arrangement of cameras used to record the scene. Typical camera placement changes include, but are not limited to, camera translation, rotation, panning, tilting, or zooming. Color changes are often due to changes in scene lighting (sometimes due to changes in camera placement, such as changes in aperture), but can also be caused by color changes in a wide area of the scene. There is also.

【0018】 オブジェクト・フレームは、シーン内のオブジェクトの運動または色の変化に
起因するキーフレームであり、シーンを録画するために使用するカメラの配置の
変化に起因するものではない。カメラの運動とは独立して運動または色を変化さ
せるシーンのオブジェクトは、本明細書では動的オブジェクトと呼ぶ。所与のオ
ブジェクトが動的オブジェクトであるかシーンの背景の部分であるかは、シーン
の残りの部分に対してオブジェクトがどれだけ大きいかにある程度依存すること
を理解されよう。オブジェクトが十分に大きくなると(たとえば物理的または光
学的にカメラに近いので)、動的オブジェクトは実際上シーンの背景になる。
An object frame is a key frame that results from a movement or color change of an object in the scene, and not from a change in the arrangement of cameras used to record the scene. Objects in the scene that change motion or change color independently of camera motion are referred to herein as dynamic objects. It will be appreciated that whether a given object is a dynamic object or a background part of the scene will depend in part on how large the object is relative to the rest of the scene. When the object is large enough (eg, physically or optically close to the camera), the dynamic object effectively becomes the scene background.

【0019】 本明細書で開示する実施形態によれば、背景フレームのシーケンスおよび背景
フレーム間で補間するための情報は、背景トラックと呼ばれるデータ構造に格納
される。同様に、オブジェクト・フレームのシーケンスおよびオブジェクト・フ
レーム間で補間するための情報は、オブジェクト・トラックと呼ばれるデータ構
造に格納される。本明細書で開示する方法と装置で創出されたアニメーションは
、少なくとも1つの背景トラックとゼロまたは1つ以上のオブジェクト・トラッ
クを含む。背景トラックおよびオブジェクト・トラックは、アニメーション・オ
ブジェクトと呼ばれるデータ構造に格納される。アニメーションは、メモリに格
納するためのアニメーション・オブジェクト、あるいは通信ネットワークまたは
装置のサブシステム間で逐次伝送するためのアニメーション・データ・ストリー
ムで明示することが可能である。
According to the embodiments disclosed herein, the sequence of background frames and information for interpolating between background frames is stored in a data structure called a background track. Similarly, information for interpolating between sequences of object frames and object frames is stored in a data structure called an object track. Animations created with the methods and apparatus disclosed herein include at least one background track and zero or more object tracks. Background tracks and object tracks are stored in data structures called animation objects. Animations can be specified in an animation object for storage in memory or in an animation data stream for sequential transmission between communication network or device subsystems.

【0020】 アニメーションの創出および配信 図1は、アニメーション14の創出と再生システム18へのアニメーション1
4の配信を示す。アニメーションは、ビデオ源10を使用するアニメーション制
作システム12によって創出される。創出後または創出中に、アニメーション1
4は、アニメーション・データ・ストリーム15に変換され、通信ネットワーク
20を経由して、再生システム18に配信される。代替として、アニメーション
14は、アニメーションを表示するために、再生システム18のサブシステムで
読むことができる配信可能な格納媒体21で再生システム18に配信される。配
信可能な格納媒体は例として磁気テープ、磁気ディスク、コンパクト・ディスク
、読取り専用記憶装置(CD ROM)、デジタル・ビデオ・ディスケット(D
VD)などを含むが、これに限定されるものではない。再生システム18は、ア
ニメーション再生専用に設計された装置(たとえばDVDまたはカセット・プレ
ーヤ)、またはアニメーション14を(たとえば通信ネットワークまたは配信可
能な媒体を経由して)得、アニメーション14を表示するためにアニメーション
再生ソフトウェアを実行するようにプログラムされた汎用コンピュータ・システ
ムとすることができる。たとえば、ウェブ・ブラウジング・アプリケーション・
プログラムを、アニメーション再生システムを実現する、あらゆる数の異なるタ
イプのコンピュータ(たとえば、Apple Macintoshのコンピュー
タ、IBM互換性パーソナル・コンピュータ、ワークステーションなど)で実行
することが可能である。アニメーション14を再生するプログラム・コードは、
ウェブ・ブラウジング・アプリケーションがアニメーション・データ・ストリー
ム15が受信されることになることを決定したとき、コンピュータの動作メモリ
に装備されているウェブ・ブラウジング・アプリケーション・プログラム自体ま
たはウェブ・ブラウジング・アプリケーションのエクステンションに含まれるこ
とができる。
Creation and Distribution of Animation FIG. 1 shows creation of animation 14 and animation 1 to playback system 18.
4 is shown. The animation is created by an animation production system 12 using a video source 10. Animation 1 after or during creation
4 is converted to an animation data stream 15 and distributed to a playback system 18 via a communication network 20. Alternatively, animation 14 is distributed to playback system 18 on a distributable storage medium 21 readable by subsystems of playback system 18 for displaying the animation. Distributable storage media are, for example, magnetic tapes, magnetic disks, compact disks, read-only storage (CD ROM), digital video diskettes (D
VD) and the like, but are not limited thereto. The playback system 18 obtains a device (eg, a DVD or cassette player) or an animation 14 (eg, via a communication network or a distributable medium) designed specifically for playing the animation, and displays the animation 14 to display the animation 14. It can be a general purpose computer system programmed to execute playback software. For example, a web browsing application
The program may be executed on any number of different types of computers (eg, Apple Macintosh computers, IBM compatible personal computers, workstations, etc.) that implement the animation playback system. The program code for playing animation 14 is:
When the web browsing application determines that the animation data stream 15 is to be received, the web browsing application program itself or an extension of the web browsing application provided in the operating memory of the computer. Can be included.

【0021】 点線の矢印19および点線の伝送経路17で示すように、サーバ・システム1
6は、ネットワーク20上の再生システムへのアニメーション配信を制御するた
めに使用することができる。たとえば、サーバ・システム16は、あるクラスの
加入者に所属する再生システムからのアニメーションのダウンロード要求に優先
順位を与えたり、サービス構成または他の基準に基づいて、利用可能なアニメー
ションのメニューに対するアクセスを制限するために使用することが可能である
。さらに具体的な例として、家庭でプロジェクトを改良する命令アニメーション
(たとえば、タイルを張る、ドアを飾る、天井に扇風機をとりつけるなど)を提
供するために使用されるワールド・ワイド・ウェッブ・サイト(すなわちサーバ
・コンピュータ)について考察する。サイト提供者は、関心のある訪問者がサー
ビスの有用性について知ることを可能とする少なくとも1つのアニメーションを
自由に利用できるようにすることを望む可能性がある。他のアニメーションは、
ペイ・パー・ビューの原則に基づいてダウンロード可能である。またサイト提供
者は、加入者が定期的な支払いの見返りとして全てのアニメーションをダウンロ
ードするために自由にアクセスできるようにサイトへの加入権を販売することも
できる。サーバ・システム16は、これらの異なるクラスの依頼者からのダウン
ロードの要求を区別し、それに応じて応答するために使用することができる。
As indicated by the dotted arrow 19 and the dotted transmission path 17, the server system 1
6 can be used to control animation distribution to a playback system on the network 20. For example, the server system 16 may prioritize animation download requests from playback systems belonging to a class of subscribers, or provide access to a menu of available animations based on service configuration or other criteria. Can be used to limit. As a more specific example, the World Wide Web site used to provide instructional animations (eg, tiles, decorate doors, mount fans on ceilings, etc.) to improve projects at home (ie, Server computer). Site providers may wish to have at least one animation at their disposal that allows interested visitors to know about the usefulness of the service. Other animations
It is downloadable on a pay-per-view basis. The site provider can also sell subscription rights to the site so that subscribers have free access to download all animations in return for periodic payments. The server system 16 can be used to distinguish download requests from these different classes of requesters and respond accordingly.

【0022】 サーバ・システム16の他の使用方法は、様々な異なるアニメーション・フォ
ーマットの1つのフォーマットで、アニメーション14を再生システム18に提
供することである。使用される特定のフォーマットは、伝送ネットワーク帯域幅
および再生システムの能力に基づいて決定することができる。たとえば、所与の
再生システム18は、アニメーション14が再生システム18が理解することが
できる特定のフォーマットまたは言語(たとえば、ジャバ、ダイナミック・ハイ
パーテキスト・マークアップ・ラングェッジ(D−HTML)、バーチュアル・
リアリティ・モデリング・ラングェッジ(VRML)、マクロメディア・フラッ
シュ・フォーマットなど)で記述されることを要求する可能性がある。またアニ
メーション14の背景およびオブジェクト・フレームは、通常再生システム18
のダウンロード・レート(たとえばモデムのスピード)で制限されている伝送ネ
ットワークの帯域幅を超えることを避けるために、特定の空間および時間解像度
で送る必要がある。ある実施形態では、アニメーション言語とネットワーク帯域
幅の多くの可能な変更に適応させるために、アニメーション14を言語と帯域幅
に独立したフォーマットで格納する。次いでサーバ・システム16は、再生シス
テム18のフォーマットおよび帯域幅の要求により、動的にアニメーション・デ
ータ・ストリームを創出するために使用することができる。このサーバ・システ
ムの動作について、下記でさらに詳細に説明する。
Another use of server system 16 is to provide animation 14 to playback system 18 in one of a variety of different animation formats. The particular format used can be determined based on the transmission network bandwidth and the capabilities of the playback system. For example, a given playback system 18 may use a particular format or language in which the animation 14 can be understood by the playback system 18 (eg, Java, Dynamic Hypertext Markup Language (D-HTML), Virtual
It may require that it be described in Reality Modeling Langedge (VRML), Macromedia Flash format, etc. Also, the background and object frames of the animation 14 are stored in the normal playback system 18.
In order to avoid exceeding the bandwidth of the transmission network, which is limited by the current download rate (eg, modem speed), it must be sent at a specific spatial and temporal resolution. In some embodiments, the animation 14 is stored in a language and bandwidth independent format to accommodate many possible changes in animation language and network bandwidth. The server system 16 can then be used to dynamically create the animation data stream, depending on the format and bandwidth requirements of the playback system 18. The operation of the server system will be described in more detail below.

【0023】 引き続き図1を参照すると、再生システム18は、通信ネットワーク20から
、または局所的にアクセス可能である格納媒体(たとえば、DVD、CDROM
、カセット・テープなど)に格納されているアニメーション・オブジェクトを読
むことにより、アニメーション・データ・ストリームを得ることが可能である。
ある実施形態では、再生システム18は再生、ポーズ、早送り、巻き戻し、およ
びステップ機能を含む時間ベース制御器である。他の実施形態では、再生システ
ム18は、アニメーションまたはビデオを表示するために、アニメーション再生
モードとビデオ再生モードを切り替えることができる。再生システム18は、ユ
ーザがアニメーション内のホット・スポットをクリックしたり、アニメーション
のフレーム内でパンおよびズームしたり、アニメーションの静止フレームをダウ
ンロードしたりできるように、双方向の非時間ベース再生モードを含むこともで
きる。再生システムの追加の実施形態を下記に説明する。
Still referring to FIG. 1, the playback system 18 includes a storage medium (eg, DVD, CDROM) that is accessible from a communication network 20 or locally.
An animation data stream can be obtained by reading an animation object stored on a storage device (e.g., cassette tape, etc.).
In one embodiment, playback system 18 is a time-based controller that includes play, pause, fast forward, rewind, and step functions. In another embodiment, the playback system 18 can switch between an animation playback mode and a video playback mode to display an animation or video. The playback system 18 provides a bi-directional, non-time based playback mode so that the user can click on hot spots in the animation, pan and zoom within the frames of the animation, and download still frames of the animation. Can also be included. Additional embodiments of the playback system are described below.

【0024】 アニメーション制作システム 図2は、ある実施形態によるアニメーション制作システム12のブロック図で
ある。アニメーション制作システム12は、背景トラック生成器25と、オブジ
ェクト・トラック生成器27と、アニメーション・オブジェクト生成器29とを
含む。ビデオ源10は、初めに、背景トラック33を生成するために、ビデオ源
10にあるフレームのシーケンスを分析する背景トラック生成器25で受信され
る。背景トラック33は、背景フレームのシーケンスと、背景フレーム間で補間
するために使用することができる情報を含む。ある実施形態では、背景トラック
生成器25は、背景トラック33を対称物トラック生成器27に出力し、背景ト
ラック完了後アニメーション・オブジェクト生成器29に出力する。他の実施形
態では、背景トラック生成器25は、背景トラック33を対称物トラック生成器
27に出力し、背景トラック33内で新しい背景フレームが完了する度に、アニ
メーション・オブジェクト生成器29に出力する。
Animation Production System FIG. 2 is a block diagram of an animation production system 12 according to one embodiment. The animation production system 12 includes a background track generator 25, an object track generator 27, and an animation object generator 29. The video source 10 is first received at a background track generator 25 that analyzes a sequence of frames at the video source 10 to generate a background track 33. The background track 33 contains a sequence of background frames and information that can be used to interpolate between the background frames. In one embodiment, the background track generator 25 outputs the background track 33 to the symmetric object track generator 27 and outputs it to the animation object generator 29 after the background track is completed. In another embodiment, the background track generator 25 outputs the background track 33 to the symmetric object track generator 27 and to the animation object generator 29 each time a new background frame in the background track 33 is completed. .

【0025】 図2からわかるように、オブジェクト・トラック生成器27は、背景トラック
生成器25からの背景トラック33とビデオ源10を受信する。オブジェクト・
トラック生成器27は、背景トラック33およびビデオ源10に基づいてゼロま
たは1以上のオブジェクト・トラック35を生成し、オブジェクト・トラック3
5をアニメーション・オブジェクト生成器29へと進める。各オブジェクト・ト
ラック35は、オブジェクト・フレームのシーケンスと、オブジェクト・フレー
ム間で補間するために使用することができる伝送情報を含む。
As can be seen from FIG. 2, the object track generator 27 receives the background track 33 from the background track generator 25 and the video source 10. object·
The track generator 27 generates zero or more object tracks 35 based on the background track 33 and the video source 10,
5 to the animation object generator 29. Each object track 35 contains a sequence of object frames and transmission information that can be used to interpolate between object frames.

【0026】 アニメーション・オブジェクト生成器29は、背景トラック生成器25からの
背景トラック33と、オブジェクト・トラック生成器27からのゼロまたは1以
上のオブジェクト・トラック35を受信し、アニメーション・オブジェクト30
にトラックを書き込む。下記で説明するように、アニメーション・オブジェクト
30は、背景トラックとオブジェクト・トラックの複数の時間および空間解像度
を含むようにフォーマットすることが可能である。
The animation object generator 29 receives the background track 33 from the background track generator 25 and zero or more object tracks 35 from the object track generator 27, and receives the animation object 30.
Write track to As described below, the animation object 30 can be formatted to include multiple temporal and spatial resolutions of the background track and the object track.

【0027】 図3は、ある実施形態による背景トラック生成器25のブロック図である。背
景トラック生成器25は、シーン変化推定装置41、背景フレーム・コンストラ
クタ43、背景運動推定装置45、および背景混合推定装置47を含む。
FIG. 3 is a block diagram of the background track generator 25 according to one embodiment. The background track generator 25 includes a scene change estimator 41, a background frame constructor 43, a background motion estimator 45, and a background mixture estimator 47.

【0028】 シーン変化推定装置41は、ビデオ・フレームのシーンの変形がいつ閾値を超
えるかを決定するために、連続するビデオ源10のフレームを互いに比較する。
ビデオ源10全体に加えられたとき、シーン変化推定装置41の効果は、ビデオ
源10にあるフレームのシーケンスを1つまたは複数のビデオ・フレームのサブ
シーケンス(すなわちビデオ・セグメント)に分割することであり、各サブシー
ケンスは、所定の閾値未満のシーン変形を示す。各ビデオ・セグメントは、背景
運動推定装置45で処理することができ、背景フレーム・コンストラクタ43お
よび背景混合推定装置47は、ビデオ・セグメントに対し背景フレームおよび補
間情報を生成するために、シーン変化推定装置41によって識別された各ビデオ
・セグメントを処理する。したがって、シーン変化推定装置41によって加えら
れた所定の閾値は、結果的に新しい背景フレームの構築となるシーンの増分変形
を規定する。ある実施形態では、背景フレームは、おおよそ各ビデオ・セグメン
トの開始と終了に対応し、あるビデオ・セグメントの終了に対応する背景フレー
ムは、次のビデオ・セグメントの開始に対応する。したがって、各ビデオ・セグ
メントは背景フレームで記述されており、(開始および終了背景フレームが構築
される)第1ビデオ・セグメントを除いて、ある背景フレームはビデオ源10の
各ビデオ・セグメントごとに構築されている。
The scene change estimator 41 compares successive frames of the video source 10 with each other to determine when the scene deformation of a video frame exceeds a threshold.
When applied to the entire video source 10, the effect of the scene change estimator 41 is to divide the sequence of frames at the video source 10 into one or more sub-sequences of video frames (ie, video segments). Yes, each sub-sequence indicates a scene deformation below a predetermined threshold. Each video segment can be processed by a background motion estimator 45, and a background frame constructor 43 and a background blend estimator 47 generate scene change estimators to generate background frames and interpolation information for the video segments. Process each video segment identified by device 41. Thus, the predetermined threshold applied by the scene change estimator 41 defines the incremental deformation of the scene that results in the construction of a new background frame. In one embodiment, the background frame roughly corresponds to the start and end of each video segment, and the background frame corresponding to the end of one video segment corresponds to the start of the next video segment. Thus, each video segment is described by a background frame, and, except for the first video segment (where the start and end background frames are constructed), certain background frames are constructed for each video segment of video source 10. Have been.

【0029】 図4Aは、図3のシーン変化推定装置41によって識別されたビデオ・セグメ
ント54を示す。ある実施形態によれば、シーン変化推定装置41は、ビデオ・
セグメント54の隣接するビデオ・フレームの各対に対し、変形ベクトルを決定
することによって動作する。本明細書では、フレームの時間シーケンスで第1フ
レームが第2フレームの直前または直後に続くならば、第1フレームは第2フレ
ームに隣接すると考える。
FIG. 4A shows a video segment 54 identified by the scene change estimator 41 of FIG. According to one embodiment, the scene change estimator 41 includes a video
It operates by determining a deformation vector for each pair of adjacent video frames in segment 54. In this specification, a first frame is considered to be adjacent to a second frame if the first frame immediately follows or immediately follows the second frame in the time sequence of the frames.

【0030】 隣接するビデオ・フレームの各対に対する変形ベクトルを、それぞれデルタ(
すなわち記号「Δ」)によって図4Aに示す。ある実施形態によれば、変形ベク
トルは、ビデオ・セグメント54において、あるビデオ・フレームから次へのシ
ーンの変化の程度をそれぞれ示す複数のスカラ要素を含む。たとえば、変形ベク
トルのスカラ要素は、シーンにおける以下の変化、並進、スケーリング、回転、
パン、傾斜、スキュー、色の変化、および経過した時間の程度を含む。
The deformation vector for each pair of adjacent video frames is represented by a delta (
That is, it is shown in FIG. 4A by the symbol “Δ”. According to one embodiment, the deformation vector includes a plurality of scalar elements in the video segment 54, each indicating a degree of change of the scene from one video frame to the next. For example, the scalar elements of the deformation vector are the following changes in the scene: translation, scaling, rotation,
Includes pan, tilt, skew, color change, and degree of elapsed time.

【0031】 ある実施形態によれば、シーン変化推定装置41は、隣接するフレーム間の変
形デルタを計算する前に、ビデオ・セグメント54における画像の濃淡を増大さ
せるために、ビデオ・セグメント54に空間的低域通過フィルタを加える。低域
通過フィルタでろ過した後、ビデオ・セグメント54の個々の画像は、変形デル
タを決定するために要求される計算が少なくなるので、ろ過前よりも少ない情報
を含む。ある実施態様では、ビデオ・セグメント54の各隣接フレーム対に対し
て計算した変形デルタは、変形デルタの合計を蓄積するために、先行隣接フレー
ム対に対して計算した変形デルタに加えられる。実際には、変形デルタの合計は
、ビデオ・セグメント54における第1ビデオ・フレーム54Aと、ビデオ・セ
グメント54における最も最近に比較されたビデオ・フレームとの間の変形を表
す。ある実施形態では、変形デルタの合計は、最も最近比較されたビデオ・フレ
ームが変形閾値を超えたかどうかを決定するために、所定の変形閾値に対して比
較される。変形閾値は、シーンの色の変化、並進、スケーリング、回転、パニン
グ、傾斜、スキュー、および経過した時間に対する閾値を含む、複数のスカラ閾
値を含むベクトル量であることを理解されたい。代替実施形態では、ビデオ源1
0でフレームに対する望ましいビデオ・セグメント比を達成するために、動的に
変形閾値を調整する。他の代替実施形態では、望ましい平均ビデオ・セグメント
サイズ(すなわちビデオ・セグメントあたりの望ましいビデオ・フレームの数)
を達成するために、動的に変形閾値を調整する。さらに他の代替実施形態では、
ビデオ・セグメントあたり望ましい平均経過時間を達成するために、動的に変形
閾値を調整する。一般に、本発明の精神および範囲から逸脱することなく、変形
閾値を動的に調整するあらゆる技術を使用することが可能である。
According to one embodiment, the scene change estimator 41 calculates a spatial delta between video frames 54 in order to increase the shading of the images in the video segments 54 before calculating the deformation delta between adjacent frames. Add a low pass filter. After filtering with a low pass filter, the individual images of video segment 54 contain less information than before filtering because fewer calculations are required to determine the deformation delta. In one embodiment, the modified delta calculated for each adjacent frame pair of video segment 54 is added to the modified delta calculated for the previous adjacent frame pair to accumulate the sum of the modified deltas. In effect, the sum of the deformation deltas represents the deformation between the first video frame 54A in video segment 54 and the most recently compared video frame in video segment 54. In some embodiments, the sum of the deformation deltas is compared against a predetermined deformation threshold to determine whether the most recently compared video frame has exceeded the deformation threshold. It should be understood that the deformation threshold is a vector quantity that includes multiple scalar thresholds, including thresholds for scene color change, translation, scaling, rotation, panning, tilt, skew, and elapsed time. In an alternative embodiment, video source 1
Dynamically adjust the deformation threshold to achieve the desired video segment to frame ratio at zero. In another alternative embodiment, the desired average video segment size (ie, the desired number of video frames per video segment)
, Dynamically adjust the deformation threshold. In yet another alternative embodiment,
The deformation threshold is dynamically adjusted to achieve the desired average elapsed time per video segment. In general, any technique for dynamically adjusting the deformation threshold may be used without departing from the spirit and scope of the present invention.

【0032】 ある実施形態では、最も最近に比較されたビデオ・フレーム54Cが閾値を超
えているならば、シーンは変化したとみなされ、最も最近比較されたビデオ・フ
レーム54Cに先行するビデオ・セグメント54Bは、ビデオ・フレーム54の
終了フレームであることが示される。したがって、所定の変形閾値を使用するな
らば、ビデオ源10の各ビデオ・セグメントは、変形閾値未満である変形全体を
有することが保証される。可変変形閾値を使用するならば、それぞれのビデオ・
セグメントの変形デルタ全体でかなりな変化が生じ、変形デルタの変化を低減す
るために、繰り返しシーン変化推定装置を加えることが必要である。
In one embodiment, if the most recently compared video frame 54C exceeds a threshold, the scene is considered to have changed and the video segment preceding the most recently compared video frame 54C 54B is indicated to be the end frame of the video frame 54. Thus, if a predetermined deformation threshold is used, it is ensured that each video segment of video source 10 has an entire deformation that is less than the deformation threshold. If a variable deformation threshold is used, each video
Substantial changes occur throughout the deformation delta of the segment, and it is necessary to add a repetitive scene change estimator to reduce the change in the deformation delta.

【0033】 図3に示す実施形態によれば、背景トラック生成器25は、新しいビデオ・セ
グメントがそれぞれ決まる度に(すなわち新しいシーンの変化がそれぞれ検出さ
れる度に)、背景運動推定装置45、背景フレーム・コンストラクタ43、およ
び背景混合推定装置47を呼び出す。代替実施形態では、シーン変化推定装置4
1は、あらゆるサブシーケンスが背景フレーム・コンストラクタ43、背景運動
推定装置45、および背景混合推定装置47によって処理される前に、ビデオを
完全にサブシーケンスに解像するために使用される。
According to the embodiment shown in FIG. 3, the background track generator 25 uses the background motion estimator 45, each time a new video segment is determined (ie, each time a new scene change is detected). The background frame constructor 43 and the background mixing estimator 47 are called. In an alternative embodiment, the scene change estimator 4
1 is used to completely resolve the video into sub-sequences before any sub-sequences are processed by the background frame constructor 43, the background motion estimator 45, and the background blend estimator 47.

【0034】 図4Aに示し上記で説明したように、所与のビデオ・セグメント内のビデオ・
フレームは、変形デルタの蓄積が変形閾値を超えるまで、続けて選択および比較
される。ある実施形態では、ビデオの最後のフレームに達したとき、最後のフレ
ームは自動的にビデオ・セグメントの終了であるとみなされる。また新しいビデ
オ・セグメントのそれぞれが背景フレーム・コンストラクタ43によって処理さ
れた後は、変形デルタの合計は消去される。あらゆるビデオ・セグメントが処理
される前に全ビデオがシーン変化推定装置41によって解析される実施形態では
、各ビデオ・セグメントに関連付けられた変形デルタは、背景運動推定装置45
および背景フレーム・コンストラクタ43によって、後の使用のために記録され
る。
As shown in FIG. 4A and described above, the video source within a given video segment
Frames are subsequently selected and compared until the deformation delta accumulation exceeds the deformation threshold. In some embodiments, when the last frame of the video is reached, the last frame is automatically considered to be the end of the video segment. Also, after each new video segment has been processed by the background frame constructor 43, the sum of the deformation deltas is erased. In an embodiment where the entire video is analyzed by the scene change estimator 41 before every video segment is processed, the deformation delta associated with each video segment is determined by the background motion estimator 45.
And recorded by the background frame constructor 43 for later use.

【0035】 図4Bは、図3に示した背景運動推定装置45、背景フレーム・コンストラク
タ43、および背景混合推定装置47の動作を説明する流れ図57である。ブロ
ック59に始まり、背景運動推定装置は、シーン変化推定装置によって示された
ビデオ・セグメント54(すなわち図4AのBFiおよびBFi+1によって拘束さ
れているビデオ・フレーム54のサブシーケンス)を、それらのフレームに示す
シーンの主な運動を識別するために検査する。この主な運動は背景運動とみなさ
れる。
FIG. 4B is a flowchart 57 illustrating the operation of the background motion estimator 45, the background frame constructor 43, and the background mixture estimator 47 shown in FIG. Beginning at block 59, the background motion estimator extracts the video segment 54 indicated by the scene change estimator (ie, a sub-sequence of video frame 54 constrained by BF i and BF i + 1 in FIG. 4A). Inspect to identify the main motion of the scene shown in those frames. This primary movement is considered a background movement.

【0036】 ビデオ・セグメントにおける背景運動を識別するために使用することができる
いくつかの技術がある。特徴トラッキングと呼ばれるある技術は、(たとえば縁
検出技術を用いて)ビデオ・フレームの特徴を識別すること、およびあるビデオ
・フレームから次のフレームへの特徴の移動を追跡することを含む。他の特徴に
対して統計的に異常である運動を示す特徴は、動的オブジェクトとみなされ、一
時的に無視される。多くの数の特徴(または大きな特徴)によって共有される運
動は、通常ビデオを記録するために使用されるカメラの配置の変化によって生じ
、背景運動とみなされる。
There are several techniques that can be used to identify background motion in a video segment. One technique, called feature tracking, involves identifying features of a video frame (eg, using edge detection techniques) and tracking the movement of features from one video frame to the next. Features exhibiting motion that is statistically abnormal with respect to other features are considered dynamic objects and are temporarily ignored. Motion shared by a large number of features (or large features) usually results from changes in the arrangement of cameras used to record video and is considered background motion.

【0037】 ビデオ・セグメントにおいて背景運動を識別する他の技術は、共通の領域に基
づいてビデオ・セグメントのフレームを互いに相関させ、次いでそれらの領域の
フレームからフレームへのずれを決定する。次いでフレームからフレームへのず
れは、ビデオ・セグメントの背景運動を決定するために使用することができる。
Another technique for identifying background motion in a video segment correlates the frames of the video segment with each other based on a common region, and then determines the frame-to-frame displacement of those regions. The frame-to-frame shift can then be used to determine the background motion of the video segment.

【0038】 ビデオ・セグメントの背景運動を識別する技術としてさらに他に考察する技術
は、ビデオ・セグメントの中のフレームの空間的に段階的な分解を使用する粗対
繊調査方法、および推定した主な運動に従わないビデオ・フレームの要素を除去
する、M推定などの堅固な推定技術であるが、これに限定されるものではない。
段階的な分解は、シーンの変化を識別するための時間の経過に伴うビデオ・フレ
ーム・ヒストグラムの特徴の変化の測定、運動識別のために使用することができ
るビデオ・セグメントの特徴を強調させるためのろ過、光学的流れの測定および
分析、より高速な処理速度、より大きな信頼性、またはその両方を達成するため
に色ディスプレイ(グレースケールを含む)を代替する画素フォーマット変換で
ある。
Still another technique to consider the background motion of a video segment is a coarse-textured survey method that uses a spatially gradual decomposition of the frames in the video segment, and an estimated primary fiber. Robust estimation techniques, such as, but not limited to, M estimation, which remove elements of the video frame that do not follow the motion.
Gradual decomposition measures changes in the characteristics of a video frame histogram over time to identify scene changes, to highlight features of video segments that can be used for motion identification Pixel format conversion, which replaces color displays (including grayscale) to achieve higher filtration, optical flow measurement and analysis, faster processing speed, greater reliability, or both.

【0039】 引き続き図4Bの流れ図57を参照すると、背景フレーム・コンストラクタは
ブロック61で背景運動推定装置から背景運動情報を受け取り、ビデオ・セグメ
ントのフレームを互いに比べて登録するために背景運動情報を用いる。登録は、
背景運動によって生じた変化を説明する方式でビデオ・フレームを相関させるこ
とを指す。背景運動情報に基づいてビデオ・フレームを登録することにより、背
景運動と異なる運動を示すフレームの領域(すなわち動的オブジェクト)は、登
録されたビデオ・フレームの極少数の固定された位置に出現することになる。す
なわち、その領域は、静止背景に比べてフレームからフレームへ移動するのであ
る。この領域が動的オブジェクトである。ブロック63で背景フレーム・コンス
トラクタは、ビデオ・フレームの処理済みシーケンスを作成するために、ビデオ
・セグメントから動的オブジェクトを取り除く。ブロック65で背景フレーム・
コンストラクタは、ビデオ・フレームの処理済みシーケンスおよび背景運動情報
に基づいて、背景フレームを生成する。変形の性質に応じて、背景フレームの構
築は、2つ以上の処理済みビデオ・フレームを1つの背景画像に複合すること、
または背景フレームとして処理済みビデオ・フレームの1つを選択することを含
む。ある実施形態では、複合背景フレームは、パノラマ画像または高解像度静止
画像である。パノラマ画像は、2つ以上の処理済みビデオ・フレームを一緒にス
テッチすることにより創出され、カメラをパン、傾斜、または並進することによ
り得た背景シーンを表示するために使用することができる。高解像度静止画像は
、ビデオ・フレームの処理済みシーケンスの主題が比較的静的な背景シーンであ
るとき(すなわち、ビデオ源を記録するために使用したカメラの位置が大幅に変
化していないとき)、ふさわしいものである。高解像度静止画像を創出する1つ
の技術は、フレーム間でサブ画素の運動を識別するために、ビデオ・フレームの
処理済みシーケンスを分析することである。サブ画素の運動は、わずかなカメラ
の運動によって生じ、カメラが得たあらゆる個々のフレームよりも高い解像度を
有する複合画像を創出するために使用することができる。下記で説明するように
、高解像度静止画像は、ビデオ源10にない詳細を提供するために表示すること
ができるので、特に有用である。また同じ主題の複数の高解像度静止画像が構築
されるとき、高解像度静止画像は、解像度が変動する領域を有する静止画像を形
成するために合成することができる。本明細書ではそのような画像を多重解像度
静止画像と呼ぶ。下記で説明するように、ユーザは、そのような静止画像の異な
る領域で、ズーム・インおよびズーム・アウトするためにアニメーションの再生
を停止することができる。同様に、ユーザは、パノラマ画像についてパンするた
めに、アニメーションの再生を停止することができる。パンとズームの組合せも
可能である。さらに、ビデオ源の再生中に、高解像度静止画像、パノラマ静止画
像、またはズーム可能静止画像を見るためにビデオ再生を停止するようにユーザ
を促すことができるように、アニメーションをビデオ源とクロスリンクすること
が可能である。クロスリンクについては、下記でさらに詳細に説明する。
Still referring to flowchart 57 of FIG. 4B, the background frame constructor receives background motion information from the background motion estimator at block 61 and uses the background motion information to register frames of the video segment relative to each other. . Registration is
Refers to correlating video frames in a manner that accounts for changes caused by background motion. By registering a video frame based on background motion information, regions of the frame exhibiting motion different from the background motion (ie, dynamic objects) appear in a very small number of fixed locations in the registered video frame. Will be. That is, the area moves from frame to frame as compared to the stationary background. This area is a dynamic object. At block 63, the background frame constructor removes dynamic objects from the video segment to create a processed sequence of video frames. Background frame at block 65
The constructor generates a background frame based on the processed sequence of video frames and the background motion information. Depending on the nature of the deformation, the construction of the background frame comprises combining two or more processed video frames into one background image;
Or selecting one of the processed video frames as a background frame. In some embodiments, the composite background frame is a panoramic image or a high-resolution still image. Panoramic images are created by stitching two or more processed video frames together and can be used to display a background scene obtained by panning, tilting, or translating the camera. High resolution still images are used when the subject of the processed sequence of video frames is a relatively static background scene (ie, when the position of the camera used to record the video source has not changed significantly). Is appropriate. One technique for creating high resolution still images is to analyze the processed sequence of video frames to identify sub-pixel motion between frames. Sub-pixel motion is caused by slight camera motion and can be used to create a composite image with a higher resolution than any individual frame obtained by the camera. As described below, high resolution still images are particularly useful because they can be displayed to provide details not present in video source 10. Also, when multiple high-resolution still images of the same subject are constructed, the high-resolution still images can be combined to form a still image having regions of varying resolution. In the present specification, such an image is referred to as a multi-resolution still image. As described below, the user can stop playing the animation to zoom in and out at different regions of such a still image. Similarly, the user can stop playing the animation to pan about the panoramic image. A combination of pan and zoom is also possible. Additionally, animations can be cross-linked with the video source so that during playback of the video source, the user can be prompted to stop the video playback to see a high resolution still image, panoramic still image, or zoomable still image It is possible to Crosslinks are described in more detail below.

【0040】 図5は、図3に示した背景フレーム・コンストラクタ43で生成した背景画像
セット70を示す。背景フレームBFiは、処理済みビデオ・フレームであり、
複合画像ではない背景画像71を指す。通常このタイプの背景画像は、スケーリ
ング(すなわちズーム・インまたはアウト)、または連続するビデオ・フレーム
間の突然のカットに起因する。背景フレームBFi+1は、本質的に同じシーンの
複数の処理済みビデオ・フレームから合成された高解像度静止画像73を指す。
上記のように、このタイプの画像は、ビデオ源で知覚可能でない詳細を提供する
ために特に有用である。背景フレームBFi+2、BFi+3、およびBFi+4は、そ
れぞれパノラマ背景画像75の異なる領域に関係する。既に示したように、パノ
ラマ画像フレーム75は、1つまたは複数の処理済みビデオ・フレームの部分7
6を他の処理済みビデオ・フレームにステッチすることにより生成されている。
この例では、シーンの多くを増分的に獲得するために、カメラを下方および右に
並進、または右にパンし下方に傾斜させた可能性がある。合成背景画像の他の形
状は、異なるタイプのカメラの運動に起因する。
FIG. 5 shows a background image set 70 generated by the background frame constructor 43 shown in FIG. The background frame BF i is a processed video frame,
A background image 71 that is not a composite image. Typically, this type of background image results from scaling (ie, zooming in or out) or sudden cuts between successive video frames. The background frame BF i + 1 refers to a high resolution still image 73 synthesized from a plurality of processed video frames of essentially the same scene.
As noted above, this type of image is particularly useful for providing details that are not perceptible at the video source. The background frames BF i + 2 , BF i + 3 , and BF i + 4 each relate to a different area of the panoramic background image 75. As already indicated, the panoramic image frame 75 comprises one or more portions 7 of the processed video frame.
6 by stitching it to another processed video frame.
In this example, the camera may have been translated down and to the right, or panned to the right and tilted down to gain incrementally more of the scene. Other shapes of the composite background image are due to different types of camera movement.

【0041】 図4Bの流れ図57の最後のブロックに戻ると、背景混合推定装置(たとえば
図3の要素47)は、背景運動情報およびブロック67で新たに構築された背景
フレームに基づいて、背景混合情報を生成する。混合推定装置の動作について、
下記でより詳細に説明する。
Returning to the last block of flowchart 57 of FIG. 4B, the background blend estimator (eg, element 47 of FIG. 3) performs background blending based on the background motion information and the newly constructed background frame in block 67. Generate information. Regarding the operation of the mixing estimation device,
This will be described in more detail below.

【0042】 図6は、ある実施形態によるオブジェクト・トラック生成器27のブロック図
である。オブジェクト・トラック生成器27は、背景トラック生成器(たとえば
図2の要素25)によって生成された背景トラック33とビデオ源10を入力と
して受信する。オブジェクト・トラック生成器27は、背景トラック33とビデ
オ源10の差に基づいて、シーンの動的オブジェクトを識別し、オブジェクト・
トラック35のオブジェクト運動(OM)およびオブジェクト混合(OB)情報
と共に、動的オブジェクトを含むオブジェクト・フレーム(OF)を記録する。
FIG. 6 is a block diagram of the object track generator 27 according to one embodiment. Object track generator 27 receives as input a background track 33 and a video source 10 generated by a background track generator (eg, element 25 of FIG. 2). The object track generator 27 identifies dynamic objects in the scene based on the difference between the background track 33 and the video source 10 and
An object frame (OF) containing a dynamic object is recorded along with the object motion (OM) and object mixture (OB) information of the track 35.

【0043】 ある実施形態では、オブジェクト・トラック生成器27は、オブジェクト・フ
レーム・コンストラクタ81と、オブジェクト運動推定装置83と、オブジェク
ト混合推定装置85とを含む。オブジェクト・フレーム・コンストラクタ81は
、オブジェクト・フレーム(OF)を構築するために、背景トラック33の背景
フレームに対してビデオ源10のビデオ・フレームを比較する。下記で説明する
ように、オブジェクト・フレーム・コンストラクタ81によって構築された各オ
ブジェクト・フレームは、動的オブジェクトを含む。ある実施形態では、所与の
ビデオ・セグメントで検出された動的オブジェクトあたり(すなわち、図3のシ
ーン変化推定装置41によって識別されたビデオ・フレームのシーケンスで検出
された動的オブジェクトあたり)、少なくとも1つのオブジェクト・フレームが
生成される。オブジェクト運動推定装置83は、オブジェクト運動情報(OM)
を生成するためにビデオ・セグメントの動的オブジェクトの運動を追跡し、オブ
ジェクト混合推定装置85は、それぞれオブジェクト・フレーム・コンストラク
タ81によって生成されたオブジェクト・フレーム、およびオブジェクト運動推
定装置83によって生成されたオブジェクト運動情報に基づいてオブジェクト混
合情報(OB)を生成する。
In one embodiment, the object track generator 27 includes an object frame constructor 81, an object motion estimator 83, and an object mixture estimator 85. The object frame constructor 81 compares the video frames of the video source 10 to the background frames of the background track 33 to construct an object frame (OF). As described below, each object frame constructed by the object frame constructor 81 contains a dynamic object. In some embodiments, at least per dynamic object detected in a given video segment (ie, per dynamic object detected in the sequence of video frames identified by scene change estimator 41 of FIG. 3), One object frame is generated. The object motion estimating device 83 is provided with object motion information (OM)
The motion of the dynamic object in the video segment is tracked to generate Object mixture information (OB) is generated based on the object motion information.

【0044】 図7Aおよび図7Bは、図6のオブジェクト・トラック生成器27の動作を詳
細に示す。図7Aは、図3のシーン変化推定装置41によって識別されたビデオ
・セグメント54を示す。ビデオ・セグメント54は、背景フレームBFiおよ
びBFi+1によって拘束され、動的オブジェクト56を含む。図7Bは、オブジ
ェクト・トラック生成器27の動作の流れ図100である。
FIGS. 7A and 7B illustrate in detail the operation of the object track generator 27 of FIG. FIG. 7A shows a video segment 54 identified by the scene change estimator 41 of FIG. Video segment 54 is constrained by background frames BF i and BF i + 1 and includes dynamic object 56. FIG. 7B is a flowchart 100 of the operation of the object track generator 27.

【0045】 流れ図100のブロック101に始まり、オブジェクト・フレーム・コンスト
ラクタ(たとえば、図6の要素81)は、差フレーム91を生成するために、背
景フレームBFiをビデオ・セグメント54のビデオ・フレームVFjと比較する
。図7Aに示すように、BFiとVFjの小さな差が、差フレーム91でいくらか
ランダムな差(雑音)を作成する。しかし、BFiとVFjの差92が比較的集中
した領域は、背景フレーム・コンストラクタ(たとえば図3の要素43)によっ
て動的オブジェクトが背景フレームBFiから取り除かれた場合に生じる。流れ
図100のブロック103で、ろ過済み差フレーム93を作成するために、空間
的低域通過フィルタを差フレーム91に加える。ろ過済み差フレーム93では、
ランダムな差(すなわち高周波数要素)が消滅し、差92の集中領域は、濃淡の
むらが増加したことを示す。結果として、差92の集中領域の輪郭は、より容易
に識別することができる。したがって、流れ図100のブロック105で、オブ
ジェクト・フレーム・コンストラクタは、ろ過済み差フレーム93における差9
2の集中領域を識別するために、特徴調査(たとえば縁検出技術を用いて)を実
施する。ブロック107で、オブジェクト・フレーム・コンストラクタは、オブ
ジェクト・フレーム56として、ろ過済み差フレーム93で差92が集中する領
域に対応するビデオ・フレームVFj内の領域を選択する。ある実施形態では、
オブジェクト・フレーム・コンストラクタは、差92の集中領域を囲むろ過済み
差フレーム93の矩形領域に対応する(たとえば同じx、yのずれを有する)矩
形領域として、オブジェクト・フレーム56を選択する。代替のオブジェクト・
フレームの形状を使用することが可能である。ろ過済み差フレーム93に差の集
中領域がなければ、オブジェクト・フレーム・コンストラクタによって選択され
るオブジェクト・フレームはないことを理解されたい。反対に、ろ過済み差フレ
ーム93に複数の差の集中領域があれば、複数のオブジェクト・フレームを選択
することが可能である。ろ過済み差フレーム93の差の各集中領域は、ビデオ・
フレーム54のサブシーケンスにおいて動的オブジェクトに対応するとみなされ
る。
Beginning at block 101 of flowchart 100, the object frame constructor (eg, element 81 of FIG. 6) converts background frame BF i to video frame VF of video segment 54 to generate difference frame 91. Compare with j . As shown in FIG. 7A, a small difference between BF i and VF j creates a somewhat random difference (noise) in the difference frame 91. However, a region where the difference 92 between BF i and VF j is relatively concentrated occurs when the dynamic object has been removed from the background frame BF i by the background frame constructor (eg, element 43 of FIG. 3). At block 103 of the flowchart 100, a spatial low pass filter is applied to the difference frame 91 to create a filtered difference frame 93. In the filtered difference frame 93,
The random differences (ie, high frequency elements) have disappeared, and the concentrated area of difference 92 indicates that the shading has increased. As a result, the outline of the concentrated area of the difference 92 can be more easily identified. Thus, at block 105 of the flowchart 100, the object frame constructor determines the difference 9 in the filtered difference frame 93.
A feature survey (eg, using edge detection techniques) is performed to identify the two focus areas. At block 107, the object frame constructor as an object frame 56, the difference 92 in filtered difference frame 93 to select the area of the video frame VF j corresponding to the region to focus. In some embodiments,
The object frame constructor selects the object frame 56 as a rectangular area (eg, having the same x, y offset) corresponding to the rectangular area of the filtered difference frame 93 surrounding the concentrated area of the difference 92. Alternative object
It is possible to use the shape of the frame. It should be understood that if there are no concentrated regions of difference in the filtered difference frame 93, no object frame will be selected by the object frame constructor. Conversely, if the filtered difference frame 93 has a plurality of difference concentration regions, a plurality of object frames can be selected. Each concentrated area of the difference of the filtered difference frame 93 is
It is considered to correspond to a dynamic object in a subsequence of frame 54.

【0046】 オブジェクト・フレーム・コンストラクタによりオブジェクト・フレーム56
で動的オブジェクトが識別され、構成された後、動的オブジェクトの運動は、ビ
デオ・セグメント54のフレームの列を通過するオブジェクト・フレーム56の
位置の変化を追跡することによって決定される。したがって、流れ図100のブ
ロック109で、オブジェクト運動推定装置(たとえば図6の要素83)は、ビ
デオ・セグメント54にあるビデオ・フレームから次のフレームへオブジェクト
・フレーム・コンストラクタによって識別および構成された動的オブジェクトの
運動を追跡する。ある実施形態によれば、オブジェクト運動の追跡は、関心のあ
る動的オブジェクトの新しい位置を決定するために、ビデオ・セグメント54の
各連続ビデオ・フレーム内で、特徴調査をすることにより実施される。動的オブ
ジェクトの運動を構成するフレームを用いて、運動推定装置は、動的オブジェク
トの運動を近似するように連続するオブジェクト・フレーム間で補間するために
使用することができる運動情報を生成する。流れ図100のブロック111で、
オブジェクト混合推定装置(たとえば図6の要素85)は、オブジェクト運動情
報およびオブジェクト・フレームに基づいてオブジェクト混合情報を生成する。
ある実施形態では、オブジェクト混合推定装置の動作は、背景混合推定装置の動
作と同じである。しかし、連続するオブジェクト・フレームを混合する情報を生
成する代替技術は、本発明の精神および範囲から逸脱することなく使用すること
ができる。
The object frame 56 is generated by the object frame constructor.
After the dynamic object has been identified and configured in, the motion of the dynamic object is determined by tracking changes in the position of the object frame 56 passing through the sequence of frames of the video segment 54. Accordingly, at block 109 of the flowchart 100, the object motion estimator (eg, element 83 of FIG. 6) determines the dynamics identified and configured by the object frame constructor from the video frame at video segment 54 to the next frame. Track the movement of an object. According to one embodiment, tracking of object motion is performed by performing a feature survey within each successive video frame of video segment 54 to determine a new position of the dynamic object of interest. . Using the frames that make up the motion of the dynamic object, the motion estimator generates motion information that can be used to interpolate between successive object frames to approximate the motion of the dynamic object. At block 111 of flowchart 100,
An object mixture estimator (eg, element 85 of FIG. 6) generates object mixture information based on the object motion information and the object frame.
In one embodiment, the operation of the object mixture estimator is the same as the operation of the background mixture estimator. However, alternative techniques for generating information that mixes successive object frames can be used without departing from the spirit and scope of the present invention.

【0047】 上記のように、図3のオブジェクト・トラック生成器27のある実施形態では
、少なくとも1つのオブジェクト・フレームが、ビデオ・セグメント内でオブジ
ェクト・フレーム・コンストラクタ81によって識別された各動的オブジェクト
に対して生成される。ビデオ・セグメントにおける動的オブジェクトの運動が非
常に複雑なために、ビデオ・セグメントを拘束するオブジェクト・フレーム間で
補間することにより適切に示すことができないことを、オブジェクト運動推定装
置83が決定するならば、オブジェクト運動推定装置83は、ビデオ・セグメン
トに対し、1つまたは複数の追加のオブジェクト・フレームを構築する必要性を
示す。次いでオブジェクト・フレーム・コンストラクタは、上記の技術を用いて
、オブジェクト運動推定装置によって示されたビデオ・セグメント内の接合部で
、追加のオブジェクト・フレームを生成することになる。背景フレーム構築に関
連して上記で説明したように、オブジェクト・フレームは、複合画像領域から引
き出した画像データを含むことが可能である。1つまたは複数の追加のオブジェ
クト・フレームが、複雑な運動を受ける動的オブジェクトを示すために構築され
るならば、アニメーションの再生中に、動的オブジェクトにシーンの他の特徴を
オーバーレイさせるために、追加のフレームをアニメーションのオブジェクトで
組織することが可能である。
As described above, in one embodiment of the object track generator 27 of FIG. 3, at least one object frame is identified by each dynamic object identified by the object frame constructor 81 in the video segment. Is generated for If the object motion estimator 83 determines that the motion of the dynamic object in the video segment is so complex that it cannot be properly indicated by interpolating between the constraining object frames. For example, the object motion estimator 83 indicates the need to construct one or more additional object frames for the video segment. The object frame constructor will then use the techniques described above to generate additional object frames at the junctions in the video segment indicated by the object motion estimator. As described above in connection with background frame construction, an object frame can include image data derived from a composite image area. If one or more additional object frames are constructed to indicate the dynamic object undergoing complex movements, the dynamic object may be overlaid with other features of the scene during playback of the animation. It is possible to organize additional frames with animated objects.

【0048】 動的オブジェクトは、時折シーン内で互いに重なることがある。オブジェクト
・トラック生成器27のある実施形態によれば、別々のオブジェクト・トラック
によって表される動的オブジェクトが互いに重なって遮蔽されるとき、遮蔽され
たオブジェクトが再出現すれば、遮蔽された動的オブジェクトのオブジェクト・
トラックは終了し、新たなオブジェクト・トラックが生成される。したがって、
動的オブジェクトが繰り返し互いを遮蔽するならば、多くの離散オブジェクト・
トラックを作成することができる。オブジェクト・トラック生成器の代替実施形
態では、2つの動的オブジェクトのスクリーンの位置が集中するならば、どちら
を他方の上に表示するかを示すオブジェクト・トラックに、情報を関連付けるこ
とができる。
Dynamic objects may occasionally overlap each other in a scene. According to one embodiment of the object track generator 27, when the dynamic objects represented by the separate object tracks are occluded overlapping each other, the occluded dynamics will occur if the occluded object reappears. Object of object
The track ends and a new object track is created. Therefore,
If the dynamic objects repeatedly shield each other, many discrete objects
Tracks can be created. In an alternative embodiment of the object track generator, if the screen location of two dynamic objects is concentrated, the information can be associated with an object track that indicates which one to display on top of the other.

【0049】 背景画像の場合のように、動的オブジェクトの画像(すなわちオブジェクト画
像)は、複数のビデオ・フレームから複合することができる。複合オブジェクト
画像は、パノラマ・オブジェクト画像、高解像度静止オブジェクト画像、および
多重解像度静止オブジェクト画像を含むが、これに限定されるものではない。一
般に、複合背景画像を作成するために使用することができる画像のあらゆる複合
は、複合オブジェクト画像を作成するために使用することも可能である。
As in the case of a background image, an image of a dynamic object (ie, an object image) can be composited from multiple video frames. Composite object images include, but are not limited to, panoramic object images, high resolution still object images, and multi-resolution still object images. In general, any composite of images that can be used to create a composite background image can also be used to create a composite object image.

【0050】 図8は、ある実施形態によるアニメーション・オブジェクト30の図である。
アニメーション・オブジェクト30は、背景トラック33および、複数のオブジ
ェクト・トラック35A、35B、35Cを含む。上記のように、オブジェクト
・トラックの数は、ビデオ源に示すシーンで識別された動的オブジェクトの数に
依存し、識別される動的オブジェクトがなければ、アニメーション・オブジェク
ト30には、オブジェクト・トラックがない。
FIG. 8 is a diagram of an animation object 30 according to one embodiment.
The animation object 30 includes a background track 33 and a plurality of object tracks 35A, 35B, 35C. As described above, the number of object tracks depends on the number of dynamic objects identified in the scene shown in the video source; There is no.

【0051】 ある実施形態では、アニメーション・オブジェクト30は、背景トラックおよ
びオブジェクト・トラックのリンクされたリスト121によって実現される。背
景トラック自体は、背景トラック要素BTおよび背景フレームBF1からBFN
シーケンスのリンクされたリストによって実現される。各オブジェクト・トラッ
クは、同様にオブジェクト・トラック要素OT1、OT2、OTR、およびオブジ
ェクト・フレームのシーケンスのそれぞれ(OF11からOF1M、OF21から
OF2K、OFR1からOFRJ)のリンクされたリストによって実現される。あ
る実施形態では、背景トラック要素BTおよびオブジェクト・トラック要素OT 1 、OT2、OTRも、アニメーション・オブジェクトリンクされたリスト121
を実現するポインタを含む。すなわち、背景トラック要素BTは、第1オブジェ
クト・トラック要素をOT1に対するポインタを含み、第1オブジェクト・トラ
ック要素OT1は、次のオブジェクト・トラック要素OT2に対するポインタを含
み、というようにオブジェクト・トラックOTRに達するまで続く。ある実施形
態では、アニメーション・オブジェクトリンクされたリスト121と、個々の背
景およびオブジェクト・トラックのリンクされたリストの終了は、最終要素のそ
れぞれのヌルポインタによって示される。リンクされたリストの終了を示す他の
技術は、代替実施形態で使用することが可能である。たとえば、アニメーション
・オブジェクト30は、アニメーション・オブジェクトがリンクされたリスト1
21で、背景トラック33を指摘する先頭ポインタ、および最終オブジェクト・
トラック35Cを指摘する後尾ポインタを含むデータ構造を含む。同様に、背景
トラック要素BTおよび各オブジェクト・トラック要素OT1、OT2、OTR
、それぞれのリンクされたリストの終了を示すそれぞれの後尾ポインタを含む。
さらに他の実施形態では、リンクされたリストの要素における旗を、リストの終
了を示すために使用することが可能である。
In one embodiment, the animation object 30 includes a background track and
And a linked list 121 of object tracks. Height
The scene track itself includes a background track element BT and a background frame BF.1From BFNof
Implemented by a linked list of sequences. Each object track
Is also the object track element OT1, OTTwo, OTR, And obgi
Each of the sequences of the target frame (OF11From OF1M, OF21From
OF2K, OFR1OFR toJ) By a linked list. Ah
In one embodiment, the background track element BT and the object track element OT 1 , OT2,OTRAlso an animation / object linked list 121
And a pointer that implements That is, the background track element BT is the first object.
OT track element1The first object trajectory.
Lock element OT1Is the next object track element OTTwoContains a pointer to
Object track OTRContinue until you reach. An implementation
In the state, the animation / object linked list 121 and the individual
The end of the linked list of scenes and object tracks is
Each is indicated by a null pointer. Other to indicate the end of the linked list
The technique can be used in alternative embodiments. For example, animation
The object 30 is a list 1 to which the animation object is linked.
At 21, the first pointer pointing to the background track 33, and the last object
Includes a data structure that includes a tail pointer pointing to track 35C. Similarly, the background
Track element BT and each object track element OT1, OTTwo, OTRIs
, Respectively, to indicate the end of each linked list.
In yet another embodiment, a flag in an element of a linked list is displayed at the end of the list.
Can be used to indicate completion.

【0052】 引き続き図8を参照すると、データ構造123は、ある実施形態による背景フ
レームを実現するために使用される。背景フレーム・データ構造123のメンバ
は、背景トラック33で次の背景フレームを指摘する次ポインタ(NEXT P
TR)と、背景トラック33で先行背景フレームを指摘する先行ポインタ(PR
EV PTR)と、背景フレームに対し画像データの位置を指摘する画像ポイン
タ(IMAGE PTR)と、補間データ構造を指摘する補間ポインタ(INT
ERP PTR)と、背景フレームに対し相対再生時間を示すタイムスタンプ(
TIMESTAMP)とを含む。下記のように、さらに背景フレーム・データ構
造123は、ビデオ源のフレームを有するクロスリンクのために1つまたは複数
のメンバを含むことが可能である。
With continued reference to FIG. 8, data structure 123 is used to implement a background frame according to an embodiment. A member of the background frame data structure 123 includes a next pointer (NEXT P) pointing to the next background frame in the background track 33.
TR) and a preceding pointer (PR) indicating the preceding background frame on the background track 33.
EV PTR), an image pointer (IMAGE PTR) indicating the position of the image data with respect to the background frame, and an interpolation pointer (INT) indicating the interpolation data structure.
ERP PTR) and a timestamp (relative to the background frame)
TIMESTAMP). As described below, the background frame data structure 123 may further include one or more members for crosslinks having frames of the video source.

【0053】 所与の背景フレームに対し表示されることになる画像は、非複合または複合背
景画像から得ることができることを思い起こすと、背景フレーム・データ構造1
23の画像ポインタ自体は、メモリにおいて背景画像の位置を占めすデータ構造
、背景画像内でそれから背景フレームに対する画像データを獲得するためのずれ
(たとえば行と列)、および背景フレームを生成するために使用するビデオ・セ
グメントに対するポインタである可能性がある。下記のように、ビデオ・セグメ
ントに対するポインタは、アニメーションとビデオ源をリンクするために使用さ
れる。ある実施形態では、ビデオ・セグメントに対するポインタは、少なくとも
ビデオ・セグメントの第1ビデオ・フレームに対するポインタである。背景フレ
ームをビデオ・セグメントにリンクする他の技術は、本発明の精神および範囲を
逸脱することなく使用することが可能である。
Recalling that the image to be displayed for a given background frame can be obtained from a non-composite or composite background image, the background frame data structure 1
The image pointer itself at 23 has a data structure that occupies the position of the background image in memory, a shift in the background image from which to obtain the image data for the background frame (eg, rows and columns), and to generate the background frame. May be a pointer to the video segment to use. As described below, pointers to video segments are used to link animation and video sources. In some embodiments, the pointer to the video segment is at least a pointer to the first video frame of the video segment. Other techniques for linking background frames to video segments can be used without departing from the spirit and scope of the present invention.

【0054】 ある実施形態では、背景補間データ構造125は、所与の背景フレームとそれ
に隣接する背景フレームの間で補間するためのデータを含む。背景フレームとそ
れに隣接して連続する背景フレーム(すなわち次の背景フレーム)の間で補間す
るための情報は、前方背景運動情報(BM FORWARD)および前方背景混
合情報(BB FORWARD)を含む。同様に、背景フレームとそれに隣接す
る先行背景フレームの間で補間するための情報は、後方背景運動情報(BM R
EVERSE)および後方背景混合情報(BB REVERSE)を含む。所与
の方向(すなわち前方または後方)の背景運動情報自体は、いくつかのメンバを
含むデータ構造である可能性がある。図8に示す例示的な実施形態では、前方背
景運動情報(BM FORWARD)は、次の背景フレームに達するXおよびY
方向(すなわち、画像平面で水平および垂直方向)の背景シーンの並進を示すメ
ンバ、XおよびY方向(すなわちカメラのズーム・イン/アウトおよび縦横比の
変化)のスケール・ファクタ、回転ファクタ、パン・ファクタ、傾斜ファクタ、
およびスキュー・ファクタを含む。代替実施形態では、より多数、またはより少
数のパラメータを使用することを理解されたい。後方背景運動情報(BM RE
VERSE)は、同様の運動パラメータのセットにより示すことができる。
In one embodiment, the background interpolation data structure 125 includes data for interpolating between a given background frame and its adjacent background frame. The information for interpolating between a background frame and a background frame adjacent thereto (ie, the next background frame) includes forward background motion information (BM FORWARD) and forward background mixed information (BB FORWARD). Similarly, information for interpolating between a background frame and a preceding background frame adjacent to the background frame is backward background motion information (BM R).
EVERSE) and rear background mixed information (BB REVERSE). The background motion information itself in a given direction (ie, forward or backward) can be a data structure that includes several members. In the exemplary embodiment shown in FIG. 8, the forward background motion information (BM FORWARD) is X and Y reaching the next background frame.
Members indicating the translation of the background scene in the directions (i.e., horizontal and vertical in the image plane); scale factors, rotation factors, panning in the X and Y directions (i.e., changes in camera zoom in / out and aspect ratio). Factor, slope factor,
And skew factors. It should be appreciated that alternative embodiments use more or fewer parameters. Back background motion information (BM RE
VERSE) can be indicated by a similar set of motion parameters.

【0055】 ある実施形態では、個々の各オブジェクト・フレームは、上記の背景フレーム
・データ構造123に類似のオブジェクト・フレーム・データ構造127によっ
て実現される。たとえば、オブジェクト・フレーム・データ構造127は、オブ
ジェクト・トラックにおける次のオブジェクト・フレームに対するポインタ(N
EXT PTP)と、オブジェクト・トラックにおける先行オブジェクト・フレ
ームに対するポインタ(PREV PTR)と、画像ポインタ(IMAGE P
TR)と、補間ポインタ(INTERP PTR)と、タイムスタンプ(TIM
ESTAMP)とを含み、それぞれは、背景トラック・データ構造123内の同
じメンバの機能に類似の機能を実施する。もちろん、オブジェクト・フレーム・
データ構造127の画像ポインタは、背景画像データの代わりにオブジェクト画
像データを示し、補間ポインタは、背景補間データの代わりにオブジェクト補間
データを示す。図8に示すように、例示的なオブジェクト補間データ構造は、前
方および後方オブジェクト運動(それぞれOM FORWARDおよびOM R
EVERSE)の両方と、前方および後方オブジェクト混合情報(それぞれOB
FORWARDおよびOB REVERSE)の両方を示すメンバを含む。
In one embodiment, each individual object frame is implemented by an object frame data structure 127 similar to the background frame data structure 123 described above. For example, the object frame data structure 127 contains a pointer (N) to the next object frame in the object track.
EXT PTP), a pointer to the preceding object frame in the object track (PREV PTR), and an image pointer (IMAGE PTP).
TR), an interpolation pointer (INTERPTR), and a time stamp (TIM).
ESTAMP), each performing a function similar to the function of the same member in the background track data structure 123. Of course, object frames
The image pointer of the data structure 127 indicates object image data instead of the background image data, and the interpolation pointer indicates object interpolation data instead of the background interpolation data. As shown in FIG. 8, an exemplary object interpolation data structure includes forward and backward object motions (OM FORWARD and OM R respectively).
EVERSE) and forward and backward object mixture information (OB respectively)
FORWARD and OB REVERSE).

【0056】 図9Aは、背景混合を実施するために使用することができる背景フレーム混合
データ構造135A、137Aの例示的な実施形態を示す。オブジェクト混合デ
ータを同様に組織することが可能であることを理解されたい。ある実施形態では
、各混合データ構造135A、137Aは、多項式(A、B、C、D)の係数の
形態にある混合演算子と、2つの連続する背景フレームにわたり混合演算子が適
用されるフレームの間隔部分を示す間隔分割(INTV)と、連続する背景フレ
ームが複数の混合演算子によって表示することを可能とする次の混合データ構造
に対するポインタとを含む。
FIG. 9A illustrates an exemplary embodiment of a background frame mixing data structure 135A, 137A that can be used to implement background mixing. It should be understood that the object mixture data can be similarly organized. In one embodiment, each mixed data structure 135A, 137A includes a mixed operator in the form of a polynomial (A, B, C, D) coefficient and a frame to which the mixed operator is applied over two consecutive background frames. And a pointer to the next mixed data structure that allows successive background frames to be displayed by multiple mixing operators.

【0057】 図9Aでは、背景フレームBFiのための前方背景混合データ135A、およ
び背景フレームBFi+1のための後方背景混合データ137Aを、背景フレーム
BFiとBFi+1を混合するために混合データを適用する方式を示すグラフ139
と共に示す。グラフに示されている混合動作は、混合間隔中(すなわち背景フレ
ーム間の時間)に、背景フレームBFiが効果的に背景フレームBFi+1にディゾ
ルブされるので、クロス・ディゾルブ動作として知られている。時刻tINTに補
間されたフレームを生成するために、背景フレームBFiは、フレームBFiに対
する前方背景運動情報に基づいて前方方向に変形され、背景フレームBFi+1
、フレームBFi+1に対する後方背景運動情報に基づいて後方方向に変形される
。それぞれの重量(すなわち乗数)を、それらのフレームの混合情報を用いてフ
レームBFiとBFi+1に対し計算する。フレームBFiの重量は、背景フレーム
BFiに対する前方混合情報に基づいており、背景フレームBFi+1の重量は、フ
レームBFi+1に対する後方混合情報に基づいている。次いでフレームBFiとフ
レームBFi+1の重量は、それぞれ背景フレームBFiとBFi+1の変形バージョ
ンに加えられ、結果として得られる変形および加重された画像は、補間されたフ
レームを生成するために(たとえば画素×画素の追加を用いて)組み合わされる
[0057] In Figure 9A, the forward background mixed data 135A for the background frame BF i, and the rear background mixed data 137A for the background frame BF i + 1, for mixing the background frame BF i and BF i + 1 139 showing a method of applying the mixed data to the data
Shown together. The mixing operation shown in the graph is known as a cross-dissolve operation because during the mixing interval (ie, the time between background frames), the background frame BF i is effectively dissolved into the background frame BF i + 1. ing. To generate the interpolated frame at time t INT, background frame BF i is deformed in a forward direction based on the frontward background motion information for the frame BF i, background frame BF i + 1 is a frame BF i + 1 Is deformed in the backward direction based on the backward background motion information for. The respective weights (ie, multipliers) are calculated for frames BF i and BF i + 1 using the mixing information of those frames. Weight frame BF i is based on the forward mixing information for background frame BF i, the weight of the background frame BF i + 1 is based on the rear mixing information for a frame BF i + 1. Then the weight of the frame BF i and a frame BF i + 1, respectively added to the modified version of the background frame BF i and BF i + 1, the variations and weighted image obtained as a result to produce an interpolated frame (E.g., using pixel x pixel addition).

【0058】 上記のように、ある実施形態では、混合演算子は、多項式の係数および多項式
が適用される混合間隔の部分を格納することにより実現される。たとえば、フレ
ームBFiに対する前方混合データ135Aは、混合データ135Aの係数A、
B、C、Dによって示された混合演算子が全混合間隔(この場合はtBFiとt
BFi+1の間隔)にわたり適用されていることを示す、1の間隔フラクション(
INTV=1)を含む。一般に、1未満の間隔フラクションは、混合関数の全体
が次数が制限されている多項式では適切に表すことのできない不連続を含む場合
に使用される。しかしグラフ139に示した混合動作には、連続する第1次混合
動作が示されている。したがって、混合データ構造135Aで指定されている係
数A、B、C、およびDを多項式の重量(T)=AT3+BT2+CT+Dに適用
すると、重量BFi(T)=1−Tとなる。ある実施形態によれば、Tの値は、
混合演算子A=0、B=0、C=−1、D=1が、混合間隔を通じて時間と共に
線形に減少する乗数をもたらすように、該当する混合間隔のフラクションにわた
って0から1の範囲に正規化される。BFiの乗数は1で始まり、線形に減少し
て混合間隔の終了時に0になる。フレームBFi+1に対する混合演算子を参照す
ると、混合データ構造137Aで指定されている係数A=0、B=0、C=1、
D=0を適用すると、重量BFi+1(T)=Tとなる。したがって、フレームB
i+1の乗数は0に始まり、混合間隔中1まで線形に増大する。
As described above, in one embodiment, the mixing operator is implemented by storing the coefficients of the polynomial and the portion of the mixing interval to which the polynomial is applied. For example, the forward mixed data 135A for the frame BF i is obtained by calculating the coefficient A of the mixed data 135A,
The mixing operator denoted by B, C, D is the total mixing interval (in this case, tBF i and t
1 interval fraction (indicating that it has been applied over BF i + 1 intervals)
INTV = 1). In general, fractional fractions less than one are used when the entire mixture function contains discontinuities that cannot be adequately represented by a polynomial of limited order. However, the mixing operation shown in the graph 139 shows a continuous primary mixing operation. Therefore, when the coefficients A, B, C, and D specified in the mixed data structure 135A are applied to the polynomial weight (T) = AT 3 + BT 2 + CT + D, the weight BF i (T) = 1−T. According to one embodiment, the value of T is
The mixing operators A = 0, B = 0, C = -1, D = 1 are normalized to the range of 0 to 1 over the relevant mixing interval fraction so that the multipliers result in multipliers that decrease linearly with time over the mixing interval. Be transformed into The multiplier for BF i starts at 1 and decreases linearly to 0 at the end of the mixing interval. Referring to the mixing operator for frame BF i + 1, the coefficients A = 0, B = 0, C = 1, specified in the mixing data structure 137A
Applying D = 0 results in a weight BF i + 1 (T) = T. Therefore, frame B
The F i + 1 multiplier starts at 0 and increases linearly to 1 during the mixing interval.

【0059】 図9Bは、不連続混合関数141を示す。この場合は、背景フレームBFi
BFi+1の混合間隔は、3つの間隔フラクション146、147、および148
に分割される。混合間隔の第1フラクション146の間、背景フレームBFi
適用される重量は一定して1に保持され、背景フレームBFi+1に加えられる重
量は一定して0に保持される。混合間隔の第2フラクション147の間、線形ク
ロス・ディゾルブが生じ、混合間隔の第3フラクション148の間、フレームB
iとBFi+1の乗数は再び一定に保持されるが、混合間隔の第1フラクション1
46の値とは反対の値を取る。ある実施形態では、不連続混合関数141は、混
合データ構造135B、135C、135Dのリンクされたリストによって示さ
れており、リストの各混合データ構造は、それがそれぞれのINTVパラメータ
で適用される混合間隔のフラクションを示している。したがって、背景フレーム
BFiに対する第1前方混合データ構造135Bは、間隔フラクションINTV
=0.25、および乗数のまとまりは、混合間隔の最初の25%(すなわち間隔
146)に渡りフレームBFiの変形されたバージョンに適用されていることを
示す混合演算子重量BFi(T)=1を含む。背景フレームBFiに対する第2混
合データ構造135Cは、間隔フラクションINTV=0.5、および混合間隔
の中間の50%の間(すなわち間隔147)、フレームBFiに加えられた重量
が線形に1から0まで減少することを示す混合演算子重量BFi(T)=1−T
を含む。説明を容易にするために、各間隔フラクションの間、Tの値は0から1
の範囲で正規化されていることを仮定していることに留意されたい。他の表示は
もちろん可能であり、本発明の範囲で考慮されるものである。背景フレームBF i の第3混合データ構造135Dは、間隔フラクションINTV=0.25、お
よび混合間隔の最後の25%(すなわち、間隔148)の間フレームBFiは補
間された背景フレームに何ら寄与しないことを示し、重量BFi(T)=0で与
えられる混合演算子を含む。
FIG. 9B shows the discontinuous mixing function 141. In this case, the background frame BFiWhen
BFi + 1The mixing intervals of the three interval fractions 146, 147, and 148
Is divided into During the first fraction 146 of the mixing interval, the background frame BFiTo
The applied weight is kept constant at 1 and the background frame BFi + 1Weight added to
The volume is kept constant at zero. During the second fraction 147 of the mixing interval,
A loss dissolve occurs and during the third fraction 148 of the mixing interval, frame B
FiAnd BFi + 1Is again kept constant, but the first fraction 1 of the mixing interval
It takes the opposite value to the value of 46. In one embodiment, the discontinuous mixing function 141 is
Indicated by a linked list of combined data structures 135B, 135C, 135D
And each mixed data structure in the list has its own INTV parameter
2 shows the fraction of the mixing interval applied in. Therefore, the background frame
BFiThe first forward mixed data structure 135B for the
= 0.25, and the multiplier chunk is the first 25% of the mixing interval (ie, the interval
146) Frame BFiApplied to a transformed version of
Show mixed operator weight BFi(T) = 1. Background frame BFiSecond blend against
The combined data structure 135C contains the interval fraction INTV = 0.5, and the mixed interval
Of the frame BF during the middle 50% ofiWeight added to
Operator weight BF indicating that decreases linearly from 1 to 0i(T) = 1-T
including. For ease of explanation, the value of T is between 0 and 1 during each interval fraction.
Note that it is assumed that they are normalized in the range Other indications are
Of course, it is possible and considered within the scope of the invention. Background frame BF i Of the third mixed data structure 135D is that the interval fraction INTV = 0.25,
BF during the last 25% of the mixing interval (ie, interval 148)iIs supplement
Weighted BF, indicating no contribution to the interposed background framei(T) = 0
Contains the resulting mixed operators.

【0060】 引き続き図9Bを参照すると、背景フレームBFi+1に対する混合データ構造
137B、137C、137Dのリンクされたリストは、背景フレームBFi
対して示されたリストの逆混合関数を示す。すなわち、混合間隔の最初の25%
の間、0の重量がフレームBFi+1の変形されたバージョンに加えられ(その時
間の間、補間された背景フレームに対しフレームBFi+1から何ら寄与がないこ
とを示す)、混合間隔の中間の50%の間、フレームBFi+1の変形されたバー
ジョンに加えられた重量は、0から1まで線形に増大し、混合間隔の最後の25
%の間、乗数のまとまり(すなわち、重量=1)は、補間された背景フレームを
創出するためにフレームBFi+1の変形されたバージョンに加えられる。
Still referring to FIG. 9B, the linked list of mixed data structures 137B, 137C, 137D for background frame BF i + 1 shows the inverse mixing function of the list shown for background frame BF i . That is, the first 25% of the mixing interval
, A weight of 0 is added to the transformed version of frame BF i + 1 (indicating that there is no contribution from frame BF i + 1 to the interpolated background frame during that time) and the mixing interval The weight added to the deformed version of frame BF i + 1 increases linearly from 0 to 1 during the middle 50% of the last 25 minutes of the mixing interval.
During%, the multiplier chunk (ie, weight = 1) is added to the modified version of frame BF i + 1 to create an interpolated background frame.

【0061】 図9Bに示すタイプの不連続混合関数を適用する1つの理由は、混合連続キー
フレームに関連付けられたゆがみを低減することである。混合間隔のフラクショ
ンの間、所与のキーフレームの寄与を一定に保持することにより、フレームBF i とBFi+1の前方および後方変形の相違によって生じるゆがみを低減することが
できる。ある実施形態では、演算子の入力は、所与のキーフレームの寄与を一定
に保持する混合間隔のフラクションを選択するために、アニメーション制作シス
テム(たとえば図1の要素12)で受信される。代替実施形態では、ある画像ま
たは他の画像の寄与が一定に保持されなければならない間隔フラクションを自動
的に決定するために、画像の鮮鋭度の程度(たとえば画像階調度)を混合画像お
よび非混合画像に対し決定することができる。また、線形クロス・ディゾルブ動
作を上記で説明したが、他のタイプのクロス・ディゾルブ動作を異なる多項式に
よって規制することも可能である。また、混合動作のタイプを示すために多項式
の係数を用いる代わりに、他の指標を使用することも可能である。たとえば、線
形、2次、超越、対数、またはその他の混合動作を適用するかどうかを示す値は
、混合データ構造に格納することができる。背景混合について、クロス・ディゾ
ルブ動作の観点から第1に説明したが、他の混合効果も、ある背景フレームを他
の背景フレームに移行するために使用することが可能であり、退色および様々な
スクリーン・ワイプを含むが、これに限定されるものではない。
One reason for applying a discontinuous mixture function of the type shown in FIG.
The purpose is to reduce the distortion associated with the frame. Fraction of mixing interval
By keeping the contribution of a given key frame constant during the i And BFi + 1Can reduce the distortion caused by the difference between the front and rear deformation
it can. In some embodiments, the input of the operator will make the contribution of a given keyframe constant.
Animation production system to select the fraction of the mixing interval to keep
System (eg, element 12 of FIG. 1). In an alternative embodiment, some images or
Or automatic interval fractions where the contribution of other images must be kept constant
The degree of sharpness of the image (for example, the image gradient) to determine
And unmixed images. Also, linear cross dissolve operation
The work has been described above, but other types of cross-dissolve behavior can be changed to different polynomials.
Therefore, it is also possible to regulate. Also, a polynomial to indicate the type of mixed operation
Instead of using the coefficient, other indices can be used. For example, a line
The value that indicates whether to apply shape, quadratic, transcendental, logarithmic, or other mixed operations
, Can be stored in a mixed data structure. Cross dizo for background mixing
Although described first from the viewpoint of the lube operation, other mixing effects can also be applied to a certain background frame.
Can be used to transition to background frames, fading and various
Including, but not limited to, screen wipes.

【0062】 図10は、例示的なアニメーション・オブジェクト30の背景トラック33お
よびオブジェクト・トラック35A、35Bが、アニメーション再生中に補間さ
れたフレームIFtを合成するために使用されるその方法を示す。
[0062] Figure 10 illustrates exemplary animation object 30 of the background track 33 and the object track 35A, 35B is the method used to synthesize the frame IF t interpolated in the animation playback.

【0063】 所与の時刻tで、補間フレームIFtは、背景トラック33およびオブジェク
ト・トラック35A、35Bにおける隣接するフレームのそれぞれの対に基づい
て生成される。隣接する背景フレームBFi、BFi+1の対は、それらの背景フレ
ームに関連付けられた背景運動情報および背景混合情報を用いてそれぞれ変形お
よび加重される。背景フレームBFiは、フレームBFiに関連付けられた前方背
景運動情報(BM)により変形され、次いでフレームBFiに関連付けられた前
方背景混合情報(BB)により加重される。その効果は、背景フレームBFi
画素を、前方運動情報(たとえば、並進、回転、スケーリング、パン、傾斜、ま
たはスキュー)に基づいてそれぞれの位置に変形し、次いで混合演算子に基づい
て画素値を加重することにより、各画素値の強度レベルを低減することである。
背景フレームBFi+1の画素も同様にフレームFBi+1に対する後方運動情報およ
び後方混合情報(BM、BB)によって変形および加重される。結果的に得られ
る変形済み画像は、次いで時刻tで背景シーンを表す補間された背景フレーム1
51Aを創出するために組み合わされる。オブジェクト・フレームOF1iおよ
びOF1i+1が同様に、前方および後方オブジェクト運動情報(OM)を用いて
それぞれ変形され、前方および後方オブジェクト混合情報(OB)を用いてそれ
ぞれ加重され、次いで組み合わされる。結果的に得られる補間されたオブジェク
ト・フレームは、次いで補間された背景および補間された動的オブジェクトを含
む補間されたフレーム151Bを作成するために、補間された背景フレーム15
1Aにオーバーレイされる。オブジェクト・フレームOF2iおよびOF2i+1
、それらのオブジェクト・フレーム(OM、OB)に関連付けられたオブジェク
ト運動情報およびオブジェクト混合情報を用いて変形、加重、組み合わされ、次
いで補間された背景にオーバーレイされる。その結果が、完了補間済みフレーム
151Cである。連続する補間済みフレームも同様に、時間変形混合演算子の異
なる値と、運動情報に基づく背景フレームおよびオブジェクト・フレームに進行
性変形を用いて創出される。アニメーション再生の正味効果は、アニメーション
・オブジェクト30を創出するために使用した元のビデオを近似するビデオ・エ
フェクトを作成することである。元のビデオから得られるサウンド・トラックも
、アニメーションと共に再生することが可能である。
At a given time t, an interpolated frame IF t is generated based on each pair of adjacent frames in the background track 33 and the object tracks 35A, 35B. Adjacent pairs of background frames BF i , BF i + 1 are respectively transformed and weighted using the background motion information and the background mixing information associated with those background frames. Background frame BF i is deformed by the forward background motion information associated with the frame BF i (BM), then weighted by the forward background mixed information associated with the frame BF i (BB). The effect is to transform the pixels of the background frame BF i to their respective positions based on forward motion information (eg, translation, rotation, scaling, pan, tilt, or skew), and then pixel values based on the blend operator Is to reduce the intensity level of each pixel value.
The pixels of the background frame BF i + 1 are similarly deformed and weighted by the backward motion information and the backward mixed information (BM, BB) for the frame FB i + 1 . The resulting deformed image is then interpolated background frame 1 representing the background scene at time t
Combined to create 51A. Object frames OF1 i and OF1 i + 1 are similarly transformed using forward and backward object motion information (OM), respectively, weighted using forward and backward object mixed information (OB), respectively, and then combined. The resulting interpolated object frame is then combined with the interpolated background frame 15 to create an interpolated frame 151B containing the interpolated background and the interpolated dynamic object.
Overlaid on 1A. Object frames OF2 i and OF2 i + 1 are also transformed, weighted, combined using the object motion information and object blending information associated with those object frames (OM, OB), and then overlaid on the interpolated background. Is done. The result is the completed interpolated frame 151C. Consecutive interpolated frames are similarly created using different values of the temporal deformation blend operator and progressive deformation on background and object frames based on motion information. The net effect of animation playback is to create a video effect that approximates the original video used to create the animation object 30. The soundtrack from the original video can also be played along with the animation.

【0064】 図11および図12は、アニメーション・オブジェクトにおけるアニメーショ
ンの多重解像度を提供する技術を示す。図11は、アニメーション・キーフレー
ムの複数の時間的解像度を提供する技術を示し、図12は、アニメーション・キ
ーフレームの複数の空間的解像度を提供する技術を示す。ある実施形態では、ア
ニメーション・オブジェクトは、両方のタイプ、すなわち空間的および時間的な
多重再生解像度を提供するように構築される。これは再生システムのユーザに空
間的または時間的、またはその両方の次元で、アニメーション・シーケンスの解
像度を増大または低減する選択肢を提供する。再生システムが十分なダウンロー
ド帯域幅および処理能力を有するならば、解像度が最高であるアニメーション再
生を提示するように時間的および空間的に最大の解像度を選択することが可能で
ある。再生システムが十分なダウンロード帯域幅、または空間的および時間的に
最大の解像度を処理する処理能力を有さないならば、再生システムは、ユーザが
選択した基準に基づいて再生されているアニメーションの空間的または時間的解
像度を、自動的に低減することが可能である。たとえば、ユーザが空間的解像度
が最大である画像(すなわちより大きくより解像度の高い画像)を見ることを望
むことを示したならば、たとえそれがより少ないキーフレームとより多くの補間
フレームを意味するとしても、単位時間あたりより少ないキーフレームを有する
キーフレーム・トラック(すなわち背景トラックまたはオブジェクト・トラック
)を選択する一方で、最大またはほぼ最大の空間的解像度キーフレームを表示す
るために選択することが可能である。したがって、ユーザがより高い時間的解像
度(すなわち単位時間あたりより多くのキーフレーム)を望むならば、たとえ空
間的解像度を低減しなければならなくても、最大またはほぼ最大の時間的解像度
キーフレーム・トラックを選択することが可能であるが、各キーフレームは、空
間的解像度が低減されて表示されることになる。
FIGS. 11 and 12 illustrate techniques for providing multiple resolutions of animation in an animation object. FIG. 11 illustrates a technique for providing multiple temporal resolutions of animation keyframes, and FIG. 12 illustrates a technique for providing multiple spatial resolutions of animation keyframes. In one embodiment, the animation object is constructed to provide both types, ie, spatial and temporal multiple playback resolution. This provides the user of the playback system with the option to increase or decrease the resolution of the animation sequence in spatial and / or temporal dimensions. If the playback system has sufficient download bandwidth and processing power, it is possible to select the maximum resolution in time and space to present the highest resolution animation playback. If the playback system does not have sufficient download bandwidth, or the processing power to handle the maximum resolution in space and time, the playback system will be able to provide the space for the animation being played based on the criteria selected by the user. Target or temporal resolution can be reduced automatically. For example, if a user indicates that they want to see the image with the highest spatial resolution (ie, a larger and higher resolution image), it means fewer key frames and more interpolated frames. Again, selecting a keyframe track with fewer keyframes per unit time (ie, a background track or object track) while selecting to display the largest or near maximum spatial resolution keyframes. It is possible. Thus, if a user desires a higher temporal resolution (ie, more keyframes per unit time), the maximum or near maximum temporal resolution keyframes, even if the spatial resolution must be reduced. It is possible to select a track, but each key frame will be displayed with reduced spatial resolution.

【0065】 アニメーションの時間的解像度を低減する使用方法として他に考察するものは
、アニメーション内で前方および後方の両方に高速にスキャンする場合である。
アニメーション再生中、ユーザはより速いレートでアニメーションを見ることを
要求して、時間的乗数(たとえば、2倍、5倍、10倍など)の合図を出すこと
ができる。ある実施形態では、高速スキャニングの要求は、アニメーションの適
切な時間的解像度を選択する再生システムの帯域幅の能力と共に、時間的乗数を
用いることにより満足される。非常に速い再生レートでは、アニメーションの空
間的解像度も低減することができる。同様に時間的乗数は、スロー・モーション
効果を達成するために、自然なレートよりも遅いレートまでアニメーションの再
生を減速するために使用することが可能である。
Another use for reducing the temporal resolution of an animation is when scanning quickly both forward and backward within an animation.
During animation playback, the user can signal a time multiplier (eg, 2x, 5x, 10x, etc.) requesting to view the animation at a faster rate. In one embodiment, the need for fast scanning is satisfied by using a temporal multiplier, with the playback system's bandwidth ability to select an appropriate temporal resolution of the animation. At very fast playback rates, the spatial resolution of the animation can also be reduced. Similarly, a temporal multiplier can be used to slow down the playback of the animation to a slower rate than the natural rate to achieve a slow motion effect.

【0066】 図11は、多重時間的レベル背景トラック161を描写する。オブジェクト・
トラックは、同様に構成することが可能である。第1レベル背景トラック35A
では、最大数の背景フレーム(それぞれ「BF」の名称)は、背景フレームの連
続する各対の間で補間するための背景運動情報および背景混合情報と共に提供さ
れている。単位時間あたりの背景フレームの数は、あるビデオ・フレーム・レー
ト(その場合には、運動および混合情報は何ら情報を示さず、単に次のフレーム
へのカット)からそのビデオ・フレーム・レートの少量のフラクションの範囲で
変動する可能性がある。第2レベル背景トラック35Bは、第1レベル背景トラ
ック35Aより少ない背景フレームを有し、第3レベル背景トラック35Cは、
第2レベル背景トラックより少ない背景フレームを有するというように、第Nレ
ベル背景トラック35Dまで続く。第2レベル背景トラック35Bの背景フレー
ムの数は、レベル1の背景トラック35Aの数の半数であると図11に示されて
いるが、他の比率を使用することができる。第2レベル背景トラック35Bで、
背景フレームの連続する各対の間で補間するための混合情報および運動情報(B
2、BB2)は、背景フレームから異なるレベル・トラックにある背景フレーム
への変形は異なるので、第1レベル背景トラック35Aに対する混合情報および
運動情報(BM1、BB1)とは異なる。同様に第3レベル背景トラック35Cは
、第2レベル背景トラック35Bより少ない背景フレームを有し、したがってフ
レーム毎に異なる運動情報および混合情報(BM3、BB3)を有する。背景トラ
ックのレベルが上がるにつれ、レベルNで最低解像度の背景トラックに達するま
で、徐々に時間的解像度が悪くなっていく。
FIG. 11 depicts a multi-temporal level background track 161. object·
Tracks can be similarly configured. First Level Background Track 35A
In, the maximum number of background frames (each named "BF") is provided with background motion information and background mixing information for interpolating between successive pairs of background frames. The number of background frames per unit of time is determined by a small amount of the video frame rate from one video frame rate (in which case, the motion and blending information shows no information, simply cuts to the next frame). May vary in the range of the fraction. The second level background track 35B has fewer background frames than the first level background track 35A, and the third level background track 35C has
Continue to the Nth level background track 35D, such as having less background frames than the second level background track. Although the number of background frames in the second level background track 35B is shown in FIG. 11 as being half of the number of level 1 background tracks 35A, other ratios can be used. In the second level background track 35B,
Mixing and motion information (B) for interpolating between successive pairs of background frames
M 2 , BB 2 ) is different from the mixed information and motion information (BM 1 , BB 1 ) for the first level background track 35A because the transformation from the background frame to the background frame on the different level track is different. Similarly, the third level background track 35C has fewer background frames than the second level background track 35B, and therefore has different motion and blending information (BM 3 , BB 3 ) for each frame. As the level of the background track increases, the temporal resolution gradually decreases until the lowest resolution background track is reached at level N.

【0067】 ある実施形態では、第1レベル35A以上の背景トラック・レベルは、実際に
は背景フレームの別々のシーケンスを含まない。その代わりに、第1レベル背景
トラック35A内の背景フレームに対するポインタが用意されている。たとえば
、第2レベル背景トラック35Bの第1背景フレーム62Bは、第1レベル背景
トラック62Aの第1背景フレーム62Aに対するポインタによって示すことが
可能であり、第2レベル背景トラック35Bの第2背景フレーム63Bは、第1
レベル背景トラック35Aの第3背景フレーム63Aに対するポインタによって
示すことが可能であるというようになっている。レベル1の背景トラック35A
の背景フレームに対するそれぞれのポインタは、データ構造において、次の背景
フレームへの変形を示す運動情報および混合情報、および先行背景フレームへの
変形を示す運動情報および混合情報と組み合わせることが可能である。さらに、
そのようなデータ構造のリンクされたリストは、背景フレームのシーケンスを示
すために使用することが可能である。背景フレームのシーケンスを示す他のデー
タ構造および技術を、本発明の精神および範囲を逸脱することなく使用すること
が可能である。
In one embodiment, the background track levels above the first level 35 A do not actually include a separate sequence of background frames. Instead, a pointer to a background frame in the first level background track 35A is provided. For example, the first background frame 62B of the second level background track 35B can be indicated by a pointer to the first background frame 62A of the first level background track 62A, and the second background frame 63B of the second level background track 35B. Is the first
It can be indicated by a pointer to the third background frame 63A of the level background track 35A. Level 1 background track 35A
Can be combined in the data structure with motion and mixing information indicating a transformation to the next background frame and motion and mixing information indicating a transformation to the preceding background frame. further,
A linked list of such data structures can be used to indicate a sequence of background frames. Other data structures and techniques for indicating the sequence of background frames can be used without departing from the spirit and scope of the present invention.

【0068】 代替実施形態では、各背景トラック・レベル35A、35B、35C、35D
は、背景フレームのセット(またはプール)から背景フレームを選択するいくつ
かの基準値によって形成される。この実施形態では、所与のレベルの背景トラッ
クを形成するために使用される基準値は、基準値の数によって決定された時間的
解像度を有するキーフレームのシーケンスを効果的に規制する。背景フレームを
選択するために使用する基準値は、背景フレームに対するポインタ、表において
背景フレームの位置を示す指数、または背景フレームを識別するために使用する
ことができる他のあらゆる値である可能性がある。
In an alternative embodiment, each background track level 35A, 35B, 35C, 35D
Is formed by some criteria that selects a background frame from a set (or pool) of background frames. In this embodiment, the reference value used to form a given level of background track effectively regulates the sequence of key frames having a temporal resolution determined by the number of reference values. The reference value used to select the background frame can be a pointer to the background frame, an index that indicates the position of the background frame in the table, or any other value that can be used to identify the background frame. is there.

【0069】 ある実施形態では、多重レベル背景トラック161におけるよりレベルの高い
背景トラックに対する混合情報および運動情報は、より低いレベルの背景トラッ
クから運動および混合情報の複数のセットを組み合わせることによって得ること
が可能である。たとえば、背景トラック・レベル2において背景フレーム62B
の間の移行に使用される背景運動情報および背景混合情報(BM2、BB2)は、
背景フレーム62Aと64の間の移行に使用される背景運動情報および背景混合
情報と、背景フレーム64と63Aの間の移行に使用される背景運動情報および
背景混合情報を組み合わせることにより、創出することが可能である。代替実施
形態では、よりレベルの高い背景トラックに対する背景運動情報および背景混合
情報は、トラックの背景フレームに基づいて、より低いレベルの背景トラックか
らの混合情報および運動情報を用いずに作成することが可能である。
In some embodiments, the blending and motion information for higher level background tracks in the multi-level background track 161 may be obtained by combining multiple sets of motion and blending information from lower level background tracks. It is possible. For example, in background track level 2, background frame 62B
Background motion information and background mixed information (BM 2 , BB 2 ) used for transition between
Creating by combining background motion information and background mixing information used for transition between background frames 62A and 64, and background motion information and background mixing information used for transition between background frames 64 and 63A. Is possible. In an alternative embodiment, the background motion information and background mixing information for the higher level background track may be created based on the background frame of the track without using the mixing information and motion information from the lower level background track. It is possible.

【0070】 図12は、多重空間的解像度背景フレームを示す。多重時間的解像度背景トラ
ックの背景トラックにおける各背景フレームは、BF1、BF2からBFNまで様
々な解像度背景フレームを含むことが可能である。背景フレームBF1は、空間
解像度が最大の背景フレームであり、ある実施形態では、元のビデオ・フレーム
と同じ数の画素を含む。背景フレームBF2は、BF1より低い空間的解像度を有
し、これは、BF2がBF1より少ない画素を有する(すなわち画像がより小さい
)か、より大きなブロック・サイズを有することを意味する。ブロック・サイズ
は、通常画素の、画像を描写するために使用される視覚情報の要素単位のサイズ
を指す。ブロック・サイズが小さくなると、画像の特徴を描写するためにより繊
細な要素単位を使用するので、より空間的解像度の高い画像となる。ブロック・
サイズが大きくなると、より空間的解像度の低い画像となるが、唯一の画素値を
画素ブロックの画素のグループに適用するので、要求する全体の情報は少なくな
る。
FIG. 12 shows a multi-spatial resolution background frame. Each background frame in the background track of the multi-temporal-resolution background track can include various resolution background frame from BF 1, BF 2 to BF N. Background frame BF 1 is the background frame with the highest spatial resolution and, in one embodiment, includes the same number of pixels as the original video frame. Background frame BF 2 has a lower spatial resolution than BF 1 , which means that BF 2 has fewer pixels (ie, smaller image) than BF 1 or has a larger block size. . Block size refers to the size of a pixel, usually an elemental unit of visual information used to describe an image. Smaller block sizes result in images with higher spatial resolution because more delicate element units are used to describe the features of the image. block·
Larger sizes result in lower spatial resolution images, but require less overall information because only one pixel value is applied to the group of pixels in the pixel block.

【0071】 図13は、再生システム18A、18B、18Cに配信されたアニメーション
・データ・ストリームの内容を制御するサーバ・システム16の使用方法を示す
。ある実施形態によれば、サーバ・システム16は、コンピュータ可読格納装置
170に格納されている様々なアニメーション・オブジェクト14A、14B、
14Cをダウンロードする要求を受信する。アニメーション・オブジェクトを受
信する前に、サーバ・システム16は、システムの能力を決定するために、まず
再生システム18A、18B、18Cを照会する。たとえば、アニメーション・
オブジェクト30Cをダウンロードする再生システム18Aの要求に応答して、
サーバ・システム16は、適切なアニメーション・データ・ストリームを生成す
るためにサーバ・システム16が使用することができる再生システムの特徴を1
セット提供するように再生システム18Aに要求する。図13に示すように、所
与の再生システム18A、18B、18Cに関連付けられた再生システムの特徴
のセットは、再生システムのダウンロードの帯域幅またはそのネットワークのア
クセス媒体、再生システムの処理能力(たとえばプロセッサの数、プロセッサの
スピードなど)、再生システムの図形表示能力、再生システムによって使用され
るソフトウェア・アプリケーション(たとえばウェブ・ブラウザのタイプ)、ソ
フトウェア・アプリケーションを実行するオペレーティング・システム、および
ユーザの好みのセットを含むことができるが、これに限定されるものではない。
ユーザの好みには、空間的解像度を好み時間的解像度を犠牲にするという好みや
その逆の場合が含まれる。またユーザの好みは、アニメーションのダウンロード
およびディスプレイ中に、再生システムのユーザが動的に調整することが可能で
ある。
FIG. 13 shows how to use the server system 16 for controlling the contents of the animation data stream distributed to the playback systems 18A, 18B, 18C. According to one embodiment, server system 16 includes various animation objects 14A, 14B,
Receive a request to download 14C. Before receiving the animation object, the server system 16 first queries the playback systems 18A, 18B, 18C to determine the capabilities of the system. For example, animation
In response to a request from playback system 18A to download object 30C,
The server system 16 features one of the playback system features that the server system 16 can use to generate the appropriate animation data stream.
It requests the playback system 18A to provide the set. As shown in FIG. 13, the set of playback system features associated with a given playback system 18A, 18B, 18C includes the playback system download bandwidth or its network access medium, playback system processing power (eg, The number of processors, the speed of the processor, etc.), the graphics display capabilities of the playback system, the software application used by the playback system (e.g., the type of web browser), the operating system running the software application, and the preferences of the user. A set may be included, but is not limited thereto.
User preferences include preferences of favoring spatial resolution and sacrificing temporal resolution, and vice versa. Also, user preferences can be dynamically adjusted by the user of the playback system during the downloading and display of the animation.

【0072】 ある実施形態では、アニメーション・オブジェクト14A、14B、14Cは
、多重時間的解像度および多重空間的解像度フォーマットで格納され、サーバ・
システム16は、目標再生システムによって提供される特徴に最適な時間的およ
び空間的解像度を有するアニメーション・オブジェクト(たとえば、アニメーシ
ョン・オブジェクト30C)から、背景トラックおよびオブジェクト・トラック
を選択する。したがって、グラフ172に示すように、サーバ・システム16は
、再生システム18A、18B、18Cにダウンロードするために、同じアニメ
ーション・オブジェクト30Cの異なる時間的/空間的解像度のバージョン17
4A、174B、174Cを、それぞれの特徴に基づいて選択することが可能で
ある。さらにサーバ・システムは、所与の再生システム18A、18B、18C
に提供されたアニメーションの時間的/空間的解像度を、再生システムの特徴の
変化に基づいて動的に調整することが可能である。
In one embodiment, the animation objects 14A, 14B, 14C are stored in multiple temporal and multiple spatial resolution formats, and
System 16 selects a background track and an object track from an animation object (e.g., animation object 30C) having a temporal and spatial resolution that is optimal for the features provided by the target playback system. Thus, as shown in the graph 172, the server system 16 provides different temporal / spatial resolution versions 17 of the same animation object 30C for downloading to the playback systems 18A, 18B, 18C.
4A, 174B, 174C can be selected based on their characteristics. Further, the server system may be provided with a given playback system 18A, 18B, 18C.
Can be dynamically adjusted based on changes in the characteristics of the playback system.

【0073】 図13は、通信ネットワークを経由してアニメーション・データ・ストリーム
の内容を制御するサーバ・システムの使用方法を示すが、複数の時間的および空
間的解像度アニメーション・トラックの間で動的に選択するために、同様の技術
を再生システム内で適用することが可能である。たとえば、再生システム内の選
択論理は、再生システムの特徴に適した時間的/空間的解像度を有する再生シス
テム内の論理を表示するために、アニメーション・データ・ストリームを提供す
ることが可能である。たとえばDVDプレーヤは、アニメーション再生の時間的
または空間的解像度を、1つまたは複数の他のビデオまたはアニメーションも(
たとえば表示の他の領域に)表示されているかどうかに基づいて低減するように
設計することが可能である。
FIG. 13 illustrates the use of a server system to control the content of an animation data stream via a communication network, but dynamically between multiple temporal and spatial resolution animation tracks. Similar techniques can be applied within the playback system to make the selection. For example, the selection logic in the playback system can provide an animation data stream to display the logic in the playback system having a temporal / spatial resolution appropriate for the features of the playback system. For example, a DVD player may adjust the temporal or spatial resolution of animation playback to one or more other videos or animations (
It can be designed to reduce based on whether or not it is being displayed (e.g. in other areas of the display).

【0074】 上記のように、ユーザが、再生中にアニメーションを見ることとビデオ源を切
り替えることができるように、アニメーションのキーフレームとビデオ源のビデ
オ・フレームを関連付けることは、本発明の実施形態の意図する利点である。キ
ーフレームとビデオ・フレームのこの関連は、「クロスリンク」と呼ばれ、アニ
メーションまたはビデオのある表示が他の表示に対し利点を提供する場合には、
特に有用である。たとえば、下記で説明するアニメーション再生システムのある
実施形態では、ビデオ・フレームのシーケンスがアニメーションの部分を形成す
る静止画像にリンクされているとき、ビデオの再生中にユーザは通知を受け取る
。下記で説明するように、静止画像は、より高いまたはより変形可能な解像度、
より広い視野(たとえばパノラマ画像)、より高い動的範囲、またはビデオ・フ
レームと異なる縦横比を有することが可能である。また静止画像は、ステレオ三
次元(3D)ビューを可能とするステレオ・パララックス情報または他の深度情
報を含むことも可能である。静止画像が利用可能であることを通知されるとき、
ユーザは、アニメーションに付帯する利点(たとえばより高い解像度の画像)を
達成するために、使用中にビデオ表示からアニメーション表示に切り替える入力
を提供することが可能である。代替として、ユーザは、アニメーションのパノラ
マ画像内で操縦するためにビデオ表示を停止したり、アニメーションの静止画像
上でズーム・インまたはズーム・アウトすることが可能である。他の実施形態で
はユーザは、ピクチャ・モードにあるピクチャで、アニメーションおよびビデオ
を再生したり、アニメーションの表示からクロスリンク・ビデオに切り替えるこ
とが可能である。
As described above, associating key frames of an animation with video frames of a video source so that a user can watch the animation and switch video sources during playback is an embodiment of the present invention. Is the intended advantage. This association of keyframes and video frames is called "crosslinking" and if one display of animation or video offers advantages over another,
Particularly useful. For example, in one embodiment of the animation playback system described below, a user receives a notification during the playback of a video when a sequence of video frames is linked to a still image that forms part of the animation. As explained below, a still image has a higher or more deformable resolution,
It is possible to have a wider field of view (eg, a panoramic image), a higher dynamic range, or a different aspect ratio than the video frame. Still images can also include stereo parallax information or other depth information that allows for a stereo three-dimensional (3D) view. When notified that a still image is available,
The user can provide an input to switch from a video display to an animated display during use to achieve the benefits associated with the animation (eg, higher resolution images). Alternatively, the user can stop the video display to steer within the panoramic image of the animation, or zoom in or out on the still image of the animation. In other embodiments, a user can play animations and videos on a picture in picture mode, or switch from displaying animations to cross-link video.

【0075】 ある実施形態ではクロスリンクは、ビデオから静止画像を生成し、次いで静止
画像とビデオのフレームの間でクロスリンクを創出することを含む。代替の実施
形態では、静止画像がクロスリンクされているビデオ以外のビデオを用いて静止
画像を生成することが可能である。ビデオから静止画像を創出する技術について
は、下記で説明する。本発明の精神および範囲から逸脱することなく、静止画像
を創出するために他の同様な技術を使用することも可能であることを理解された
い。
In one embodiment, cross-linking involves generating a still image from the video and then creating a cross-link between the still image and the frames of the video. In an alternative embodiment, the still image can be generated using a video other than the video to which the still image is cross-linked. Techniques for creating still images from video are described below. It should be understood that other similar techniques could be used to create a still image without departing from the spirit and scope of the present invention.

【0076】 ビデオ源のフレームよりも高い空間的解像度を有する静止画像は、複数のビデ
オ・フレームをある時間にわたって統合することにより達成することができる。
時間的に互いに近接するビデオ・フレームの画像は、通常、カメラのパニング、
ズーム、またはその他の運動の結果として少量の位置のシフト(たとえばサブ画
素の運動)を提示する。シフトにより、より高い解像度の画像を創出するために
複数のビデオ・フレームを空間的に登録することが可能となる。次いで空間的に
登録されたビデオ・フレームの隣接する画素の間で補間することにより、高解像
度静止画像を創出することができる。
Still images having a higher spatial resolution than the frames of the video source can be achieved by integrating multiple video frames over time.
Images of video frames that are close together in time are typically panned by a camera,
It presents a small amount of position shift (eg, sub-pixel movement) as a result of zooming or other movement. The shift allows multiple video frames to be spatially registered to create higher resolution images. High resolution still images can then be created by interpolating between adjacent pixels of the spatially registered video frame.

【0077】 代替として、静止画像は、静止画像がリンクされているビデオより高い解像度
を示す第2ビデオ源から引き出すことができる。たとえばモーション・ピクチャ
は、通常、一般にビデオ・テープ用に使用されるNTSCビデオ・フォーマット
より何倍も高い解像度を有するフィルムに記録される。
[0077] Alternatively, the still image can be derived from a second video source that exhibits a higher resolution than the video to which the still image is linked. For example, motion pictures are typically recorded on film having a resolution many times higher than the NTSC video format commonly used for video tape.

【0078】 静止画像は、静止画像がクロスリンクされているビデオ・フレームより広い動
的範囲を有することもできる。動的範囲は、画像において画素の色の各構成要素
に対する認識可能な強度レベルの範囲に関係する。カメラの露光設定は、変動す
る照明条件(たとえば自動アイリス)に適合するためにフレーム毎に変化させる
ことが可能なので、ビデオ・フレームのシーケンスは、個々のビデオ・フレーム
に対し増大した動的範囲を有する静止画象に統合することができる色のわずかな
変化を提示することができる。また静止画像は、広い動的範囲を有するビデオ源
(たとえばフィルム)から創出し、次いでより狭い動的範囲を有するビデオにク
ロスリンクすることが可能である。
A still image can also have a wider dynamic range than the video frames to which the still image is cross-linked. The dynamic range relates to the range of recognizable intensity levels for each pixel color component in the image. Since the exposure settings of the camera can be changed from frame to frame to accommodate changing lighting conditions (eg, automatic iris), the sequence of video frames will increase the dynamic range for each video frame. A slight change in color can be presented that can be integrated into the still image having. Still images can also be created from video sources with a large dynamic range (eg, film) and then cross-linked to videos with a smaller dynamic range.

【0079】 静止画像は、静止画像がクロスリンクされているビデオ・フレームと異なる縦
横比を有することも可能である。縦横比は、画像の幅と高さの比を指す。たとえ
ば、静止画像は、フィルムなどの比較的広い縦横比を有するビデオ源から創出し
、次いでNTSCビデオなどのより狭い縦横比を有する異なるビデオ源にクロス
リンクすることが可能である。フィルムの典型的な縦横比は2.2×1である。
対称的にNTSCビデオは、4×3の縦横比を有する。
A still image can also have a different aspect ratio than the video frame to which the still image is cross-linked. The aspect ratio indicates the ratio of the width to the height of an image. For example, a still image can be created from a video source with a relatively wide aspect ratio, such as film, and then cross-linked to a different video source with a narrower aspect ratio, such as NTSC video. The typical aspect ratio of the film is 2.2 × 1.
In contrast, NTSC video has a 4 × 3 aspect ratio.

【0080】 カメラをパンすることに起因するビデオ・フレームは、パノラマを創出するた
めに登録し、複合することができる。カメラをズームすることに起因するビデオ
・フレームは、異なる領域(すなわち、多重解像度の画像)で異なる解像度を有
する大きな静止画像を創出するために登録し、複合することができる。カメラの
ズームが生じた場合の多重解像度の領域は、多重解像度の画像の他の領域よりも
高い解像度を含むことになる。パノラマおよび多重解像度の静止画像は、本明細
書では操縦可能画像と呼ばれる画像のクラスである。一般に、操縦可能画像は、
異なるビューを提供するためにパンまたはズームすることができるあらゆる画像
、または使用することができる三次元の画像を含むあらゆる画像である。パノラ
マ画像および多重解像度静止画像は、複合画像によって表示することが可能であ
るが、パノラマ画像または多重解像度静止画像は、空間的に登録される離散静止
画像によって表示することもできる。
The video frames resulting from panning the camera can be registered and composited to create a panorama. Video frames resulting from zooming the camera can be registered and composited to create large still images with different resolutions in different regions (ie, multi-resolution images). The multi-resolution area when camera zoom occurs will include higher resolution than other areas of the multi-resolution image. Panoramic and multi-resolution still images are a class of images referred to herein as steerable images. Generally, steerable images are:
Any image that can be panned or zoomed to provide a different view, or any image that can be used, including a three-dimensional image. While the panoramic image and the multi-resolution still image can be displayed by a composite image, the panoramic image or the multi-resolution still image can also be displayed by a spatially registered discrete still image.

【0081】 ステレオ画像対は、水平方向のカメラの追跡運動を示すビデオ・フレームのシ
ーケンスから得ることができる。別々の視点(たとえば瞳孔間距離によって離さ
れている視点)から記録された2つのビデオ・フレームは、ビデオ・シーケンス
からステレオ画像対として選択することが可能である。ステレオ画像は、ステレ
オ3Dディスプレイ、ステレオ眼鏡などのいくつかの異なるステレオ視覚装置を
用いて表示することができる。
A stereo image pair can be obtained from a sequence of video frames showing the tracking motion of the camera in the horizontal direction. Two video frames recorded from different viewpoints (eg, viewpoints separated by interpupillary distance) can be selected as a stereo image pair from the video sequence. Stereo images can be displayed using a number of different stereo visual devices, such as stereo 3D displays, stereo glasses, and the like.

【0082】 さらにステレオ画像は、たとえば、画像修正または特徴整合技術を用いて、所
与のステレオ画像対において対応する画素または画像の特徴を識別するために、
分析することができる。次いで対応する画素または画像の特徴を、画素の深度を
確立し、したがって3Dレンジ画像を創出するために使用することができる。3
Dモデルを構築すること、画像から新規なビューまたはシーンを創出すること、
および新規なビューを創出するために画像間で補間することを含むいくつかの応
用でレンジ画像を使用することができる。
Further, the stereo images may be used to identify corresponding pixels or image features in a given stereo image pair, for example, using image modification or feature matching techniques.
Can be analyzed. The corresponding pixel or image features can then be used to establish the pixel depth and thus create a 3D range image. 3
Building D-models, creating new views or scenes from images,
Range images can be used in several applications, including interpolating between images to create new views.

【0083】 図14Aは、ビデオ源10とアニメーション制作システム12によってビデオ
源10から創出されたアニメーション14の間のクロスリンクを確立するクロス
リンク生成器203の使用方法を示す。ビデオ源は、ビデオ符号器201(たと
えばベクトル量子化器)によって、クロスリンク生成器203で受信される前に
圧縮することが可能である。ある実施形態によれば、クロスリンク生成器203
は、ビデオ源のフレームが対応しているアニメーションにおいてキーフレームに
対するそれぞれのポインタを含むクロスリンク・データ構造を生成する。
FIG. 14A illustrates the use of the crosslink generator 203 to establish a crosslink between the video source 10 and the animation 14 created by the animation production system 12 from the video source 10. The video source may be compressed by a video encoder 201 (eg, a vector quantizer) before being received at crosslink generator 203. According to one embodiment, the crosslink generator 203
Generates a crosslink data structure that includes respective pointers to keyframes in the animation to which the frames of the video source correspond.

【0084】 図14Bは、ビデオ源10と別のビデオ源204から創出されたアニメーショ
ン205の間でクロスリンクを確立するクロスリンク生成器203の使用方法を
示す。別のビデオ源204は、ビデオ源10を作成するために使用された可能性
があるか、または2つのビデオ源10、204は関係付けられていない可能性が
ある。2つのビデオ源10、204が関係付けられていなければ、アニメーショ
ン205のどちらの画像がビデオ源10のフレームとクロスリンクされることに
なるかを識別するために、演算子の補助が要求される可能性がある。2つのビデ
オ源10、204が関係づけられていれば(たとえば一方がフィルムで、他方が
NTSCフォーマットのビデオ)、時間的相関またはシーンの相関は、アニメー
ション205の画像とビデオ源10のフレームを自動的にクロスリンクするクロ
スリンク生成器によって使用することが可能である。
FIG. 14B illustrates the use of a crosslink generator 203 to establish a crosslink between a video source 10 and an animation 205 created from another video source 204. Another video source 204 may have been used to create video source 10, or the two video sources 10, 204 may not be related. If the two video sources 10, 204 are not related, operator assistance is required to identify which image of the animation 205 will be cross-linked with the frames of the video source 10. there is a possibility. If two video sources 10, 204 are associated (eg, one is film and the other is NTSC format video), the temporal correlation or scene correlation automatically converts the image of the animation 205 and the frames of the video source 10. It can be used by a cross-link generator that cross-links dynamically.

【0085】 図15は、ある実施形態によるクロスリンク・データ構造212を示す。クロ
スリンク・データ構造212の各データ要素は、ビデオ・フレーム要素(VFE
)と呼ばれ、ビデオ源のそれぞれのフレームに対応する。したがって、要素VF
1、VFE2、VFE3、VFEi、およびVFEi+1は、ビデオ源のフレームV
1、VF2、VF3、VFi、およびVFi+1(図示せず)に対応する。示したよ
うに、クロスリンク・データ構造212は、各ビデオ・フレーム要素が次のビデ
オ・フレームに対するポインタと、さらにアニメーションの背景フレーム215
、216に対するポインタを含むリンクされたリストとして実現される。代替実
施形態では、クロスリンク・データ構造212は、リンクされたリストとしてよ
りはむしろビデオ・フレーム要素のアレイとして実現することも可能である。さ
らに他の実施形態では、クロスリンク・データ構造212は、リンクされたリス
トの代わりにツリー・データ構造として実現することが可能である。ツリー・デ
ータ構造は、隣接しないビデオ・セグメントの間で関連を確立し、特定のビデオ
・フレームを見つける調査をするために有用である。一般に、クロスリンク・デ
ータ構造は、本発明の精神および範囲から逸脱することなく、あらゆるタイプの
データ構造によって表示することが可能である。
FIG. 15 illustrates a crosslink data structure 212 according to one embodiment. Each data element of the crosslink data structure 212 is a video frame element (VFE).
) And corresponds to each frame of the video source. Therefore, the element VF
E 1 , VFE 2 , VFE 3 , VFE i , and VFE i + 1 are the frames V
F 1, VF 2, VF 3 , VF i, and corresponds to the VF i + 1 (not shown). As shown, the crosslink data structure 212 shows that each video frame element contains a pointer to the next video frame, and a background frame 215 for the animation.
, 216, implemented as a linked list that contains pointers to them. In an alternative embodiment, the cross-link data structure 212 may be implemented as an array of video frame elements rather than as a linked list. In yet other embodiments, the cross-link data structure 212 can be implemented as a tree data structure instead of a linked list. The tree data structure is useful for establishing associations between non-adjacent video segments and conducting searches to find specific video frames. In general, a cross-link data structure may be represented by any type of data structure without departing from the spirit and scope of the present invention.

【0086】 ある実施形態では、アニメーションの背景フレームは、それぞれが次の背景フ
レーム・データ構造に対するポインタ(NEXT PTR)と、先行背景フレー
ム・データ構造に対するポインタ(PREV PTR)と、画像ポインタ(IM
AGE PTR)と、補間情報に対するポインタ(INTERP PTR)と、
タイムスタンプと、クロスリンク・データ構造212における1つまたは複数の
要素に対するポインタ(VF PTR)とを含む背景フレーム・データ構造21
5、216によって表示される。NEXT PTR、PREV PTR、IMA
GE PTR、およびINTERP PTRは、図8に関連して上記で説明して
いる。
In one embodiment, the background frames of the animation are each a pointer to the next background frame data structure (NEXT PTR), a pointer to the previous background frame data structure (PREV PTR), and an image pointer (IM
AGE PTR), a pointer to the interpolation information (INTERPTR),
Background frame data structure 21 including a timestamp and a pointer (VF PTR) to one or more elements in crosslink data structure 212
5, 216. NEXT PTR, PREV PTR, IMA
The GE PTR and the INTERP PTR are described above in connection with FIG.

【0087】 特定の背景フレーム・データ構造215、216のVF PTR、およびクロ
スリンク・データ構造212の対応する要素の背景フレーム・データ構造に対す
るポインタは、クロスリンク217を形成する。すなわち、背景フレーム・デー
タ構造およびビデオ・フレーム要素は、それぞれ互いに関連を含む。その関連は
、均一資源位置入力装置、メモリ・アドレス、アレー指標、または背景フレーム
・データ構造およびビデオ・フレーム要素を関連付けるあらゆる他の値である可
能性がある。
The pointer to the VF PTR of a particular background frame data structure 215, 216 and the background frame data structure of the corresponding element of the crosslink data structure 212 forms a crosslink 217. That is, the background frame data structure and the video frame element each include an association with each other. The association can be a uniform resource location input device, a memory address, an array index, or any other value that associates a background frame data structure and video frame elements.

【0088】 背景フレーム・データ構造215を参照すると、VF PTRはクロスリンク
・データ構造212において1つのビデオ・フレーム要素(VFE1)のみを指
すように図15に示しているが、VF PTRは、各ビデオ・フレーム要素に対
し、再びそれを指す別々のポインタを含むことが可能である。たとえば、VF
PTRは、各ビデオ・フレーム要素VFE1、VFE2、VFE3に対し、別々の
ポインタを含むデータ構造であることが可能である。代替として、VF PTR
は、ビデオ・フレーム要素(たとえばVFE1)および背景フレーム・データ構
造215がリンクされているビデオ・フレーム要素の合計の数を示す値に対する
ポインタを含むデータ構造であることが可能である。背景フレーム・データ構造
とビデオ・フレーム要素のシーケンスをクロスリンクする他のデータの構築は、
代替実施形態で使用することが可能である。
Referring to the background frame data structure 215, the VF PTR is shown in FIG. 15 to point to only one video frame element (VFE 1 ) in the crosslink data structure 212, but the VF PTR is For each video frame element, it is possible to again include a separate pointer to it. For example, VF
PTR, for each video frame elements VFE 1, VFE 2, VFE 3 , can be a data structure including separate pointers. Alternatively, VF PTR
May be a data structure that includes a pointer to a value indicating the total number of video frame elements to which the video frame element (eg, VFE 1 ) and the background frame data structure 215 are linked. The construction of other data that crosslinks the background frame data structure and the sequence of video frame elements
It can be used in alternative embodiments.

【0089】 ある実施形態では、各背景フレーム・データ構造215、216の画像ポイン
タ(IMAGE PTR)は、背景フレームに対する画像データを獲得する背景
画像が、たとえば非複合静止画像(すなわちたとえあるとしても動的オブジェク
トが取り除かれているビデオ・フレーム)、高解像度静止画像、パノラマまたは
他の複合画像なのかを示す画像タイプのメンバを含む。また画像ポインタは、メ
モリにおける背景画像の位置、および背景フレームに対する画像データが位置し
ている背景画像内のずれを示すメンバを含む。
In one embodiment, the image pointer (IMAGE PTR) of each background frame data structure 215, 216 indicates that the background image acquiring image data for the background frame is, for example, a non-composite still image (ie, a moving image if any). (A video frame with the target object removed), a high resolution still image, a panorama or other composite image. The image pointer includes a member indicating a position of the background image in the memory and a shift in the background image where the image data is located with respect to the background frame.

【0090】 テキスト・ディスクリプタ(TEXT DESCR)を、背景フレーム・デー
タ構造215、216の部分として含むことも可能である。ある実施形態では、
テキスト・ディスクリプタは、背景フレームによってスパンされるアニメーショ
ンの部分を記述するテキスト記述(たとえば文字列)に対するポインタである。
テキスト記述は、アニメーション上またはディスプレイの他の場所(たとえばコ
ントロール・バー)にオーバーレイとして表示することが可能である。クロスリ
ンクしている間、適切なデフォルト値が、識別された運動のタイプに基づいて各
テキスト記述に割り当てられる。図16を参照すると、たとえば、3つの描写さ
れているアニメーション・セグメント221、223、225のそれぞれに対す
るデフォルト・テキスト記述は、それぞれ「カメラ静止」、「カメラ・パン」、
「カメラ・ズーム」である。これらのデフォルト値は、クロスリンク中、または
後のビデオまたはアニメーションの再生中、ユーザが編集することができる。代
替実施形態では、背景フレーム・データ構造215、216におけるテキスト・
ディスクリプタ(TEXT DESCR)はポインタではないが、テキスト記述
の表からテキスト記述を選択するために使用することができる指標である。
A text descriptor (TEXT DESCR) can also be included as part of the background frame data structure 215, 216. In some embodiments,
A text descriptor is a pointer to a text description (eg, a string) that describes the part of the animation spanned by the background frame.
The text description can be displayed as an overlay on the animation or elsewhere on the display (eg, a control bar). While cross-linking, appropriate default values are assigned to each text description based on the type of exercise identified. Referring to FIG. 16, for example, the default text descriptions for each of the three depicted animation segments 221, 223, 225 are "Camera Still", "Camera Pan",
"Camera zoom". These default values can be edited by the user during cross-linking or during later playback of a video or animation. In an alternative embodiment, text in the background frame data structures 215, 216
The descriptor (TEXT DESCR) is not a pointer, but is an index that can be used to select a text description from a table of text descriptions.

【0091】 上記のクロスリンク構成を用いてビデオ・フレームが表示されているとき、ク
ロスリンク・データ構造212の対応するビデオ・フレーム要素は、アニメーシ
ョンのクロスリンク背景フレーム・データ構造215、216を識別するために
参照することが可能である。次いで背景フレーム・データ構造215、216に
おける画像ポインタは、背景フレームが複合または非複合画像から引き出されて
いるかを決定するために参照することが可能である。複合画像の場合、ユーザは
、ビデオの再生中に複合画像が利用可能であることを(たとえば視覚または音声
の支持メッセージによって)通知されることが可能である。次いでユーザは、ア
ニメーションを再生するか、または背景画像内で見て操縦することを選択する。
たとえば、パノラマの場合、ユーザはパノラマ視覚ツール(すなわち、ユーザが
選択した複合画像の部分を表示するために汎用コンピュータで実行することがで
きるソフトウェア・プログラム)を用いて、パノラマを見ることが可能である。
同様に、高解像度静止画像の場合は、ユーザは、ビデオ源では利用不可能または
認識が困難であった詳細について認識するために、静止フレームとして画像を見
ることを望むことができる。ズーム可能静止画像の場合は、ユーザは静止フレー
ム上でズーム・インおよびズーム・アウトすることを望むことができる。アニメ
ーション内で指定されたホット・スポットを選択すること、アニメーション内で
動的オブジェクトを分離すること、オブジェクト運動または背景運動を指図する
ことなど、アニメーションで可能な他の活動も実施することができる。
When a video frame is being displayed using the above crosslink configuration, the corresponding video frame element of the crosslink data structure 212 identifies the crosslink background frame data structure 215, 216 of the animation. It is possible to refer to. The image pointer in the background frame data structures 215, 216 can then be consulted to determine if the background frame has been derived from a composite or non-composite image. In the case of a composite image, the user may be notified (eg, by a visual or audio support message) that the composite image is available during the playback of the video. The user then chooses to play the animation or look and maneuver in the background image.
For example, in the case of a panorama, the user can view the panorama using a panoramic viewing tool (ie, a software program that can be executed on a general purpose computer to display the portion of the composite image selected by the user). is there.
Similarly, for high resolution still images, the user may want to view the image as a still frame to recognize details that were unavailable or difficult to recognize with the video source. For a zoomable still image, the user may want to zoom in and out on a still frame. Other activities possible with the animation can also be performed, such as selecting a designated hot spot in the animation, isolating dynamic objects in the animation, directing object or background motion.

【0092】 図16は、ビデオ源におけるビデオ・フレーム230のシーケンスと、上記の
アニメーション制作技術を用いて創出したアニメーションからの背景画像231
の間のクロスリンク関係の図である。図からわかるように、ビデオ・フレームの
シーケンスは、クロスリンク217を経由してそれぞれ背景画像221、223
、225、227に関連付けられている4つのビデオ・セグメント222、22
4、226、228を含む。ビデオ・セグメント222は、静止シーン(すなわ
ちある運動閾値内で静止している)を示し、対応する静止背景画像221にクロ
スリンクされている。ビデオ・セグメント224は、カメラのパンによって生じ
たシーンを示し、ビデオ・セグメント224から2つまたはそれ以上のフレーム
を処理またはステッチすることにより創出した対応するパノラマ223にクロス
リンクされている。ビデオ・セグメント226は、カメラのズームによって生じ
たシーンを示し、高解像度でズーム可能な静止画像225にクロスリンクされて
いる。ビデオ・セグメント228は、カメラを1つまたは複数の3Dオブジェク
トのまわりで動かすことにより生じたシーンを示し、3Dオブジェクト画像にク
ロスリンクされている。上記のように、高解像度静止画像および3Dオブジェク
ト画像は、ビデオ・セグメント(たとえば、ビデオ・セグメント222、224
、226、228)からフレームを処理および複合することにより創出される。
FIG. 16 shows a sequence of video frames 230 in a video source and a background image 231 from an animation created using the animation production techniques described above.
It is a figure of the cross link relationship between. As can be seen, the sequence of video frames is transmitted via the cross link 217 to the background images 221 and 223, respectively.
, 225, 227 associated with four video segments 222, 22
4, 226, 228. Video segment 222 shows a still scene (ie, is still within a certain motion threshold) and is cross-linked to a corresponding still background image 221. Video segment 224 shows a scene caused by camera panning and is cross-linked to a corresponding panorama 223 created by processing or stitching two or more frames from video segment 224. Video segment 226 shows the scene created by the camera zoom and is cross-linked to a high resolution, zoomable still image 225. Video segment 228 shows a scene created by moving the camera around one or more 3D objects, and is cross-linked to the 3D object image. As described above, the high resolution still image and the 3D object image are converted to video segments (eg, video segments 222, 224).
, 226, 228) by processing and combining the frames.

【0093】 図17は、再生システムによって生成されたディスプレイ241を示す。ある
実施形態によれば、再生システムは、ビデオまたはアニメーションをディスプレ
イ241とすることができる。図17に示すように、再生システムはディスプレ
イ241上でビデオを作成している。ディスプレイ241の下部では、巻き戻し
ボタン、再生ボタン、ポーズ・ボタン、および停止ボタンを含むコントロール・
バー242が提示されている。ある実施形態によれば、各ビデオ・フレームが作
成されると、対応するビデオ・フレーム要素とアニメーションの背景フレームの
間のクロスリンクは、背景フレームが高解像度静止画像、パノラマ画像またはズ
ーム可能画像から引き出されているかどうかを決定することになる。たとえば、
背景フレームがパノラマ画像から引き出されていれば、図17でPANを示すア
イコンがディスプレイ、強調、または他の方法で活動中であることが示されてい
る。可聴トーンも、パノラマ画像が利用可能であることを示すために生成するこ
とが可能である。パノラマ画像が利用可能であるという指示に応答して、ユーザ
は、ビデオの表示を停止させるため、またはパノラマ画像を表示させるために、
(たとえばマウスまたは他の手持ち式制御装置を使用して)PANアイコンをク
リックまたは別の方法で選択することが可能である。パノラマ画像が表示されて
いるとき、パノラマ画像を操縦するプログラム・コードは、既に備わっているの
でなければ、再生システムのオペレーティング・メモリに自動的に装備され、ユ
ーザがパノラマの透視図をパン、傾斜、およびズームすることが可能であるよう
に実行される。PANアイコンの場合のように、静止またはズーム・アイコンS
TILL、ZOOMが活動状態になると、ユーザは、高解像度静止画像またはズ
ーム可能画像を見るために、適切なSTILLまたはZOOMアイコンをクリッ
クすることができる。
FIG. 17 shows a display 241 generated by the playback system. According to some embodiments, the playback system may display video or animation on the display 241. As shown in FIG. 17, the playback system is creating a video on the display 241. At the bottom of the display 241, controls including a rewind button, a play button, a pause button, and a stop button
A bar 242 is presented. According to one embodiment, as each video frame is created, the crosslink between the corresponding video frame element and the animated background frame is such that the background frame is from a high resolution still image, panoramic image or zoomable image. You will determine if it has been withdrawn. For example,
If the background frame is derived from the panoramic image, the icon indicating PAN is shown in FIG. 17 as being displayed, highlighted, or otherwise active. An audible tone can also be generated to indicate that a panoramic image is available. In response to the indication that a panoramic image is available, the user can either stop displaying the video, or display the panoramic image,
The PAN icon can be clicked or otherwise selected (e.g., using a mouse or other hand-held control). When a panoramic image is being displayed, the program code for manipulating the panoramic image, if not already provided, is automatically installed in the operating system's operating memory, allowing the user to pan and tilt the panoramic perspective view. And it is possible to zoom. Static or zoom icon S, as in the case of the PAN icon
When TILL, ZOOM is active, the user can click on the appropriate STILL or ZOOM icon to view the high resolution still image or zoomable image.

【0094】 ビデオは、1つまたは複数の三次元オブジェクト、またはビデオに関係付けら
れたシーンにリンクすることができる。ビデオの再生中に三次元オブジェクトへ
のリンクが呼び出されると、上記に類似の方式で、三次元オブジェクトの特定の
ビューが表示される。オブジェクトの異なる透視図を生成するために、ユーザが
三次元座標系で仮想カメラの方向と位置を変化させることを可能とするためにプ
ログラム・コードが実行される。
A video can be linked to one or more three-dimensional objects, or scenes associated with the video. When a link to a three-dimensional object is invoked during video playback, a particular view of the three-dimensional object is displayed in a manner similar to that described above. To generate different perspectives of the object, program code is executed to allow a user to change the direction and position of the virtual camera in a three-dimensional coordinate system.

【0095】 ある実施形態では、コントロール・バー242は、ビデオの表示とビデオにク
ロスリンクされているアニメーションの表示の間で切り替えるために使用するこ
とができるアイコンANIM/VIDEOも含む。ユーザがANIM/VIDE
Oボタンをクリックすると、その時表示されているビデオ・フレームに対応する
ビデオ・フレーム要素は、アニメーションにおけるクロスリンクフレームを識別
するために検査される。アニメーションにおけるクロスリンクフレームのタイム
・スタンプは、アニメーションの背景トラックおよびオブジェクト・トラック内
で相対開始時間を決定するために使用され、それに応じて再生システムはアニメ
ーションを作成する。アニメーションの再生中に、ユーザが再びANIM/VI
DEOアイコンをクリックすれば、その時の背景トラック・データ構造は、ビデ
オにおけるクロスリンク・フレームを識別するために検査される。次いでクロス
リンクフレームでビデオの再生が再開される。
In one embodiment, control bar 242 also includes an icon ANIM / VIDEO that can be used to switch between displaying a video and displaying an animation cross-linked to the video. The user is ANIM / VIDE
When the O button is clicked, the video frame element corresponding to the currently displayed video frame is examined to identify cross-link frames in the animation. The time stamp of the crosslink frame in the animation is used to determine the relative start time in the background and object tracks of the animation, and the playback system creates the animation accordingly. During the playback of the animation, the user re-enters ANIM / VI
Clicking on the DEO icon causes the current background track data structure to be examined to identify cross-link frames in the video. Then, the reproduction of the video is restarted at the cross link frame.

【0096】 図18は、再生システムにおいてアニメーションの再生によって生成された代
替ディスプレイ261を描写する。ある実施形態では、ディスプレイ261内の
コントロール・バー262は、巻き戻し、再生、ポーズ、停止、およびアニメー
ションの再生のアイコン(すなわち、アイコンREWIND、PLAY、PAU
SE、STOP)を含む。コントロール・バー262は、再生システムのユーザ
が、アニメーションの再生で時間的および空間的解像度に対する相対的な好みを
示すことを可能とするスライド・バー264の形態の解像度セレクタも含む。カ
ーソル制御装置を有するスライド265を選択し、スライド・バー264内でス
ライド265を左右に動かすことにより、ユーザは、空間的および時間的解像度
に対する好みを調節することができる。たとえば、スライド・バー264内でス
ライド265が最も左の位置にあると、最大空間解像度に対する好みが示され、
スライド265がスライド・バー264内で最も右の位置に動くと、最大時間解
像度に対する好みが示されるのである。
FIG. 18 depicts an alternative display 261 created by playing an animation in a playback system. In one embodiment, control bar 262 in display 261 includes icons for rewind, play, pause, stop, and play animation (ie, icons REWIND, PLAY, PAU).
SE, STOP). The control bar 262 also includes a resolution selector in the form of a slide bar 264 that allows a user of the playback system to indicate relative preferences for temporal and spatial resolution in playing the animation. By selecting slide 265 with a cursor control and moving slide 265 left and right within slide bar 264, the user can adjust his preferences for spatial and temporal resolution. For example, the leftmost position of slide 265 within slide bar 264 indicates a preference for maximum spatial resolution,
As slide 265 moves to the far right position within slide bar 264, a preference for maximum temporal resolution is indicated.

【0097】 ANIM/VIDEOアイコンは、ユーザがクロスリンクされたビデオとアニ
メーションの表示の間で切り替えさせるコントロール・バー262にある。図1
8に示す実施形態によれば、アニメーションを表示するために選択するとき、ク
ロスリンクされたビデオは、ピクチャ・イン・ピクチャ・フォーマットによりサ
ブウィンドウ268内で同時に表示される。ANIM/VIDEOアイコンをユ
ーザがクリックすると、ビデオがディスプレイ261の第1ビュー・エリアに表
示され、アニメーションがサブウィンドウ268に提示される。ピクチャ・イン
・ピクチャ能力は、ディスプレイ261に示しているメニュー(図示せず)から
使用可能または不可能とすることができる。
The ANIM / VIDEO icon is on the control bar 262 that allows the user to switch between cross-linked video and animation display. FIG.
According to the embodiment shown in FIG. 8, when selecting to display the animation, the cross-linked video is displayed simultaneously in the sub-window 268 in a picture-in-picture format. When the user clicks on the ANIM / VIDEO icon, the video is displayed in the first view area of display 261 and the animation is presented in sub-window 268. The picture-in-picture capability may be enabled or disabled from a menu (not shown) shown on display 261.

【0098】 アニメーションとビデオの間のクロスリンクは、いくつかの有用なエフェクト
を与えるために使用することができる。たとえば、市場の操縦可能画像を店頭を
含むビデオのフレームにクロスリンクすることにより、市場で描写されている商
品やサービスの買い物をするためのパノラマ画像にスイッチするように、ビデオ
を見るユーザを促すことが可能である。商品とサービスの業務処理は、通信ネッ
トワークを経由して電子的に行うことが可能である。操縦可能な画像とビデオを
クロスリンクすることは、操縦可能な画像がパノラマまたはビデオのシーンにお
ける位置の他の複合画像である場合に、特に効果的となる。たとえば、ビデオが
操縦可能な環境(たとえば、飛行機、宇宙船、潜水艦、巡航船、建築物など)を
含む場合である。たとえば、巡航船上のあるキャラクタが、みやげ物店の前を歩
いて通り過ぎるシーンを想像されたい。これを見ている人は、自発的および直感
的にビデオを停止し、みやげ物店をブラウズすることができるのである。
[0098] Crosslinks between animation and video can be used to provide some useful effects. For example, by cross-linking a steerable image of a market to a frame of video that includes a storefront, prompting the user to watch the video to switch to a panoramic image for shopping for goods or services depicted in the market. It is possible. Business processing of goods and services can be performed electronically via a communication network. Cross-linking the steerable image with the video is particularly effective where the steerable image is a panorama or other composite image of a location in the video scene. For example, when the video includes a steerable environment (eg, an airplane, spacecraft, submarine, cruise ship, building, etc.). For example, imagine a character on a cruise ship walking in front of a souvenir shop. The person watching it can voluntarily and intuitively stop the video and browse the souvenir shop.

【0099】 クロスリンクの他の有用な応用により、ユーザはビデオを構成することが可能
となる。ユーザは、ビデオのクロスリンクされたフレームに達するとき、アニメ
ーション・シーケンスが自動的に呼び出されるように、アニメーション・シーケ
ンスをビデオにクロスリンクすることができる。アニメーション・シーケンスの
終了に達するとき、ビデオの表示は他のクロスリンクされたビデオ・フレームで
再開することが可能である。ユーザは、選択的にアウトテークをビデオのシーン
に追加したり、ビデオの部分をアニメーション・シーケンスで置き換えることが
できるのである。
[0099] Another useful application of crosslinks allows a user to compose a video. The user can cross-link the animation sequence to the video so that the animation sequence is automatically invoked when a cross-linked frame of the video is reached. When the end of the animation sequence is reached, the display of the video can resume with another cross-linked video frame. The user can selectively add outtakes to the video scene or replace portions of the video with animation sequences.

【00100】 明細書ではこれまで、特定の例示的な実施形態に関連して本発明の説明を行っ
てきた。しかし、添付の請求項で述べるように、本発明のより広範な精神および
範囲から逸脱することなく、特定の例示的な実施形態に様々な修正および変更を
行うことが可能であることが明らかとなる。したがって、明細書および図は、限
定的という感覚ではなく、むしろ例証的であるという感覚でみなされるものであ
る。
The foregoing description of the invention has been described with reference to specific exemplary embodiments. However, it will be apparent that various modifications and changes can be made to certain exemplary embodiments without departing from the broader spirit and scope of the invention, as set forth in the appended claims. Become. Accordingly, the specification and figures are to be regarded in an illustrative, rather than a restrictive, sense.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 アニメーションの創出および配信を示す図である。FIG. 1 is a diagram showing creation and distribution of animation.

【図2】 一実施形態によるアニメーション制作システムのブロック図である。FIG. 2 is a block diagram of an animation production system according to one embodiment.

【図3】 一実施形態による背景トラック生成器のブロック図である。FIG. 3 is a block diagram of a background track generator according to one embodiment.

【図4A】 背景トラック生成器内でシーン変化推定装置によって識別されたビデオ・セグ
メントを示す図である。
FIG. 4A illustrates a video segment identified by a scene change estimator in a background track generator.

【図4B】 図3に描写した背景運動推定装置、背景フレーム・コンストラクタ、および背
景混合推定装置の動作を説明する流れ図である。
FIG. 4B is a flowchart illustrating the operation of the background motion estimator, background frame constructor, and background mixing estimator depicted in FIG. 3;

【図5】 図3に描写した背景フレーム・コンストラクタによって生成された背景画像セ
ットを示す図である。
FIG. 5 is a diagram illustrating a background image set generated by the background frame constructor depicted in FIG. 3;

【図6】 一実施形態によるオブジェクト・トラック生成器のブロック図である。FIG. 6 is a block diagram of an object track generator according to one embodiment.

【図7A】 図3のシーン変化推定装置41によって識別されたビデオ・セグメントを描写
する図である。
FIG. 7A depicts a video segment identified by the scene change estimator 41 of FIG.

【図7B】 一実施形態によるオブジェクト・トラック生成器の動作の流れ図100である
FIG. 7B is a flowchart 100 of the operation of the object track generator according to one embodiment.

【図8】 一実施形態によるアニメーション・オブジェクトの図である。FIG. 8 is a diagram of an animation object according to one embodiment.

【図9A】 背景混合を実施するために使用することができる背景フレーム混合データ構造
の例示的な実施形態を示す図である。
FIG. 9A illustrates an exemplary embodiment of a background frame mixing data structure that can be used to implement background mixing.

【図9B】 不連続混合機能を示す図である。FIG. 9B illustrates a discontinuous mixing function.

【図10】 アニメーション再生中に、模範的なアニメーション・オブジェクトの背景トラ
ックおよびオブジェクト・トラックを補間されたフレームを合成するために使用
することが可能である方法を示す図である。
FIG. 10 illustrates how background tracks and object tracks of exemplary animation objects can be used to synthesize interpolated frames during animation playback.

【図11】 アニメーション・キーフレームの複数の時間的解像度を提供する技術を示す図
である。
FIG. 11 illustrates a technique for providing multiple temporal resolutions of animation keyframes.

【図12】 アニメーション・キーフレームの複数の空間的解像度を提供する技術を示す図
である。
FIG. 12 illustrates a technique for providing multiple spatial resolutions of animation keyframes.

【図13】 再生システムに配信されるアニメーション・データ・ストリームの内容を制御
するサーバ・システムの使用を示す図である。
FIG. 13 illustrates the use of a server system to control the content of an animation data stream delivered to a playback system.

【図14A】 ビデオ源から創出されたビデオ源とアニメーションの間のクロスリンクを設立
するクロスリンク生成器の使用を示す図である。
FIG. 14A illustrates the use of a crosslink generator to establish a crosslink between a video source created from a video source and an animation.

【図14B】 第2ビデオから創出された第1ビデオとアニメーションの間のクロスリンクを
設立するクロスリンク生成器の使用を示す図である。
FIG. 14B illustrates the use of a crosslink generator to establish a crosslink between a first video and an animation created from a second video.

【図15】 一実施形態によるクロスリンク・データ構造を示す図である。FIG. 15 illustrates a crosslink data structure according to one embodiment.

【図16】 ビデオ源のビデオ・フレームのシーケンスとアニメーションからの背景画像の
間のクロスリンク関係の流れ図である。
FIG. 16 is a flow diagram of a crosslink relationship between a sequence of video frames of a video source and a background image from an animation.

【図17】 再生システムによって生成された表示を描写する図である。FIG. 17 depicts a display generated by the playback system.

【図18】 再生システムでアニメーションの再生によって生成された代替表示を描写する
図である。
FIG. 18 is a diagram depicting an alternative display generated by playing an animation in the playback system.

───────────────────────────────────────────────────── フロントページの続き (31)優先権主張番号 09/096,487 (32)優先日 平成10年6月11日(1998.6.11) (33)優先権主張国 米国(US) (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,SD,SL,SZ,UG,ZW),E A(AM,AZ,BY,KG,KZ,MD,RU,TJ ,TM),AE,AL,AM,AT,AU,AZ,BA ,BB,BG,BR,BY,CA,CH,CN,CU, CZ,DE,DK,EE,ES,FI,GB,GD,G E,GH,GM,HR,HU,ID,IL,IN,IS ,JP,KE,KG,KP,KR,KZ,LC,LK, LR,LS,LT,LU,LV,MD,MG,MK,M N,MW,MX,NO,NZ,PL,PT,RO,RU ,SD,SE,SG,SI,SK,SL,TJ,TM, TR,TT,UA,UG,UZ,VN,YU,ZA,Z W (72)発明者 ブラント,ジョナサン アメリカ合衆国・95065・カリフォルニア 州・サンタ クルズ・ライダー リッジ ロード・377 Fターム(参考) 5B050 AA08 BA06 BA08 BA09 BA10 BA11 BA13 CA05 CA06 CA08 DA04 DA07 EA03 EA06 EA09 EA13 EA18 EA19 EA24 EA27 EA28 FA02 FA05 FA06 GA08 【要約の続き】 フレームの数より少ない。ビデオとアニメーションの連 結については、第1ビデオのそれぞれのフレームに対応 する要素を含むデータ構造が生成されている。第2ビデ オから創出されたアニメーションを示す情報は、1つま たは複数のデータ構造の要素に格納されている。──────────────────────────────────────────────────続 き Continued on the front page (31) Priority claim number 09 / 096,487 (32) Priority date June 11, 1998 (June 11, 1998) (33) Priority claim country United States (US) ( 81) Designated countries EP (AT, BE, CH, CY, DE, DK, ES, FI, FR, GB, GR, IE, IT, LU, MC, NL, PT, SE), OA (BF, BJ, CF, CG, CI, CM, GA, GN, GW, ML, MR, NE, SN, TD, TG), AP (GH, GM, KE, LS, MW, SD, SL, SZ, UG, ZW) , EA (AM, AZ, BY, KG, KZ, MD, RU, TJ, TM), AE, AL, AM, AT, AU, AZ, BA, BB, BG, BR, BY, CA, CH, CN , CU, CZ, DE, DK, EE, ES, FI, GB, GD, GE, GH, GM, HR, HU, ID, IL, IN, IS, JP, KE, KG, KP, KR, KZ, LC, LK , LR, LS, LT, LU, LV, MD, MG, MK, MN, MW, MX, NO, NZ, PL, PT, RO, RU, SD, SE, SG, SI, SK, SL, TJ, TM, TR, TT, UA, UG, UZ, VN, YU, ZA, ZW (72) Inventor Brandt, Jonathan United States, 95065, California, Santa Cruz, Rider Ridge Ridge Road, 377 F Term (Reference) BA06 BA08 BA09 BA10 BA11 BA13 CA05 CA06 CA08 DA04 DA07 EA03 EA06 EA09 EA13 EA18 EA19 EA24 EA27 EA28 FA02 FA05 FA06 GA08 [Continuation of summary] Less than the number of frames. For the connection between video and animation, a data structure is generated that includes elements corresponding to each frame of the first video. Information indicating the animation created from the second video is stored in one or more data structure elements.

Claims (84)

【特許請求の範囲】[Claims] 【請求項1】 ビデオ画像のシーケンスに描写されたシーンの第1変形を識
別するために、ビデオ画像のシーケンスを検査することと、 ビデオ画像のシーケンスから第1変形前のシーンを表す第1画像と第1変形後
のシーンを表す第2画像を獲得することと、 第1変形を示し、ビデオ画像のシーケンスの表示を近似するビデオ・エフェク
トを作成するために第1画像と第2画像の間で補間するために使用することがで
きる情報を生成することと を含むアニメーションを創出するコンピュータで実施する方法。
1. Examining a sequence of video images to identify a first variation of a scene depicted in the sequence of video images; and a first image representing a scene prior to the first variation from the sequence of video images. And obtaining a second image representing the scene after the first deformation, and between the first and second images to create a video effect indicating the first deformation and approximating the display of the sequence of video images. Generating information that can be used to interpolate in a computer-implemented method for creating an animation.
【請求項2】 シーンの第1変形を識別するためにビデオ画像のシーケンス
を検査することが、ビデオ画像の選択された1つとビデオ画像のその次の1つの
差が閾値を超えるときを決定することを含み、ビデオ画像の選択された1つとビ
デオ画像のその次の1つが、それぞれビデオ画像のセグメントの開始画像と終了
画像を示す請求項1に記載の方法。
2. Examining the sequence of video images to identify a first variant of the scene determines when a difference between a selected one of the video images and a next one of the video images exceeds a threshold. The method of claim 1, wherein the selected one of the video images and the next one of the video images indicate a start image and an end image of a segment of the video image, respectively.
【請求項3】 ビデオ画像のセグメントの開始画像が、ビデオ画像の先行区
分の終了画像を示す請求項2に記載の方法。
3. The method according to claim 2, wherein the start picture of the segment of the video picture indicates the end picture of the preceding section of the video picture.
【請求項4】 ビデオ画像の選択された1つとビデオ画像のその次の1つの
差が閾値を超えるときを決定することが、 ビデオ画像のシーケンスから、開始画像に続くビデオ画像を選択することと、 増分差値を生成するために、開始画像に続くビデオ画像を、ビデオ画像のシー
ケンスから隣接先行するビデオ画像と比較することと、 増分差値を増分差値の合計に追加することと、 選択、比較、および追加の行為を、増分差値の合計が閾値を超えるまで繰り返
すこととを含む請求項2に記載の方法。
Determining when a difference between a selected one of the video images and the next one of the video images exceeds a threshold, selecting a video image following the starting image from the sequence of video images. Comparing the video image following the starting image with the adjacent preceding video image from the sequence of video images to generate an incremental difference value, adding the incremental difference value to the sum of the incremental difference values, selecting 3. The method of claim 2, comprising: repeating the comparing, comparing, and adding acts until the sum of the incremental difference values exceeds a threshold.
【請求項5】 ビデオ画像の次の1つが、増分差の合計に追加されるとき、
増分差の合計に閾値を超えさせる増分差を生成するために使用されるビデオ画像
である請求項4に記載の方法。
5. When the next one of the video images is added to the sum of the incremental differences,
5. The method of claim 4, wherein the video image is used to generate an incremental difference that causes the sum of the incremental differences to exceed a threshold.
【請求項6】 ビデオ画像のセットの終了画像が、ビデオ画像の次の1つに
隣接する請求項5に記載の方法。
6. The method of claim 5, wherein the end image of the set of video images is adjacent to the next one of the video images.
【請求項7】 ビデオ画像の選択された1つとビデオ画像のその次の1つの
差が、ビデオ画像のシーケンスを記録するために使用されたカメラの配置の変化
により生じる差を含む請求項2に記載の方法。
7. The method of claim 2, wherein the difference between the selected one of the video images and the next one of the video images includes a difference caused by a change in a camera arrangement used to record the sequence of video images. The described method.
【請求項8】 ビデオ画像の選択された1つとビデオ画像のその次の1つの
差が色の差を含む請求項2に記載の方法。
8. The method of claim 2, wherein the difference between the selected one of the video images and the next one of the video images includes a color difference.
【請求項9】 ビデオ画像の選択された1つとビデオ画像のその次の1つの
差が、選択されたビデオ画像とビデオ画像のその次の1つの間の経過した時間の
差を含む請求項2に記載の方法。
9. The method of claim 2, wherein the difference between the selected one of the video images and the next one of the video images includes a difference in elapsed time between the selected video image and the next one of the video images. The method described in.
【請求項10】 ビデオ画像のシーケンスから第1画像および第2画像を獲
得することが、それぞれ第1画像および第2画像として、ビデオ画像のセットの
開始画像および終了画像を選択することを含む請求項2に記載の方法。
10. The method of claim 1, wherein obtaining a first image and a second image from a sequence of video images includes selecting a start image and an end image of a set of video images as the first image and the second image, respectively. Item 3. The method according to Item 2.
【請求項11】 ビデオ画像のシーケンスから第2画像を得ることが、 終了画像において1つまたは複数の動的オブジェクトを識別することと、 第2画像を作成するために、1つまたは複数の動的オブジェクトを取り除くこ
とを含む請求項2に記載の方法。
11. A method for obtaining a second image from a sequence of video images, identifying one or more dynamic objects in a final image, and one or more dynamic objects to create a second image. 3. The method of claim 2, comprising removing the strategic object.
【請求項12】 終了画像において1つまたは複数の動的オブジェクトを識
別することが、第1変形によって示されていない第2変形をビデオ画像のセット
で受けるビデオ画像のセットにおいて、1つまたは複数の特徴を識別することを
含む請求項11に記載の方法。
12. The method of claim 1, wherein identifying one or more dynamic objects in the end image comprises receiving one or more of the set of video images undergoing a second deformation not indicated by the first deformation in the set of video images. 12. The method of claim 11, comprising identifying a characteristic of:
【請求項13】 第2変形が、ビデオ画像のシーケンスを記録するために使
用されるカメラの配置の変化に起因しない1つまたは複数の動的オブジェクトの
配置における変化を含む請求項12に記載の方法。
13. The method according to claim 12, wherein the second variation comprises a change in the arrangement of one or more dynamic objects that is not due to a change in the arrangement of the cameras used to record the sequence of video images. Method.
【請求項14】 第1変形を示し、第1画像と第2画像の間で補間するため
に使用することができる情報を生成することが、 第1画像と第2画像の間の変化の程度を示す値を生成することと、 第1画像の表示と第2画像の表示の間で経過する時間を示す値を生成すること
とを含む請求項1に記載の方法。
14. Generating information that is indicative of a first deformation and that can be used to interpolate between the first and second images, comprising: The method of claim 1, further comprising: generating a value indicating the time elapsed between displaying the first image and displaying the second image.
【請求項15】 変化の程度を示す値を生成することが、ビデオ画像のシー
ケンスを記録するために使用されるカメラの配置の変化によって生じた変化の程
度を示す値を生成することを含む請求項14に記載の方法。
15. The method of claim 15, wherein generating a value indicative of a degree of change comprises generating a value indicative of a degree of change caused by a change in an arrangement of cameras used to record the sequence of video images. Item 15. The method according to Item 14.
【請求項16】 変化の程度を示す値を生成することが、色の変化の程度を
示す値を生成することを含む請求項14に記載の方法。
16. The method of claim 14, wherein generating a value indicative of a degree of change comprises generating a value indicative of a degree of color change.
【請求項17】 ビデオ画像のシーケンスに描写されたシーンの、ビデオ画
像のシーケンスを記録するために使用したカメラの配置の変化を示す第1変形を
識別することと、 ビデオ画像のシーケンスに描写されたシーンの、シーンのオブジェクトの位置
の変化を示す第2変形を識別することと、 第1および第2背景画像を生成するために、ビデオ画像のシーケンスの第1お
よび第2画像から、オブジェクトを含むそれぞれの領域を取り除くことと、 第1変形を示す、およびシーンの第1変形を近似するためにディスプレイ可能
である補間された背景画像を作成するために第1と第2背景画像の間で補間する
ために使用することができる背景情報を生成することと を含むアニメーションを創出するコンピュータで実施する方法。
17. Identifying a first variation of a scene depicted in the sequence of video images that indicates a change in camera arrangement used to record the sequence of video images; and identifying a first variation of the scene depicted in the sequence of video images. Identifying an object from the first and second images of the sequence of video images to identify a second deformation of the scene that indicates a change in the position of the object in the scene, and to generate first and second background images. Removing each region including the first and second background images between the first and second background images to create an interpolated background image that is displayable to approximate the first deformation of the scene and to approximate the first deformation of the scene. Generating background information that can be used to interpolate. A computer-implemented method for creating an animation.
【請求項18】 ビデオ画像のシーケンスの第1および第2画像から取り除
かれたそれぞれの領域を含む第1および第2オブジェクト画像を生成し、第1オ
ブジェクト画像が、第2変形前の動的オブジェクトを表し、第2オブジェクト画
像が、第2変形後の動的オブジェクトを表すことと、 第2変形を示し、補間されたオブジェクト画像を作成するために、第1および
第2オブジェクト画像の間で補間するために使用することができるオブジェクト
情報を生成し、補間されたオブジェクト画像が、シーンのオブジェクトの位置の
変化を近似するためにディスプレイ可能であることとをさらに含む請求項17に
記載の方法。
18. Generating first and second object images including respective regions removed from the first and second images of a sequence of video images, wherein the first object image is a dynamic object before a second deformation. And the second object image represents a dynamic object after the second transformation. Interpolation between the first and second object images to create the interpolated object image, indicating the second transformation. 18. The method of claim 17, further comprising: generating object information that can be used to: display the interpolated object image to approximate a change in position of an object in the scene.
【請求項19】 アニメーション・オブジェクトの背景トラック内に、第1
および第2背景画像および背景情報を格納することと、 アニメーション・オブジェクトのオブジェクト・トラックに、第1および第2
オブジェクト画像とオブジェクト情報を格納することとをさらに含む請求項18
に記載の方法。
19. The method according to claim 19, further comprising the steps of:
And storing the second background image and the background information; and storing the first and second background images in the object track of the animation object.
19. The method of claim 18, further comprising storing the object image and the object information.
The method described in.
【請求項20】 アニメーション再生装置からの要求に応答して、アニメー
ション・オブジェクトをコンピュータ・ネットワークに伝送することをさらに含
む請求項19に記載の方法。
20. The method of claim 19, further comprising transmitting the animation object to a computer network in response to a request from the animation playback device.
【請求項21】 ビデオ画像のシーケンスを検査し、それから背景トラック
を生成する背景トラック生成器であって、背景トラックは、背景フレームのシー
ケンスと、追加の画像を合成するために背景フレームの間で補間するために使用
することができる変形情報とを含んでいる背景トラック生成器と、 ビデオ画像のシーケンスを検査し、それからオブジェクト・トラックを生成す
るオブジェクト・トラック生成器であって、オブジェクト・トラックは、オブジ
ェクト・フレームのシーケンスと、追加のオブジェクト画像を合成するためにオ
ブジェクト・フレームの間で補間するために使用することができる変形情報とを
含んでいるオブジェクト・トラック生成器と を備えるアニメーション制作システム。
21. A background track generator that examines a sequence of video images and generates a background track therefrom, wherein the background track is between a sequence of background frames and a background frame to synthesize additional images. A background track generator that includes deformation information that can be used to interpolate; and an object track generator that examines a sequence of video images and generates an object track therefrom, wherein the object track is , An object track generator comprising a sequence of object frames and deformation information that can be used to interpolate between the object frames to synthesize additional object images. .
【請求項22】 後のリコールのために、アニメーション・オブジェクトに
背景トラックおよびオブジェクト・トラックを格納するアニメーション・オブジ
ェクト生成器をさらに備える請求項21に記載のアニメーション制作システム。
22. The animation production system according to claim 21, further comprising an animation object generator for storing a background track and an object track in the animation object for later recall.
【請求項23】 請求項22のアニメーション制作システムと、さらに1つ
または複数のクライアントの装置からアニメーション・オブジェクトをダウンロ
ードする要求を受信し、応答して1つまたは複数のクライアントの装置にアニメ
ーション・オブジェクトを伝送する通信装置を備える、アニメーション配信シス
テム。
23. The animation production system of claim 22, further comprising: receiving a request to download the animation object from one or more client devices and responding to the one or more client devices. An animation distribution system comprising a communication device for transmitting an animation.
【請求項24】 オブジェクト・トラックおよび背景トラックに対し相対再
生時間を示すために、再生時間情報をアニメーション・オブジェクトに格納する
請求項22に記載のアニメーション制作システム。
24. The animation production system according to claim 22, wherein reproduction time information is stored in the animation object to indicate a relative reproduction time with respect to the object track and the background track.
【請求項25】 少なくとも背景トラック生成器およびオブジェクト・トラ
ック生成器の1つが、プログラムされたプロセッサによって実装される請求項2
1に記載のアニメーション制作システム。
25. The system of claim 2, wherein at least one of the background track generator and the object track generator is implemented by a programmed processor.
2. The animation production system according to 1.
【請求項26】 背景トラック生成器が、 ビデオ画像のシーケンスを1つまたは複数のビデオ・セグメントに解像するシ
ーン変化推定装置と、 1つまたは複数のビデオ・セグメントにおいて、それぞれの変形に基づいて変
形情報を生成する背景運動推定装置と、 1つまたは複数のビデオ・セグメントで、それぞれの変形に基づいて背景フレ
ームのシーケンスを生成する背景フレーム・コンストラクタとを備える請求項2
1に記載のアニメーション制作システム。
26. A scene change estimator for resolving a sequence of video images into one or more video segments, a background track generator, and in one or more video segments, based on respective deformations. 3. A background motion estimator for generating deformation information, and a background frame constructor for generating a sequence of background frames based on each deformation in one or more video segments.
2. The animation production system according to 1.
【請求項27】 背景トラック生成器が、さらに背景フレームのシーケンス
で背景フレームを組み合わせるための混合情報を生成する混合推定装置を備える
請求項26に記載のアニメーション制作システム。
27. The animation production system according to claim 26, wherein the background track generator further comprises a mixing estimator for generating mixing information for combining background frames in a sequence of background frames.
【請求項28】 混合情報が、クロス・ディゾルブ動作を示す請求項27に
記載のアニメーション制作システム。
28. The animation production system according to claim 27, wherein the mixed information indicates a cross dissolve operation.
【請求項29】 背景フレーム・コンストラクタが、1つまたは複数のビデ
オ・セグメントから1つまたは複数の画像を複合することによって、背景フレー
ムのシーケンスの少なくとも1つの背景フレームを生成する請求項26に記載の
アニメーション制作システム。
29. The background frame constructor generates at least one background frame of a sequence of background frames by combining one or more images from one or more video segments. Animation production system.
【請求項30】 背景フレーム・コンストラクタが、1つまたは複数の画像
をステッチすることにより、1つまたは複数の画像をパノラマ画像に複合する請
求項29に記載のアニメーション制作システム。
30. The animation production system according to claim 29, wherein the background frame constructor combines one or more images into a panoramic image by stitching the one or more images.
【請求項31】 背景フレーム・コンストラクタが、1つまたは複数の画像
を高解像度画像に組み合わせる請求項29に記載のアニメーション制作システム
31. The animation production system according to claim 29, wherein the background frame constructor combines one or more images into a high resolution image.
【請求項32】 格納されている命令を有するコンピュータ可読媒体であっ
て、プロセッサによって実行されたときにプロセッサに、 ビデオ画像のシーテンスに描写されたシーンの第1変形を示すために、ビデオ
画像のシーケンスを検査することと、 ビデオ画像のシーケンスから第1画像および第2画像を獲得し、第1画像が第
1変形前のシーンを表し、第2画像が第1変形後のシーンを表すことと、 第1変形を示す情報、およびビデオ画像のシーケンスの表示を近似するビデオ
・エフェクトを作成するように、第1画像と第2画像の間で補間するために使用
することができる情報を生成することとをさせる媒体。
32. A computer-readable medium having instructions stored thereon, the instructions being, when executed by a processor, for indicating to a processor a first variation of a scene depicted in a sequence of the video image. Examining the sequence; obtaining a first image and a second image from the sequence of video images, wherein the first image represents the scene before the first deformation and the second image represents the scene after the first deformation. Generating information that can be used to interpolate between the first image and the second image to create a video effect that approximates the display of the sequence of video images; A medium that does things.
【請求項33】 コンピュータ可読媒体が、1つまたは複数の質量格納ディ
スクを含む請求項32に記載のコンピュータ可読媒体。
33. The computer readable medium of claim 32, wherein the computer readable medium includes one or more mass storage disks.
【請求項34】 コンピュータ可読媒体が、搬送波において符号化されてい
るコンピュータ・データ信号である請求項33に記載のコンピュータ可読媒体。
34. The computer readable medium according to claim 33, wherein the computer readable medium is a computer data signal encoded on a carrier wave.
【請求項35】 プロセッサにシーンの第1変形を識別するためにビデオ画
像のシーケンスを検査させる命令が、実行したときにプロセッサにビデオ画像の
選択された1つとビデオ画像のその次の1つの差が閾値を超える時を決定させる
命令を含み、ビデオ画像の選択された1つとビデオ画像のその次の1つが、それ
ぞれビデオ画像のセットの開始画像と終了画像を示す請求項33に記載のコンピ
ュータ可読媒体。
35. The instructions for causing the processor to examine a sequence of video images to identify a first variant of the scene, the instructions comprising, when executed, causing the processor to determine a difference between a selected one of the video images and a next one of the video images. 34. The computer-readable method of claim 33, further comprising instructions for determining when is greater than a threshold, wherein the selected one of the video images and the next one of the video images indicate a start image and an end image of the set of video images, respectively. Medium.
【請求項36】 プロセッサにビデオ画像の選択された1つとビデオ画像の
その次の1つの差が閾値を超える時を決定させる命令が、実行したときにプロセ
ッサに、 ビデオ画像のシーケンスから開始画像に続くビデオ画像を選択することと、 増分差値を生成するために、開始画像に続くビデオ画像を、ビデオ画像のシー
ケンスから隣接する先行ビデオ画像と比較することと、 増分差値を増分差値の合計に追加することと、 選択、比較、追加の行為を、増分差値の合計が閾値を超えるまで繰り返すこと
とをさせる命令を含む請求項35に記載のコンピュータ可読媒体。
36. An instruction, which when executed, causes the processor to determine when a difference between a selected one of the video images and a next one of the video images exceeds a threshold, the processor comprising: Selecting the following video image; comparing the video image following the start image with an adjacent preceding video image from the sequence of video images to generate an incremental difference value; 36. The computer-readable medium of claim 35, comprising instructions for adding to the sum and repeating the act of selecting, comparing, and adding until the sum of the incremental difference values exceeds a threshold.
【請求項37】 アニメーションが、 ビデオ画像のシーケンスに描写されたシーンの第1変形を識別するためにビデ
オ画像のシーケンスを検査することと、 ビデオ画像のシーケンスから第1変形前のシーンを表す第1画像と第1変形後
のシーンを表す第2画像獲得することと、 第1変形を示す情報、およびビデオ画像のシーケンスの表示を近似するビデオ
・エフェクトを作成するように第1画像と第2画像の間で補間するために使用す
ることができる情報を生成すること によって創出されている、そのアニメーションから画像のシーケンスを表示する
ために格納されたデータを有するコンピュータ可読媒体。
37. An animation comprising: inspecting the sequence of video images to identify a first variation of the scene depicted in the sequence of video images; and displaying the scene representing the scene prior to the first variation from the sequence of video images. Acquiring one image and a second image representing the scene after the first deformation; and information indicating the first deformation and the first image and the second image to create a video effect that approximates the display of the sequence of video images. A computer-readable medium having data stored for displaying a sequence of images from its animation that has been created by generating information that can be used to interpolate between the images.
【請求項38】 第1ビデオのそれぞれのフレームに対応する要素を含むデ
ータ構造を生成することと、 第2ビデオから創出されたアニメーションの画像を示すデータ構造情報の1つ
または複数の要素を格納することと を含むビデオとアニメーションをリンクする方法。
38. Generating a data structure including elements corresponding to respective frames of the first video, and storing one or more elements of data structure information indicating an image of an animation created from the second video. How to link videos and animations, including:
【請求項39】 要素を含むデータ構造を生成することが、第1ビデオの各
フレームに対するそれぞれの要素を含むデータ構造を生成することを含む請求項
38に記載の方法。
39. The method of claim 38, wherein generating a data structure including the element comprises generating a data structure including a respective element for each frame of the first video.
【請求項40】 アニメーションの画像を示す情報を格納することが、アニ
メーションのキーフレームを示す基準値を格納することを含む請求項38に記載
の方法。
40. The method of claim 38, wherein storing information indicative of an image of the animation comprises storing a reference value indicative of a key frame of the animation.
【請求項41】 アニメーションのキーフレームに対する参照を格納するこ
とが、アニメーション・オブジェクトの背景フレームを示す基準値を格納するこ
とを含む請求項40に記載の方法。
41. The method of claim 40, wherein storing a reference to a key frame of the animation comprises storing a reference value indicating a background frame of the animation object.
【請求項42】 背景フレームを示す基準値を格納することが、背景フレー
ム・データ構造のアドレスを格納することを含み、背景フレーム・データ構造が
、背景画像を示す情報と、背景画像が複合画像であるかを示す情報とを含んでい
る請求項41に記載の方法。
42. Storing a reference value indicating a background frame includes storing an address of a background frame data structure, wherein the background frame data structure includes information indicating a background image and the background image includes a composite image. 42. The method of claim 41, comprising information indicating whether
【請求項43】 背景画像が複合画像であるかを示す情報が、背景画像がパ
ノラマ画像であるかを示す情報を含む請求項42に記載の方法。
43. The method of claim 42, wherein the information indicating whether the background image is a composite image includes information indicating whether the background image is a panoramic image.
【請求項44】 データ構造が要素のアレイである請求項38に記載の方法
44. The method of claim 38, wherein the data structure is an array of elements.
【請求項45】 データ構造が要素のリストにリンクされている請求項38
に記載の方法。
45. The data structure linked to a list of elements.
The method described in.
【請求項46】 第1ビデオおよび第2ビデオが同じビデオである請求項3
8に記載の方法。
46. The first video and the second video are the same video.
9. The method according to 8.
【請求項47】 第1ビデオが第2ビデオを用いて生成されている請求項3
8に記載の方法。
47. The method of claim 3, wherein the first video is generated using the second video.
9. The method according to 8.
【請求項48】 アニメーションが高解像度静止画像を含む請求項38に記
載の方法。
48. The method of claim 38, wherein the animation comprises a high resolution still image.
【請求項49】 アニメーションが、第1および第2領域を有する多重解像
度静止画像を含み、第1領域が第2領域より高い画素解像度を有する請求項38
に記載の方法。
49. The animation comprising a multi-resolution still image having first and second regions, wherein the first region has a higher pixel resolution than the second region.
The method described in.
【請求項50】 アニメーションが、第1ビデオのフレームより広範な視野
を有する静止画像を含む請求項38に記載の方法。
50. The method of claim 38, wherein the animation comprises a still image having a wider field of view than the frames of the first video.
【請求項51】 アニメーションが、第1ビデオのフレームより広範な動的
範囲を有する静止画像を含む請求項38に記載の方法。
51. The method of claim 38, wherein the animation comprises a still image having a wider dynamic range than the frames of the first video.
【請求項52】 アニメーションが、第1ビデオのフレームの縦横比と異な
る縦横比を有する静止画像を含む請求項38に記載の方法。
52. The method of claim 38, wherein the animation comprises a still image having an aspect ratio different from an aspect ratio of a frame of the first video.
【請求項53】 アニメーションが、ステレオ画像対を形成する静止画像の
対を含む請求項38に記載の方法。
53. The method of claim 38, wherein the animation comprises a pair of still images forming a stereo image pair.
【請求項54】 アニメーションが、深度情報を含む画像を含む請求項38
に記載の方法。
54. The animation as claimed in claim 38, wherein the animation comprises an image containing depth information.
The method described in.
【請求項55】 アニメーションが、三次元幾何特性を有するオブジェクト
を含む請求項38に記載の方法。
55. The method of claim 38, wherein the animation comprises an object having three-dimensional geometric properties.
【請求項56】 テキスト記述がアニメーションの少なくとも1つの画像に
関連付けられている請求項38に記載の方法。
56. The method of claim 38, wherein the text description is associated with at least one image of the animation.
【請求項57】 アニメーションが、アニメーションの画像に対応する複数
の要素を有するアニメーション・オブジェクトを含む請求項38に記載の方法で
あって、方法がさらに、第1ビデオの1つまたは複数のフレームを示すアニメー
ション・オブジェクト情報における複数の要素の1つまたは複数に格納すること
を含む方法。
57. The method of claim 38, wherein the animation comprises an animation object having a plurality of elements corresponding to the images of the animation, wherein the method further comprises: converting one or more frames of the first video. A method comprising storing in one or more of a plurality of elements in the indicated animation object information.
【請求項58】 アニメーションが、アニメーションの画像に対応する複数
の要素を有するアニメーション・オブジェクトを含む請求項38に記載の方法で
あって、方法がさらに、フレームのシーケンスを示すアニメーション・オブジェ
クト情報における複数の要素の1つまたは複数に格納することを含む方法。
58. The method of claim 38, wherein the animation comprises an animation object having a plurality of elements corresponding to the images of the animation, wherein the method further comprises the plurality of animation object information indicating a sequence of frames. Storing in one or more of the elements of the.
【請求項59】 ビデオのフレームを再生システムのディスプレイに表示す
ることと、 アニメーション・キーフレームが、ビデオのフレームを用いて自動的に生成さ
れているとき、ビデオのフレームに対応するそのアニメーション・キーフレーム
を識別するために、ビデオのフレームに関連付けられたデータ要素を検査するこ
とと、 アニメーション・キーフレームに関連付けられた画像の表示を開始するように
、再生システムのユーザを促すことと を含む再生システムにビデオを表示する方法。
59. Displaying a frame of a video on a display of a playback system; and when the animation key frame is automatically generated using the frame of the video, the animation key corresponding to the frame of the video. Playing a data element associated with the frame of the video to identify the frame; and prompting a user of the playback system to begin displaying an image associated with the animation keyframe. How to display video on the system.
【請求項60】 アニメーション・キーフレームに関連付けられた画像が複
合画像であるか決定することと、 アニメーション・キーフレームに関連付けられた画像が複合画像であれば、複
合画像を見ることが可能であることをユーザに合図することとをさらに含む請求
項59に記載の方法。
60. A method for determining whether an image associated with an animation keyframe is a composite image, and for viewing the composite image if the image associated with the animation keyframe is a composite image. 60. The method of claim 59, further comprising: signaling a user.
【請求項61】 アニメーション・キーフレームに関連付けられた画像が複
合画像であるか決定することが、アニメーション・キーフレームに関連付けられ
た画像がパノラマ画像であるか決定することを含む請求項60に記載の方法。
61. The method of claim 60, wherein determining whether an image associated with the animation keyframe is a composite image includes determining whether the image associated with the animation keyframe is a panoramic image. the method of.
【請求項62】 ユーザからパノラマ画像を見るという要求を受信すること
と、 ユーザからの操縦入力に応答して、パノラマ画像を見るために、ユーザからの
要求に応答してプログラム・コードを実行することとをさらに含む請求項61に
記載の方法。
62. Receiving a request from a user to view a panoramic image, and executing the program code in response to a request from the user to view the panoramic image in response to a steering input from the user. 63. The method of claim 61, further comprising:
【請求項63】 ユーザからの操縦入力が、水平方向にパノラマ画像に描写
されたシーンの透視図をパンする司令を含む請求項62に記載の方法。
63. The method of claim 62, wherein the maneuver input from the user includes a command to pan a perspective view of the scene depicted in the panoramic image in the horizontal direction.
【請求項64】 ユーザからの操縦入力が、パノラマ画像に描写されたシー
ンの透視図を傾斜させる司令を含む請求項62に記載の方法。
64. The method of claim 62, wherein the maneuver input from the user includes a command to tilt a perspective view of the scene depicted in the panoramic image.
【請求項65】 アニメーション・キーフレームに関連付けられた画像が複
合画像であるかを決定することが、アニメーション・キーフレームに関連付けら
れた画像が高解像度静止画像であるかを決定することを含む請求項59に記載の
方法。
65. Determining whether the image associated with the animation keyframe is a composite image includes determining whether the image associated with the animation keyframe is a high resolution still image. 60. The method according to item 59.
【請求項66】 高解像度静止画像を見るというユーザからの要求を受信す
ることと、 ユーザからのズーム入力に応答して、高解像度静止画像を見ることをスケール
するために、ユーザからの要求に応答してプログラム・コードを実行することと
をさらに含む請求項65に記載の方法。
66. Receiving a request from a user to view a high-resolution still image and responding to a zoom input from the user to scale the viewing of the high-resolution still image to the request from the user. 66. The method of claim 65, further comprising executing the program code in response.
【請求項67】 アニメーション・キーフレームに関連付けられた画像の表
示を開始するように再生システムのユーザを促すことが、アニメーション・キー
フレームに関連付けられた画像を見ることが可能であるとユーザに合図するため
に、再生システムのディスプレイ上にインジケータを表示することを含む請求項
59に記載の方法。
67. Prompting the user of the playback system to begin displaying an image associated with the animation keyframe signals the user that it is possible to view the image associated with the animation keyframe. 60. The method of claim 59, comprising displaying an indicator on a display of the playback system to do so.
【請求項68】 アニメーション・キーフレームに関連付けられた画像の表
示を開始するように再生システムのユーザを促すことが、アニメーション・キー
フレームに関連付けられた画像を見ることが可能であるとユーザに合図するため
に、再生システムのディスプレイ上にインジケータを活動化することを含む請求
項59に記載の方法。
68. Prompting the user of the playback system to begin displaying an image associated with the animation keyframe signals the user that it is possible to view the image associated with the animation keyframe. 60. The method of claim 59, comprising activating an indicator on a display of the playback system to do so.
【請求項69】 再生システム上のインジケータを活動化することが、再生
システムの手持ち式制御装置上のインジケータを活動化することを含む請求項6
8に記載の方法。
69. Activating an indicator on a playback system includes activating an indicator on a handheld control of the playback system.
9. The method according to 8.
【請求項70】 再生システム上のビデオを表示する方法であって、 再生システムのディスプレイ上にビデオのフレームを表示することと、 ビデオのフレームに対応するアニメーション・キーフレームを識別するために
、ビデオのフレームに関連付けられたデータ要素を検査し、アニメーション・キ
ーフレームがビデオのフレームを用いて自動的に生成されていることと、 ビデオのフレームを表示することと同時に、ディスプレイ上のウィンドウ内に
アニメーション・キーフレームに関連付けられた画像を表示することとを含む方
法、
70. A method for displaying a video on a playback system, the method comprising: displaying a frame of the video on a display of the playback system; and identifying an animation keyframe corresponding to the frame of the video. Inspects the data elements associated with the frames of the video and displays that the animation keyframes are automatically generated using the frames of the video, and simultaneously displays the frames of the video and animates them in a window on the display. Displaying an image associated with the keyframe;
【請求項71】 プロセッサと、 プロセッサに結合された表示と、 プロセッサに結合された媒体リーダと、 プロセッサに結合されたメモリとを含み、 そのメモリは、実行したときにプロセッサに、 ビデオ・フレームに関連付けられた要素を有するビデオ・データがビデオ・
フレームのシーケンスを含むビデオ・データをマシン可読媒体から提供するよう
に媒体リーダに合図し、 ディスプレイ上にビデオ・フレームのシーケンスを表示させ、 1つまたは複数のビデオ・フレームに対応するアニメーション・キーフレー
ムを識別するために、ビデオ・フレームに関連付けられたデータ構造要素を検査
し、アニメーション・キーフレームが、1つまたは複数のビデオ・フレームを用
いて自動的に生成され、 再生システムのユーザに、アニメーション・キーフレームに関連付けられた
画像の表示を開始するように促すことを行わせるプログラム・コードを含むこと
を特徴とする再生システム。
71. A processor, a display coupled to the processor, a media reader coupled to the processor, and a memory coupled to the processor, wherein the memory is configured to execute to the processor, to a video frame. Video data with associated elements
Signaling a media reader to provide video data including a sequence of frames from a machine-readable medium, causing a sequence of video frames to be displayed on a display, and animation keyframes corresponding to one or more video frames Inspect the data structure elements associated with the video frames to identify the animation frame, and an animation keyframe is automatically generated using one or more of the video frames to provide the playback system user with an animation. A playback system comprising program code for prompting to start displaying an image associated with the key frame.
【請求項72】 再生システムのディスプレイ上にビデオのフレームを表示
することと、 ビデオを表示することから、ビデオのフレームに関連付けられた3Dオブジェ
クト操縦可能画像の画像を表示することにスイッチすることを要求するユーザか
らの入力を受信することと、 操縦可能画像を表示することとを含む方法。
72. Displaying a frame of a video on a display of a playback system, and switching from displaying the video to displaying an image of a 3D object steerable image associated with the frame of the video. A method comprising: receiving input from a requesting user; and displaying a steerable image.
【請求項73】 ユーザからの入力に応答して、操縦可能画像の透視図をパ
ンすることをさらに含む請求項72に記載の方法。
73. The method of claim 72, further comprising panning a perspective view of the steerable image in response to input from a user.
【請求項74】 ユーザからの入力に応答して、操縦可能画像に描写された
商品の販売を処理することをさらに含む請求項72に記載の方法。
74. The method of claim 72, further comprising processing a sale of the item depicted in the steerable image in response to input from a user.
【請求項75】 ユーザからの入力に応答して、操縦可能画像の1つまたは
複数の特徴によって示されたサービスを実施する取り決めを処理することをさら
に含む請求項72に記載の方法。
75. The method of claim 72, further comprising processing an arrangement to perform a service indicated by one or more characteristics of the steerable image in response to input from a user.
【請求項76】 ユーザからの入力に応答して、操縦可能画像の透視図をズ
ームすることをさらに含む請求項72に記載の方法。
76. The method of claim 72, further comprising zooming a perspective view of the steerable image in response to input from a user.
【請求項77】 操縦可能画像が、電子取り引きで購入することができる商
品を含む市場のパノラマ画像である請求項72に記載の方法。
77. The method of claim 72, wherein the steerable image is a panoramic image of a market that includes merchandise that can be purchased electronically.
【請求項78】 操縦可能画像が1つまたは複数の三次元オブジェクトを含
む請求項72に記載の方法。
78. The method according to claim 72, wherein the steerable image includes one or more three-dimensional objects.
【請求項79】 再生システムのディスプレイ上にビデオのフレームを表示
することと、 ビデオを表示することから、ビデオのフレームに関連付けられた三次元オブジ
ェクトを表示することにスイッチすることを要求するユーザからの入力を受信す
ることとを含む方法。
79. A user requesting to display a frame of a video on a display of a playback system and to switch from displaying the video to displaying a three-dimensional object associated with the frame of the video. Receiving the input of the user.
【請求項80】 ユーザの入力に応答して、三次元オブジェクトが表示され
ている視点から、視点を変化させることをさらに含む請求項79に記載の方法。
80. The method of claim 79, further comprising changing a viewpoint from a viewpoint at which the three-dimensional object is displayed in response to a user input.
【請求項81】 アニメーションからの画像のシーケンスを表示するために
格納されたデータを有するコンピュータ可読媒体であって、 第1ビデオのそれぞれのフレームに対応する要素を含むデータ構造を生成し、 第2ビデオから創出されたアニメーションの画像を示すデータ構造情報の1つ
または複数の要素を格納すること によってアニメーションがビデオにリンクされていることを特徴とするコンピュ
ータ可読媒体。
81. A computer readable medium having data stored for displaying a sequence of images from an animation, the method comprising: generating a data structure including an element corresponding to each frame of a first video; A computer-readable medium wherein the animation is linked to the video by storing one or more elements of data structure information indicating an image of the animation created from the video.
【請求項82】 ビデオから創出されたキーフレームのセットをアニメーシ
ョン・オブジェクトに格納し、 キーフレームのセットから選択されたキーフレームの第1シーケンスを示す1
つまたは複数の値と、第1シーケンスのキーフレームの間で補間するための情報
を、アニメーション・オブジェクトに格納し、 キーフレームのセットから選択されたキーフレームの、第1シーケンスのキー
フレームの数より少ない数の第2シーケンスを示す1つまたは複数の値と、第2
シーケンスのキーフレームの間で補間するための情報をアニメーション・オブジ
ェクトに格納する アニメーションを格納する方法。
82. A method for storing a set of keyframes created from a video in an animation object and indicating a first sequence of keyframes selected from the set of keyframes.
Storing in the animation object one or more values and information for interpolating between the first sequence of keyframes, the number of keyframes of the first sequence of keyframes selected from the set of keyframes; One or more values indicating a lesser number of second sequences;
An animation object that stores information to interpolate between keyframes in a sequence.
【請求項83】 キーフレームのセットを格納することが、キーフレームの
第1および第2サブセットをアニメーション・オブジェクトに格納することを含
み、キーフレームの第2サブセットが、キーフレームの第1サブセットに含まれ
る画像の解像度が低減したバージョンを含む請求項82に記載の方法。
83. Storing a set of keyframes includes storing first and second subsets of keyframes in an animation object, wherein the second subset of keyframes is stored in a first subset of keyframes. 83. The method of claim 82, wherein the included image comprises a reduced resolution version.
【請求項84】 選択したキーフレームの第1シーケンスを示す1つまたは
複数の値のそれぞれが、キーフレームのセットにおいてそれぞれのキーフレーム
を識別する基準値である請求項82に記載の方法。
84. The method of claim 82, wherein each of the one or more values indicating the first sequence of selected keyframes is a reference value that identifies a respective keyframe in the set of keyframes.
JP2000554125A 1998-06-11 1999-06-09 Creating animation from video Pending JP2002518723A (en)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US09/096,726 US6081278A (en) 1998-06-11 1998-06-11 Animation object having multiple resolution format
US09/096,726 1998-06-11
US09/096,720 US6278466B1 (en) 1998-06-11 1998-06-11 Creating animation from a video
US09/096,487 US6268864B1 (en) 1998-06-11 1998-06-11 Linking a video and an animation
US09/096,720 1998-06-11
US09/096,487 1998-06-11
PCT/US1999/013081 WO1999065224A2 (en) 1998-06-11 1999-06-09 Creating animation from a video

Publications (1)

Publication Number Publication Date
JP2002518723A true JP2002518723A (en) 2002-06-25

Family

ID=27378194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000554125A Pending JP2002518723A (en) 1998-06-11 1999-06-09 Creating animation from video

Country Status (6)

Country Link
EP (1) EP1097568A2 (en)
JP (1) JP2002518723A (en)
CN (1) CN1305620A (en)
AU (1) AU4558899A (en)
HK (1) HK1038625A1 (en)
WO (1) WO1999065224A2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244534A (en) * 2009-03-31 2010-10-28 Intel Corp Capture and display of digital image based on related metadata
KR20210014774A (en) * 2013-06-14 2021-02-09 퀄컴 인코포레이티드 Tracker assisted image capture

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4050472B2 (en) 2001-02-06 2008-02-20 株式会社モノリス Image generation method, apparatus and system
US7039643B2 (en) * 2001-04-10 2006-05-02 Adobe Systems Incorporated System, method and apparatus for converting and integrating media files
US7593015B2 (en) * 2003-11-14 2009-09-22 Kyocera Wireless Corp. System and method for sequencing media objects
CN102063923B (en) * 2009-11-18 2015-05-27 新奥特(北京)视频技术有限公司 Adaptive playing method and device of animation
JP5576781B2 (en) * 2010-12-16 2014-08-20 株式会社メガチップス Image processing system, image processing system operation method, host device, program, and program creation method
US20140359447A1 (en) * 2012-01-31 2014-12-04 Nokia Corporation Method, Apparatus and Computer Program Product for Generation of Motion Images
EP3029942B1 (en) * 2014-12-04 2017-08-23 Axis AB Method and device for inserting a graphical overlay in a video stream
CN106600665B (en) * 2016-12-01 2019-11-22 北京像素软件科技股份有限公司 A kind of camera animation path generating method and device
GB2566930B (en) * 2017-09-06 2021-05-19 Fovo Tech Limited A method for preserving perceptual constancy of objects in images
CN109101895A (en) * 2018-07-19 2018-12-28 张小勇 A kind of data processing method and server
CN111147955B (en) * 2019-12-31 2022-10-18 咪咕视讯科技有限公司 Video playing method, server and computer readable storage medium
CN111429341B (en) * 2020-03-27 2023-08-18 咪咕文化科技有限公司 Video processing method, device and computer readable storage medium
CN111640173B (en) * 2020-05-09 2023-04-21 杭州群核信息技术有限公司 Cloud rendering method and system for home roaming animation based on specific path
CN113496537B (en) * 2021-07-07 2023-06-30 网易(杭州)网络有限公司 Animation playing method, device and server

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0766446B2 (en) * 1985-11-27 1995-07-19 株式会社日立製作所 Method of extracting moving object image
US4698682A (en) * 1986-03-05 1987-10-06 Rca Corporation Video apparatus and method for producing the illusion of motion from a sequence of still images
US5261041A (en) * 1990-12-28 1993-11-09 Apple Computer, Inc. Computer controlled animation system based on definitional animated objects and methods of manipulating same
JP2677312B2 (en) * 1991-03-11 1997-11-17 工業技術院長 Camera work detection method
GB2255466B (en) * 1991-04-30 1995-01-25 Sony Broadcast & Communication Digital video effects system for producing moving effects
US5592228A (en) * 1993-03-04 1997-01-07 Kabushiki Kaisha Toshiba Video encoder using global motion estimation and polygonal patch motion estimation
GB2277847B (en) * 1993-05-03 1997-08-20 Grass Valley Group Method of creating video effects by use of keyframes
US5751281A (en) * 1995-12-11 1998-05-12 Apple Computer, Inc. Apparatus and method for storing a movie within a movie

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244534A (en) * 2009-03-31 2010-10-28 Intel Corp Capture and display of digital image based on related metadata
KR20210014774A (en) * 2013-06-14 2021-02-09 퀄컴 인코포레이티드 Tracker assisted image capture
KR102349242B1 (en) * 2013-06-14 2022-01-07 퀄컴 인코포레이티드 Tracker assisted image capture
US11538232B2 (en) 2013-06-14 2022-12-27 Qualcomm Incorporated Tracker assisted image capture

Also Published As

Publication number Publication date
CN1305620A (en) 2001-07-25
AU4558899A (en) 1999-12-30
WO1999065224A3 (en) 2000-04-27
EP1097568A2 (en) 2001-05-09
WO1999065224A2 (en) 1999-12-16
HK1038625A1 (en) 2002-03-22

Similar Documents

Publication Publication Date Title
US6081278A (en) Animation object having multiple resolution format
US6278466B1 (en) Creating animation from a video
US6268864B1 (en) Linking a video and an animation
US7313278B2 (en) Content generation, extraction and distribution of image region segments from video images
JP7017175B2 (en) Information processing equipment, information processing method, program
US7084875B2 (en) Processing scene objects
US7146022B2 (en) Spatiotemporal locator processing method and apparatus
JP2002518723A (en) Creating animation from video
US8395660B2 (en) Three-dimensional movie browser or editor
US7120293B2 (en) Interactive images
US7401351B2 (en) System and method for video navigation and client side indexing
EP2227809B1 (en) Trick play of streaming media
US20050283730A1 (en) System and process for viewing and navigating through an interactive video tour
US20040012621A1 (en) Hyper-media information providing method, hyper-media information providing program and hyper-media information providing apparatus
EP1222564A1 (en) Marking of moving objects in video streams
JP2012069138A (en) Control framework with zoomable graphical user interface for organizing, selecting, and launching media items
US6891561B1 (en) Providing visual context for a mobile active visual display of a panoramic region
JPH07226877A (en) Method for detecting change of scene inducting camera movement
KR20150006771A (en) Method and device for rendering selected portions of video in high resolution
US6215494B1 (en) Method and system for centering image objects
Jeannin et al. Motion descriptors for content-based video representation
US20230217067A1 (en) Producing and adapting video images for presentation displays with different aspect ratios
Demiris et al. Enhanced sports broadcasting by means of augmented reality in MPEG-4
EP4156692A1 (en) Presentation of multi-view video data
Megino et al. Virtual camera tools for an image2video application

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081021

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090121

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090128

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090223

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090302

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090323

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090428