JP2002344925A - Moving picture distributor, moving picture distribution method, moving picture distribution program, moving picture distribution program storage medium, picture designation device, picture designation method, picture designation program, picture designation program storage medium, and moving picture providing system - Google Patents

Moving picture distributor, moving picture distribution method, moving picture distribution program, moving picture distribution program storage medium, picture designation device, picture designation method, picture designation program, picture designation program storage medium, and moving picture providing system

Info

Publication number
JP2002344925A
JP2002344925A JP2001145581A JP2001145581A JP2002344925A JP 2002344925 A JP2002344925 A JP 2002344925A JP 2001145581 A JP2001145581 A JP 2001145581A JP 2001145581 A JP2001145581 A JP 2001145581A JP 2002344925 A JP2002344925 A JP 2002344925A
Authority
JP
Japan
Prior art keywords
frame
data
image
extracted
extracted image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001145581A
Other languages
Japanese (ja)
Inventor
Tatsumi Sakaguchi
竜己 坂口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001145581A priority Critical patent/JP2002344925A/en
Publication of JP2002344925A publication Critical patent/JP2002344925A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a moving picture providing system that can properly provide an extract image in response to a request from a transmission destination transmitting coded data. SOLUTION: In the moving picture providing system 1, an extracted image 50 is traced over past frame data Dp1 by a delay corresponding to a frame image when a personal computer 3 designates extraction of the extracted image 50 and a frame image during processing by a frame coding section 10 of a moving picture distribution server 2, after the tracing result exceeds the frame image during processing of the frame coding section 10, the extracted image 50 is sequentially extracted and the extracted image 50 is properly extracted as if a delay between the moving picture distribution server 2 and the personal computer 3 were cancelled out so that the system can properly provide the extracted image 50 in response to the request of the personal computer 3 thereby spreading the provision of the moving picture.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は動画像配信装置、動
画像配信方法、動画像配信プログラム、動画像配信プロ
グラム格納媒体、画像指定装置、画像指定方法、画像指
定プログラム及び画像指定プログラム格納媒体及び動画
像提供システムに関し、例えば動画像配信サーバと、パ
ーソナルコンピュータとをインターネットを介して接続
して構築される動画像提供システムに適用して好適なも
のである。
The present invention relates to a moving picture distribution apparatus, a moving picture distribution method, a moving picture distribution program, a moving picture distribution program storage medium, an image designation device, an image designation method, an image designation program, and an image designation program storage medium. The moving image providing system is suitably applied to, for example, a moving image providing system constructed by connecting a moving image distribution server and a personal computer via the Internet.

【0002】[0002]

【従来の技術】近年、ビデオカメラ等によって被写体が
撮像されながら得られる動画像データを動画像配信サー
バからインターネットを介してパーソナルコンピュータ
に送信することにより当該動画像データに基づく動画像
をリアルタイムでパーソナルコンピュータの表示部に表
示するようになされた動画像提供システムが普及してき
ている。
2. Description of the Related Art In recent years, moving image data obtained while a subject is imaged by a video camera or the like is transmitted from a moving image distribution server to a personal computer via the Internet so that a moving image based on the moving image data can be personalized in real time. 2. Description of the Related Art A moving image providing system designed to be displayed on a display unit of a computer has been widely used.

【0003】この動画像提供システムにおいては、イン
ターネットのデータ転送レートが比較的低いことから、
例えばMPEG2(Moving Picture Experts Group phas
e 2)と呼ばれる圧縮符号化方式を適用し、配信対象の動
画像データを比較的高い圧縮率で圧縮符号化することに
よりデータ量を大幅に低減させて配信している。
In this moving image providing system, since the data transfer rate of the Internet is relatively low,
For example, MPEG2 (Moving Picture Experts Group phas
e) A compression coding method called 2) is applied, and the moving image data to be distributed is compressed and coded at a relatively high compression rate, so that the data amount is significantly reduced and distributed.

【0004】[0004]

【発明が解決しようとする課題】ところで動画像提供シ
ステムにおいては、動画像配信サーバにより動画像デー
タを比較的高い圧縮率で圧縮符号化することにより、ユ
ーザに提供する動画像の解像度(画像の粗さ等を表す度
合い)及び画質(ノイズ等の有無を表す度合い)が劣化
しており、高解像度及び高画質な動画像を提供すること
が要求されている。
In the moving image providing system, the moving image distribution server compresses and encodes the moving image data at a relatively high compression rate to thereby provide the resolution (moving image) of the moving image to be provided to the user. The degree of roughness and the like and the image quality (degree of presence and absence of noise and the like) are degraded, and there is a demand for providing high-resolution and high-quality moving images.

【0005】このため、動画像提供システムにおいて
は、ISO/IEC(International Organization for
Standardization/International Electrotechnical Com
mission)等の機関によって規格化されたMPEG4(MPE
G phase 4)と呼ばれる圧縮符号化方式を動画像配信サー
バに適用することが提案されている。
For this reason, in a moving image providing system, the ISO / IEC (International Organization for International
Standardization / International Electrotechnical Com
mission4) and MPEG4 (MPE)
It has been proposed to apply a compression coding method called G phase 4) to a moving image distribution server.

【0006】このMPEG4方式では、MPEG2方式
とほぼ同様に動画像データを順次フレームデータ単位で
動き補償フレーム間予測により圧縮符号化する処理(以
下、これをシンプルプロファイル処理と呼ぶ)を実行し
得るように規定され、これに加えて動画像データの連続
するフレームデータに基づくフレーム画像から任意形状
の画像(以下、これを抽出画像と呼ぶ)を追跡しながら
抽出し、当該抽出した抽出画像のデータ(以下、これを
抽出画像データと呼ぶ)を順次動き補償フレーム間予測
により圧縮符号化する処理(以下、これをコアプロファ
イル処理と呼ぶ)をも実行し得るように規定されてい
る。
[0006] In the MPEG4 system, almost in the same manner as the MPEG2 system, a process of compressing and coding moving image data by motion compensation inter-frame prediction in frame data units (hereinafter referred to as a simple profile process) can be executed. In addition, an image of an arbitrary shape (hereinafter, referred to as an extracted image) is extracted from a frame image based on continuous frame data of moving image data while tracking the extracted image data, and data of the extracted image ( Hereinafter, it is defined that a process (hereinafter, referred to as a core profile process) of sequentially compressing and encoding the extracted image data by motion compensation inter-frame prediction (hereinafter, referred to as a core profile process) can also be executed.

【0007】従って動画像提供システムにおいては、動
画像配信サーバにシンプルプロファイル処理用とコアプ
ロファイル処理用との2つの処理経路を設け、当該動画
像配信サーバにより配信対象の動画像データを2つの処
理経路に取り込み、一方の処理経路でシンプルプロファ
イル処理を実行して動画像データのフレームデータを順
次高圧縮率で圧縮符号化すると共に、他方の処理経路で
コアプロファイル処理実行してフレームデータに比して
データ量の少ない抽出画像データのみを順次低圧縮率で
圧縮符号化し、得られた2種類の符号化データをインタ
ーネットを介してパーソナルコンピュータに送信する。
Therefore, in the moving image providing system, the moving image distribution server is provided with two processing paths, one for simple profile processing and the other for core profile processing, and the moving image distribution server processes the moving image data to be distributed by the two processing paths. In the path, the simple profile processing is executed in one processing path to compress and encode the frame data of the moving image data sequentially at a high compression rate, and the core profile processing is executed in the other processing path to compare the frame data. Then, only the extracted image data having a small data amount is sequentially compression-encoded at a low compression ratio, and the obtained two types of encoded data are transmitted to a personal computer via the Internet.

【0008】これによりパーソナルコンピュータは、イ
ンターネットを介して送信される2種類の符号化データ
を受信すると、当該受信した2種類の符号化データをそ
れぞれ復号化し、得られたフレームデータ及び抽出画像
データを表示部に送出することにより、当該フレームデ
ータに基づくフレーム画像に抽出画像データに基づく抽
出画像を重ねて表示する。
When the personal computer receives the two types of encoded data transmitted via the Internet, the personal computer decodes the received two types of encoded data, respectively, and converts the obtained frame data and extracted image data. By transmitting the extracted image data to the display unit, the extracted image based on the extracted image data is superimposed on the frame image based on the frame data and displayed.

【0009】かくして動画像提供システムにおいては、
低解像度及び低画質な動画像の一部を高解像度及び高画
質な抽出画像としてリアルタイムでユーザに提供し得る
ようになされている。
Thus, in the moving image providing system,
A part of a low-resolution and low-quality moving image can be provided to a user in real time as a high-resolution and high-quality extracted image.

【0010】ところでかかる構成の動画像提供システム
においては、動画像の一部を高解像度及び高画質な抽出
画像として配信し得ることを利用して、動画像配信サー
バによりまずシンプルプロファイル処理を実行してパー
ソナルコンピュータに低解像度及び低画質な動画像を提
供し、この状態で当該パーソナルコンピュータから所望
の抽出画像が指定されるとシンプルプロファイル処理に
加えてコアプロファイル処理を実行することにより得ら
れる動画像と共に抽出画像を提供することが提案されて
いる。
In the moving image providing system having such a configuration, a simple profile process is first executed by a moving image distribution server by utilizing the fact that a part of a moving image can be distributed as a high-resolution and high-quality extracted image. Provides a low-resolution and low-quality moving image to a personal computer, and in this state, when a desired extracted image is specified from the personal computer, the moving image obtained by executing a core profile process in addition to the simple profile process It has been proposed to provide an extracted image along with.

【0011】しかしながらかかる動画像提供システムに
おいては、インターネット上の品質を保持するためのバ
ッファリングや、データ転送レートに起因して実際には
動画像の配信に遅延が生じているためパーソナルコンピ
ュータによって抽出画像と共に、これを抽出すべきフレ
ームデータを抽出したときに動画像配信サーバでは当該
フレームデータ以降の異なるフレームデータに対して圧
縮符号化を行っていることにより、ユーザの要望する抽
出画像を適格に提供し難く、その結果、動画像の提供を
普及させるには未だ不十分であった。
However, in such a moving image providing system, the buffering for maintaining the quality on the Internet and the moving image distribution are actually delayed due to the data transfer rate. When extracting the frame data to be extracted together with the image, the moving image distribution server performs compression encoding on different frame data after the frame data, so that the extracted image desired by the user can be appropriately qualified. It is difficult to provide, and as a result, it is still insufficient to popularize the provision of moving images.

【0012】本発明は以上の点を考慮してなされたもの
で、動画像の提供を普及させ得る動画像配信装置、動画
像配信方法、動画像配信プログラム、動画像配信プログ
ラム格納媒体、画像指定装置、画像指定方法、画像指定
プログラム、画像指定プログラム格納媒体及び動画像提
供システムを提案しようとするものである。
[0012] The present invention has been made in view of the above points, and a moving image distribution apparatus, a moving image distribution method, a moving image distribution program, a moving image distribution program storage medium, and an image designation that can popularize the provision of moving images. An apparatus, an image designation method, an image designation program, an image designation program storage medium, and a moving image providing system are proposed.

【0013】[0013]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、動画像配信装置から動画像データ
を順次フレームデータ単位で圧縮符号化して画像指定装
置に送信し、当該画像指定装置を介して動画像データに
基づく動画像を表示しているとき、画像指定装置の指定
手段から抽出画像が指定されると、当該指定された上記
フレームデータを示すフレーム識別情報と、上記抽出画
像を指定する抽出画像指定情報とを画像指定装置から動
画像配信装置へ送信する。
According to the present invention, in order to solve the above-mentioned problems, moving image data is sequentially compressed and encoded in units of frame data from a moving image distribution device and transmitted to an image specifying device. When a moving image based on the moving image data is displayed via an image specifying device, when an extracting image is specified by the specifying means of the image specifying device, frame identification information indicating the specified frame data and the extracting image are specified. And the extracted image designation information to be transmitted from the image designation device to the moving image distribution device.

【0014】この結果、フレーム識別情報と、抽出画像
指定情報とを受けた追跡手段によってフレーム符号化手
段で既に圧縮符号化されたフレームデータのうちフレー
ム識別情報に示されるフレームデータから、フレーム識
別情報を受けた時点にフレーム符号化手段で圧縮符号化
するフレームデータまでの間で抽出画像指定情報に指定
された抽出画像を追跡し終わると、それ以降は順次隣接
するフレームデータ間で抽出画像を追跡する毎に、画像
抽出手段によりフレームデータから抽出画像を抽出しな
がら、抽出画像符号化手段により低圧縮率で順次圧縮符
号化し、これを動画像配信装置から画像指定装置へ送信
するようにした。
As a result, of the frame data already compressed and encoded by the frame encoding means by the tracking means having received the frame identification information and the extracted image designation information, the frame identification information is obtained from the frame data indicated by the frame identification information. After receiving the extracted image specified by the extracted image specification information until the frame data to be compression-encoded by the frame encoding means at the time of receiving, the extracted image is sequentially tracked between adjacent frame data thereafter. Each time, the extracted image is extracted from the frame data by the image extracting means, and is sequentially compressed and encoded at a low compression rate by the extracted image encoding means, and is transmitted from the moving image distribution device to the image designation device.

【0015】従って動画像提供システムでは、画像指定
装置で抽出画像の抽出を指定したときのフレームデータ
と、そのとき動画像配信装置のフレーム符号化手段で処
理中のフレームデータとに相当する遅延分のフレームデ
ータに渡って順次抽出画像を追跡し、その追跡結果をフ
レーム符号手段で処理中のフレームデータを越えた以降
に抽出画像を順次抽出して、動画像配信装置と画像指定
装置と間の遅延をあたかも相殺するようにして適格に抽
出画像を抽出することにより、画像指定装置の要求に応
じた抽出画像を適格に提供することができる。
Therefore, in the moving image providing system, the delay data corresponding to the frame data when the extraction of the extracted image is designated by the image designating device and the frame data being processed by the frame encoding means of the moving image distribution device at that time. The extracted image is sequentially traced over the frame data of the frame, and the extracted image is sequentially extracted after the traced result exceeds the frame data being processed by the frame encoding means. By appropriately extracting the extracted image as if canceling the delay, it is possible to appropriately provide the extracted image according to the request of the image specifying device.

【0016】[0016]

【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0017】図1において、1は全体として本発明を適
用した動画像提供システムを示し、動画像配信サーバ2
と、パーソナルコンピュータ3とがインターネット4を
介して互いに接続されて構築される。
In FIG. 1, reference numeral 1 denotes a moving image providing system to which the present invention is applied as a whole.
And the personal computer 3 are connected to each other via the Internet 4 and constructed.

【0018】動画像配信サーバ2は、パーソナルコンピ
ュータ3からの動画像の配信要求が与えられると、ビデ
オカメラ5によって被写体が撮像されながら得られる動
画像データMDを順次フレームデータ単位で、複数フレ
ーム分の情報量を有する配信側フレームメモリ6に取り
込む。
Upon receiving a moving image distribution request from the personal computer 3, the moving image distribution server 2 sequentially converts the moving image data MD obtained while the video camera 5 captures an image of a subject into a plurality of frames in units of frame data. Is taken into the distribution side frame memory 6 having the information amount of

【0019】動きベクトル検出部9は、配信側フレーム
メモリ6にフレームデータが取り込まれると、当該配信
側フレームメモリ6から符号化対象のフレームデータ
(以下、これを対象フレームデータと呼ぶ)D1を読み
出して複数のマクロブロックに分割処理を行うことによ
り、当該分割処理された対象フレームデータ(以下、こ
れを分割処理フレーム分割データと呼ぶ)D1aを生成
する。
When the frame data is taken into the distribution-side frame memory 6, the motion vector detecting section 9 reads out the frame data to be encoded (hereinafter referred to as target frame data) D1 from the distribution-side frame memory 6. By performing the division processing on a plurality of macroblocks, the divided frame data (hereinafter, referred to as division processing frame division data) D1a is generated.

【0020】そして動きベクトル検出部9は、分割処理
フレームデータD1aに対して例えば時間的に過去のフ
レームデータを参照用として配信側フレームメモリ6か
ら読み出し、当該分割処理フレームデータD1aと参照
用のフレームデータとの間でブロックマッチング法によ
り各マクロブロックの動きベクトルデータD2を検出す
る。
The motion vector detecting section 9 reads, for example, temporally past frame data from the distribution side frame memory 6 with respect to the divided frame data D1a, and reads the divided frame data D1a and the reference frame data. The motion vector data D2 of each macroblock is detected between the data and the block by a block matching method.

【0021】そして動きベクトル検出部9は、動きベク
トルデータD2と、対象フレームデータD1のフレーム
番号とを対応づけて共有データD3として共有メモリ9
Aに格納すると共に、当該動きベクトルデータD2と、
分割処理フレームデータD1aとをフレーム符号化部1
0に送出する。
The motion vector detecting section 9 associates the motion vector data D2 with the frame number of the target frame data D1 and generates the shared data D3 as shared data D3.
A, and the motion vector data D2,
The division processing frame data D1a and the frame encoding unit 1
Send to 0.

【0022】フレーム符号化部10は、動きベクトル検
出部9から送出される分割処理フレームデータD1aに
対してマクロブロック毎に画素を間引いてブロックサイ
ズを縮小することにより、当該分割処理フレームデータ
に基づくフレーム画像のサイズを縮小したデータ(以
下、これを縮小対象データと呼ぶ)を生成する。
The frame encoding section 10 reduces the block size by thinning out the pixels for each macroblock from the divided processing frame data D1a sent from the motion vector detecting section 9, thereby obtaining the frame data based on the divided processing frame data. Data in which the size of the frame image is reduced (hereinafter, referred to as reduction target data) is generated.

【0023】またフレーム符号化部10は、動きベクト
ル検出部9から送出される動きベクトルデータD2も縮
小対象データの画像サイズに合わせて縮小することによ
り縮小動きベクトルを生成する。
The frame encoder 10 also generates a reduced motion vector by reducing the motion vector data D2 sent from the motion vector detector 9 in accordance with the image size of the data to be reduced.

【0024】そしてフレーム符号化部10は、縮小対象
データに対して、縮小動きベクトルを用いた動き補償フ
レーム間予測によって比較的高い圧縮率で圧縮符号化処
理を施すことによりフレーム符号化データD4を生成
し、これを配信側送信部11及びインターネット4を順
次介してパーソナルコンピュータ3に配信する。
The frame encoding unit 10 subjects the data to be reduced to compression encoding at a relatively high compression rate by motion-compensated inter-frame prediction using a reduced motion vector, thereby converting the frame encoded data D4. It is generated and distributed to the personal computer 3 via the distribution-side transmission unit 11 and the Internet 4 sequentially.

【0025】このように動画像配信サーバ2は、ビデオ
カメラ5によって被写体が撮像されながら得られる動画
像データMDを順次対象フレームデータD1単位で圧縮
符号化処理し、得られるフレーム符号化データD4をパ
ーソナルコンピュータ3に配信するようになされてい
る。
As described above, the moving image distribution server 2 sequentially compresses and encodes the moving image data MD obtained while the subject is imaged by the video camera 5 in units of target frame data D1, and converts the obtained frame coded data D4. The content is distributed to the personal computer 3.

【0026】パーソナルコンピュータ3は、動画像配信
サーバ2からインターネット4介して配信されるフレー
ム符号化データD4を受け側受信部15で受信する毎に
当該受信したフレーム符号化データD4を動画像復号部
16に送出する。
The personal computer 3 receives the encoded frame data D4 distributed from the moving image distribution server 2 via the Internet 4 and receives the encoded frame data D4 each time the receiving unit 15 receives the encoded frame data D4. To 16.

【0027】動画像復号部16は、受け側受信部15か
ら送出されるフレーム符号化データD4に対して復号化
処理を施すことにより元の対象フレームデータD1を復
元し、これを受け側フレームメモリ17に送出して一旦
格納した後、順次表示部18に送出することにより当該
表示部18に対象フレームデータD1に基づくフレーム
画像を表示する。
The moving picture decoding unit 16 restores the original target frame data D1 by performing a decoding process on the coded frame data D4 sent from the receiving unit 15 and receives the decoded data. 17 and temporarily stored, and then sequentially transmitted to the display unit 18 to display a frame image based on the target frame data D1 on the display unit 18.

【0028】これによりパーソナルコンピュータ3は、
動画像配信サーバ2から配信される動画像データMDに
基づく動画像を表示部18を介してユーザに提供し得る
ようになされている。
As a result, the personal computer 3
A moving image based on the moving image data MD distributed from the moving image distribution server 2 can be provided to the user via the display unit 18.

【0029】ところで、かかるパーソナルコンピュータ
3は、表示部18に動画像を表示している状態(すなわ
ち動画像配信サーバ2から送信されたフレーム符号化デ
ータD4を受信している状態)で操作入力部19を介し
てユーザの希望する表示画面上の所定領域(例えば人
物)が指定されると、動画像配信サーバ2によって当該
指定された領域のみを高解像度及び高画質に変更した表
示パターンでなる動画像を提供し得るようになされてい
る。
By the way, the personal computer 3 operates the operation input unit while displaying a moving image on the display unit 18 (ie, receiving the frame coded data D4 transmitted from the moving image distribution server 2). When a predetermined area (for example, a person) on the display screen desired by the user is designated via the interface 19, the moving image distribution server 2 changes the only the designated area to a high-resolution and high-quality display pattern. It is designed to provide an image.

【0030】すなわち、パーソナルコンピュータ3の指
定データ生成部20は、図2に示すように、表示部18
(図1)に表示している例えば25番目のフレーム画像
(以下、これをユーザ指定画像と呼ぶ)GR25のう
ち、操作入力部19を用いたユーザによって希望する抽
出領域として人物24を含む矩形状の領域(以下、これ
を追跡領域と呼ぶ)30を囲む所定の指定操作が行われ
ると、当該追跡領域30を追跡領域データD5として生
成する。
That is, as shown in FIG. 2, the designated data generator 20 of the personal computer 3
For example, in the 25th frame image GR25 displayed in FIG. 1 (hereinafter referred to as a user-specified image), a rectangular shape including the person 24 as an extraction area desired by the user using the operation input unit 19 (Hereinafter, referred to as a tracking area) 30, a predetermined designation operation is performed to generate the tracking area 30 as tracking area data D5.

【0031】このとき指定データ生成部20は、表示部
18に表示しているユーザ指定画像GR25のフレーム
番号を示すフレーム番号データD6を動画像復号部16
から読み出し、当該読み出したフレーム番号データD6
と、生成した追跡領域データD5とを指定データD7と
して受け側送信部21及びインターネット4を順次介し
て動画像配信サーバ2に送信するようになされている。
At this time, the designated data generating unit 20 converts the frame number data D6 indicating the frame number of the user designated image GR25 displayed on the display unit 18 into the moving image decoding unit 16
, And the read frame number data D6
Then, the generated tracking area data D5 and the generated tracking area data D5 are transmitted as designated data D7 to the moving image distribution server 2 via the receiving side transmitting unit 21 and the Internet 4 sequentially.

【0032】動画像配信サーバ2は、パーソナルコンピ
ュータ3から送信された指定データD7を配信側受信部
12を介して受信すると、これを動き追跡・形状抽出部
7に送出する。
Upon receiving the designated data D7 transmitted from the personal computer 3 via the distribution-side receiving unit 12, the moving image distribution server 2 sends it to the motion tracking / shape extracting unit 7.

【0033】この動き追跡・形状抽出部7は、パーソナ
ルコンピュータ3から指定データD7を配信側受信部1
2を介して受けていない場合には、動きベクトル検出部
9が配信側フレームメモリ6から読み出す対象フレーム
データD1と同様の対象フレームデータD1を読み出し
て当該対象フレームデータD1のフレーム番号を内部カ
ウンタ(図示せず)によってカウントのみを行ってお
り、これにより自らの消費電力を極力低減して動画像配
信サーバ2全体における消費電力を極力低減し得るよう
になされている。
The motion tracking / shape extracting unit 7 transmits the designated data D7 from the personal computer 3 to the distribution-side receiving unit 1.
2, the motion vector detection unit 9 reads out the same target frame data D1 as the target frame data D1 to be read out from the distribution-side frame memory 6 and stores the frame number of the target frame data D1 in the internal counter ( (Not shown), only the counting is performed, whereby the power consumption of the moving image distribution server 2 as a whole can be reduced as much as possible.

【0034】従って動き追跡・形状抽出部7は指定デー
タD7を受けると、通常モードに移行し、図3に示すよ
うに、指定データD7のフレーム番号データD6に示さ
れるユーザ指定画像GR25から、通常モード移行時に
内部カウンタによってカウントされている(すなわちフ
レーム符号化部10で処理されている)例えば50番目
のフレーム画像(以下、これを現在処理中画像と呼ぶ)
GR50までの各フレーム画像(以下、これを差分画像
群と呼ぶ)GRGに対して、当該指定データD7の追跡
領域データD5に基づく追跡領域30を追跡する追跡処
理を実行することにより、当該現在処理中画像GR50
における追跡領域30の移動位置を検出するようになさ
れている。
Accordingly, upon receiving the designated data D7, the motion tracking / shape extracting unit 7 shifts to the normal mode, and as shown in FIG. 3, from the user designated image GR25 indicated by the frame number data D6 of the designated data D7, For example, the 50th frame image counted by the internal counter at the time of mode transition (that is, processed by the frame encoding unit 10) (hereinafter, referred to as a currently processed image)
By executing a tracking process of tracking the tracking area 30 based on the tracking area data D5 of the designated data D7 on each frame image (hereinafter referred to as a difference image group) GRG up to GR50, the current processing is performed. Medium image GR50
The movement position of the tracking area 30 at the position is detected.

【0035】ここで、配信側フレームメモリ6は、動画
像データMDを構成するフレームデータを例えば300
フレーム分蓄え得る記憶容量を有するものが選定されて
おり、これにより動作追跡・形状抽出部7によって、対
象フレームデータとD1に対して過去のフレームデータ
(以下、これを過去フレームデータと呼ぶ)D1pが読
み出し可能な状態になされている。
Here, the distribution-side frame memory 6 stores the frame data constituting the moving image data MD in, for example, 300 frames.
A frame having a storage capacity capable of storing the number of frames is selected, so that the motion tracking / shape extracting unit 7 generates past frame data (hereinafter referred to as past frame data) D1p for the target frame data and D1. Are set in a readable state.

【0036】また共有メモリ9Aは、動きベクトルデー
タD2を必要とする動作追跡・形状抽出部7によって必
要に応じて読み出し可能な状態になされており、これに
より動作追跡・形状抽出部7による動きベクトルデータ
D2の検出処理を回避させることができ、従って動画像
配信サーバ2全体の処理速度を向上させ得るようになさ
れている。
The shared memory 9A is made readable as needed by the motion tracking / shape extraction unit 7 which requires the motion vector data D2. The processing for detecting the data D2 can be avoided, so that the processing speed of the entire moving image distribution server 2 can be improved.

【0037】すなわち、動作追跡・形状抽出部7は、ユ
ーザ指定画像GR25のフレーム番号データD6に一致
する過去フレームデータD1p及び共有データD3(動
きベクトルデータD2及びフレーム番号)をそれぞれ対
応する配信側フレームメモリ6及び共有メモリ9Aから
読み出す。
That is, the motion tracking / shape extracting unit 7 transmits the past frame data D1p and the shared data D3 (the motion vector data D2 and the frame number) corresponding to the frame number data D6 of the user-specified image GR25 to the corresponding delivery-side frames. Read from the memory 6 and the shared memory 9A.

【0038】そして動き追跡・形状抽出部7は、共有デ
ータD3の動きベクトルデータD2のうち、ユーザ指定
画像GR25において追跡領域データD5に基づく追跡
領域30に係る全てのマクロブロックの動きベクトルデ
ータを用いて、配信側フレームメモリ6から読み出した
ユーザ指定画像GR25の過去フレームデータD1pに
隣接するユーザ指定画像GR26の過去フレームデータ
D1p間で、追跡領域30に係る全てのマクロブロック
の移動位置を大まかに検出する。
The motion tracking / shape extracting unit 7 uses the motion vector data of all the macroblocks related to the tracking area 30 based on the tracking area data D5 in the user-specified image GR25 among the motion vector data D2 of the shared data D3. Then, between the past frame data D1p of the user-specified image GR26 adjacent to the past frame data D1p of the user-specified image GR25 read from the distribution-side frame memory 6, the movement positions of all macroblocks related to the tracking area 30 are roughly detected. I do.

【0039】さらに動き追跡・形状抽出部7は、ユーザ
指定画像GR25の過去フレームデータD1pと、ユー
ザ指定画像GR26の過去フレームデータD1pとの間
で、大まかに検出した追跡領域30の移動位置をライン
マッチング法により再度詳細に検出することにより、追
跡領域30の移動位置を高精度に検出し得るようになさ
れている。
Further, the motion tracking / shape extraction unit 7 uses the line data to roughly detect the movement position of the tracking area 30 between the past frame data D1p of the user-specified image GR25 and the past frame data D1p of the user-specified image GR26. By detecting again in detail by the matching method, the moving position of the tracking area 30 can be detected with high accuracy.

【0040】また、動き追跡・形状抽出部7はユーザ指
定画像GR25以降の差分画像群GRGについても当該
ユーザ指定画像GR25における追跡処理と同様にして
追跡処理を実行する。
Further, the motion tracking / shape extracting unit 7 executes a tracking process on the difference image group GRG after the user-specified image GR25 in the same manner as the tracking process on the user-specified image GR25.

【0041】このようにして動き追跡・形状抽出部7
は、差分画像群GRGの各フレーム番号に一致する過去
フレームデータD1pを配信側フレームメモリ6から順
次読み出す毎に、大きい処理能力が必要とされる動きベ
クトルデータD2を検出することなく予め動きベクトル
検出部9によって共有メモリ9Aに格納された動きベク
トルデータD2を用いながら、差分画像群GRGにおけ
る追跡領域30の移動位置を大まかに検出した後にライ
ンマッチング法により再度詳細に検出することにより、
現在処理中画像GR50における追跡領域30の移動位
置を少ない処理能力で高精度に検出し得るようになされ
ている。
Thus, the motion tracking / shape extracting unit 7
Each time the past frame data D1p corresponding to each frame number of the differential image group GRG is sequentially read from the distribution side frame memory 6, the motion vector detection is performed in advance without detecting the motion vector data D2 requiring a large processing capability. By using the motion vector data D2 stored in the shared memory 9A by the unit 9 and roughly detecting the moving position of the tracking area 30 in the differential image group GRG, detecting again in detail by the line matching method,
The moving position of the tracking area 30 in the currently processed image GR50 can be detected with high processing accuracy with a small processing capability.

【0042】従って動き追跡・形状抽出部7は、指定デ
ータD7を受け取った際のユーザ指定画像GR25と、
そのときフレーム符号化部10で処理中の現在処理中画
像GR50との間に生じた差分画像群GRGにおける追
跡領域30の移動位置の検出処理時間を短縮することが
でき、これによりフレーム符号化部10が現在処理中画
像GR50に対する圧縮符号化処理をし終えるまでに即
座に現在処理中画像GR50における追跡領域動きベク
トルデータを検出することができる。
Accordingly, the motion tracking / shape extraction unit 7 sets the user-specified image GR25 when receiving the specified data D7,
At that time, it is possible to shorten the processing time for detecting the moving position of the tracking area 30 in the difference image group GRG generated between the current image GR50 and the currently processed image GR50 that is being processed by the frame encoding unit 10. The tracking area motion vector data in the currently processed image GR50 can be detected immediately before the compression processing of the currently processed image GR50 is completed.

【0043】これにより動き追跡・形状抽出部7は、現
在処理中画像GR50以降のフレーム画像の対象フレー
ムデータD1に対する追跡処理を、フレーム符号化部1
0による動きベクトルデータD2の検出処理とほぼ平行
して行い得るようになされている。
Accordingly, the motion tracking / shape extracting unit 7 performs the tracking process on the target frame data D1 of the frame images after the currently processed image GR50 and the frame encoding unit 1.
It can be performed almost in parallel with the detection processing of the motion vector data D2 by 0.

【0044】この状態において、動き追跡・形状抽出部
7は、現在処理中画像GR50以降のフレーム画像のフ
レーム番号に一致する対象フレームデータD1及び共有
データD3(動きベクトルデータD2及びフレーム番
号)をそれぞれ対応する配信側フレームメモリ6及び共
有メモリ9Aから読み出す。
In this state, the motion tracking / shape extraction unit 7 stores the target frame data D1 and the shared data D3 (the motion vector data D2 and the frame number) corresponding to the frame numbers of the frame images after the currently processed image GR50, respectively. The data is read from the corresponding delivery-side frame memory 6 and shared memory 9A.

【0045】そして動き追跡・形状抽出部7は、追跡領
域30の追跡動きベクトルデータを検出する毎に、図4
に示すように、追跡領域30を切り出し、当該切り出し
た追跡領域30と、その切り出した追跡領域30から任
意形状(例えば楕円)の抽出画像を抽出するために予め
指定されている枠40とを重ね合わせるように、かつ追
跡領域30から枠40の内側では本来の絵柄をそのまま
残すと共に、外側では受け側で表示されないように例え
ば黒色を表す画素に置き換えるようにして枠40で囲ま
れた抽出画像50を抽出する。
Each time the motion tracking / shape extracting unit 7 detects tracking motion vector data of the tracking area 30, the motion tracking / shape extracting unit 7 shown in FIG.
As shown in (1), the tracking area 30 is cut out, and the cut-out tracking area 30 is overlapped with a frame 40 designated in advance for extracting an extracted image of an arbitrary shape (for example, an ellipse) from the cut-out tracking area 30. The extracted image 50 surrounded by the frame 40 so that the original pattern is left as it is, and the original image is left as it is inside the frame 40 from the tracking area 30 and is replaced with a pixel representing black, for example, so as not to be displayed on the receiving side outside. Is extracted.

【0046】これに加えて、動き追跡・形状抽出部7
は、図5に示すように、追跡領域30を抽出する毎に、
当該追跡領域30に対して抽出画像50を露出させ、か
つ抽出画像50の周辺部分を覆うようにしてその抽出画
像50の形状を受け側に提示するためのマスクパターン
画像35をも生成する。
In addition, the motion tracking / shape extracting unit 7
As shown in FIG. 5, every time the tracking area 30 is extracted,
A mask pattern image 35 for exposing the extracted image 50 to the tracking area 30 and covering the peripheral portion of the extracted image 50 to present the shape of the extracted image 50 to the receiving side is also generated.

【0047】そして動き追跡・形状抽出部7は、抽出し
た抽出画像50のデータ(この場合、追跡領域30にお
いて黒色の画素に置き換えた周辺部分も含む)及び、生
成したマスクパターン画像35のデータ(以下、これを
マスクパターンデータと呼ぶ)並びに追跡動きベクトル
データを抽出画像データD9として任意形状符号化部8
に送出する。
Then, the motion tracking / shape extracting unit 7 extracts the data of the extracted image 50 (in this case, also includes the peripheral part replaced with black pixels in the tracking area 30) and the data of the generated mask pattern image 35 ( Hereinafter, this will be referred to as mask pattern data) and the tracking motion vector data as extracted image data D9.
To send to.

【0048】ここで、任意形状符号化部8は、動き追跡
・形状抽出部7から抽出画像データD9が与えられない
場合には、当該動き追跡・形状抽出部7からの出力を待
ち受ける待ち受け動作のみを実行するようになされてお
り、これにより自らの消費電力を低減し得、これにより
動画像配信サーバ2全体における消費電力を極力低減し
得るようになされている。
Here, when the extracted image data D9 is not supplied from the motion tracking / shape extracting unit 7, the arbitrary shape encoding unit 8 performs only a standby operation for waiting for an output from the motion tracking / shape extracting unit 7. Is performed, whereby the power consumption of the moving image distribution server 2 can be reduced as much as possible.

【0049】従って任意形状符号化部8は、動き追跡・
形状抽出部7から抽出画像符号化データD9が与えられ
ると、通常モードに移行し、当該抽出画像符号化データ
D9のうち抽出画像データを本来の画像サイズのままの
マクロブロック単位で、抽出画像動きベクトルデータを
用いた動き補償フレーム間予測によって比較的低い圧縮
率で圧縮符号化し、同様に抽出画像符号化データD9の
うちマスクパターンデータも比較的低い圧縮率で圧縮符
号化することにより当該圧縮符号化した抽出画像データ
及びマスクパターンデータを抽出画像圧縮データD10
として配信側送信部11及びインターネット4を順次介
してパーソナルコンピュータ3に配信する。
Therefore, the arbitrary shape encoding unit 8 performs motion tracking /
When the coded extracted image data D9 is given from the shape extracting unit 7, the mode shifts to the normal mode, and the extracted image data of the extracted coded image data D9 is extracted in units of macroblocks having the original image size. The compression coding is performed at a relatively low compression rate by motion compensation inter-frame prediction using vector data, and similarly, the mask pattern data of the extracted image coded data D9 is also compression-coded at a relatively low compression rate, whereby the compression coding is performed. Extracted image data and mask pattern data are converted into extracted image compressed data D10.
To the personal computer 3 via the distribution-side transmission unit 11 and the Internet 4 sequentially.

【0050】このように、動画像配信サーバ2は指定デ
ータD7を受けると、フレーム符号化部10で現在処理
中画像GR50に対する符号化処理をし終えるまでに、
現在処理中画像GR50までの追跡領域30の追跡動き
ベクトルデータを即座に検出し、その後現在処理中画像
GR50以降のフレーム画像の対象フレームデータD1
を順次読み出す毎に、フレーム符号化部10と任意形状
符号化部8とがほぼ平行して圧縮符号化することにより
得られるフレーム符号化データD4と、抽出画像圧縮デ
ータD10との両方を配信側送信部11及びインターネ
ット4を順次介してパーソナルコンピュータ3に配信す
る。
As described above, when the moving image distribution server 2 receives the designated data D7, the moving image distribution server 2 waits for the frame encoding unit 10 to finish encoding the currently processed image GR50.
The tracking motion vector data of the tracking area 30 up to the currently processed image GR50 is immediately detected, and thereafter, the target frame data D1 of the frame images after the currently processed image GR50.
Each time the frame encoding unit 10 and the arbitrary shape encoding unit 8 perform compression encoding substantially in parallel, the frame encoding data D4 obtained by compressing and encoding the extracted image compressed data D10 and the extracted compressed image data D10 are both transmitted to the distribution side. The data is distributed to the personal computer 3 via the transmission unit 11 and the Internet 4 sequentially.

【0051】この場合、パーソナルコンピュータ3は、
差分画像群GRGの表示部18を介して順次表示してい
る間に動画像配信サーバ2からインターネット4介して
配信されるフレーム符号化データD4及び抽出画像圧縮
データD10を受け側受信部15で受信する毎に動画像
復号部16に順次送出する。
In this case, the personal computer 3
While the differential image group GRG is sequentially displayed on the display unit 18, the frame encoded data D 4 and the extracted image compressed data D 10 distributed from the moving image distribution server 2 via the Internet 4 are received by the receiving unit 15. Each time it is performed, it is sequentially transmitted to the video decoding unit 16.

【0052】動画像復号部16は、フレーム符号化デー
タD4及び抽出画像圧縮データD10に対して復号化処
理を施すことにより元の対象フレームデータD1、抽出
画像データ及びマスクパターンデータを順次復元し、こ
れを受け側フレームメモリ17に送出して一旦格納した
後、順次表示部18に送出することにより、図6に示す
ように、当該対象フレームデータD1に基づく低解像度
及び低画質なフレーム画像に、抽出画像データ及びマス
クパターンデータに基づく高解像度及び高画質な抽出画
像30を重ね合わせるような表示パターンでなるフレー
ム画像(以下、これを重ね画像と呼ぶ)60を提供し得
るようになされている。
The moving image decoder 16 decodes the frame coded data D4 and the extracted compressed image data D10 to sequentially restore the original target frame data D1, the extracted image data and the mask pattern data. This is sent to the receiving side frame memory 17, temporarily stored, and then sent out to the display unit 18 sequentially, as shown in FIG. 6, into a low-resolution and low-quality frame image based on the target frame data D1. A frame image (hereinafter, referred to as a superimposed image) 60 having a display pattern that superimposes a high-resolution and high-quality extracted image 30 based on the extracted image data and the mask pattern data can be provided.

【0053】ここで、動画像配信サーバ2による動画像
配信処理と、パーソナルコンピュータ3による画像指定
処理との動画像提供システム1における表示パターン変
更処理手順についてまとめてみると、図7(A)に示す
ように、まず受て側のパーソナルコンピュータ3では、
ルーチンRT1の開始ステップから続くステップSP1
に移る。
FIG. 7A shows a summary of the display pattern changing processing procedure in the moving image providing system 1 of the moving image distribution processing by the moving image distribution server 2 and the image designation processing by the personal computer 3. As shown, first, the receiving personal computer 3
Step SP1 following the start step of the routine RT1
Move on to

【0054】ステップSP1においてパーソナルコンピ
ュータ3は、動画像配信サーバ2に対して配信要求を行
い、続くステップSP2に移る。
In step SP1, the personal computer 3 makes a distribution request to the moving image distribution server 2 and proceeds to step SP2.

【0055】ステップSP2においてパーソナルコンピ
ュータ3は、動画像配信サーバ2から配信されるフレー
ム符号化データD4に対して順次復号化処理を施すこと
により元の対象フレームデータD1を復元し、当該対象
フレームデータD1に基づくフレーム画像を順次表示部
18を介して表示し、続くステップSP3に移る。
In step SP2, the personal computer 3 restores the original target frame data D1 by sequentially decoding the coded frame data D4 distributed from the moving image distribution server 2, and restores the target frame data D1. The frame images based on D1 are sequentially displayed via the display unit 18, and the process proceeds to step SP3.

【0056】ステップSP3においてパーソナルコンピ
ュータ3は、表示部18に対象フレームデータD1に基
づくフレーム画像を表示している状態で操作入力部19
を介してユーザの希望する追跡領域30が指定されたか
否かを判断する。
In step SP3, the personal computer 3 operates the operation input unit 19 while displaying a frame image based on the target frame data D1 on the display unit 18.
It is determined whether or not the tracking area 30 desired by the user has been designated via the.

【0057】ここで否定結果が得られると、このことは
動画像配信サーバ2から配信されているフレーム符号化
データD4に基づく動画像をそのまま目視していたいと
いうユーザの意思を表しており、このときパーソナルコ
ンピュータ3はステップSP2に戻って、追跡領域30
が指定されるまで対象フレームデータD1に基づくフレ
ーム画像を順次表示部18を介して表示する。
If a negative result is obtained here, this indicates the user's intention to want to view the moving image based on the frame coded data D4 distributed from the moving image distribution server 2 as it is. The personal computer 3 returns to step SP2 and
Until is designated, the frame images based on the target frame data D1 are sequentially displayed via the display unit 18.

【0058】これに対して肯定結果が得られると、この
ことは動画像配信サーバ2から配信されるフレーム符号
化データD4に基づく動画像のうち、特定の領域のみを
高画質で目視したいというユーザの意思を表しており、
このときパーソナルコンピュータ3は、続くステップS
P4に移る。
On the other hand, if a positive result is obtained, this means that the user who wants to view only a specific area of the moving image based on the frame coded data D4 distributed from the moving image distribution server 2 with high image quality. The intention of
At this time, the personal computer 3 proceeds to step S
Move to P4.

【0059】ステップSP4においてパーソナルコンピ
ュータ3は、操作入力部19を介して表示部18の表示
画面上に指定された追跡領域30を表す追跡領域データ
D5と、当該指定されたときのフレーム画像の対象フレ
ームデータに対応するフレーム番号を示すフレーム番号
データD6とを指定データD7として動画像配信サーバ
2に送信し、続くステップSP5に移る。
In step SP4, the personal computer 3 sets the tracking area data D5 representing the tracking area 30 specified on the display screen of the display unit 18 via the operation input unit 19 and the target of the frame image at the time of the specification. The frame number data D6 indicating the frame number corresponding to the frame data is transmitted to the moving image distribution server 2 as the designated data D7, and the process proceeds to step SP5.

【0060】ステップSP5においてパーソナルコンピ
ュータ3は、動画像配信サーバ2から配信されるフレー
ム符号化データD4及び抽出画像圧縮データD10に対
して順次復号化処理を施すことにより元の対象フレーム
データD1、抽出画像データ及びマスク画像データを復
元し、これら各データに基づいて表示部18を介して重
ね画像60を順次表示し、続くステップSP6に移って
画像指定処理を終了する。
In step SP5, the personal computer 3 sequentially decodes the encoded frame data D4 and the extracted compressed image data D10 distributed from the moving image distribution server 2 to obtain the original target frame data D1, The image data and the mask image data are restored, the superimposed images 60 are sequentially displayed via the display unit 18 based on these data, and the process proceeds to step SP6 to end the image designation processing.

【0061】一方、図7(B)に示すように、動画像配
信サーバ2では、ルーチンRT2の開始ステップから続
くステップSP11に移る。
On the other hand, as shown in FIG. 7B, the moving image distribution server 2 proceeds from the start step of the routine RT2 to the subsequent step SP11.

【0062】ステップSP11において動画像配信サー
バ2は、ビデオカメラ5によって被写体が撮像されなが
ら得られる動画像データMDを順次対象フレームデータ
D1単位で動き補償フレーム間予測により圧縮符号化す
ることによりフレーム符号化データD4を生成してパー
ソナルコンピュータ3に配信し、続くステップSP12
に移る。
In step SP11, the moving image distribution server 2 compresses and encodes the moving image data MD obtained while the subject is captured by the video camera 5 in units of target frame data D1 by motion compensation inter-frame prediction in order to perform frame coding. Generates the encrypted data D4 and distributes it to the personal computer 3, following step SP12
Move on to

【0063】ステップSP12において動画像配信サー
バ2は、パーソナルコンピュータ3から送信される指定
データD7を受けたか否かを判断する。
In step SP12, the moving image distribution server 2 determines whether or not the designated data D7 transmitted from the personal computer 3 has been received.

【0064】ここで否定結果が得られると、動画像配信
サーバ2はステップSP11に戻って、パーソナルコン
ピュータ3からの指定データD7を受けるまでフレーム
符号化データD4のみを送信し続ける。
If a negative result is obtained here, the moving image distribution server 2 returns to step SP11 and continues to transmit only the frame coded data D4 until receiving the designated data D7 from the personal computer 3.

【0065】これに対して肯定結果が得られると、動画
像配信サーバ2は図8に示す画像抽出処理を実行する。
すなわち動画像配信サーバ2は、サブルーチンSRTの
開始ステップから続くステップSP21に移る。
On the other hand, if a positive result is obtained, the moving image distribution server 2 executes the image extraction processing shown in FIG.
That is, the moving image distribution server 2 proceeds to the subsequent step SP21 from the start step of the subroutine SRT.

【0066】ステップSP21において動画像配信サー
バ2は、任意形状符号化部8で処理すべきフレーム番号
(すなわちフレーム符号化部10で処理中のフレーム番
号、以下、これを処理中フレーム番号と呼ぶ)を指定デ
ータD7のフレーム番号データD6に示されるフレーム
番号(以下、これを過去フレーム番号と呼ぶ)に変更
し、続くステップSP22に移る。
In step SP21, the moving image distribution server 2 sets the frame number to be processed by the arbitrary shape coding unit 8 (that is, the frame number being processed by the frame coding unit 10, hereinafter referred to as the frame number being processed). Is changed to the frame number indicated by the frame number data D6 of the designated data D7 (hereinafter, referred to as the past frame number), and the routine goes to the subsequent step SP22.

【0067】ステップSP22において動画像配信サー
バ2は、指定データD7のうち過去フレーム番号を消去
することにより、過去フレーム番号を残しておくことに
よって自らが誤動作してしまうことを回避し、続くステ
ップSP23に移る。
In step SP22, the moving image distribution server 2 deletes the past frame number from the designated data D7, thereby avoiding erroneous operation by leaving the past frame number, and following step SP23. Move on to

【0068】ステップSP23において動画像配信サー
バ2は、過去フレーム番号に対応する過去フレームデー
タD1pを配信側フレームメモリ6から読み出し、ステ
ップSP24に移る。
In step SP23, the moving image distribution server 2 reads out the past frame data D1p corresponding to the past frame number from the distribution side frame memory 6, and proceeds to step SP24.

【0069】ステップSP24において動画像配信サー
バ2は、過去フレーム番号に対応する動きベクトルデー
タD2を共有メモリ9Aから読み出し、当該動きベクト
ルデータD2を用いて配信側フレームメモリ6から読み
出した過去フレームデータD1pに対して、当該指定デ
ータD7の追跡領域データD5に基づく追跡領域30の
移動位置を追跡し、ステップSP25に移る。
In step SP24, the moving image distribution server 2 reads the motion vector data D2 corresponding to the past frame number from the shared memory 9A, and reads the past frame data D1p read from the distribution frame memory 6 using the motion vector data D2. Then, the movement position of the tracking area 30 based on the tracking area data D5 of the designated data D7 is tracked, and the routine goes to step SP25.

【0070】ステップSP25において動画像配信サー
バ2は、過去フレーム番号と、フレーム符号化部10で
処理中のフレーム番号(以下、これを処理中フレーム番
号と呼ぶ)とが一致するか否かを判断する。
In step SP25, the moving image distribution server 2 determines whether or not the past frame number matches the frame number being processed by the frame encoding unit 10 (hereinafter, referred to as the frame number being processed). I do.

【0071】ここで、否定結果が得られると、このこと
は処理中フレーム番号を変更した過去フレーム番号が、
未だフレーム符号化部10で処理している現時点のフレ
ーム番号に到達していないことを表しており、このとき
動画像配信サーバ2は、ステップSP26に移る。
Here, if a negative result is obtained, this means that the past frame number whose changed frame number is being processed is:
This indicates that the current frame number currently being processed by the frame encoding unit 10 has not been reached. At this time, the moving image distribution server 2 proceeds to step SP26.

【0072】ステップSP26において動画像配信サー
バ2は、過去フレーム番号を1フレーム分繰り上げた
後、ステップSP23に戻って、1フレーム分繰り上げ
た過去フレーム番号に対応する過去フレームデータD1
pを配信側フレームメモリ6から読み出し、当該読み出
した過去フレームデータD1pに対して、当該指定デー
タD7の追跡領域データD5に基づく追跡領域30を追
跡する。
In step SP26, the moving image distribution server 2 increments the past frame number by one frame, and returns to step SP23 to return the past frame data D1 corresponding to the past frame number incremented by one frame.
p is read from the distribution side frame memory 6, and the tracking area 30 based on the tracking area data D5 of the specified data D7 is tracked with respect to the read past frame data D1p.

【0073】このように動画像配信サーバ2は、ステッ
プSP25において肯定結果が得られるまで、ステップ
SP26において過去フレーム番号を順次1フレーム分
ずつ繰り上げる毎に、指定データD7の追跡領域データ
D5に基づく追跡領域30を追跡するようになされてい
る。
As described above, the moving image distribution server 2 performs tracking based on the tracking area data D5 of the designated data D7 each time the past frame number is sequentially incremented by one frame in step SP26 until a positive result is obtained in step SP25. An area 30 is tracked.

【0074】ステップSP25において肯定結果が得ら
れると、このことは処理中フレーム番号を変更した過去
フレーム番号が、フレーム符号化部10で処理している
現時点のフレーム番号に到達したことを表しており、こ
のとき動画像配信サーバ2は続くステップSP27に移
る。
If a positive result is obtained in step SP25, this means that the past frame number whose frame number being processed has been changed has reached the current frame number being processed by the frame encoding unit 10. At this time, the moving image distribution server 2 proceeds to the subsequent step SP27.

【0075】ステップSP27において動画像配信サー
バ2は、処理中フレーム番号以降の対象フレームデータ
D1を読み出す毎に、抽出画像50を抽出すると共に、
マスクパターン画像35を生成し、これらに基づいて得
られる抽出画像データ及びマスクパターンデータと、抽
出画像動きベクトルデータとでなる抽出画像符号化デー
タD9を生成し、ステップSP13(図7(B))に移
る。
In step SP27, the moving image distribution server 2 extracts the extracted image 50 every time the target frame data D1 after the currently processed frame number is read out.
A mask pattern image 35 is generated, and extracted image coded data D9 composed of extracted image data and mask pattern data obtained based on these and extracted image motion vector data is generated, and step SP13 (FIG. 7B) Move on to

【0076】ステップSP13において動画像配信サー
バ2は、抽出画像符号化データD9のうち抽出画像デー
タを本来の画像サイズのままのマクロブロック単位で、
抽出画像動きベクトルデータを用いた動き補償フレーム
間予測によって比較的低い圧縮率で圧縮符号化し、同様
に抽出画像符号化データD9のうちマスクパターンデー
タをも比較的低い圧縮率で圧縮符号化することにより当
該圧縮符号化した抽出画像データ及びマスク画像データ
を抽出画像圧縮データD10を生成し、ステップSP1
4に移る。
In step SP13, the moving image distribution server 2 converts the extracted image data of the extracted image coded data D9 into macroblock units having the original image size.
Compression encoding at a relatively low compression rate by motion compensated inter-frame prediction using extracted image motion vector data, and similarly, mask coding of extracted image encoded data D9 at a relatively low compression rate. To generate extracted image compressed data D10 from the compressed and encoded extracted image data and mask image data, and
Move to 4.

【0077】ステップSP14において動画像配信サー
バ2は、パーソナルコンピュータ3に配信しているフレ
ーム符号化データD4に加えて、抽出画像圧縮データD
10も配信し始め、ステップSP15に移って、動画像
配信処理を終了する。
In step SP 14, the moving image distribution server 2 adds the extracted image compression data D 4 to the frame encoded data D 4 distributed to the personal computer 3.
10 is also started, and the process moves to step SP15 to end the moving image distribution process.

【0078】以上の動画像提供システム1においては、
動画像配信サーバ2から動画像データMDを順次フレー
ムデータ単位で圧縮符号化してパーソナルコンピュータ
3に送信し、当該パーソナルコンピュータ3を介して動
画像データMDに基づく動画像を表示しているとき、パ
ーソナルコンピュータ3の操作入力部19から追跡領域
30が指定されると、当該パーソナルコンピュータ3の
指定データ生成部20により追跡領域30の追跡を開始
するユーザ指定画像GR25のフレーム番号を示すフレ
ーム番号データD6と、当該追跡領域30を指定する追
跡領域データD5とを生成し、これらをパーソナルコン
ピュータ3から動画像配信サーバ2へ送信する。
In the moving image providing system 1 described above,
When the moving image data MD is sequentially compressed and encoded in units of frame data from the moving image distribution server 2 and transmitted to the personal computer 3, and a moving image based on the moving image data MD is displayed via the personal computer 3, the personal computer 3 When the tracking area 30 is designated by the operation input unit 19 of the computer 3, frame number data D6 indicating the frame number of the user-specified image GR25 at which the tracking of the tracking area 30 is started by the designated data generating unit 20 of the personal computer 3. And the tracking area data D5 that specifies the tracking area 30 is transmitted from the personal computer 3 to the moving image distribution server 2.

【0079】この結果、指定データD7を受けた動画像
配信サーバ2の動き追跡・形状抽出部7によってフレー
ム符号化部10で既に圧縮符号化された各対象フレーム
データD1のうちフレーム番号データD6に示される過
去フレームデータD1pから、指定データD7を受けた
時点にフレーム符号化部10で圧縮符号化する現在処理
中画像GR50の対象フレームデータD1までの間で追
跡領域データD5に指定された追跡領域30を追跡し終
わると、それ以降は順次隣接するフレームデータ間で追
跡領域30を追跡する毎に対象フレームデータD1から
抽出画像データを抽出しながら、任意形状符号化部8に
より低圧縮率で順次圧縮符号化し、これを動画像配信サ
ーバ2からパーソナルコンピュータ3へ送信するように
した。
As a result, the frame number data D6 of the target frame data D1 already compressed and encoded by the frame encoding unit 10 by the motion tracking and shape extracting unit 7 of the moving image distribution server 2 receiving the designated data D7 The tracking area designated as the tracking area data D5 from the indicated past frame data D1p to the target frame data D1 of the currently processed image GR50 to be compression-encoded by the frame encoding unit 10 when the designated data D7 is received. After tracing the tracking area 30, the arbitrarily-shaped encoding unit 8 sequentially extracts the extracted image data from the target frame data D1 at a low compression rate every time the tracking area 30 is tracked between adjacent frame data. The data is compressed and coded and transmitted from the moving image distribution server 2 to the personal computer 3.

【0080】従って動画像提供システム1では、動画像
配信サーバ2と、パーソナルコンピュータ3との間にお
ける動画像データMDの配信の際に差分画像群GRGに
相当する遅延が生じていても、動き追跡・形状抽出部7
により、指定された過去フレームデータDp1から順次
時間軸に沿って追跡領域30の移動分を追跡し、その追
跡結果を現時点以降の対象フレームデータD1に反映さ
せて抽出画像50を順次抽出することにより、パーソナ
ルコンピュータ3の要求に応じた抽出画像50を適格に
提供することができる。
Therefore, in the moving image providing system 1, even when a delay corresponding to the difference image group GRG occurs when the moving image data MD is distributed between the moving image distribution server 2 and the personal computer 3, the motion tracking is performed.・ Shape extraction unit 7
By sequentially tracking the movement of the tracking area 30 from the designated past frame data Dp1 along the time axis, reflecting the tracking result on the target frame data D1 from the current time onward, and sequentially extracting the extracted image 50 Thus, the extracted image 50 according to the request of the personal computer 3 can be provided appropriately.

【0081】以上の動画像提供システム1によれば、パ
ーソナルコンピュータ3で抽出画像50の抽出を指定し
たときのフレーム画像と、そのとき動画像配信サーバ2
のフレーム符号化部10で処理中のフレーム画像とに相
当する遅延分の過去フレームデータDp1に渡って順次
抽出画像50を追跡し、その追跡結果をフレーム符号化
部10で処理中のフレーム画像を越えた以降に抽出画像
50を順次抽出して、動画像配信サーバ2とパーソナル
コンピュータ3と間の遅延をあたかも相殺するようにし
て適格に抽出画像50を抽出することにより、パーソナ
ルコンピュータ3の要求に応じた抽出画像50を適格に
提供することができ、かくして、動画像の提供を普及さ
せることができる。
According to the moving image providing system 1 described above, the frame image when the extraction of the extracted image 50 is designated by the personal computer 3 and the moving image distribution server 2
The extracted image 50 is sequentially traced over the past frame data Dp1 corresponding to the delay corresponding to the frame image being processed by the frame encoding unit 10 of FIG. After that, the extracted images 50 are sequentially extracted, and the extracted images 50 are appropriately extracted so as to cancel the delay between the moving image distribution server 2 and the personal computer 3, thereby meeting the requirements of the personal computer 3. The corresponding extracted image 50 can be provided appropriately, and thus the provision of the moving image can be spread.

【0082】なお上述の実施の形態においては、パーソ
ナルコンピュータ3が追跡領域30を一度のみ指定する
場合について述べたが、本発明はこれに限らず、追跡領
域を何度も指定しても良い。
In the above embodiment, the case where the personal computer 3 specifies the tracking area 30 only once has been described. However, the present invention is not limited to this, and the tracking area 30 may be specified many times.

【0083】この場合動画像配信サーバ2には、動き追
跡・形状抽出部7及び任意形状符号化部8に加えて、複
数の新たな動き追跡・形状抽出部及び任意形状符号化部
を当該動き追跡・形状抽出部7及び任意形状符号化部8
に対してそれぞれ並列に設け、パーソナルコンピュータ
3は、動画像配信サーバ2に設けた新たな動き追跡・形
状抽出部7及び任意形状符号化部8分だけ操作入力部1
8を介して追跡画像を指定し得るようにする。
In this case, the moving image distribution server 2 includes a plurality of new motion tracking / shape extraction units and an arbitrary shape encoding unit in addition to the motion tracking / shape extraction unit 7 and the arbitrary shape encoding unit 8. Tracking / shape extraction unit 7 and arbitrary shape encoding unit 8
Are provided in parallel with each other.
8 so that a tracking image can be designated.

【0084】実際上、パーソナルコンピュータ3の指定
データ生成部20は、追跡領域を指定する指定操作を操
作入力部19を介して行われる毎に、追跡領域データD
5及びフレーム番号データD6でなる指定データD7を
動画像配信サーバ2に送信する。
In practice, the designated data generating unit 20 of the personal computer 3 performs the tracking area data D every time the specifying operation for specifying the tracking area is performed through the operation input unit 19.
5 and the designated data D7 including the frame number data D6 are transmitted to the moving image distribution server 2.

【0085】複数の動き追跡・形状抽出部7は、パーソ
ナルコンピュータ3から指定データD7を受信する毎
に、順次待ち受けモードから通常モードに移行し、図8
において上述した画像抽出処理を実行し、それぞれ対応
する後段の任意形状符号化部8に送出する。
Each time the plurality of motion tracking / shape extracting units 7 receives the designated data D7 from the personal computer 3, it sequentially shifts from the standby mode to the normal mode.
Performs the above-described image extraction processing, and sends the result to the corresponding arbitrary shape encoding unit 8 at the subsequent stage.

【0086】複数の任意形状符号化部8は、それぞれ対
応する前段の動き追跡・形状抽出部7から抽出画像符号
化データD9が与えられると、待ち受けモードから通常
モードに移行し、抽出画像圧縮データD10を生成す
る。
When the plurality of arbitrary shape encoding units 8 are provided with the extracted image encoded data D9 from the corresponding preceding stage motion tracking / shape extracting unit 7, the plurality of arbitrary shape encoding units 8 shifts from the standby mode to the normal mode, and Generate D10.

【0087】このようにすれば、動画像配信像配信シス
テム1においては、パーソナルコンピュータ3からの複
数の要求を応じた複数の抽出画像をそれぞれ適格に提供
できる。
In this way, in the moving image distribution image distribution system 1, a plurality of extracted images corresponding to a plurality of requests from the personal computer 3 can be provided appropriately.

【0088】また上述の実施の形態においては、動画像
配信サーバ2がビデオカメラ5によって撮像しながら得
られている動画像データMDをパーソナルコンピュータ
3に配信する場合について述べたが、本発明はこれに限
らず、例えば動画像配信サーバ2の外部に接続されたD
VD(Digital Versatile Disk)等の記録媒体から読み出
しながら得られている動画像データMDをパーソナルコ
ンピュータ3に配信するようにしても良い。
In the above-described embodiment, the case has been described where the moving image distribution server 2 distributes the moving image data MD obtained while capturing the image with the video camera 5 to the personal computer 3. Not limited to, for example, D connected to the outside of the moving image distribution server 2
The moving image data MD obtained while reading from a recording medium such as a VD (Digital Versatile Disk) may be distributed to the personal computer 3.

【0089】この場合、動画像配信サーバ2は、例えば
300フレーム分蓄え得る記憶容量を有するものが選定
された配信側フレームメモリ6から動き追跡・形状抽出
部7によって指定データD7のフレーム番号データD5
に一致する過去フレームデータD1pを読み出すことな
く、外部に接続された記録媒体から過去フレームデータ
を読み出せば良く、従って配信側フレームメモリ6を回
避することができる。
In this case, the moving image distribution server 2 sends the frame number data D5 of the designated data D7 from the distribution side frame memory 6 having a storage capacity capable of storing 300 frames, for example, by the motion tracking / shape extraction unit 7.
Can be read out from the externally connected recording medium without reading out the past frame data D1p that matches the above, so that the distribution side frame memory 6 can be avoided.

【0090】さらに上述の実施の形態においては、図4
に示したように楕円形状の枠40が動画像配信サーバ2
で予め設定されている場合について述べたが、本発明は
これに限らず、図9に示すように、動き追跡・形状抽出
部7により追跡対象36内における人物等の輪郭を枠4
5として自動で選定したり、又は楕円形状以外の星形や
丸形等のこの他種々の形状の枠を動き追跡・形状抽出部
7に対して指定する等、枠としてはこの他種々の任意形
状のものを広く適用することができる。
Further, in the above embodiment, FIG.
As shown in the figure, the elliptical frame 40 is the moving image distribution server 2
However, the present invention is not limited to this, and as shown in FIG.
5 is automatically selected, or a frame of various other shapes such as a star shape or a round shape other than the elliptical shape is designated to the motion tracking / shape extraction unit 7. Shapes can be widely applied.

【0091】さらに上述の実施の形態においては、生成
データ生成部20がフレーム識別情報として、指定操作
が行われたときのフレーム番号(フレーム番号データD
5)を示す場合について述べたが、本発明はこれに限ら
ず、例えばタイムスタンプ等、この他種々のフレーム識
別情報によって指定操作が行われたときのフレーム画像
を示すようにしても良い。
Further, in the above-described embodiment, the generated data generating unit 20 uses the frame number (frame number data D
Although the case 5) has been described, the present invention is not limited to this. For example, a frame image when a designation operation is performed using various other frame identification information such as a time stamp may be shown.

【0092】さらに上述の実施の形態においては、フレ
ーム送信手段及び抽出画像送信手段としての配信側送信
部11がフレーム符号化データD4及び抽出画像符号化
データD10をそれぞれ別々の伝送線を介して送信し、
フレーム受信手段及び抽出画像受信手段としての受け側
受信部15がフレーム符号化データD4及び抽出画像符
号化データD10をそれぞれ別々の伝送線を介して受信
する場合について述べたが、本発明はこれに限らず、フ
レーム符号化データD4及び抽出画像符号化データD1
0を多重化して1つの伝送線上で送受するようにしても
良い。
Further, in the above-described embodiment, the transmitting side transmitting section 11 as the frame transmitting means and the extracted image transmitting means transmits the frame coded data D4 and the extracted image coded data D10 via separate transmission lines. And
The case has been described where the receiving side receiving unit 15 as the frame receiving unit and the extracted image receiving unit receives the encoded frame data D4 and the extracted image encoded data D10 through separate transmission lines, respectively. Not limited to, the frame encoded data D4 and the extracted image encoded data D1
0 may be multiplexed and transmitted / received on one transmission line.

【0093】さらに上述の実施の形態においては、フレ
ーム送信手段及び抽出画像送信手段としての配信側送信
部11と、受信手段としての配信側受信部12とを別々
の回路構成とし、フレーム受信手段及び抽出画像受信手
段としての受け側受信部15と、送信手段としての受け
側送信部21とをも別々の回路構成とする場合について
述べたが、本発明はこれに限らず、配信側送信部11及
び配信側受信部12、受け側受信部15及び受け側送信
部21をそれぞれ1つの回路構成にしても良い。
Further, in the above-described embodiment, the distribution-side transmission unit 11 as the frame transmission unit and the extracted image transmission unit and the distribution-side reception unit 12 as the reception unit have separate circuit configurations. Although a case has been described where the receiving side receiving unit 15 as the extracted image receiving unit and the receiving side transmitting unit 21 as the transmitting unit have separate circuit configurations, the present invention is not limited to this. Each of the distribution-side receiving unit 12, the receiving-side receiving unit 15, and the receiving-side transmitting unit 21 may have one circuit configuration.

【0094】さらに上述の実施の形態においては、図2
に示したように操作入力部19によって矩形状の追跡領
域30が指定されたとき、追跡領域30を表す抽出画像
指定情報としての追跡領域データD5を生成する生成手
段としての指定データ生成部20を適用する場合につい
て述べたが、本発明はこれに限らず、図2との対応部分
に同一符号を付して示す図10のように、操作入力部1
9によってフレーム画像GR25内で例えば人物24上
の任意の点41が指定されたとき、当該点41の画素の
輝度や色差等を表す画素情報に基づいて点41の画素を
中心として周辺のエッジ(すなわち、人物等の輪郭)4
3を抽出し、当該抽出したエッジを含むように任意の大
きさを有する矩形状の追跡領域42を表す抽出画像指定
情報を生成する生成手段、又はエッジ43の座標位置を
表す抽出画像指定情報を生成する生成手段、あるいはエ
ッジ43を含む人物24そのものを表す抽出画像指定情
報を生成する生成手段等、この他種々の抽出画像指定情
報を生成するこの他種々の生成手段を広く適用すること
ができる。
Further, in the above-described embodiment, FIG.
When the rectangular tracking area 30 is specified by the operation input unit 19 as shown in FIG. 7, the designated data generating unit 20 as generating means for generating tracking area data D5 as extracted image specifying information representing the tracking area 30 is set. Although the description has been given of the case where the present invention is applied, the present invention is not limited to this, and the operation input unit 1 is provided as shown in FIG.
For example, when an arbitrary point 41 on the person 24 is designated in the frame image GR25 by the frame image 9, the peripheral edge (about the pixel of the point 41) based on the pixel information indicating the luminance, the color difference, and the like of the pixel of the point 41 That is, the outline of a person or the like) 4
Generating means for extracting extracted image designation information representing a rectangular tracking area having an arbitrary size so as to include the extracted edge, or extracting image designation information representing a coordinate position of the edge 43; Various other generating means for generating other extracted image specifying information, such as generating means for generating, or generating means for generating extracted image specifying information representing the person 24 itself including the edge 43, can be widely applied. .

【0095】さらに上述の実施の形態においては、比較
的高い圧縮率で圧縮符号化するフレーム符号化手段とし
てのフレーム符号化部10、及び比較的低い圧縮率で圧
縮符号化する抽出画像符号化手段としての任意形状符号
化部8を適用する場合について述べたが、本発明はこれ
に限らず、配信側送信部11から送信する際のデータ量
が受信側への転送レート内に収まれば、比較的低い圧縮
率で圧縮符号化するフレーム符号化手段、及び比較的高
い圧縮率で圧縮符号化する抽出画像符号化手段等、この
他種々のフレーム符号化手段及び抽出画像符号化手段を
広く適用することができる。
Further, in the above-described embodiment, the frame encoding section 10 as a frame encoding means for compression-encoding at a relatively high compression rate, and the extracted image encoding means for compression-encoding at a relatively low compression rate However, the present invention is not limited to this case. If the amount of data transmitted from the distribution-side transmission unit 11 falls within the transfer rate to the reception side, the comparison is performed. Various other frame encoding means and extracted image encoding means, such as a frame encoding means for compressing and encoding at an extremely low compression rate, and an extracted image encoding means for compressing and encoding at a relatively high compression rate, are widely applied. be able to.

【0096】さらに上述の実施の形態においては、フレ
ーム復号手段及び抽出画像復号手段としての動画像復号
部16を同じ回路構成にしたが、本発明はこれに限ら
ず、別々の回路構成にしても良い。
Further, in the above-described embodiment, the moving picture decoding section 16 as the frame decoding means and the extracted picture decoding means has the same circuit configuration. However, the present invention is not limited to this, and the present invention is not limited to this. good.

【0097】さらに上述の実施の形態においては、動画
像データのフレーム画像間の動きベクトルを検出する動
きベクトル検出手段として、マクロブロック単位で動き
ベクトルを検出する動きベクトル検出部9を適用する場
合について述べたが、本発明はこれに限らず、動画像デ
ータのフレーム画像間の動きベクトルを検出することが
できれば、オプティカルフローにより動きベクトルを検
出する動きベクトル検出手段等、この他種々の動きベク
トル検出手段を広く適用することができる。
Further, in the above-described embodiment, a case is described in which a motion vector detecting section 9 for detecting a motion vector in macroblock units is applied as a motion vector detecting means for detecting a motion vector between frame images of moving image data. As described above, the present invention is not limited to this. If a motion vector between frame images of moving image data can be detected, various other motion vector detection means such as a motion vector detecting means for detecting a motion vector by an optical flow, etc. The means can be widely applied.

【0098】さらに上述の実施の形態においては、追跡
手段としての動き追跡・形状抽出部7が指定データD7
のフレーム番号データD6に一致する過去フレームデー
タD1p(既にフレーム符号化部10によって圧縮符号
化されたフレームデータ)以降の過去フレームデータD
1pを配信側フレームメモリ6から順次読み出す毎に、
当該過去フレームデータD1pに対応する動きベクトル
データD2を用いて追跡領域30を順次(図8に示した
画像処理手順におけるSP24−SP25−SP26の
ループ処理)1フレーム間隔で追跡する場合について述
べたが、本発明はこれに限らず、例えば2フレーム間隔
又は5フレーム間隔等、任意の間隔で配信側フレームメ
モリ6から過去フレームデータD1pを読み出す毎に、
当該過去フレームデータD1pに対応する動きベクトル
データD2を用いて追跡領域30を追跡するようにして
も良い。
Further, in the above-described embodiment, the motion tracking / shape extracting unit 7 as the tracking means uses the designated data D7.
Past frame data D1p (frame data already compressed and encoded by the frame encoding unit 10) and subsequent frame data D1 that match the frame number data D6
Each time 1p is sequentially read from the distribution side frame memory 6,
The case where the tracking area 30 is sequentially tracked at one frame interval (loop processing of SP24-SP25-SP26 in the image processing procedure shown in FIG. 8) using the motion vector data D2 corresponding to the past frame data D1p has been described. The present invention is not limited to this. For example, every time the past frame data D1p is read from the distribution-side frame memory 6 at an arbitrary interval such as a two-frame interval or a five-frame interval,
The tracking area 30 may be tracked using the motion vector data D2 corresponding to the past frame data D1p.

【0099】この場合、動き追跡・形状抽出部7は、一
段と少ない処理速度で追跡領域30を追跡することがで
きる。
In this case, the motion tracking / shape extracting unit 7 can track the tracking area 30 at a much lower processing speed.

【0100】さらに上述の実施の形態においては、画像
抽出手段としての動き追跡・形状抽出部7が指定データ
D7のフレーム番号データD5に一致する過去フレーム
データD1p以降の過去フレームデータD1pを順次読
み出す毎に、当該過去フレームデータD1pに対応する
動きベクトルデータD2を用いて追跡領域30を順次追
跡し、フレーム符号化部10で処理中の現在処理中画像
GR50に追いついたとき(すなわち図8に示した画像
処理手順におけるSP25で肯定結果が得られたとき)
から当該追跡領域30を抽出し、これを任意形状符号化
部8で圧縮符号化する場合について述べたが、本発明は
これに限らず、追跡領域30を追跡する毎に順次抽出
し、フレーム符号化部10で処理中の現在処理中画像G
R50に追いついたときから当該追跡領域30を任意形
状符号化部8で圧縮符号化しても良い。
Further, in the above-described embodiment, each time the motion tracking / shape extracting unit 7 as the image extracting means sequentially reads out the past frame data D1p after the past frame data D1p that matches the frame number data D5 of the designated data D7. Next, the tracking area 30 is sequentially tracked using the motion vector data D2 corresponding to the past frame data D1p, and when the tracking area 30 catches up with the currently processed image GR50 being processed by the frame encoding unit 10 (that is, as shown in FIG. 8). (When a positive result is obtained in SP25 in the image processing procedure)
Has been described in which the tracking area 30 is extracted from the data and compressed and encoded by the arbitrary shape encoding unit 8. However, the present invention is not limited to this. Image G currently being processed by the conversion unit 10
The tracking area 30 may be compression-encoded by the arbitrary shape encoding unit 8 after catching up with R50.

【0101】この場合、動き追跡・形状抽出部7は、形
状及び輝度や色度に変化のない追跡領域30の追跡をも
適格に行うことができ、かくして、一段と高精度の追跡
処理及び抽出処理を行うことができる。
In this case, the motion tracking / shape extracting unit 7 can appropriately perform the tracking of the tracking area 30 in which the shape, the luminance and the chromaticity do not change. Thus, the tracking processing and the extracting processing with higher accuracy can be achieved. It can be performed.

【0102】さらに上述の実施の形態においては、追跡
手段としての動き追跡・形状抽出部7が動きベクトルを
用いて任意のフレームデータに基づく各フレーム画像内
で抽出画像の移動位置を検出する毎に、当該移動位置を
ラインマッチング法により再検出する場合について述べ
たが、本発明はこれに限らず、例えば画素単位のブロッ
クマッチング法により再検出するようにしても良く、抽
出画像におけるRGB画素の分布状態のブロックマッチ
ング法により再検出するようにしても良い。
Further, in the above-described embodiment, each time the motion tracking / shape extracting unit 7 as the tracking means detects the moving position of the extracted image in each frame image based on arbitrary frame data using the motion vector. Although the case where the moving position is re-detected by the line matching method has been described, the present invention is not limited to this. For example, the moving position may be re-detected by the pixel-by-pixel block matching method. The state may be detected again by the block matching method.

【0103】さらに上述の実施の形態においては、動画
像配信装置としての動画像配信サーバ2と、画像指定装
置としてのパーソナルコンピュータ3とが伝送路として
のインターネット4を介して互いに接続されて構築され
る動画像提供システム1に適用するようにした場合につ
いて述べたが、本発明はこれに限らず、例えばビデオカ
メラ一体型パーソナルコンピュータと携帯電話機とがイ
ンターネットを介して互いに接続されて構築される動画
像提供システム、又はビデオカメラを接続した携帯電話
機とPDA(Personal Digital Assistants) とが専用線
を介して互いに接続されて構築される動画像提供システ
ム、さらにはテレビジョン放送装置とテレビジョン装置
とが衛星放送を介して互いに接続されて構築される動画
像提供システム等、この他種々の動画像配信装置、画像
指定装置及び伝送路を様々に組み合わせてなる動画像提
供システムに広く適用することができる。
Further, in the above-described embodiment, the moving image distribution server 2 as the moving image distribution device and the personal computer 3 as the image designation device are constructed by being connected to each other via the Internet 4 as the transmission path. The present invention is not limited to this case. For example, a moving image constructed by connecting a video camera-integrated personal computer and a mobile phone to each other via the Internet is described. An image providing system or a moving image providing system constructed by connecting a mobile phone connected to a video camera and a PDA (Personal Digital Assistants) to each other via a dedicated line, and furthermore, a television broadcasting apparatus and a television apparatus Other types such as a moving image providing system connected to each other via satellite broadcasting Of the moving image distribution apparatus, an image specifying device and the transmission path can be widely applied to the moving picture providing system comprising various combinations.

【0104】この場合動画像配信装置及び画像指定装置
には、図1について上述したそれぞれ対応する各回路ブ
ロックのハードウェアで動画像配信処理及び画像指定処
理を実行しても良く、当該ハードウェアに代えて図8
(A)について上述した動画像配信処理を実行するため
の動画像配信プログラム及び、図8(B)について上述
した画像指定処理を実行するための画像指定プログラム
をそれぞれ対応する動画像配信装置及び画像指定装置に
インストールし、当該各プログラムのソフトウェアで動
画像配信装置及び画像指定装置がそれぞれ対応する動画
像配信処理及び画像指定処理を実行しても良い。
In this case, the moving image distribution device and the image designating device may execute the moving image distribution process and the image designation process with the hardware of each corresponding circuit block described above with reference to FIG. Instead of FIG.
A moving image distribution device and an image corresponding to the moving image distribution program for executing the moving image distribution process described above with respect to FIG. 8A and the image designation program for executing the image designation process described above with reference to FIG. The moving image distribution device and the image designation device may execute the corresponding moving image distribution process and the image designation process, respectively, by being installed in the designated device and using the software of each program.

【0105】さらに動画像配信プログラム及び画像指定
プログラムをそれぞれ対応する動画像配信装置及び画像
指定装置にインストールするには、当該動画像配信プロ
グラム及び画像指定プログラム又はいずれか一方のプロ
グラムが格納されたプログラム格納媒体を用いても良
く、ローカルエリアネットワークやインターネット、デ
ィジタル衛星放送等の有線及び無線通信媒体を利用して
も良く、ルータやモデム等の各種通信インターフェイス
を介してインストールするようにしても良い。
Further, in order to install the moving image distribution program and the image designation program in the corresponding moving image distribution device and image designation device, respectively, the moving image distribution program and the image designation program or a program storing either one of the programs are stored. A storage medium may be used, a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting may be used. Alternatively, the storage medium may be installed via various communication interfaces such as a router and a modem.

【0106】因みに動画像配信プログラム及び画像指定
プログラム又はいずれか一方のプログラムを動画像配信
装置及び又は画像指定装置にインストールして当該動画
像配信プログラム及び又は画像指定プログラムが実行可
能な状態にするためのプログラム格納媒体としては、例
えばフロッピー(登録商標)ディスク、CD−ROM
(Compact Disc-Read Only Memory )、DVD(Digita
l Versatile Disc)等のパッケージメディアのみなら
ず、プログラムが一時的もしくは永続的に格納される半
導体メモリや磁気ディスク等で実現しても良い。また、
これらプログラム格納媒体にプログラムを格納する手段
としては、ローカルエリアネットワークやインターネッ
ト、ディジタル衛星放送等の有線及び無線通信媒体を利
用してもよく、ルータやモデム等の各種通信インターフ
ェイスを介して格納するようにしても良い。
In order to install the moving image distribution program and / or the image designation program in the moving image distribution device and / or the image designation device so that the moving image distribution program and / or the image designation program can be executed. For example, a floppy (registered trademark) disk, a CD-ROM
(Compact Disc-Read Only Memory), DVD (Digita
l Versatile Disc) or other package media, as well as a semiconductor memory or a magnetic disk in which a program is temporarily or permanently stored. Also,
As a means for storing the program in these program storage media, a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting may be used, and the program may be stored via various communication interfaces such as a router or a modem. You may do it.

【0107】[0107]

【発明の効果】上述のように本発明によれば、動画像配
信装置から動画像データを順次フレームデータ単位で圧
縮符号化して画像指定装置に送信し、当該画像指定装置
を介して動画像データに基づく動画像を表示していると
き、画像指定装置の指定手段から抽出画像が指定される
と、当該指定された上記フレームデータを示すフレーム
識別情報と、上記抽出画像を指定する抽出画像指定情報
とを画像指定装置から動画像配信装置へ送信する。
As described above, according to the present invention, moving image data is sequentially compressed and encoded in units of frame data from the moving image distribution device and transmitted to the image specifying device, and the moving image data is transmitted via the image specifying device. When an extracted image is specified by the specifying means of the image specifying device while displaying a moving image based on the extracted image, frame identification information indicating the specified frame data and extracted image specifying information specifying the extracted image Are transmitted from the image designation device to the moving image distribution device.

【0108】この結果、フレーム識別情報と、抽出画像
指定情報とを受けた追跡手段によってフレーム符号化手
段で既に圧縮符号化されたフレームデータのうちフレー
ム識別情報に示されるフレームデータから、フレーム識
別情報を受けた時点にフレーム符号化手段で圧縮符号化
するフレームデータまでの間で抽出画像指定情報に指定
された抽出画像を追跡し終わると、それ以降は順次隣接
するフレームデータ間で抽出画像を追跡する毎に、画像
抽出手段によりフレームデータから抽出画像を抽出しな
がら、抽出画像符号化手段により低圧縮率で順次圧縮符
号化し、これを動画像配信装置から画像指定装置へ送信
するようにした。
As a result, of the frame data already compressed and encoded by the frame encoding means by the tracking means having received the frame identification information and the extracted image designation information, the frame identification information is obtained from the frame data indicated by the frame identification information. After receiving the extracted image specified by the extracted image specification information until the frame data to be compression-encoded by the frame encoding means at the time of receiving, the extracted image is sequentially tracked between adjacent frame data thereafter. Each time, the extracted image is extracted from the frame data by the image extracting means, and is sequentially compressed and encoded at a low compression rate by the extracted image encoding means, and is transmitted from the moving image distribution device to the image designation device.

【0109】従って動画像提供システムでは、画像指定
装置で抽出画像の抽出を指定したときのフレームでーた
と、そのとき動画像配信装置のフレーム符号化手段で処
理中のフレームデータとに相当する遅延分のフレームデ
ータに渡って順次抽出画像を追跡し、その追跡結果をフ
レーム符号手段で処理中のフレームデータを越えた以降
に抽出画像を順次抽出して、動画像配信装置と画像指定
装置と間の遅延をあたかも相殺するようにして適格に抽
出画像を抽出することにより、画像指定装置の要求に応
じた抽出画像を適格に提供することができ、かくして、
動画像の提供を普及させることができる。
Therefore, in the moving image providing system, the frame when the extraction of the extracted image is specified by the image specifying device is equal to the delay corresponding to the frame data being processed by the frame encoding means of the moving image distribution device at that time. The extracted image is sequentially traced over the frame data of every minute, the extracted image is sequentially extracted after the tracking result exceeds the frame data being processed by the frame encoding means, and the extracted image is sequentially extracted between the moving image distribution device and the image designation device. By appropriately extracting the extracted image as if canceling out the delay of the extracted image, it is possible to appropriately provide the extracted image according to the request of the image designation device, and thus,
The provision of moving images can be spread.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した動画像提供システムの全体構
成を示すブロック図である。
FIG. 1 is a block diagram showing an overall configuration of a moving image providing system to which the present invention is applied.

【図2】追跡領域指定の説明に供する略線図である。FIG. 2 is a schematic diagram used for describing tracking area designation.

【図3】ユーザが追跡画像を指定したフレーム画像と、
このとき動画像配信サーバ側で処理中のフレーム画像と
の説明に供する略線図である。
FIG. 3 shows a frame image in which a user designates a tracking image;
FIG. 9 is a schematic diagram used to explain a frame image being processed on the moving image distribution server side at this time.

【図4】抽出画像の抽出の説明に供する略線図である。FIG. 4 is a schematic diagram for explaining extraction of an extracted image;

【図5】抽出画像の形状を指定するマスク画像の構成を
示す略線図である。
FIG. 5 is a schematic diagram illustrating a configuration of a mask image that specifies a shape of an extracted image.

【図6】表示部上に表示される重ね画像の説明に供する
略線図である。
FIG. 6 is a schematic diagram for explaining a superimposed image displayed on a display unit.

【図7】動画像提供システムにおける表示パターン変更
処理手順を示すフローチャートである。
FIG. 7 is a flowchart illustrating a display pattern change processing procedure in the moving image providing system.

【図8】画像抽出処理手順を示すフローチャートであ
る。
FIG. 8 is a flowchart illustrating an image extraction processing procedure.

【図9】他の実施の形態による抽出画像を表示するため
の形状指定の説明に供する略線図である。
FIG. 9 is a schematic diagram for explaining a shape designation for displaying an extracted image according to another embodiment;

【図10】他の実施の形態による追跡領域指定の説明に
供する略線図である。
FIG. 10 is a schematic diagram used for describing tracking area designation according to another embodiment.

【符号の説明】[Explanation of symbols]

1……動画像提供システム、2……動画像配信サーバ、
3……パーソナルコンピュータ、4……インターネッ
ト、6……配信側フレームメモリ、7……動き追跡・形
状抽出部、8……任意形状符号化部、9……動きベクト
ル検出部、10……フレーム符号化部、11……配信側
送信部、12……配信側受信部、15……受け側受信
部、16……動画像復号部、17……受け側フレームメ
モリ、18……表示部、19……操作入力部、20……
指定情報生成部、21……受け側送信部、30……追跡
領域、35……マスクパターン画像、40……枠、50
……抽出画像、MD……動画像データ、D1……対象フ
レームデータ、D1p……過去フレームデータ、D1a
……分割処理フレームデータ、D2……動きベクトルデ
ータ、D3……共有データ、D4……フレーム符号化デ
ータ、D5……追跡領域データ、D6……フレーム番号
データ、D7……指定情報、D9……抽出画像符号化デ
ータ、D10……抽出画像圧縮データ、GR25……ユ
ーザ指定画像、GR50……現在処理中画像、GRG…
…差分画像群。
1 ... moving image providing system, 2 ... moving image distribution server,
3 ... Personal computer, 4 ... Internet, 6 ... Distribution side frame memory, 7 ... Motion tracking / shape extraction unit, 8 ... Arbitrary shape encoding unit, 9 ... Motion vector detection unit, 10 ... Frame Encoding unit, 11 ... distribution side transmission unit, 12 ... distribution side reception unit, 15 ... reception side reception unit, 16 ... video decoding unit, 17 ... reception side frame memory, 18 ... display unit, 19 ... operation input section, 20 ...
Designation information generation unit, 21 receiving side transmission unit, 30 tracking area, 35 mask pattern image, 40 frame, 50
...... Extracted image, MD ... Moving image data, D1 ... Target frame data, D1p ... Past frame data, D1a
... Divided frame data D2 Motion vector data D3 Shared data D4 Frame encoded data D5 Tracking area data D6 Frame number data D7 Designated information D9 ... Extracted image coded data, D10 ... Extracted image compressed data, GR25 ... User specified image, GR50 ... Currently processed image, GRG ...
... Difference image group.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C059 KK37 LB05 MA00 MB01 MB11 MB16 MB22 MB27 NN01 NN21 PP04 PP28 RA08 RB01 RC16 RC40 SS08 SS20 TA00 TA06 TC45 UA02 UA05 UA33 UA34 UA39 5C064 BA07 BC16 BC18 BC20 BD02 BD08 (54)【発明の名称】 動画像配信装置、動画像配信方法、動画像配信プログラム、動画像配信プログラム格納媒体、画 像指定装置、画像指定方法、画像指定プログラム及び画像指定プログラム格納媒体及び動画像提 供システム ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5C059 KK37 LB05 MA00 MB01 MB11 MB16 MB22 MB27 NN01 NN21 PP04 PP28 RA08 RB01 RC16 RC40 SS08 SS20 TA00 TA06 TC45 UA02 UA05 UA33 UA34 UA39 5C064 BA07 BC16 BC18 BC20 BD02 BD08 (54) Title of the invention] Moving image distribution device, moving image distribution method, moving image distribution program, moving image distribution program storage medium, image designation device, image designation method, image designation program, image designation program storage medium, and moving image distribution system

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】送信対象の動画像データを順次フレームデ
ータ単位で圧縮符号化してフレーム符号化データを生成
するフレーム符号化手段と、 上記フレーム符号化データを順次画像指定装置に送信す
るフレーム送信手段と、 上記画像指定装置から送信された、上記フレーム符号化
データを復号化して得られる各上記フレームデータのう
ち抽出画像の抽出の開始が指定された上記フレームデー
タを示すフレーム識別情報と、当該抽出画像を指定する
抽出画像指定情報とを受信する受信手段と、 上記フレーム符号化手段により既に圧縮符号化された各
上記フレームデータのうち上記フレーム識別情報に示さ
れる上記フレームデータ以降の任意の各上記フレームデ
ータを用いて当該任意の各フレームデータに基づく各フ
レーム画像内で上記抽出画像指定情報によって指定され
た上記抽出画像を追跡する追跡手段と、上記追跡手段に
よって追跡された上記抽出画像の抽出画像データを任意
の各上記フレームデータから抽出する画像抽出手段と、 上記追跡手段による追跡に用いた上記フレームデータ
と、上記フレーム符号化送信手段により圧縮符号化され
る上記フレームデータとが一致した時点から上記抽出画
像データを上記フレーム符号化データとは異なる圧縮率
で順次圧縮符号化して抽出画像符号化データを生成する
抽出画像符号化手段と、 上記抽出画像符号化データを上記画像指定装置に送信す
る抽出画像送信手段とを具えることを特徴とする動画像
配信装置。
1. A frame encoding means for sequentially compressing and encoding moving image data to be transmitted in units of frame data to generate frame encoded data, and a frame transmitting means for sequentially transmitting the frame encoded data to an image specifying device. And frame identification information indicating the frame data designated to start extraction of an extracted image among the frame data obtained by decoding the frame encoded data transmitted from the image specifying device; and Receiving means for receiving extracted image designation information for designating an image; and any of the above-mentioned frame data indicated by the frame identification information among the frame data already compressed and encoded by the frame encoding means. The extracted image in each frame image based on the arbitrary frame data using the frame data Tracking means for tracking the extracted image specified by the constant information; image extracting means for extracting extracted image data of the extracted image tracked by the tracking means from any of the frame data; tracking by the tracking means The extracted image data is sequentially compression-encoded at a compression rate different from that of the frame-encoded data from the time when the frame data used for the frame-encoding and the frame data to be compression-encoded by the frame-encoding transmission means coincide with each other. A moving image distribution device comprising: an extracted image encoding unit that generates extracted image encoded data; and an extracted image transmitting unit that transmits the extracted image encoded data to the image specifying device.
【請求項2】上記フレーム符号化手段は、 連続する上記フレームデータ間の動きベクトルを検出す
る動きベクトル検出手段を具え、 上記追跡手段は、 上記動きベクトルを上記フレーム符号化手段と共有して
用いて上記任意の各フレームデータに基づく各フレーム
画像内で上記抽出画像指定情報によって指定された上記
抽出画像を追跡することを特徴とする請求項1に記載の
動画像配信装置。
2. The apparatus according to claim 1, wherein said frame encoding means includes a motion vector detecting means for detecting a motion vector between the continuous frame data, and said tracking means uses said motion vector in common with said frame encoding means. The moving image distribution apparatus according to claim 1, wherein the extracted image specified by the extracted image specifying information is tracked in each frame image based on the arbitrary frame data.
【請求項3】上記追跡手段は、 上記動きベクトルを用いて任意の上記フレームデータに
基づく各フレーム画像内で上記抽出画像の移動位置を検
出する毎に、少なくとも画素単位で上記移動位置を再検
出して上記抽出画像を追跡することを特徴とする請求項
2に記載の動画像配信装置。
3. The tracking means re-detects the moving position at least in pixel units each time the moving position of the extracted image is detected in each frame image based on any of the frame data using the motion vector. The moving image distribution apparatus according to claim 2, wherein the extracted image is tracked.
【請求項4】上記抽出手段は、 上記追跡手段によって上記抽出画像の上記抽出画像デー
タが追跡される毎に、上記抽出画像を抽出することを特
徴とする請求項1に記載の動画像配信装置。
4. The moving picture distribution apparatus according to claim 1, wherein the extracting means extracts the extracted image every time the tracking means tracks the extracted image data of the extracted image. .
【請求項5】送信対象の動画像データを順次フレームデ
ータ単位で圧縮符号化してフレーム符号化データを生成
するフレーム符号化ステップと、 上記フレーム符号化データを順次画像指定装置に送信す
るフレーム送信ステップと、 上記画像指定装置から送信された、上記フレーム符号化
データを復号化して得られる各上記フレームデータのう
ち抽出画像の抽出の開始が指定された上記フレームデー
タを示すフレーム識別情報と、当該抽出画像を指定する
抽出画像指定情報とを受信する受信ステップと、 上記動画像データのうち既に圧縮符号化された各上記フ
レームデータのうち上記フレーム識別情報に示される上
記フレームデータ以降の任意の各上記フレームデータを
用いて当該任意の各フレームデータに基づく各フレーム
画像内で上記抽出画像指定情報によって指定された上記
抽出画像を追跡する追跡ステップと、 当該追跡された上記抽出画像の抽出画像データを任意の
各上記フレームデータから抽出する画像抽出ステップ
と、 上記抽出画像の追跡に用いた上記フレームデータと、上
記動画像データのうち圧縮符号化される上記フレームデ
ータとが一致した時点から上記抽出画像データを上記フ
レーム符号化データとは異なる圧縮率で順次圧縮符号化
して抽出画像符号化データを生成する抽出画像符号化ス
テップと、 上記抽出画像符号化データを上記画像指定装置に送信す
る抽出画像送信ステップとを具えることを特徴とする動
画像配信方法。
5. A frame encoding step of sequentially compressing and encoding moving image data to be transmitted in units of frame data to generate encoded frame data, and a frame transmitting step of sequentially transmitting the encoded frame data to an image designating apparatus. And frame identification information indicating the frame data designated to start extraction of an extracted image among the frame data obtained by decoding the frame encoded data transmitted from the image specifying device; and A receiving step of receiving extracted image designation information for designating an image; and any one of the above-mentioned frame data indicated by the frame identification information among the frame data already compressed and encoded among the moving image data. The above extraction is performed in each frame image based on the arbitrary frame data using the frame data. A tracking step of tracking the extracted image specified by the image specifying information; an image extracting step of extracting extracted image data of the tracked extracted image from any of the frame data; and a tracking step of tracking the extracted image. The extracted image data is sequentially compressed and encoded at a compression rate different from that of the frame encoded data from the time when the frame data and the frame data to be compression encoded of the moving image data match. A moving image distribution method, comprising: an extracted image encoding step of generating encoded data; and an extracted image transmitting step of transmitting the extracted image encoded data to the image specifying device.
【請求項6】動画像配信装置に対して、 送信対象の動画像データを順次フレームデータ単位で圧
縮符号化してフレーム符号化データを生成するフレーム
符号化ステップと、 上記フレーム符号化データを順次画像指定装置に送信す
るフレーム送信ステップと、 上記画像指定装置から送信された、上記フレーム符号化
データを復号化して得られる各上記フレームデータのう
ち抽出画像の抽出の開始が指定された上記フレームデー
タを示すフレーム識別情報と、当該抽出画像を指定する
抽出画像指定情報とを受信する受信ステップと、 上記動画像データのうち既に圧縮符号化された各上記フ
レームデータのうち上記フレーム識別情報に示される上
記フレームデータ以降の任意の各上記フレームデータを
用いて当該任意の各フレームデータに基づく各フレーム
画像内で上記抽出画像指定情報によって指定された上記
抽出画像を追跡する追跡ステップと、 当該追跡された上記抽出画像の抽出画像データを任意の
各上記フレームデータから抽出する画像抽出ステップ
と、 上記抽出画像の追跡に用いた上記フレームデータと、上
記動画像データのうち圧縮符号化される上記フレームデ
ータとが一致した時点から上記抽出画像データを上記フ
レーム符号化データとは異なる圧縮率で順次圧縮符号化
して抽出画像符号化データを生成する抽出画像符号化ス
テップと、 上記抽出画像符号化データを上記画像指定装置に送信す
る抽出画像送信ステップとを実行させるための動画像配
信プログラム。
6. A frame encoding step of sequentially compressing and encoding moving image data to be transmitted in units of frame data to a moving image distribution apparatus to generate frame encoded data; Transmitting a frame to a designated device; and transmitting the frame data designated to start extraction of an extracted image among the frame data transmitted from the image designation device and obtained by decoding the frame encoded data. Receiving the frame identification information indicating the extracted image and the extracted image designation information for designating the extracted image; and indicating the frame identification information among the frame data already compressed and encoded in the moving image data. Based on each of the arbitrary frame data using any of the above frame data after the frame data A tracking step of tracking the extracted image specified by the extracted image specifying information in each frame image; and an image extracting step of extracting extracted image data of the tracked extracted image from any of the frame data. From the time when the frame data used for tracking the extracted image and the frame data to be compression-encoded in the moving image data coincide with each other, the extracted image data is sequentially converted at a compression rate different from that of the frame-encoded data. A moving image distribution program for executing an extracted image encoding step of compressing and encoding to generate extracted image encoded data, and an extracted image transmitting step of transmitting the extracted image encoded data to the image specifying device.
【請求項7】送信対象の動画像データを順次フレームデ
ータ単位で圧縮符号化してフレーム符号化データを生成
するフレーム符号化ステップと、 上記フレーム符号化データを順次画像指定装置に送信す
るフレーム送信ステップと、 上記画像指定装置から送信された、上記フレーム符号化
データを復号化して得られる各上記フレームデータのう
ち抽出画像の抽出の開始が指定された上記フレームデー
タを示すフレーム識別情報と、当該抽出画像を指定する
抽出画像指定情報とを受信する受信ステップと、 上記動画像データのうち既に圧縮符号化された各上記フ
レームデータのうち上記フレーム識別情報に示される上
記フレームデータ以降の任意の各上記フレームデータを
用いて当該任意の各フレームデータに基づく各フレーム
画像内で上記抽出画像指定情報によって指定された上記
抽出画像を追跡する追跡ステップと、 当該追跡された上記抽出画像の抽出画像データを任意の
各上記フレームデータから抽出する画像抽出ステップ
と、 上記抽出画像の追跡に用いた上記フレームデータと、上
記動画像データのうち圧縮符号化される上記フレームデ
ータとが一致した時点から上記抽出画像データを上記フ
レーム符号化データとは異なる圧縮率で順次圧縮符号化
して抽出画像符号化データを生成する抽出画像符号化ス
テップと、 上記抽出画像符号化データを上記画像指定装置に送信す
る抽出画像送信ステップとを具えることを特徴とする動
画像配信プログラムを動画像配信装置に実行させる動画
像配信プログラム格納媒体。
7. A frame encoding step of sequentially compressing and encoding moving image data to be transmitted in units of frame data to generate frame encoded data, and a frame transmitting step of sequentially transmitting the frame encoded data to an image specifying device. And frame identification information indicating the frame data designated to start extraction of an extracted image among the frame data obtained by decoding the frame encoded data transmitted from the image specifying device; and A receiving step of receiving extracted image designation information for designating an image; and any one of the above-mentioned frame data indicated by the frame identification information among the frame data already compressed and encoded among the moving image data. Using the frame data, the extraction is performed in each frame image based on the arbitrary frame data. A tracking step of tracking the extracted image specified by the image specifying information; an image extracting step of extracting extracted image data of the tracked extracted image from any of the frame data; and a tracking step of tracking the extracted image. The extracted image data is sequentially compressed and encoded at a compression rate different from that of the frame encoded data from the time when the frame data and the frame data to be compression encoded of the moving image data coincide with each other. Executing a moving image distribution program on a moving image distribution device, comprising: an extracted image encoding step of generating encoded data; and an extracted image transmitting step of transmitting the extracted image encoded data to the image designation device. A moving image distribution program storage medium to be executed.
【請求項8】送信対象の動画像データを順次フレームデ
ータ単位で圧縮符号化する所定の動画像配信装置から送
信されたフレーム符号化データを受信するフレーム受信
手段と、 上記フレーム符号化データを復号化する復号手段と、 上記フレーム符号化データの復号結果を用いてフレーム
データに基づくフレーム画像内から抽出する抽出画像
と、当該抽出画像の抽出を開始する上記フレームデータ
とを指定するための指定手段と、 上記指定手段により指定された上記フレームデータを示
すフレーム識別情報と、上記抽出画像を指定する抽出画
像指定情報とを上記動画像配信装置に送信する送信手段
と、 上記動画像配信装置から送信された、既に圧縮符号化さ
れた各上記フレームデータのうち上記フレーム識別情報
で示した上記フレームデータ以降の任意の上記フレーム
データを用いて当該任意の各フレームデータに基づく各
フレーム画像に対して上記抽出画像指定情報で指定した
上記抽出画像が追跡されると共に、当該追跡された抽出
画像の抽出画像データが任意の各上記フレームデータか
ら抽出され、上記動画像データのうち圧縮符号化される
上記フレームデータとが一致した時点以降、順次上記フ
レームデータから追跡され抽出された上記抽出画像デー
タが上記フレームデータとは異なる圧縮率で圧縮符号化
されて得られる抽出画像符号化データを受信する抽出画
像受信手段と、 各上記抽出画像符号化データを順次復号化する抽出画像
復号手段とを具えることを特徴とする画像指定装置。
8. A frame receiving means for receiving frame encoded data transmitted from a predetermined moving image distribution device for sequentially compressing and encoding moving image data to be transmitted in units of frame data, and decoding the frame encoded data Decoding means for decoding, and an extraction image to be extracted from within a frame image based on frame data using a decoding result of the frame encoded data, and designation means for designating the frame data to start extracting the extraction image Transmitting means for transmitting, to the moving image distribution apparatus, frame identification information indicating the frame data specified by the specifying means, and extracted image specifying information for specifying the extracted image; and transmitting from the moving image distribution apparatus. The frame data indicated by the frame identification information among the frame data already compressed and encoded. The extracted image specified by the extracted image designation information is tracked for each frame image based on the arbitrary frame data using the arbitrary frame data thereafter, and the extracted image of the tracked extracted image is tracked. Data is extracted from each of the frame data, and after the time when the frame data to be compression-encoded among the moving image data coincides with each other, the extracted image data tracked and extracted from the frame data is sequentially extracted from the frame data. Extracted image receiving means for receiving extracted image encoded data obtained by compression encoding at a compression rate different from data, and extracted image decoding means for sequentially decoding each of the extracted image encoded data. Characteristic image designation device.
【請求項9】送信対象の動画像データを順次フレームデ
ータ単位で圧縮符号化する所定の動画像配信装置から送
信されたフレーム符号化データを受信するフレーム受信
ステップと、 上記フレーム符号化データを復号化する復号ステップ
と、 上記フレーム符号化データの復号結果を用いてフレーム
データに基づくフレーム画像内から抽出する抽出画像
と、当該抽出画像の抽出を開始する上記フレームデータ
とを指定するための指定ステップと、 当該指定された上記フレームデータを示すフレーム識別
情報と、上記抽出画像を指定する抽出画像指定情報とを
上記動画像配信装置に送信する送信ステップと、 上記動画像配信装置から送信された、既に圧縮符号化さ
れた各上記フレームデータのうち上記フレーム識別情報
で示した上記フレームデータ以降の任意の上記フレーム
データを用いて当該任意の各フレームデータに基づく各
フレーム画像に対して上記抽出画像指定情報で指定した
上記抽出画像が追跡されると共に、当該追跡された抽出
画像の抽出画像データが任意の各上記フレームデータか
ら抽出され、上記動画像データのうち圧縮符号化される
上記フレームデータとが一致した時点以降、順次上記フ
レームデータから追跡され抽出された上記抽出画像デー
タが上記フレームデータとは異なる圧縮率で圧縮符号化
されて得られる抽出画像符号化データを受信する抽出画
像受信ステップと、 各上記抽出画像符号化データを順次復号化する抽出画像
復号ステップとを具えることを特徴とする画像指定方
法。
9. A frame receiving step of receiving frame encoded data transmitted from a predetermined moving image distribution apparatus for sequentially compressing and encoding moving image data to be transmitted in units of frame data, and decoding the frame encoded data A decoding step to specify an extracted image to be extracted from within a frame image based on the frame data using a decoding result of the frame encoded data, and a frame data to start extracting the extracted image. Transmitting the frame identification information indicating the specified frame data, and the extracted image designation information that designates the extracted image to the video distribution device, transmitted from the video distribution device, The frame data indicated by the frame identification information among the frame data already compressed and encoded. The extracted image specified by the extracted image designation information is tracked for each frame image based on the arbitrary frame data using the arbitrary frame data subsequent to the extracted data, and the extracted extracted image is extracted. Image data is extracted from each of the frame data, and after the time when the frame data to be compression-encoded in the moving image data coincides with each other, the extracted image data sequentially tracked and extracted from the frame data is An extracted image receiving step of receiving extracted image encoded data obtained by compression encoding at a compression rate different from frame data, and an extracted image decoding step of sequentially decoding each of the extracted image encoded data An image designating method characterized by the following.
【請求項10】再生指定装置に対して、 送信対象の動画像データを順次フレームデータ単位で圧
縮符号化する所定の動画像配信装置から送信されたフレ
ーム符号化データを受信するフレーム受信ステップと、 上記フレーム符号化データを復号化する復号ステップ
と、 上記フレーム符号化データの復号結果を用いてフレーム
データに基づくフレーム画像内から抽出する抽出画像
と、当該抽出画像の抽出を開始する上記フレームデータ
とを指定するための指定ステップと、 当該指定された上記フレームデータを示すフレーム識別
情報と、上記抽出画像を指定する抽出画像指定情報とを
上記動画像配信装置に送信する送信ステップと、 上記動画像配信装置から送信された、既に圧縮符号化さ
れた各上記フレームデータのうち上記フレーム識別情報
で示した上記フレームデータ以降の任意の上記フレーム
データを用いて当該任意の各フレームデータに基づく各
フレーム画像に対して上記抽出画像指定情報で指定した
上記抽出画像が追跡されると共に、当該追跡された抽出
画像の抽出画像データが任意の各上記フレームデータか
ら抽出され、上記動画像データのうち圧縮符号化される
上記フレームデータとが一致した時点以降、順次上記フ
レームデータから追跡され抽出された上記抽出画像デー
タが上記フレームデータとは異なる圧縮率で圧縮符号化
されて得られる抽出画像符号化データを受信する抽出画
像受信ステップと、 各上記抽出画像符号化データを順次復号化する抽出画像
復号ステップとを実行させるための画像指定プログラ
ム。
10. A frame receiving step of receiving frame-encoded data transmitted from a predetermined moving image distribution apparatus for sequentially compressing and encoding moving image data to be transmitted in units of frame data to a reproduction designating apparatus; A decoding step of decoding the frame-encoded data; an extracted image to be extracted from within a frame image based on the frame data using a decoding result of the frame-encoded data; and the frame data to start extracting the extracted image. A transmitting step of transmitting frame identification information indicating the specified frame data and extracted image specifying information specifying the extracted image to the moving image distribution apparatus; and The frame identification information of each of the already compressed and encoded frame data transmitted from the distribution device. The extracted image specified by the extracted image designation information is tracked for each frame image based on the arbitrary frame data using the arbitrary frame data after the frame data indicated by The extracted image data of the extracted image is extracted from any of the frame data, and after the time when the frame data to be compression-encoded in the moving image data coincides with each other, the extracted and traced sequentially from the frame data are extracted. An extracted image receiving step of receiving extracted image encoded data obtained by compressing and encoding the extracted image data at a compression ratio different from that of the frame data; and an extracted image decoding step of sequentially decoding each of the extracted image encoded data And an image designation program for executing
【請求項11】送信対象の動画像データを順次フレーム
データ単位で圧縮符号化する所定の動画像配信装置から
送信されたフレーム符号化データを受信するフレーム受
信ステップと、 上記フレーム符号化データを復号化する復号ステップ
と、 上記フレーム符号化データの復号結果を用いてフレーム
データに基づくフレーム画像内から抽出する抽出画像
と、当該抽出画像の抽出を開始する上記フレームデータ
とを指定するための指定ステップと、 当該指定された上記フレームデータを示すフレーム識別
情報と、上記抽出画像を指定する抽出画像指定情報とを
上記動画像配信装置に送信する送信ステップと、 上記動画像配信装置から送信された、既に圧縮符号化さ
れた各上記フレームデータのうち上記フレーム識別情報
で示した上記フレームデータ以降の任意の上記フレーム
データを用いて当該任意の各フレームデータに基づく各
フレーム画像に対して上記抽出画像指定情報で指定した
上記抽出画像が追跡されると共に、当該追跡された抽出
画像の抽出画像データが任意の各上記フレームデータか
ら抽出され、上記動画像データのうち圧縮符号化される
上記フレームデータとが一致した時点以降、順次上記フ
レームデータから追跡され抽出された上記抽出画像デー
タが上記フレームデータとは異なる圧縮率で圧縮符号化
されて得られる抽出画像符号化データを受信する抽出画
像受信ステップと、 各上記抽出画像符号化データを順次復号化する抽出画像
復号ステップとを具えることを特徴とする画像指定プロ
グラムを画像指定装置に実行させる画像指定プログラム
格納媒体。
11. A frame receiving step of receiving frame encoded data transmitted from a predetermined moving image distribution apparatus for sequentially compressing and encoding moving image data to be transmitted in units of frame data, and decoding the frame encoded data A decoding step to specify an extracted image to be extracted from within a frame image based on the frame data using a decoding result of the frame encoded data, and a frame data to start extracting the extracted image. Transmitting the frame identification information indicating the specified frame data, and the extracted image designation information that designates the extracted image to the video distribution device, transmitted from the video distribution device, The frame data indicated by the frame identification information among the frame data already compressed and encoded. The extracted image specified by the extracted image designation information is tracked for each frame image based on the arbitrary frame data using the arbitrary frame data after the data, and the extracted extracted image Extracted image data is extracted from each of the frame data, and from the time when the moving image data and the frame data to be compression-encoded match, the extracted image data sequentially tracked and extracted from the frame data is An extracted image receiving step of receiving extracted image encoded data obtained by compression encoding at a compression rate different from that of the frame data; and an extracted image decoding step of sequentially decoding each of the extracted image encoded data. An image designation program storage medium for causing an image designation device to execute the image designation program.
【請求項12】動画像配信装置と、画像指定装置とが所
定の伝送路を介して互いに接続されて構築される動画像
提供システムにおいて、 上記動画像配信装置は、 送信対象の動画像データを順次フレームデータ単位で圧
縮符号化してフレーム符号化データを生成するフレーム
符号化手段と、 上記フレーム符号化データを順次画像指定装置に送信す
るフレーム送信手段と、 上記画像指定装置から送信された、上記フレーム符号化
データを復号化して得られる各上記フレームデータのう
ち抽出画像の抽出の開始が指定された上記フレームデー
タを示すフレーム識別情報と、当該抽出画像を指定する
抽出画像指定情報とを受信する受信手段と、 上記フレーム符号化手段により既に圧縮符号化された各
上記フレームデータのうち上記フレーム識別情報に示さ
れる上記フレームデータ以降の任意の各上記フレームデ
ータを用いて当該任意の各フレームデータに基づく各フ
レーム画像内で上記抽出画像指定情報によって指定され
た上記抽出画像を追跡する追跡手段と、 上記追跡手段によって追跡された上記抽出画像の抽出画
像データを任意の各上記フレームデータから抽出する画
像抽出手段と、 上記追跡手段による追跡に用いた上記フレームデータ
と、上記フレーム符号化送信手段により圧縮符号化され
る上記フレームデータとが一致した時点から上記抽出画
像データを上記フレーム符号化データとは異なる圧縮率
で順次圧縮符号化して抽出画像符号化データを生成する
抽出画像符号化手段と、 上記抽出画像符号化データを上記画像指定装置に送信す
る抽出画像送信手段とを具え、 上記画像指定装置は、 上記フレーム符号化データを受信するフレーム受信手段
と、 上記フレーム符号化データを復号化する復号手段と、 上記フレーム符号化データの復号結果を用いてフレーム
データに基づくフレーム画像内から抽出する上記抽出画
像と、当該抽出画像の抽出を開始する上記フレームデー
タとを指定するための指定手段と、 上記フレーム識別情報及び上記抽出画像指定情報を上記
動画像配信装置に送信する送信手段と、 上記動画像配信装置から送信された上記抽出画像符号化
データを受信する抽出画像受信手段と、 上記抽出画像符号化データを復号化する抽出画像復号手
段とを具えることを特徴とする画像指定装置。
12. A moving image providing system in which a moving image distribution apparatus and an image designating apparatus are connected to each other via a predetermined transmission path, wherein the moving image distribution apparatus transmits moving image data to be transmitted. Frame encoding means for sequentially compressing and encoding frame data to generate frame encoded data; frame transmitting means for sequentially transmitting the frame encoded data to an image specifying device; Receiving frame identification information indicating the frame data designated to start extraction of an extracted image among the frame data obtained by decoding frame encoded data, and extracted image designation information designating the extracted image; Receiving means; and the frame identification information among the frame data already compressed and encoded by the frame encoding means. Tracking means for tracking the extracted image specified by the extracted image designation information in each frame image based on the arbitrary frame data using the arbitrary frame data after the frame data shown in the above, Image extraction means for extracting the extracted image data of the extracted image tracked by the tracking means from any of the frame data; frame data used for tracking by the tracking means; and compression codes by the frame encoding transmission means. Extracting image encoding means for sequentially compressing and encoding the extracted image data at a compression rate different from that of the frame encoded data from a point in time when the frame data to be encoded coincides with the frame encoded data to generate extracted image encoded data; Extracting image transmitting means for transmitting the encoded image data to the image specifying device, A frame receiving unit that receives the frame-encoded data; a decoding unit that decodes the frame-encoded data; and extracting from a frame image based on frame data using a decoding result of the frame-encoded data. The extracting image to be specified, and specifying means for specifying the frame data to start extracting the extracted image; transmitting means for transmitting the frame identification information and the extracted image specifying information to the moving image distribution device; An image specifying apparatus comprising: an extracted image receiving unit that receives the extracted image encoded data transmitted from the moving image distribution device; and an extracted image decoding unit that decodes the extracted image encoded data. .
JP2001145581A 2001-05-15 2001-05-15 Moving picture distributor, moving picture distribution method, moving picture distribution program, moving picture distribution program storage medium, picture designation device, picture designation method, picture designation program, picture designation program storage medium, and moving picture providing system Pending JP2002344925A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001145581A JP2002344925A (en) 2001-05-15 2001-05-15 Moving picture distributor, moving picture distribution method, moving picture distribution program, moving picture distribution program storage medium, picture designation device, picture designation method, picture designation program, picture designation program storage medium, and moving picture providing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001145581A JP2002344925A (en) 2001-05-15 2001-05-15 Moving picture distributor, moving picture distribution method, moving picture distribution program, moving picture distribution program storage medium, picture designation device, picture designation method, picture designation program, picture designation program storage medium, and moving picture providing system

Publications (1)

Publication Number Publication Date
JP2002344925A true JP2002344925A (en) 2002-11-29

Family

ID=18991368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001145581A Pending JP2002344925A (en) 2001-05-15 2001-05-15 Moving picture distributor, moving picture distribution method, moving picture distribution program, moving picture distribution program storage medium, picture designation device, picture designation method, picture designation program, picture designation program storage medium, and moving picture providing system

Country Status (1)

Country Link
JP (1) JP2002344925A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007281858A (en) * 2006-04-06 2007-10-25 Omron Corp Animation editing device
JP2013168739A (en) * 2012-02-14 2013-08-29 Hitachi Ltd Image processing system and image processing method
JP2015033055A (en) * 2013-08-05 2015-02-16 株式会社日立製作所 Image processing system and image processing method
JP2018523331A (en) * 2015-04-29 2018-08-16 ノースロップ グラマン システムズ コーポレイションNorthrop Grumman Systems Corporation Dynamically adjustable situational recognition interface for unmanned vehicle control

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007281858A (en) * 2006-04-06 2007-10-25 Omron Corp Animation editing device
US8204312B2 (en) 2006-04-06 2012-06-19 Omron Corporation Moving image editing apparatus
JP2013168739A (en) * 2012-02-14 2013-08-29 Hitachi Ltd Image processing system and image processing method
JP2015033055A (en) * 2013-08-05 2015-02-16 株式会社日立製作所 Image processing system and image processing method
JP2018523331A (en) * 2015-04-29 2018-08-16 ノースロップ グラマン システムズ コーポレイションNorthrop Grumman Systems Corporation Dynamically adjustable situational recognition interface for unmanned vehicle control

Similar Documents

Publication Publication Date Title
EP0895694B1 (en) System and method for creating trick play video streams from a compressed normal play video bitstream
US6559846B1 (en) System and process for viewing panoramic video
JP4547149B2 (en) Method and apparatus for encoding a mosaic
TW245871B (en) Method and apparatus for efficient addressing of dram in a video decompression processor
JPH09107547A (en) Already compressed dynamic image data amount reduction device, already compressed dynamic image data amount reduction system and already compressed dynamic image data reduction method
CN110809173B (en) Virtual live broadcast method and system based on AR augmented reality of smart phone
CN109040792A (en) A kind of processing method, cloud terminal and cloud desktop server that video redirects
JP2002330440A (en) Image transmission method, program for the image transmission method, recording medium for recording the program for the image transmission method, and image transmitter
KR20020075274A (en) Moving picture encoder, moving picture encoding method, moving picture encoding program used therewith, and storage medium storing the same
JP4086344B2 (en) Image transmitting apparatus and control method
JP2002344925A (en) Moving picture distributor, moving picture distribution method, moving picture distribution program, moving picture distribution program storage medium, picture designation device, picture designation method, picture designation program, picture designation program storage medium, and moving picture providing system
JPH10336673A (en) Edge detection method and its device in video signal coding system
JP2004221900A (en) Image information decoding device and its method
JPH0564172A (en) Video communication system and video transmitter and video receiver
CN113114956A (en) Method and device for video information superposition
JPH1013809A (en) Vod system and vod terminal equipment
JPH11196404A (en) Video transmitter, video receiver, their control method and storage medium
JP2002354487A (en) Moving picture encoder and method therefor
JP2003179826A (en) Image reproducing and displaying device
CN113992636B (en) Unmanned aerial vehicle multichannel video transmission and concatenation system based on 5G
CN113038254B (en) Video playing method, device and storage medium
CN113873247A (en) Digital video data encoding and decoding device and method
JPH10243389A (en) Moving image chart preparing device, moving image chart preparing method and moving image data retrieval system
JPH10164579A (en) Encoding control method and encoding controller using the method
JPH11239306A (en) Digital broadcast receiver