JP2003099783A - Animation processing method, its device, and program - Google Patents

Animation processing method, its device, and program

Info

Publication number
JP2003099783A
JP2003099783A JP2001287742A JP2001287742A JP2003099783A JP 2003099783 A JP2003099783 A JP 2003099783A JP 2001287742 A JP2001287742 A JP 2001287742A JP 2001287742 A JP2001287742 A JP 2001287742A JP 2003099783 A JP2003099783 A JP 2003099783A
Authority
JP
Japan
Prior art keywords
moving
moving body
moving image
information
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001287742A
Other languages
Japanese (ja)
Inventor
Miki Watanabe
美樹 渡辺
Kazunori Horikiri
和典 堀切
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2001287742A priority Critical patent/JP2003099783A/en
Publication of JP2003099783A publication Critical patent/JP2003099783A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Studio Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an animation processing method, its method, and a program for it capable of extracting a moving body such as a human from a photographed/formed animation and the like, tracing the extracted moving body, and associating the coordinate selected from the animation with the moving body. SOLUTION: A frame is extracted from the animation by an image extraction part 31, while the moving body is extracted by a moving body area extraction part 32 on the basis of differential information of one frame or each of a plurality of frames. Related information is set to the moving body by a moving body information registration part 33, and the setting is controlled by a related information management part 34. Then, respective moving bodies are traced by a clickable information management part 35 on the basis of the characteristic quantity of each moving body.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、動画処理方法お
よび装置並びにプログラムに関し、特に、映像やアニメ
ーション等の動画像中で移動する人物や物体等の追跡処
理を行う動画処理方法および装置並びにプログラムに関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image processing method, apparatus and program, and more particularly to a moving image processing method, apparatus and program for tracking a moving person or object in a moving image such as video or animation. .

【0002】[0002]

【従来の技術】近年、ケーブルテレビや衛星放送、地上
波放送等において、ディジタル化が進められるととも
に、インターネットもブロードバンド時代を迎え、様々
な動画等を容易に、かつ、高品質で視聴可能となってき
た。
2. Description of the Related Art In recent years, along with the progress of digitization in cable television, satellite broadcasting, terrestrial broadcasting, etc., the Internet has entered the broadband era, and various moving images can be viewed easily and with high quality. Came.

【0003】また、インターネットに代表されるよう
に、情報(動画等)の配信者と視聴者との間で双方向の
通信が可能なものも多く、視聴者は、単に動画等を視聴
するだけでなく、関連する情報等を取得して閲覧する機
会が増加している。
In addition, as represented by the Internet, there are many things that allow two-way communication between a distributor of information (moving images and the like) and a viewer, and the viewer simply watches the moving images and the like. Instead, there is an increasing number of opportunities to acquire and browse related information.

【0004】例えば、現在では、配信されているドラマ
や映画、バラエティー番組等に関連する情報記載された
ウェブページがインターネットを介して公開されてお
り、視聴者は、好みの情報を容易に取得することができ
るようになっている。
[0004] For example, at present, web pages describing information relating to distributed dramas, movies, variety programs, etc. are published via the Internet, and viewers can easily obtain favorite information. Is able to.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、現在、
配信、公開されている情報は、ドラマや映画等の番組単
位のものが多く、視聴者が特定の役者等の情報を取得し
たい場合であっても、一度、番組の情報を取得し、そこ
から役者名を確認して再度、所望の役者に関する情報を
取得する必要がある。
However, at the present time,
Most of the information that has been distributed and released is on a program-by-program basis such as dramas and movies, and even if the viewer wants to obtain information about a specific actor, etc. It is necessary to confirm the actor name and acquire the information about the desired actor again.

【0006】視聴者が特定の役者等の情報を直接取得し
ようとする場合には、その役者名や情報が公開されてい
るURL等を知っていれば、比較的容易に所望の情報を
取得することができるが、役者名を知らない場合など
は、困難となる。
[0006] When a viewer wants to directly obtain information on a specific actor or the like, if he / she knows the actor name and the URL where the information is disclosed, he / she can obtain the desired information relatively easily. It is possible, but it becomes difficult if you do not know the actor name.

【0007】また、動画等を配信する側も視聴者がどの
ような情報を所望しているかが判れば、該当する情報を
配信、または、情報が公開されているURL等を通知す
ることが可能となる。しかしながら、ドラマや映画等の
番組では、通常、複数の役者が出演しており、視聴者が
どの役者の情報を所望しているかを判別することは困難
である。
[0007] Also, if the viewer of the moving image or the like knows what kind of information the viewer wants, the corresponding information can be distributed or the URL where the information is disclosed can be notified. Becomes However, in a program such as a drama or a movie, usually, a plurality of actors appear, and it is difficult to determine which actor the viewer desires.

【0008】そこで、この発明は、ドラマや映画、バラ
エティー等の撮影された動画やアニメーションのように
作成された動画等から人物等の移動体を抽出するととも
に、該抽出した移動体を追跡し、動画中から選択された
座標と移動体とを関連付けることのできる動画処理方法
および装置並びにプログラムを提供することを目的とす
る。
Therefore, the present invention extracts a moving body such as a person from a moving picture taken such as a drama, movie, variety, or a moving picture created like animation, and tracks the extracted moving body. It is an object of the present invention to provide a moving image processing method, device, and program capable of associating a moving object with a coordinate selected from a moving image.

【0009】[0009]

【課題を解決するための手段】上述した目的を達成する
ため、請求項1の発明は、撮影若しくは作成された動画
に対し、該動画中の移動体の追跡処理を行う動画処理方
法において、動画を構成する複数のフレームから所定フ
レーム数毎に差分情報を取得するとともに、該取得した
差分情報から移動体を特定し、該特定した移動体の動画
中での位置情報を管理することを特徴とする。
In order to achieve the above-mentioned object, the invention of claim 1 is a moving image processing method for tracking a moving object in a moving image in a moving image captured or created. Difference information is acquired for each predetermined number of frames from a plurality of frames constituting the, and the moving object is specified from the acquired difference information, and the position information in the moving image of the specified moving object is managed. To do.

【0010】また、請求項2の発明は、請求項1の発明
において、前記差分情報から1以上の移動体が特定され
た場合に、該移動体毎に同一性を判定し、該判定結果に
基づいて前記移動体の動画中での位置情報をそれぞれ管
理することを特徴とする。
Further, in the invention of claim 2, in the invention of claim 1, when one or more moving bodies are specified from the difference information, the identity is judged for each moving body, and the judgment result is obtained. The position information in the moving image of the mobile body is managed based on the above.

【0011】また、請求項3の発明は、請求項2の発明
において、前記同一性の判定は、前記移動体の特徴量に
基づいて行うことを特徴とする。
Further, the invention of claim 3 is characterized in that, in the invention of claim 2, the determination of the identity is performed based on a characteristic amount of the moving body.

【0012】また、請求項4の発明は、請求項2の発明
において、前記同一性の判定は、前記移動体の移動距離
に基づいて行うことを特徴とする。
The invention according to claim 4 is characterized in that, in the invention according to claim 2, the determination of the identity is performed based on a moving distance of the moving body.

【0013】また、請求項5の発明は、請求項2の発明
において、前記同一性の判定は、前記移動体の特徴量お
よび移動距離に基づいて行うことを特徴とする。
Further, the invention of claim 5 is characterized in that, in the invention of claim 2, the determination of the identity is performed based on a feature amount and a moving distance of the moving body.

【0014】また、請求項6の発明は、請求項1の発明
において、前記差分情報は、前記動画から1フレーム毎
に取得されることを特徴とする。
The invention according to claim 6 is characterized in that, in the invention according to claim 1, the difference information is acquired for each frame from the moving image.

【0015】また、請求項7の発明は、請求項1の発明
において、前記位置情報に該位置情報に対応する移動体
の関連情報を対応付けて管理し、前記動画中から前記移
動体の位置情報に対応する位置が選択された場合に、該
選択された位置情報に対応する関連情報を提供すること
を特徴とする。
According to a seventh aspect of the present invention, in the first aspect of the present invention, the position information is managed by associating the related information of the moving body corresponding to the position information with each other, and managing the position of the moving body from the moving image. When the position corresponding to the information is selected, the related information corresponding to the selected position information is provided.

【0016】また、請求項8の発明は、撮影若しくは作
成された動画に対し、該動画中の移動体の追跡処理を行
う動画処理装置において、動画を構成する複数のフレー
ムから所定フレーム数毎に差分情報を取得し、該取得し
た差分情報から移動体を特定する移動体特定手段と、前
記移動体特定手段が特定した移動体の動画中での位置情
報を管理する位置情報管理手段とを具備することを特徴
とする。
According to the invention of claim 8, in a moving image processing apparatus for performing tracking processing of a moving object in a moving image in a moving image captured or created, a predetermined number of frames from a plurality of frames forming the moving image. A moving body identifying unit that obtains the difference information and identifies the moving body from the obtained difference information, and a position information managing unit that manages the position information in the moving image of the moving body identified by the moving body identifying unit. It is characterized by doing.

【0017】また、請求項9の発明は、請求項8の発明
において、前記移動体特定手段が1以上の移動体を特定
した場合に、該移動体毎の同一性を判定する移動体判定
手段をさらに具備し、前記位置情報管理手段は、前記移
動体判定手段の判定結果に基づいて、前記移動体の動画
中での位置情報をそれぞれ管理することを特徴とする。
Further, in a ninth aspect of the invention, in the eighth aspect of the invention, when the moving body specifying means specifies one or more moving bodies, the moving body judging means for judging the identity of each moving body. Further, the position information managing means manages the position information in the moving image of the moving body based on the judgment result of the moving body judging means.

【0018】また、請求項10の発明は、請求項9の発
明において、前記移動体判定手段は、前記移動体の特徴
量に基づいて前記同一性の判定を行うことを特徴とす
る。
Further, the invention of claim 10 is characterized in that, in the invention of claim 9, the moving body judging means judges the identity based on a characteristic amount of the moving body.

【0019】また、請求項11の発明は、請求項9の発
明において、前記移動体判定手段は、前記移動体の移動
距離に基づいて、前記同一性の判定を行うことを特徴と
する。
The invention of claim 11 is characterized in that, in the invention of claim 9, the moving body judging means judges the identity based on a moving distance of the moving body.

【0020】また、請求項12の発明は、請求項9の発
明において、前記移動体判定手段は、前記移動体の特徴
量および移動距離に基づいて、前記同一性の判定を行う
ことを特徴とする。
Further, the invention of claim 12 is characterized in that, in the invention of claim 9, the moving body judging means judges the identity based on a characteristic amount and a moving distance of the moving body. To do.

【0021】また、請求項13の発明は、請求項8の発
明において、前記移動体特定手段は、前記動画から1フ
レーム毎に前記差分情報を取得することを特徴とする。
The invention of claim 13 is characterized in that, in the invention of claim 8, the moving body specifying means acquires the difference information for each frame from the moving image.

【0022】また、請求項14の発明は、請求項8の発
明において、前記位置情報管理手段が管理する位置情報
に対応する移動体の関連情報を対応付けて管理し、前記
動画中から前記移動体の位置情報に対応する位置が選択
された場合に、該選択された位置情報に対応する関連情
報を提供する関連情報管理手段をさらに具備することを
特徴とする。
According to a fourteenth aspect of the present invention, in the eighth aspect of the present invention, the relevant information of the moving body corresponding to the position information managed by the position information managing means is managed in association with the moving information from the moving image. When the position corresponding to the position information of the body is selected, the related information management means for providing the related information corresponding to the selected position information is further provided.

【0023】また、請求項15の発明は、撮影若しくは
作成された動画中の移動体の追跡処理をコンピュータに
実行させる動画処理プログラムにおいて、動画を構成す
る複数のフレームから所定フレーム数毎に差分情報を取
得する第1のステップと、前記第1のステップで取得し
た差分情報から移動体を特定する第2のステップと、前
記第2のステップで特定した移動体の動画中での位置情
報を管理する第3のステップとを具備することを特徴と
する。
According to a fifteenth aspect of the present invention, in a moving image processing program for causing a computer to perform a tracking process of a moving object in a moving image captured or created, difference information is obtained from a plurality of frames forming the moving image every predetermined number of frames. Managing the position information in the moving image of the moving body specified in the second step, and the second step of specifying the moving body from the difference information acquired in the first step. And a third step of

【0024】また、請求項16の発明は、請求項15の
発明において、前記第2のステップにより1以上の移動
体が特定された場合に、該移動体毎に同一性を判定する
第4のステップをさらに具備し、前記第3のステップ
は、前記第4のステップによる判定結果に基づいて前記
移動体の動画中での位置情報をそれぞれ管理することを
特徴とする。
According to a sixteenth aspect of the present invention, in the fifteenth aspect of the present invention, when one or more moving bodies are specified in the second step, the identity is judged for each moving body. The method further comprises steps, wherein the third step manages the position information of the moving body in the moving image based on the determination result of the fourth step.

【0025】また、請求項17の発明は、請求項16の
発明において、前記第4のステップは、前記移動体の特
徴量に基づいて、前記同一性の判定を行うことを特徴と
する。
Further, the invention of claim 17 is characterized in that, in the invention of claim 16, the fourth step determines the identity based on a characteristic amount of the moving body.

【0026】また、請求項18の発明は、請求項16の
発明において、前記第4のステップは、前記移動体の移
動距離に基づいて、前記同一性の判定を行うことを特徴
とする。
The invention of claim 18 is characterized in that, in the invention of claim 16, the fourth step determines the identity based on a moving distance of the moving body.

【0027】また、請求項19の発明は、請求項16の
発明において、前記第4のステップは、前記移動体の特
徴量および移動距離に基づいて、前記同一性の判定を行
うことを特徴とする。
The invention of claim 19 is characterized in that, in the invention of claim 16, the fourth step determines the identity based on a feature amount and a moving distance of the moving body. To do.

【0028】また、請求項20の発明は、請求項15の
発明において、前記第1のステップは、前記動画から1
フレーム毎に前記差分情報を取得することを特徴とす
る。
According to a twentieth aspect of the present invention, in the fifteenth aspect of the present invention, the first step is from the moving image.
The difference information is obtained for each frame.

【0029】また、請求項21の発明は、請求項15の
発明において、前記位置情報に該位置情報に対応する移
動体の関連情報を対応付けて管理する第5のステップ
と、前記動画中から前記移動体の位置情報に対応する位
置が選択された場合に、該選択された位置情報に対応す
る関連情報を提供する第6のステップとをさらに具備す
ることを特徴とする。
According to a twenty-first aspect of the present invention, in the fifteenth aspect of the invention, a fifth step of managing the position information by associating the relevant information of the moving body corresponding to the position information, And a sixth step of providing related information corresponding to the selected position information when a position corresponding to the position information of the mobile body is selected.

【0030】[0030]

【発明の実施の形態】以下、この発明に係る動画処理方
法および装置並びにプログラムの一実施の形態につい
て、添付図面を参照して詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of a moving image processing method, apparatus and program according to the present invention will be described in detail below with reference to the accompanying drawings.

【0031】[実施例1]図1は、この発明を適用した
移動体追跡装置の機能的な構成を示すブロック図であ
る。なお、同図に示す移動体追跡装置3は、専用のハー
ドウェアとして構成してもよいが、コンピュータ上で動
作するソフトウェアとして構成することができる。
[Embodiment 1] FIG. 1 is a block diagram showing a functional configuration of a moving body tracking device to which the present invention is applied. The moving body tracking device 3 shown in the figure may be configured as dedicated hardware, but may be configured as software that operates on a computer.

【0032】同図に示すように、移動体追跡装置3は、
画像抽出部31と動体領域抽出部32、動体情報登録部
33、関連情報管理部34、クリッカブル情報管理部3
5、クリッカブルマップ生成部36、動画配信部37を
具備して構成される。
As shown in the figure, the moving body tracking device 3 is
The image extraction unit 31, the moving body region extraction unit 32, the moving body information registration unit 33, the related information management unit 34, and the clickable information management unit 3
5, a clickable map generation unit 36, and a moving image distribution unit 37.

【0033】画像抽出部31は、ビデオカメラ1やVT
R2等から入力された動画像から1フレームずつの切り
出しを行い、各フレームをRGBの各色で表されるビッ
トマップ画像に変換する。動体領域抽出部32は、画像
抽出部31で抽出された連続する2フレームの画像の差
分を計算し、差分がある閾値を超える領域を含む矩形領
域を移動体として抽出する。ただし、差分の計算は、必
ずしも1フレーム毎に行う必要が無く、数フレーム毎に
行うようにしてもよい。
The image extraction unit 31 is provided for the video camera 1 and the VT.
The moving image input from R2 or the like is cut out frame by frame, and each frame is converted into a bitmap image represented by each color of RGB. The moving body region extraction unit 32 calculates the difference between the images of two consecutive frames extracted by the image extraction unit 31 and extracts a rectangular region including a region where the difference exceeds a certain threshold as a moving body. However, the calculation of the difference does not necessarily have to be performed for each frame, and may be performed for every several frames.

【0034】動体情報登録部33は、移動体に関連情
報、例えば、URL(UniformResource
Locator)を設定するためのGUI(Grap
hical User Interface)を提供す
る。関連情報管理部34は、移動体の特徴量とその移動
体に設定された関連情報の組を管理する。
The moving body information registration unit 33 stores information related to the moving body, for example, a URL (UniformResource).
GUI (Grap) for setting Locator
Hical User Interface). The related information management unit 34 manages a set of the characteristic amount of the moving body and the related information set for the moving body.

【0035】クリッカブル情報管理部35は、動体領域
抽出部32から逐次抽出される移動体の特徴量に基づい
て、関連情報管理部34で管理される移動体の領域情報
を追跡管理する。クリッカブルマップ生成部36は、ク
リッカブル情報管理部35が管理する領域情報に基づい
てクリッカブルマップを生成する。このクリッカブルマ
ップ生成部36が生成するクリッカブルマップは、クラ
イアント側で動作するものである。
The clickable information management unit 35 tracks and manages the area information of the mobile body managed by the related information management unit 34 based on the feature quantity of the mobile body sequentially extracted from the moving body area extraction unit 32. The clickable map generation unit 36 generates a clickable map based on the area information managed by the clickable information management unit 35. The clickable map generated by the clickable map generation unit 36 operates on the client side.

【0036】動画配信部37は、画像抽出部31で抽出
されたフレーム毎にクリッカブルカップ生成部36で生
成されたクリッカブルマップを関連付けて配信する動画
を生成し、ネットワークを介して接続されるクライアン
トに配信する。
The moving picture distribution section 37 generates a moving picture in which the clickable map generated by the clickable cup generation section 36 is associated with each frame extracted by the image extraction section 31, and is distributed to the clients connected via the network. To deliver.

【0037】次に、移動体追跡装置3の動作について説
明するが、最初に、移動体に対する関連情報の登録処理
について説明する。図2は、移動体追跡装置3による関
連情報の登録処理の流れを示すフローチャートである。
Next, the operation of the moving body tracking device 3 will be described. First, the registration process of the related information for the moving body will be explained. FIG. 2 is a flowchart showing a flow of registration processing of related information by the mobile tracking device 3.

【0038】移動体追跡装置3は、ビデオカメラ1若し
くはVTR2等から入力された動画から画像抽出部31
がフレーム毎の切り出しを行い、連続するフレームの差
分情報から動体抽出部32が移動体の抽出を行って(ス
テップ101)、抽出した移動体を含む動体領域および
当該移動体の特徴量を取得する(ステップ102)。続
いて、動体抽出部32は、図示しない表示部に動体領域
を提示する(ステップ103)。
The moving body tracking device 3 includes an image extracting unit 31 for extracting a moving image input from the video camera 1 or the VTR 2 or the like.
Cuts out each frame, and the moving body extraction unit 32 extracts the moving body from the difference information of consecutive frames (step 101), and acquires the moving body area including the extracted moving body and the feature amount of the moving body. (Step 102). Then, the moving body extraction unit 32 presents the moving body region on a display unit (not shown) (step 103).

【0039】ここで、動体抽出部32が提示した動体領
域が登録者により選択されると(ステップ104でYE
S)、動体情報登録部33が図示しない表示部に登録画
面(GUI)を表示する(ステップ105)。なお、動
体抽出部32が提示する動体領域は、複数である場合が
あり、登録者による動体領域の選択は、マウス等のポイ
ンティングデバイス(不図示)により行われる。例え
ば、図示しない表示部に図3に示すような画面200が
表示され、当該画面200内に動体領域201および動
体領域202が提示されている状態で、登録者がポイン
タ203を動体領域201に合わせてマウスの操作を行
ったとする。この操作により動体情報登録部33は、登
録画面204を表示する。
Here, when the moving body area presented by the moving body extraction unit 32 is selected by the registrant (YE in step 104).
S), the moving body information registration unit 33 displays a registration screen (GUI) on the display unit (not shown) (step 105). There may be a plurality of moving body regions presented by the moving body extraction unit 32, and the registrant selects a moving body region with a pointing device (not shown) such as a mouse. For example, when the screen 200 as shown in FIG. 3 is displayed on the display unit (not shown) and the moving body area 201 and the moving body area 202 are presented in the screen 200, the registrant moves the pointer 203 to the moving body area 201. It is assumed that the mouse is operated. By this operation, the moving body information registration unit 33 displays the registration screen 204.

【0040】続いて、登録者が登録画面にURL等の関
連情報を入力すると(ステップ106でYES)、動体
情報登録部33は、入力された関連情報を移動体の特徴
量を組にして関連情報管理部34に登録する。このと
き、当該移動体が既に登録されている場合には(ステッ
プ107でYES)、登録されている情報の書き換えを
行い(ステップ108)、未だ登録されていない場合に
は(ステップ107でNO)、新規に登録を行う(ステ
ップ109)。
Subsequently, when the registrant inputs relevant information such as URL on the registration screen (YES in step 106), the moving body information registration section 33 relates the inputted relevant information with the feature amount of the moving body as a set. Register in the information management unit 34. At this time, if the mobile body is already registered (YES in step 107), the registered information is rewritten (step 108), and if it is not registered yet (NO in step 107). , Is newly registered (step 109).

【0041】ここで、関連情報管理部34に登録される
情報について説明する。関連情報管理部34に登録され
る情報は、図4に示すように移動体の特徴量を表す動体
特徴量を登録者により入力された関連情報が組で管理さ
れており、それぞれの組に動体識別子が付されている。
動体識別子は、各移動体を識別するためのもので、各動
画内でユニークなものとなる。また、動体特徴量は、移
動体の特徴を表すもので、例えば、色(RGBの値)や
輝度、形状や大きさ等により算出される。
Information registered in the related information management section 34 will be described below. As the information registered in the related information management unit 34, as shown in FIG. 4, the related information in which the moving body feature amount representing the feature amount of the moving body is input by the registrant is managed as a group, and the moving body group is managed in each group. An identifier is attached.
The moving body identifier is for identifying each moving body and is unique within each moving image. The moving body feature amount represents the feature of the moving body, and is calculated by, for example, color (RGB value), brightness, shape, size, or the like.

【0042】次に、移動体追跡装置3による移動体の追
跡処理について説明する。図5は、移動体追跡装置3に
よる移動体追跡処理の流れを示すフローチャートであ
る。
Next, the moving body tracking processing by the moving body tracking device 3 will be described. FIG. 5 is a flowchart showing the flow of the moving body tracking processing by the moving body tracking device 3.

【0043】移動体追跡装置3は、移動体追跡処理を開
始すると、まず、クリッカブル情報管理部35に登録さ
れている情報を初期化する(ステップ111)。続い
て、動体領域抽出部32が抽出した移動体を検出する
(ステップ112)。ここで、検出された移動体に未処
理のものがあれば(ステップ113でYES)、当該移
動体の特徴量に基づいて、関連情報情報管理部34から
動体識別子を取得し(ステップ114)、関連情報を取
得する(ステップ115)。そして、動体領域抽出部3
2から当該動体を含む動体領域を取得し(ステップ11
6)、取得した動体領域と関連情報を組にしてクリッカ
ブル情報管理部35に追加登録する(ステップ11
7)。クリッカブル情報管理部35に登録された情報
は、例えば、図6に示すようなものである。
When the moving body tracking device 3 starts the moving body tracking process, first, the information registered in the clickable information management section 35 is initialized (step 111). Then, the moving body extracted by the moving body area extraction unit 32 is detected (step 112). Here, if there is an unprocessed moving body detected (YES in step 113), a moving body identifier is acquired from the related information information management unit 34 based on the feature amount of the moving body (step 114), The related information is acquired (step 115). Then, the moving body region extraction unit 3
The moving body area including the moving body is acquired from 2 (step 11
6) The acquired moving body area and related information are paired and additionally registered in the clickable information management unit 35 (step 11).
7). The information registered in the clickable information management unit 35 is as shown in FIG. 6, for example.

【0044】ステップ114乃至ステップ117の処理
は、ステップ112で検出された移動体のうち、未処理
のものがある間繰り返して行われ(ステップ113でY
ES)、検出された全ての移動体に対して処理を行うと
(ステップ113でNO)、移動体追跡処理を終了す
る。
The processing from step 114 to step 117 is repeated while there is an unprocessed moving object detected in step 112 (Y in step 113).
ES), if processing is performed on all the detected moving bodies (NO in step 113), the moving body tracking processing is ended.

【0045】なお、ここで説明した移動体追跡処理は、
動画の1または複数フレーム毎(動体領域抽出部32が
差分情報から動体を抽出する毎)に、実行される。つま
り、動画中の移動体が移動する毎にクリッカブル情報管
理部35に登録されている情報は、更新されることとな
る。
The moving body tracking processing described here is
It is executed for each one or a plurality of frames of the moving image (every time the moving body region extraction unit 32 extracts the moving body from the difference information). That is, the information registered in the clickable information management unit 35 is updated every time the moving body in the moving image moves.

【0046】次に、移動体追跡装置3による動画の配信
処理について説明する。図7は、移動体追跡装置3によ
る動画配信処理の流れを示すフローチャートである。
Next, a moving image distribution process by the moving body tracking device 3 will be described. FIG. 7 is a flowchart showing a flow of moving image distribution processing by the moving body tracking device 3.

【0047】動画配信処理に際しては、まず、クリッカ
ブルマップ生成部36がクリッカブルマップの初期化を
行う(ステップ121)。続いて、クリッカブルマップ
生成部36が、クリッカブル情報管理部35に登録され
ている情報を取得し(ステップ122)、取得した情報
に基づいてクリッカブルマップを作成する(ステップ1
23)。クリッカブルマップが作成されると、動画配信
部37が動画の一部(1または複数フレーム)ととも
に、クリッカブルマップをクライアントに配信する(ス
テップ124)。
In the moving image distribution process, first, the clickable map generator 36 initializes the clickable map (step 121). Then, the clickable map generation unit 36 acquires the information registered in the clickable information management unit 35 (step 122) and creates the clickable map based on the acquired information (step 1).
23). When the clickable map is created, the moving image delivery unit 37 delivers the clickable map to the client together with a part (one or a plurality of frames) of the moving image (step 124).

【0048】クリッカブルマップ生成部36によるクリ
ッカブルマップの生成は、動画の1または複数フレーム
毎(動体領域抽出部32が差分情報から動体を抽出する
毎)に実行され、生成されたクリッカブルマップには、
URL等の関連情報が含まれているため、動画とともに
クリッカブルマップの配信を受けたクライアント側で
は、動画中の所望の移動体をマウス等で選択すること
で、設定されている関連情報を取得することができる。
The clickable map generation unit 36 generates the clickable map for each one or a plurality of frames of the moving image (every time the moving body region extraction unit 32 extracts the moving body from the difference information).
Since the related information such as the URL is included, the client side receiving the clickable map together with the moving image acquires the set related information by selecting a desired moving object in the moving image with a mouse or the like. be able to.

【0049】例えば、クライアント側に配信された動画
が、図8に示す画面250のように表示されたとする
と、クライアントの操作者(視聴者)がマウス等の操作
により、ポインタ251を画面250中の移動体に合わ
せてクリック等の動作を行うと、当該移動体に設定され
ている関連情報(URL)に基づいて、クライアントが
ウェブページ等を取得し、画面252として表示する。
For example, if the moving image distributed to the client is displayed as the screen 250 shown in FIG. 8, the operator (viewer) of the client operates the mouse or the like to move the pointer 251 in the screen 250. When an operation such as clicking is performed according to the moving body, the client acquires a web page or the like based on the related information (URL) set in the moving body, and displays it as a screen 252.

【0050】[実施例2]上述した実施例1では、動画
とともに配信するクリッカブルマップは、クライアント
側で動作するものであったが、この実施例2では、配信
するクリッカブルマップにサーバ(移動体追跡装置)側
で動作するものを利用する場合を説明する。
[Embodiment 2] In the above-described Embodiment 1, the clickable map to be distributed together with the moving image operates on the client side. However, in this Embodiment 2, the clickable map to be distributed is distributed to the server (moving object tracking). A case where a device operating on the device side is used will be described.

【0051】図9は、この発明を適用した実施例2にお
ける移動体追跡装置の機能的な構成を示すブロック図で
ある。なお、同図に示す移動体追跡装置4は、専用のハ
ードウェアとして構成してもよいが、コンピュータ上で
動作するソフトウェアとして構成することができる。
FIG. 9 is a block diagram showing the functional structure of a moving body tracking device according to the second embodiment of the present invention. The moving body tracking device 4 shown in the figure may be configured as dedicated hardware, but may be configured as software that operates on a computer.

【0052】同図に示すように、移動体追跡装置4は、
画像抽出部41と動体領域抽出部42、動体情報登録部
23、関連情報管理部44、クリッカブル情報管理部4
5、動画配信部46、クリック領域解析部47、HTM
L文書生成部48、HTML文書配信部49を具備して
構成される。
As shown in the figure, the moving body tracking device 4 is
The image extraction unit 41, the moving body region extraction unit 42, the moving body information registration unit 23, the related information management unit 44, and the clickable information management unit 4
5, video distribution unit 46, click area analysis unit 47, HTM
An L document generation unit 48 and an HTML document distribution unit 49 are provided and configured.

【0053】画像抽出部41は、ビデオカメラ1やVT
R2等から入力された動画像から1フレームずつの切り
出しを行い、各フレームをRGBの各色で表されるビッ
トマップ画像に変換する。動体領域抽出部42は、画像
抽出部41で抽出された連続する2フレームの画像の差
分を計算し、差分がある閾値を超える領域を含む矩形領
域を移動体として抽出する。ただし、差分の計算は、必
ずしも1フレーム毎に行う必要が無く、数フレーム毎に
行うようにしてもよい。
The image extracting section 41 is provided for the video camera 1 and the VT.
The moving image input from R2 or the like is cut out frame by frame, and each frame is converted into a bitmap image represented by each color of RGB. The moving body region extraction unit 42 calculates a difference between the images of two consecutive frames extracted by the image extraction unit 41, and extracts a rectangular region including a region where the difference exceeds a certain threshold as a moving body. However, the calculation of the difference does not necessarily have to be performed for each frame, and may be performed for every several frames.

【0054】動体情報登録部43は、移動体に関連情報
を設定するためのGUIを提供する。関連情報管理部4
4は、移動体の特徴量とその移動体に設定された関連情
報の組を管理する。クリッカブル情報管理部45は、動
体領域抽出部42から逐次抽出される移動体の特徴量に
基づいて、関連情報管理部44で管理される移動体の領
域情報を追跡管理する。
The moving body information registration unit 43 provides a GUI for setting related information in the moving body. Related Information Management Department 4
Reference numeral 4 manages a set of the characteristic amount of the moving body and the related information set in the moving body. The clickable information management unit 45 tracks and manages the area information of the mobile body managed by the related information management unit 44 based on the feature amount of the mobile body sequentially extracted from the moving body area extraction unit 42.

【0055】動画配信部46は、画像抽出部41から取
得した動画にクリッカブルマップを関連付け、ネットワ
ークを介して接続されるクライアントに配信する。ここ
で関連付けるクリッカブルマップは、サーバ(移動体追
跡装置4)側で処理を行うもの、つまり、クライアント
側でクリック等の動作があった場合に、その座標をサー
バ側に返すものである。したがって、関連付けるクリッ
カブルマップは、常に同一のものである。
The moving image distribution unit 46 associates the clickable map with the moving image acquired from the image extraction unit 41 and distributes it to the clients connected via the network. The clickable map to be associated here is one that is processed on the server (moving object tracking device 4) side, that is, when there is an operation such as a click on the client side, the coordinates thereof are returned to the server side. Therefore, the clickable maps to be associated are always the same.

【0056】クリック領域解析部47は、クライアント
側で動画(クリッカブルマップ)上の任意の座標がクリ
ックされた際に送信される当該座標の値を取得する。H
TML文書生成部48は、クリック領域解析部47が取
得した座標の値とクリッカブル情報管理部45が管理す
る移動体の領域情報に基づいて、選択された移動体を特
定し、特定した移動体に設定された関連情報を表示する
ためのHTML文書を生成する。HTML文書生成部4
8が生成する文書は、移動体追跡装置4若しくは他のウ
ェブサーバが管理するウェブページを取得したや、当該
ウェブページへのリダイレクト指示が記述されたもの、
関連情報として直接入力された情報(URL以外の情
報)を表示するためのもの等である。
The click area analysis unit 47 acquires the value of the coordinate transmitted when the arbitrary coordinate on the moving image (clickable map) is clicked on the client side. H
The TML document generation unit 48 identifies the selected moving body based on the coordinate values acquired by the click area analysis unit 47 and the region information of the moving body managed by the clickable information management unit 45, and identifies the selected moving body. An HTML document for displaying the set related information is generated. HTML document generator 4
The document generated by 8 is a document in which a web page managed by the mobile tracking device 4 or another web server is acquired, or a redirect instruction to the web page is described.
This is for displaying information (information other than URL) directly input as related information.

【0057】HTML文書配信部49は、HTML文書
生成部48が生成したHTML文書をクライアントに配
信する。
The HTML document delivery section 49 delivers the HTML document generated by the HTML document generation section 48 to the client.

【0058】次に、移動体追跡装置4の動作について説
明するが、関連情報の登録処理および移動体追跡処理
は、上述した実施例1の場合(図2および図5参照)と
同様である。ただし、実施例1の説明中の画像抽出部3
1と動体領域抽出部32、動体情報登録部33、関連情
報管理部34、クリッカブル情報管理部35をそれぞ
れ、画像抽出部41と動体領域抽出部42、動体情報登
録部23、関連情報管理部44、クリッカブル情報管理
部45に読み替えるものとする。
Next, the operation of the moving body tracking device 4 will be described. The registration processing of the related information and the moving body tracking processing are the same as in the case of the above-described first embodiment (see FIGS. 2 and 5). However, the image extraction unit 3 in the description of the first embodiment
1 and the moving body region extraction unit 32, the moving body information registration unit 33, the related information management unit 34, and the clickable information management unit 35, respectively, the image extraction unit 41, the moving body region extraction unit 42, the moving body information registration unit 23, and the related information management unit 44. , And is replaced by the clickable information management unit 45.

【0059】また、移動体追跡装置4による動画の配信
処理は、上述したように動画配信部46が、画像抽出部
41から取得した動画にクリッカブルマップを関連付け
てクライアントに配信するのみの処理となる。
The moving image distribution process by the moving body tracking device 4 is a process in which the moving image distribution unit 46 only distributes the moving image acquired from the image extraction unit 41 to the client in association with the clickable map as described above. .

【0060】次に、移動体追跡装置4による関連情報の
提供処理について説明する。図10は、移動体追跡装置
4における関連情報提供処理の流れを示すフローチャー
トである。
Next, the process of providing the related information by the moving body tracking device 4 will be described. FIG. 10 is a flowchart showing a flow of related information providing processing in the moving body tracking device 4.

【0061】移動体追跡装置4は、クリック領域解析部
47がクライアントから選択された座標を取得すると
(ステップ131でYES)、取得した座標をHTML
文書生成部48に渡す。HTML文書生成部48は、ク
リック領域解析部47から渡された座標に対応する関連
情報がクリッカブル情報管理部45に管理されているか
否かを調べる。ここで、座標に対応する関連情報が存在
した場合には(ステップ132でYES)、HTML文
書生成部48は、クリッカブル情報管理部45から当該
関連情報を取得し(ステップ133)、HTML文書を
生成する(ステップ134)。そして、生成された文書
をHTML文書配信部49がクライアントに配信する
(ステップ135)。
When the click area analysis unit 47 acquires the coordinates selected by the client (YES in step 131), the moving body tracking device 4 sets the acquired coordinates in HTML.
It is passed to the document generation unit 48. The HTML document generation unit 48 checks whether the related information corresponding to the coordinates passed from the click area analysis unit 47 is managed by the clickable information management unit 45. Here, when the related information corresponding to the coordinates exists (YES in step 132), the HTML document generation unit 48 acquires the related information from the clickable information management unit 45 (step 133) and generates the HTML document. (Step 134). Then, the HTML document delivery unit 49 delivers the generated document to the client (step 135).

【0062】[実施例3]上述した実施例1および実施
例2では、移動体の追跡に各移動体の特徴量を用いてい
たが、この実施例3では、移動体の追跡に領域の移動距
離を用いる場合を説明する。なお、実施例3では、動画
の配信先となるクライアントにクライアント側で処理を
行うクリッカブルマップを配信する場合(上述の実施例
1に対応)と、サーバ側で処理を行うクリッカブルマッ
プを配信する場合(上述の実施例2に対応)の両者につ
いて説明する。
[Third Embodiment] In the first and second embodiments described above, the feature amount of each moving body is used for tracking the moving body. In this third embodiment, however, the area is moved for tracking the moving body. The case of using the distance will be described. In the third embodiment, a case where a clickable map to be processed on the client side is distributed to a client as a moving image distribution destination (corresponding to the above-described first embodiment) and a case where a clickable map to be processed on the server side is distributed. Both (corresponding to the second embodiment described above) will be described.

【0063】図11は、実施例3においてクライアント
側で処理を行うクリッカブルマップを配信する場合の移
動追跡装置の機能的な構成を示すブロック図である。な
お、同図に示す移動体追跡装置5は、専用のハードウェ
アとして構成してもよいが、コンピュータ上で動作する
ソフトウェアとして構成することができる。
FIG. 11 is a block diagram showing the functional arrangement of a mobile tracking device in the case of delivering a clickable map to be processed on the client side in the third embodiment. The mobile object tracking device 5 shown in the figure may be configured as dedicated hardware, but may be configured as software that operates on a computer.

【0064】同図に示すように、移動体追跡装置5は、
画像抽出部51と動体領域抽出部52、動体情報登録部
53、関連情報管理部54、クリッカブルマップ生成部
55、動画配信部56を具備して構成される。
As shown in the figure, the moving body tracking device 5 is
The image extraction unit 51, the moving body region extraction unit 52, the moving body information registration unit 53, the related information management unit 54, the clickable map generation unit 55, and the moving image distribution unit 56 are configured.

【0065】画像抽出部51は、ビデオカメラ1やVT
R2等から入力された動画像から1フレームずつの切り
出しを行い、各フレームをRGBの各色で表されるビッ
トマップ画像に変換する。動体領域抽出部52は、画像
抽出部51で抽出された連続する2フレームの画像の差
分を計算し、差分がある閾値を超える領域を含む矩形領
域を移動体として抽出する。ただし、差分の計算は、必
ずしも1フレーム毎に行う必要が無く、数フレーム毎に
行うようにしてもよい。
The image extracting section 51 is provided for the video camera 1 and the VT.
The moving image input from R2 or the like is cut out frame by frame, and each frame is converted into a bitmap image represented by each color of RGB. The moving body region extraction unit 52 calculates the difference between the images of two consecutive frames extracted by the image extraction unit 51, and extracts a rectangular region including a region where the difference exceeds a certain threshold as a moving body. However, the calculation of the difference does not necessarily have to be performed for each frame, and may be performed for every several frames.

【0066】動体情報登録部53は、移動体に関連情報
を設定するためのGUIを提供する。関連情報管理部5
4は、移動体の座標若しくは領域とその移動体に設定さ
れた関連情報の組を管理する。クリッカブルマップ生成
部55は、関連情報管理部54が管理する領域情報に基
づいてクリッカブルマップを生成する。このクリッカブ
ルマップ生成部55が生成するクリッカブルマップは、
クライアント側で動作するものである。
The moving body information registration section 53 provides a GUI for setting related information to the moving body. Related Information Management Department 5
Reference numeral 4 manages a set of coordinates or a region of the moving body and related information set in the moving body. The clickable map generation unit 55 generates a clickable map based on the area information managed by the related information management unit 54. The clickable map generated by the clickable map generation unit 55 is
It works on the client side.

【0067】動画配信部56は、画像抽出部51で抽出
されたフレーム毎にクリッカブルカップ生成部55で生
成されたクリッカブルマップを関連付けて配信する動画
を生成し、ネットワークを介して接続されるクライアン
トに配信する。
The moving image distribution unit 56 generates a moving image in which the clickable map generated by the clickable cup generation unit 55 is associated with each frame extracted by the image extraction unit 51, and is distributed to the clients connected via the network. To deliver.

【0068】図12は、実施例3においてサーバ側で処
理を行うクリッカブルマップを配信する場合の移動追跡
装置の機能的な構成を示すブロック図である。なお、同
図に示す移動体追跡装置6は、専用のハードウェアとし
て構成してもよいが、コンピュータ上で動作するソフト
ウェアとして構成することができる。
FIG. 12 is a block diagram showing the functional arrangement of a mobile tracking device in the case where a clickable map to be processed on the server side is distributed in the third embodiment. The moving body tracking device 6 shown in the figure may be configured as dedicated hardware, but may be configured as software that operates on a computer.

【0069】同図に示すように、移動体追跡装置6は、
画像抽出部61と動体領域抽出部62、動体情報登録部
63、関連情報管理部64、動画配信部65、クリック
領域解析部66、HTML文書生成部67、HTML文
書配信部68を具備して構成される。
As shown in the figure, the moving body tracking device 6 is
The image extracting section 61, the moving body area extracting section 62, the moving body information registering section 63, the related information managing section 64, the moving image delivering section 65, the click area analyzing section 66, the HTML document generating section 67, and the HTML document delivering section 68 are provided. To be done.

【0070】画像抽出部61は、ビデオカメラ1やVT
R2等から入力された動画像から1フレームずつの切り
出しを行い、各フレームをRGBの各色で表されるビッ
トマップ画像に変換する。動体領域抽出部62は、画像
抽出部61で抽出された連続する2フレームの画像の差
分を計算し、差分がある閾値を超える領域を含む矩形領
域を移動体として抽出する。ただし、差分の計算は、必
ずしも1フレーム毎に行う必要が無く、数フレーム毎に
行うようにしてもよい。
The image extracting section 61 is provided for the video camera 1 and the VT.
The moving image input from R2 or the like is cut out frame by frame, and each frame is converted into a bitmap image represented by each color of RGB. The moving body region extraction unit 62 calculates a difference between the images of two consecutive frames extracted by the image extraction unit 61, and extracts a rectangular region including a region where the difference exceeds a certain threshold as a moving body. However, the calculation of the difference does not necessarily have to be performed for each frame, and may be performed for every several frames.

【0071】動体情報登録部63は、移動体に関連情報
を設定するためのGUIを提供する。関連情報管理部6
4は、移動体の座標若しくは領域とその移動体に設定さ
れた関連情報の組を管理する。
The moving body information registration unit 63 provides a GUI for setting related information to the moving body. Related Information Management Department 6
Reference numeral 4 manages a set of coordinates or a region of the moving body and related information set in the moving body.

【0072】動画配信部65は、画像抽出部61から取
得した動画にクリッカブルマップを関連付け、ネットワ
ークを介して接続されるクライアントに配信する。ここ
で関連付けるクリッカブルマップは、サーバ(移動体追
跡装置6)側で処理を行うもの、つまり、クライアント
側でクリック等の動作があった場合に、その座標をサー
バ側に返すものである。したがって、関連付けるクリッ
カブルマップは、常に同一のものである。
The moving picture distribution unit 65 associates the moving picture acquired from the image extraction unit 61 with the clickable map and distributes it to the client connected via the network. The clickable map to be associated here is one that is processed on the server (moving object tracking device 6) side, that is, when there is an operation such as a click on the client side, the coordinates thereof are returned to the server side. Therefore, the clickable maps to be associated are always the same.

【0073】クリック領域解析部66は、クライアント
側で動画(クリッカブルマップ)上の任意の座標がクリ
ックされた際に送信される当該座標の値を取得する。H
TML文書生成部67は、クリック領域解析部66が取
得した座標の値と関連情報管理部64が管理する移動体
の領域情報に基づいて、選択された移動体を特定し、特
定した移動体に設定された関連情報を表示するためのH
TML文書を生成する。HTML文書生成部67が生成
する文書は、移動体追跡装置6若しくは他のウェブサー
バが管理するウェブページを取得したや、当該ウェブペ
ージへのリダイレクト指示が記述されたもの、関連情報
として直接入力された情報(URL以外の情報)を表示
するためのもの等である。
The click area analysis unit 66 acquires the value of the coordinates transmitted when any coordinates on the moving image (clickable map) are clicked on the client side. H
The TML document generation unit 67 specifies the selected moving body based on the coordinate value acquired by the click area analysis unit 66 and the area information of the moving body managed by the related information management unit 64. H to display the set related information
Generate a TML document. The document generated by the HTML document generation unit 67 is directly input as related information when a web page managed by the mobile tracking device 6 or another web server is acquired, a redirect instruction to the web page is described, and related information. It is for displaying information (information other than URL).

【0074】HTML文書配信部68は、HTML文書
生成部67が生成したHTML文書をクライアントに配
信する。
The HTML document distribution unit 68 distributes the HTML document generated by the HTML document generation unit 67 to the client.

【0075】次に、移動体追跡装置5および移動体追跡
装置6の動作について説明するが、移動体追跡装置5に
よる動画の配信処理は、実施例1における動画の配信処
理(図7参照)と同様であり、移動体追跡装置6による
動画の配信処理および関連情報の提供処理は、実施例2
における動画の配信処理および関連情報の提供処理(図
10参照)と同様であるので、ここでの説明は省略し、
関連情報の登録処理および移動体追跡処理についてのみ
説明する。ただし、実施例1の説明中のクリッカブル情
報管理部35、クリッカブルマップ生成部36、動画配
信部37は、それぞれ関連情報管理部54、クリッカブ
ルマップ生成部55、動画配信部56に読み替えるもの
とし、実施例2の説明中の画像抽出部41、クリッカブ
ル情報管理部45、動画配信部46、クリック領域解析
部47、HTML文書生成部48、HTML文書配信部
49は、それぞれ画像抽出部61、関連情報管理部6
4、動画配信部65、クリック領域解析部66、HTM
L文書生成部67、HTML文書配信部68に読み替え
るものとする。
Next, the operation of the moving body tracking device 5 and the moving body tracking device 6 will be described. The moving image distribution process by the moving body tracking device 5 is the same as the moving image distribution process in the first embodiment (see FIG. 7). Similarly, the moving image tracking process and the related information providing process performed by the mobile tracking device 6 are performed in the second embodiment.
Since it is the same as the moving image distribution process and the related information providing process (see FIG. 10) in FIG.
Only the related information registration processing and the mobile body tracking processing will be described. However, the clickable information management unit 35, clickable map generation unit 36, and moving image distribution unit 37 in the description of the first embodiment should be read as the related information management unit 54, clickable map generation unit 55, and moving image distribution unit 56, respectively. The image extraction unit 41, the clickable information management unit 45, the moving image distribution unit 46, the click area analysis unit 47, the HTML document generation unit 48, and the HTML document distribution unit 49 in the description of Example 2 are respectively an image extraction unit 61 and related information management. Part 6
4, video distribution unit 65, click area analysis unit 66, HTM
The L document generation unit 67 and the HTML document distribution unit 68 are to be replaced.

【0076】図13は、移動体追跡装置5および移動体
追跡装置6による関連情報の登録処理の流れを示すフロ
ーチャートである。
FIG. 13 is a flow chart showing a flow of registration processing of related information by the mobile unit tracking device 5 and the mobile unit tracking device 6.

【0077】移動体追跡装置5(6)は、ビデオカメラ
1若しくはVTR2等から入力された動画中から、登録
者がマウス等のポインティングデバイスにより任意の座
標を選択すると(ステップ301でYES)、動体情報
登録部53(63)が図示しない表示部に登録画面(G
UI)を表示する(ステップ302)。登録画面は、例
えば、図14に示すような画面400として表示され
る。当該画面400内で登録者がポインタ401を所望
する場所に合わせてマウスの操作を行うと、動体情報登
録部53(63)は、登録画面402を表示する。
When the registrant selects arbitrary coordinates from the moving image input from the video camera 1 or the VTR 2 with the pointing device such as a mouse (YES in step 301), the moving body tracking device 5 (6) moves the moving body. The information registration unit 53 (63) displays a registration screen (G
UI) is displayed (step 302). The registration screen is displayed as a screen 400 as shown in FIG. 14, for example. When the registrant moves the pointer 401 to a desired place in the screen 400 and operates the mouse, the moving body information registration unit 53 (63) displays the registration screen 402.

【0078】続いて、登録者が登録画面にURL等の関
連情報を入力すると(ステップ303でYES)、動体
情報登録部53(63)は、入力された関連情報を選択
された座標と組にして関連情報管理部54(64)に登
録する。
Subsequently, when the registrant inputs relevant information such as URL on the registration screen (YES in step 303), the moving body information registration section 53 (63) sets the inputted relevant information as a pair with the selected coordinate. And registers it in the related information management unit 54 (64).

【0079】ここで、関連情報管理部54(64)に登
録される情報について説明する。関連情報管理部54
(64)に登録される情報は、図15に示すように移動
体の座標若しくは領域(後述する追跡処理により座標が
領域に変換される)と登録者により入力された関連情報
が組で管理されており、それぞれの組に動体識別子が付
されている。動体識別子は、各移動体を識別するための
もので、各動画内でユニークなものとなる。
Information registered in the related information management section 54 (64) will be described below. Related information management unit 54
As shown in FIG. 15, the information registered in (64) is managed as a set of coordinates or a region of the moving body (coordinates are converted into a region by a tracking process described later) and related information input by the registrant. The moving body identifier is attached to each set. The moving body identifier is for identifying each moving body and is unique within each moving image.

【0080】次に、移動体追跡装置5および移動体追跡
装置6による移動体の追跡処理について説明する。図1
6は、移動体追跡装置5および移動体追跡装置6による
移動体追跡処理の流れを示すフローチャートである。
Next, the moving body tracking processing by the moving body tracking device 5 and the moving body tracking device 6 will be described. Figure 1
6 is a flowchart showing the flow of the moving body tracking device 5 and the moving body tracking process by the moving body tracking device 6.

【0081】移動体追跡装置5(6)は、画像抽出部5
1(61)が抽出したフレーム内から動体領域抽出部5
2(62)が抽出した移動体を検出する(ステップ31
1)。ここで、検出された移動体に未処理のものがあれ
ば(ステップ312でYES)、当該移動体の領域から
一定距離以内の座標若しくは領域の移動体を関連情報管
理部54(64)に登録されている情報から検出する
(ステップ313)。
The moving body tracking device 5 (6) includes an image extraction unit 5
1 (61) extracts the moving object region extraction unit 5 from within the frame.
2 (62) detects the moving object extracted (step 31)
1). Here, if there is an unprocessed moving body detected (YES in step 312), the moving body of coordinates or area within a fixed distance from the area of the moving body is registered in the related information management unit 54 (64). It is detected from the stored information (step 313).

【0082】その結果、関連情報管理部54(64)に
検出された移動体の領域から一定距離以内の座標若しく
は領域の移動体が登録されていれば(ステップ314で
YES)、フレーム内から抽出した移動体の領域を関連
情報管理部54(64)に登録されている座標若しくは
領域と置換する(ステップ315)。
As a result, if a coordinate within a certain distance from the detected region of the moving body or a moving body in the area is registered in the related information management unit 54 (64) (YES in step 314), it is extracted from within the frame. The region of the moving body is replaced with the coordinate or region registered in the related information management unit 54 (64) (step 315).

【0083】ステップ313乃至ステップ315の処理
は、ステップ311で検出された移動体のうち、未処理
のものがある間繰り返して行われ(ステップ312でY
ES)、検出された全ての移動体に対して処理を行うと
(ステップ312でNO)、移動体追跡処理を終了す
る。
The processing of steps 313 to 315 is repeated while there is an unprocessed moving object detected in step 311 (Y in step 312).
ES), if processing is performed on all the detected moving bodies (NO in step 312), the moving body tracking processing is ended.

【0084】なお、ここで説明した移動体追跡処理は、
動画の1または複数フレーム毎(動体領域抽出部52、
62が差分情報から動体を抽出する毎)に実行される。
つまり、動画中の移動体が移動する毎に関連情報管理部
54、64に登録されている情報は、更新されることと
なる。
The moving object tracking process described here is
For each one or a plurality of frames of the moving image (moving object region extraction unit 52,
62 is executed every time a moving body is extracted from the difference information).
That is, the information registered in the related information management units 54 and 64 is updated every time the moving body in the moving image moves.

【0085】また、移動体追跡処理は、上述した関連情
報の登録処理と並列処理で行われるため、関連情報が登
録された次のフレームから移動体の追跡が実行されるこ
とになる。
Since the moving body tracking processing is performed in parallel with the above-mentioned related information registration processing, the moving body is tracked from the next frame in which the related information is registered.

【0086】[実施例4]上述した実施例3では、移動
体の追跡に各移動体の移動距離を用いていたが、この実
施例4では、移動体の追跡に移動体の特徴量および領域
の移動距離を用いる場合を説明する。なお、実施例4で
は、移動体の追跡処理以外は、移動追跡装置の機能的な
構成も含め、実施例3と同様であるため、移動体の追跡
処理以外の説明は省略する。
[Fourth Embodiment] In the third embodiment described above, the moving distance of each moving body is used for tracking the moving body, but in the fourth embodiment, the feature amount and area of the moving body are used for tracking the moving body. The case where the moving distance of is used will be described. The fourth embodiment is the same as the third embodiment including the functional configuration of the movement tracking device except for the moving body tracking processing, and therefore the description other than the moving body tracking processing will be omitted.

【0087】まず、実施例4において、関連情報管理部
54(64)に登録される情報について説明する。関連
情報管理部54(64)に登録される情報は、図17に
示すように移動体の座標若しくは領域(後述する追跡処
理により座標が領域に変換される)と動体特徴量、登録
者により入力された関連情報が組で管理されており、そ
れぞれの組に動体識別子が付されている。動体識別子
は、各移動体を識別するためのもので、各動画内でユニ
ークなものとなる。なお、動体特徴量については、実施
例1および実施例2で説明したものと同様である。
First, the information registered in the related information management unit 54 (64) in the fourth embodiment will be described. The information registered in the related information management unit 54 (64) is input by the registrant, the coordinates or area of the moving body (the coordinates are converted into the area by the tracking processing described later), the moving body feature amount, as shown in FIG. The related information thus created is managed as a set, and a moving body identifier is attached to each set. The moving body identifier is for identifying each moving body and is unique within each moving image. The moving body feature amount is the same as that described in the first and second embodiments.

【0088】次に、移動体追跡装置5および移動体追跡
装置6による移動体の追跡処理について説明する。図1
8は、移動体追跡装置5および移動体追跡装置6による
移動体追跡処理の流れを示すフローチャートである。
Next, the moving body tracking processing by the moving body tracking device 5 and the moving body tracking device 6 will be described. Figure 1
8 is a flowchart showing a flow of a mobile body tracking process by the mobile body tracking device 5 and the mobile body tracking device 6.

【0089】移動体追跡装置5(6)は、画像抽出部5
1(61)が抽出したフレーム内から動体領域抽出部5
2(62)が抽出した移動体を検出する(ステップ51
1)。ここで、検出された移動体に未処理のものがあれ
ば(ステップ512でYES)、当該移動体の領域から
一定距離以内の座標若しくは領域の移動体を関連情報管
理部54(64)に登録されている情報から検出する
(ステップ513)。
The moving body tracking device 5 (6) includes an image extraction unit 5
1 (61) extracts the moving object region extraction unit 5 from within the frame.
2 (62) detects the moving object extracted (step 51).
1). If there is an unprocessed moving body detected (YES in step 512), the moving body of coordinates or area within a certain distance from the area of the moving body is registered in the related information management unit 54 (64). It is detected from the stored information (step 513).

【0090】その結果、関連情報管理部54(64)に
検出された移動体の領域から一定距離以内の座標若しく
は領域の移動体が登録されていれば(ステップ514で
YES)、フレーム内から抽出した処理対象の移動体の
特徴量と登録されている移動体の特徴量の類似度を比較
する(ステップ515)。
As a result, if a coordinate within a certain distance from the detected moving object area or a moving object in the area is registered in the related information management unit 54 (64) (YES in step 514), it is extracted from within the frame. The similarity between the feature amount of the processing target mobile unit and the registered feature amount of the mobile unit is compared (step 515).

【0091】比較の結果、両者の類似度の差が一定以内
であれば(ステップ516でYES)、フレーム内から
抽出した移動体の領域を関連情報管理部54(64)に
登録されている座標若しくは領域と置換する(ステップ
517)。
As a result of comparison, if the difference in similarity between the two is within a certain range (YES in step 516), the area of the moving body extracted from the frame is registered in the related information management unit 54 (64). Alternatively, the area is replaced (step 517).

【0092】ステップ513乃至ステップ517の処理
は、ステップ511で検出された移動体のうち、未処理
のものがある間繰り返して行われ(ステップ512でY
ES)、検出された全ての移動体に対して処理を行うと
(ステップ512でNO)、移動体追跡処理を終了す
る。
The processing of steps 513 to 517 is repeated while there is an unprocessed moving object detected in step 511 (Y in step 512).
ES), if the processing is performed on all the detected moving bodies (NO in step 512), the moving body tracking processing is ended.

【0093】なお、ここで説明した移動体追跡処理は、
動画の1または複数フレーム毎(動体領域抽出部52、
62が差分情報から動体を抽出する毎)に実行される。
つまり、動画中の移動体が移動する毎に関連情報管理部
54、64に登録されている情報は、更新されることと
なる。
The moving body tracking process described here is
For each one or a plurality of frames of the moving image (moving object region extraction unit 52,
62 is executed every time a moving body is extracted from the difference information).
That is, the information registered in the related information management units 54 and 64 is updated every time the moving body in the moving image moves.

【0094】また、移動体追跡処理は、上述した関連情
報の登録処理と並列処理で行われるため、関連情報が登
録された次のフレームから移動体の追跡が実行されるこ
とになる。
Since the moving body tracking processing is performed in parallel with the above-mentioned related information registration processing, the moving body tracking is executed from the next frame in which the related information is registered.

【0095】[0095]

【発明の効果】以上説明したように、この発明によれ
ば、動画からフレームを抽出するとともに、抽出した1
若しくは複数フレーム毎の差分情報に基づいて移動体を
抽出し、該移動体に関連情報を設定する。その後、各移
動体の特徴量と移動距離の少なくとも一方に基づいて、
各移動体の追跡を行うように構成したので、視聴者は、
各移動体に設定された関連情報を容易に取得することが
できる。
As described above, according to the present invention, a frame is extracted from a moving image and the extracted frame is extracted.
Alternatively, the moving body is extracted based on the difference information for each of a plurality of frames, and the related information is set in the moving body. After that, based on at least one of the feature amount and moving distance of each moving body,
Since it is configured to track each moving object, the viewer
It is possible to easily acquire the related information set for each mobile body.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明を適用した移動体追跡装置(実施例
1)の機能的な構成を示すブロック図である。
FIG. 1 is a block diagram showing a functional configuration of a moving body tracking device (embodiment 1) to which the invention is applied.

【図2】移動体追跡装置3による関連情報の登録処理の
流れを示すフローチャートである。
FIG. 2 is a flowchart showing a flow of registration processing of related information by the mobile tracking device 3.

【図3】関連情報の登録画面例(実施例1)を示した図
である。
FIG. 3 is a diagram showing an example of a related information registration screen (Example 1).

【図4】関連情報管理部34に登録される情報の例を示
した図である。
FIG. 4 is a diagram showing an example of information registered in a related information management unit 34.

【図5】移動体追跡装置3による移動体追跡処理の流れ
を示すフローチャートである。
5 is a flowchart showing a flow of a moving body tracking process by the moving body tracking device 3. FIG.

【図6】クリッカブル情報管理部35に登録された情報
の例を示した図である。
FIG. 6 is a diagram showing an example of information registered in the clickable information management unit 35.

【図7】移動体追跡装置3による動画配信処理の流れを
示すフローチャートである。
FIG. 7 is a flowchart showing a flow of moving image distribution processing by the moving body tracking device 3.

【図8】クライアント側に表示される画面の例を示した
図である。
FIG. 8 is a diagram showing an example of a screen displayed on the client side.

【図9】この発明を適用した実施例2における移動体追
跡装置の機能的な構成を示すブロック図である。
FIG. 9 is a block diagram showing a functional configuration of a moving body tracking device according to a second embodiment of the present invention.

【図10】移動体追跡装置4における関連情報提供処理
の流れを示すフローチャートである。
FIG. 10 is a flowchart showing a flow of related information providing processing in the mobile tracking device 4.

【図11】実施例3においてクライアント側で処理を行
うクリッカブルマップを配信する場合の移動追跡装置の
機能的な構成を示すブロック図である。
FIG. 11 is a block diagram showing a functional configuration of a mobile tracking device when a clickable map to be processed on the client side is distributed in the third embodiment.

【図12】実施例3においてサーバ側で処理を行うクリ
ッカブルマップを配信する場合の移動追跡装置の機能的
な構成を示すブロック図である。
FIG. 12 is a block diagram showing a functional configuration of a mobile tracking device when a clickable map to be processed on the server side is distributed in a third embodiment.

【図13】移動体追跡装置5および移動体追跡装置6に
よる関連情報の登録処理の流れを示すフローチャートで
ある。
FIG. 13 is a flowchart showing a flow of registration processing of related information by the mobile unit tracking device 5 and the mobile unit tracking device 6.

【図14】関連情報の登録画面例(実施例3)を示した
図である。
FIG. 14 is a diagram showing an example of a related information registration screen (Example 3).

【図15】関連情報管理部54(64)に登録される情
報の例を示した図である。
FIG. 15 is a diagram showing an example of information registered in a related information management unit 54 (64).

【図16】移動体追跡装置5および移動体追跡装置6に
よる移動体追跡処理の流れを示すフローチャートであ
る。
FIG. 16 is a flowchart showing a flow of a moving body tracking process by the moving body tracking device 5 and the moving body tracking device 6.

【図17】実施例4において関連情報管理部54(6
4)に登録される情報の例を示した図である。
FIG. 17 illustrates a related information management unit 54 (6) in the fourth embodiment.
It is the figure which showed the example of the information registered into 4).

【図18】移動体追跡装置5および移動体追跡装置6に
よる移動体追跡処理の流れを示すフローチャートであ
る。
FIG. 18 is a flowchart showing a flow of a moving body tracking process by the moving body tracking device 5 and the moving body tracking device 6.

【符号の説明】[Explanation of symbols]

1 ビデオカメラ 2 VTR 3 移動体追跡装置 4 移動体追跡装置 5 移動体追跡装置 6 移動体追跡装置 31 画像抽出部 32 動体領域抽出部 33 動体情報登録部 34 関連情報管理部 35 クリッカブル情報管理部 36 クリッカブルマップ生成部 37 動画配信部 41 画像抽出部 42 動体領域抽出部 43 動体情報登録部 44 関連情報管理部 45 クリッカブル情報管理部 46 動画配信部 47 クリック領域解析部 48 HTML文書生成部 49 HTML文書配信部 51 画像抽出部 52 動体領域抽出部 53 動体情報登録部 54 関連情報管理部 55 クリッカブルマップ生成部 56 動画配信部 61 画像抽出部 62 動体領域抽出部 63 動体情報登録部 64 関連情報管理部 65 動画配信部 66 クリック領域解析部 67 HTML文書生成部 68 HTML文書配信部 200 画面 201 動体領域 202 動体領域 203 ポインタ 204 登録画面 250 画面 251 ポインタ 252 画面 400 画面 401 ポインタ 402 登録画面 1 video camera 2 VTR 3 Mobile tracking device 4 Mobile tracking device 5 Mobile tracking device 6 Mobile tracking device 31 Image Extraction Unit 32 Moving Object Region Extraction Unit 33 Moving object information registration section 34 Related Information Management Department 35 Clickable Information Management Department 36 Clickable map generator 37 Video Distribution Department 41 Image Extraction Unit 42 Moving Object Region Extraction Unit 43 Moving object information registration section 44 Related Information Management Department 45 Clickable Information Management Department 46 Video Distribution Department 47 Click area analysis section 48 HTML document generator 49 HTML Document Delivery Department 51 Image Extraction Unit 52 Moving Object Region Extraction Unit 53 Moving object information registration section 54 Related Information Management Department 55 Clickable map generator 56 Video Distribution Department 61 Image extraction unit 62 Moving Object Region Extraction Unit 63 Moving object information registration section 64 Related Information Management Department 65 Video Distribution Department 66 Click area analysis section 67 HTML document generator 68 HTML Document Delivery Department 200 screens 201 Moving object area 202 Moving object area 203 pointer 204 registration screen 250 screens 251 pointer 252 screen 400 screens 401 pointer 402 registration screen

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/173 610 H04N 7/18 K 5L096 7/18 5/91 L N // H04N 7/08 7/08 Z 7/081 Fターム(参考) 5C023 AA06 AA15 AA16 AA18 AA26 BA04 CA01 CA05 DA01 DA08 5C053 FA14 FA29 GB06 GB40 JA03 JA21 JA30 LA01 LA14 5C054 AA02 CA04 CC02 CG02 CH01 DA06 EA01 EA03 EA05 EA07 EF06 FB03 FC12 FC13 FE24 FE25 FF03 GB12 GB14 GB16 GC03 GD04 HA31 5C063 AB07 AC01 BA12 CA07 CA23 CA40 DA07 DA13 DA20 EB39 EB45 EB50 5C064 BA07 BB10 BC10 BC18 BC20 BC25 BD02 BD08 BD09 5L096 FA69 GA08 HA03 JA11 Front page continuation (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 7/173 610 H04N 7/18 K 5L096 7/18 5/91 LN // H04N 7/08 7/08 Z 7 / 081 F Term (Reference) 5C023 AA06 AA15 AA16 AA18 AA26 BA04 CA01 CA05 DA01 DA08 5C053 FA14 FA29 GB06 GB40 JA03 JA21 JA30 LA01 LA14 5C054 AA02 CA04 CC02 CG02 CH01 DA06 EA03 FE03 FE25 FE13 FB13 FE13 FB13 FE13 FB06 FE13 FB13 FE06 FB13 FE13 FB13 FE06 FB13 FE13 FC12 GD04 HA31 5C063 AB07 AC01 BA12 CA07 CA23 CA40 DA07 DA13 DA20 EB39 EB45 EB50 5C064 BA07 BB10 BC10 BC18 BC20 BC25 BD02 BD08 BD09 5L096 FA69 GA08 HA03 JA11

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 撮影若しくは作成された動画に対し、該
動画中の移動体の追跡処理を行う動画処理方法におい
て、 動画を構成する複数のフレームから所定フレーム数毎に
差分情報を取得するとともに、該取得した差分情報から
移動体を特定し、 該特定した移動体の動画中での位置情報を管理すること
を特徴とする動画処理方法。
1. A moving image processing method for performing tracking processing of a moving object in a moving image on a captured or created moving image, wherein difference information is acquired from a plurality of frames forming the moving image for every predetermined number of frames, A moving image processing method, characterized in that a moving object is specified from the acquired difference information, and position information in the moving image of the specified moving object is managed.
【請求項2】 前記差分情報から1以上の移動体が特定
された場合に、該移動体毎に同一性を判定し、 該判定結果に基づいて前記移動体の動画中での位置情報
をそれぞれ管理することを特徴とする請求項1記載の動
画処理方法。
2. When one or more moving bodies are specified from the difference information, the sameness is determined for each moving body, and the position information in the moving image of the moving body is determined based on the determination result. The moving image processing method according to claim 1, wherein the moving image processing method is managed.
【請求項3】 前記同一性の判定は、 前記移動体の特徴量に基づいて行うことを特徴とする請
求項2記載の動画処理方法。
3. The moving image processing method according to claim 2, wherein the determination of the identity is performed based on a feature amount of the moving body.
【請求項4】 前記同一性の判定は、 前記移動体の移動距離に基づいて行うことを特徴とする
請求項2記載の動画処理方法。
4. The moving image processing method according to claim 2, wherein the determination of the identity is performed based on a moving distance of the moving body.
【請求項5】 前記同一性の判定は、 前記移動体の特徴量および移動距離に基づいて行うこと
を特徴とする請求項2記載の動画処理方法。
5. The moving image processing method according to claim 2, wherein the determination of the identity is performed based on a feature amount and a moving distance of the moving body.
【請求項6】 前記差分情報は、 前記動画から1フレーム毎に取得されることを特徴とす
る請求項1記載の動画処理方法。
6. The moving image processing method according to claim 1, wherein the difference information is acquired for each frame from the moving image.
【請求項7】 前記位置情報に該位置情報に対応する移
動体の関連情報を対応付けて管理し、 前記動画中から前記移動体の位置情報に対応する位置が
選択された場合に、該選択された位置情報に対応する関
連情報を提供することを特徴とする請求項1記載の動画
処理方法。
7. The position information is managed by associating it with related information of a moving body corresponding to the position information, and when the position corresponding to the position information of the moving body is selected from the moving image, the selection is performed. The moving image processing method according to claim 1, wherein related information corresponding to the generated position information is provided.
【請求項8】 撮影若しくは作成された動画に対し、該
動画中の移動体の追跡処理を行う動画処理装置におい
て、 動画を構成する複数のフレームから所定フレーム数毎に
差分情報を取得し、該取得した差分情報から移動体を特
定する移動体特定手段と、 前記移動体特定手段が特定した移動体の動画中での位置
情報を管理する位置情報管理手段とを具備することを特
徴とする動画処理装置。
8. A moving image processing apparatus for tracking a moving object in a moving image captured or created, obtains difference information for each predetermined number of frames from a plurality of frames forming the moving image, A moving image including: a moving body specifying unit that specifies a moving body from the acquired difference information; and a position information managing unit that manages position information in the moving image of the moving body specified by the moving body specifying unit. Processing equipment.
【請求項9】 前記移動体特定手段が1以上の移動体を
特定した場合に、該移動体毎の同一性を判定する移動体
判定手段をさらに具備し、 前記位置情報管理手段は、 前記移動体判定手段の判定結果に基づいて、前記移動体
の動画中での位置情報をそれぞれ管理することを特徴と
する請求項8記載の動画処理装置。
9. The moving body identifying means further comprises a moving body determining means for determining the identity of each moving body when the moving body identifying means identifies one or more moving bodies. 9. The moving image processing apparatus according to claim 8, wherein position information in the moving image of the moving body is managed based on the determination result of the body determining unit.
【請求項10】 前記移動体判定手段は、 前記移動体の特徴量に基づいて、前記同一性の判定を行
うことを特徴とする請求項9記載の動画処理装置。
10. The moving image processing apparatus according to claim 9, wherein the moving body determination unit determines the identity based on a feature amount of the moving body.
【請求項11】 前記移動体判定手段は、 前記移動体の移動距離に基づいて、前記同一性の判定を
行うことを特徴とする請求項9記載の動画処理装置。
11. The moving image processing apparatus according to claim 9, wherein the moving body determination means determines the identity based on a moving distance of the moving body.
【請求項12】 前記移動体判定手段は、 前記移動体の特徴量および移動距離に基づいて、前記同
一性の判定を行うことを特徴とする請求項9記載の動画
処理装置。
12. The moving image processing apparatus according to claim 9, wherein the moving body determination means determines the identity based on a feature amount and a moving distance of the moving body.
【請求項13】 前記移動体特定手段は、 前記動画から1フレーム毎に前記差分情報を取得するこ
とを特徴とする請求項8記載の動画処理装置。
13. The moving image processing apparatus according to claim 8, wherein the moving body identifying means acquires the difference information for each frame from the moving image.
【請求項14】 前記位置情報管理手段が管理する位置
情報に対応する移動体の関連情報を対応付けて管理し、
前記動画中から前記移動体の位置情報に対応する位置が
選択された場合に、該選択された位置情報に対応する関
連情報を提供する関連情報管理手段をさらに具備するこ
とを特徴とする請求項8記載の動画処理装置。
14. The related information of the mobile body corresponding to the position information managed by the position information management means is managed in association with each other,
The apparatus further comprises a related information management unit that provides related information corresponding to the selected position information when a position corresponding to the position information of the moving body is selected from the moving image. 8. The moving image processing device according to item 8.
【請求項15】 撮影若しくは作成された動画中の移動
体の追跡処理をコンピュータに実行させる動画処理プロ
グラムにおいて、 動画を構成する複数のフレームから所定フレーム数毎に
差分情報を取得する第1のステップと、 前記第1のステップで取得した差分情報から移動体を特
定する第2のステップと、 前記第2のステップで特定した移動体の動画中での位置
情報を管理する第3のステップとを具備することを特徴
とする動画処理プログラム。
15. A moving image processing program for causing a computer to execute a tracking process of a moving object in a moving image captured or created, a first step of obtaining difference information for each predetermined number of frames from a plurality of frames forming the moving image. And a second step of identifying the moving body from the difference information acquired in the first step, and a third step of managing position information in the moving image of the moving body identified in the second step. A moving image processing program provided.
【請求項16】 前記第2のステップにより1以上の移
動体が特定された場合に、該移動体毎に同一性を判定す
る第4のステップをさらに具備し、 前記第3のステップは、 前記第4のステップによる判定結果に基づいて前記移動
体の動画中での位置情報をそれぞれ管理することを特徴
とする請求項15記載の動画処理プログラム。
16. The method further comprises a fourth step of determining the identity of each of the moving bodies when one or more moving bodies are identified by the second step, and the third step comprises: 16. The moving image processing program according to claim 15, wherein position information in the moving image of the moving body is managed based on the determination result of the fourth step.
【請求項17】 前記第4のステップは、 前記移動体の特徴量に基づいて、前記同一性の判定を行
うことを特徴とする請求項16記載の動画処理プログラ
ム。
17. The moving image processing program according to claim 16, wherein in the fourth step, the identity is determined based on the characteristic amount of the moving body.
【請求項18】 前記第4のステップは、 前記移動体の移動距離に基づいて、前記同一性の判定を
行うことを特徴とする請求項16記載の動画処理プログ
ラム。
18. The moving image processing program according to claim 16, wherein in the fourth step, the identity is determined based on a moving distance of the moving body.
【請求項19】 前記第4のステップは、 前記移動体の特徴量および移動距離に基づいて、前記同
一性の判定を行うことを特徴とする請求項16記載の動
画処理プログラム。
19. The moving image processing program according to claim 16, wherein in the fourth step, the identity is determined based on a feature amount and a moving distance of the moving body.
【請求項20】 前記第1のステップは、 前記動画から1フレーム毎に前記差分情報を取得するこ
とを特徴とする請求項15記載の動画処理プログラム。
20. The moving image processing program according to claim 15, wherein the first step acquires the difference information for each frame from the moving image.
【請求項21】 前記位置情報に該位置情報に対応する
移動体の関連情報を対応付けて管理する第5のステップ
と、 前記動画中から前記移動体の位置情報に対応する位置が
選択された場合に、該選択された位置情報に対応する関
連情報を提供する第6のステップとをさらに具備するこ
とを特徴とする請求項15記載の動画処理プログラム。
21. A fifth step of managing the position information by associating the related information of the moving body corresponding to the position information, and the position corresponding to the position information of the moving body is selected from the moving image. The video processing program according to claim 15, further comprising a sixth step of providing related information corresponding to the selected position information.
JP2001287742A 2001-09-20 2001-09-20 Animation processing method, its device, and program Pending JP2003099783A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001287742A JP2003099783A (en) 2001-09-20 2001-09-20 Animation processing method, its device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001287742A JP2003099783A (en) 2001-09-20 2001-09-20 Animation processing method, its device, and program

Publications (1)

Publication Number Publication Date
JP2003099783A true JP2003099783A (en) 2003-04-04

Family

ID=19110503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001287742A Pending JP2003099783A (en) 2001-09-20 2001-09-20 Animation processing method, its device, and program

Country Status (1)

Country Link
JP (1) JP2003099783A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006025185A1 (en) * 2004-08-31 2006-03-09 Matsushita Electric Industrial Co., Ltd. Monitoring recorder and its method
JP2007151087A (en) * 2005-10-27 2007-06-14 Nippon Telegr & Teleph Corp <Ntt> Communication support system and program
JP5585716B1 (en) * 2013-12-09 2014-09-10 株式会社Pumo Link destination designation interface device, viewer interface device, and computer program
JP5585741B1 (en) * 2014-04-01 2014-09-10 株式会社Pumo Link destination designation interface device, viewer interface device, and computer program
JP5671671B1 (en) * 2013-12-09 2015-02-18 株式会社Pumo Viewer interface device and computer program
WO2015087804A1 (en) * 2013-12-09 2015-06-18 株式会社Pumo Interface device for link designation, interface device for viewer, and computer program
JP2015115941A (en) * 2014-04-01 2015-06-22 株式会社Pumo Interface device for designating link destination, interface device for viewer, and computer program
WO2022065189A1 (en) * 2020-09-23 2022-03-31 株式会社Aiメディカルサービス Examination assistance device, examination assistance method, and examination assistance program

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE45551E1 (en) 2004-08-31 2015-06-09 Panasonic Intellectual Property Management Co., Ltd. Surveillance recorder and its method
US8131022B2 (en) 2004-08-31 2012-03-06 Panasonic Corporation Surveillance recorder and its method
WO2006025185A1 (en) * 2004-08-31 2006-03-09 Matsushita Electric Industrial Co., Ltd. Monitoring recorder and its method
JP2007151087A (en) * 2005-10-27 2007-06-14 Nippon Telegr & Teleph Corp <Ntt> Communication support system and program
JP4711928B2 (en) * 2005-10-27 2011-06-29 日本電信電話株式会社 Communication support system and program
WO2015087804A1 (en) * 2013-12-09 2015-06-18 株式会社Pumo Interface device for link designation, interface device for viewer, and computer program
JP5671671B1 (en) * 2013-12-09 2015-02-18 株式会社Pumo Viewer interface device and computer program
JP5585716B1 (en) * 2013-12-09 2014-09-10 株式会社Pumo Link destination designation interface device, viewer interface device, and computer program
JP2015115663A (en) * 2013-12-09 2015-06-22 株式会社Pumo Viewer interface device, and computer program
JP2015115661A (en) * 2013-12-09 2015-06-22 株式会社Pumo Interface device for designating link destination, interface device for viewer, and computer program
US9899062B2 (en) 2013-12-09 2018-02-20 Godo Kaisha Ip Bridge 1 Interface apparatus for designating link destination, interface apparatus for viewer, and computer program
US10622024B2 (en) 2013-12-09 2020-04-14 Godo Kaisha Ip Bridge 1 Interface apparatus and recording apparatus
US11074940B2 (en) 2013-12-09 2021-07-27 Paronym Inc. Interface apparatus and recording apparatus
JP5585741B1 (en) * 2014-04-01 2014-09-10 株式会社Pumo Link destination designation interface device, viewer interface device, and computer program
JP2015115941A (en) * 2014-04-01 2015-06-22 株式会社Pumo Interface device for designating link destination, interface device for viewer, and computer program
JP2015115940A (en) * 2014-04-01 2015-06-22 株式会社Pumo Interface device for designating link destination, interface device for viewer, and computer program
WO2022065189A1 (en) * 2020-09-23 2022-03-31 株式会社Aiメディカルサービス Examination assistance device, examination assistance method, and examination assistance program

Similar Documents

Publication Publication Date Title
JP4539048B2 (en) Moving image display system and program
JP4747410B2 (en) Video switching display device and video switching display method
KR20160112898A (en) Method and apparatus for providing dynamic service based augmented reality
US20180075590A1 (en) Image processing system, image processing method, and program
US20170041530A1 (en) Information processing apparatus and control method therefor
JP2009110460A (en) Human image retrieval system
US11704934B2 (en) Information processing apparatus, information processing method, and program
US20170195706A1 (en) Method and device for providing a video stream for an object of interest
JP2003099783A (en) Animation processing method, its device, and program
US11457248B2 (en) Method to insert ad content into a video scene
US20030189670A1 (en) Positioning of a cursor associated with a dynamic background
JP2001282673A (en) Image distribution system and its control method, and information processor
JP2011095804A (en) Apparatus and system for confirming effect of outdoor advertisement, control method of the same, program, and storage medium storing the program
CN112492261A (en) Tracking shooting method and device and monitoring system
US20220358329A1 (en) Information processing apparatus, information processing method, and program
JP2007049235A (en) Video image monitoring system
JP2004088483A (en) Video information distribution system, video information distribution method, and server for them
JP2004078475A (en) Push type contents presenting device, method, program, and storage medium
JPWO2021152837A5 (en) Information processing device, information processing method and program
KR102414925B1 (en) Apparatus and method for product placement indication
JP6905133B1 (en) Information processing equipment, information processing methods and programs
WO2022209362A1 (en) Image processing device, image processing method, and program
US10891794B2 (en) Method and system for generating augmented reality content on the fly on a user device
JP6494721B2 (en) IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGE PROCESSING DEVICE CONTROL METHOD, AND PROGRAM
Wichert et al. An Interactive Video System for Live Coverage Transmission using Real Time Video Hyperlinks