JP3325823B2 - Video still image display method and apparatus, and video still image display program storage recording medium - Google Patents

Video still image display method and apparatus, and video still image display program storage recording medium

Info

Publication number
JP3325823B2
JP3325823B2 JP02582498A JP2582498A JP3325823B2 JP 3325823 B2 JP3325823 B2 JP 3325823B2 JP 02582498 A JP02582498 A JP 02582498A JP 2582498 A JP2582498 A JP 2582498A JP 3325823 B2 JP3325823 B2 JP 3325823B2
Authority
JP
Japan
Prior art keywords
image
video
motion information
motion
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP02582498A
Other languages
Japanese (ja)
Other versions
JPH11225310A (en
Inventor
行信 谷口
明人 阿久津
佳伸 外村
隆 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP02582498A priority Critical patent/JP3325823B2/en
Publication of JPH11225310A publication Critical patent/JPH11225310A/en
Application granted granted Critical
Publication of JP3325823B2 publication Critical patent/JP3325823B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は映像データベースシ
ステム、デジタル映像編集システムなどのユーザインタ
フェースを構築する際に、連続的に撮影された映像を静
止画表示する方法および装置並びにそのプログラムを格
納した記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for displaying a continuously shot image as a still image when constructing a user interface such as an image database system and a digital image editing system, and a recording storing the program. Regarding the medium.

【0002】[0002]

【従来の技術】ビデオデッキを使ってビデオテープの特
定の場面を探し出すには、通常、早回しや巻き戻しを繰
り返すしか手法が無く、時間と手間がかかるという問題
があった。
2. Description of the Related Art In order to search for a specific scene on a video tape using a video deck, there is usually no other way but to repeat fast-turning and rewinding, and there is a problem that it takes time and effort.

【0003】これを解決するための一つの手法として、
映像の場面の変り目(カット)を検出し、場面毎に1枚
の静止画を場面を代表する画像(代表画像と呼ぶ)とし
て抽出し、それを一覧表示する方法が知られている。こ
の方法によれば、映像を時間順に見なくても、代表画像
を一覧するだけで所望の場面を視覚的に短時間で検索で
きる効果がある。しかし、この方法には次のような問題
点がある。
[0003] As one method for solving this,
There is known a method of detecting a transition (cut) in a scene of a video, extracting one still image for each scene as an image (referred to as a representative image) representing the scene, and displaying a list of the images. According to this method, there is an effect that a desired scene can be visually searched in a short time only by listing the representative images without watching the video in chronological order. However, this method has the following problems.

【0004】(1)パン(カメラを水平方向に回転させ
る操作)、チルト(カメラを垂直方向に回転させる操
作)などのカメラ操作を含むシーンでは、シーンの全体
像を表現する代表画像を抽出することが困難である。例
としてカメラを下から上に動かしながら人の足元から顔
までを撮影した映像を考える。この場面の最初の画像に
は足元しか写っていないので、シーンの一部しか写って
いないという意味で、代表画像としては不適切である
し、最後の画像には顔しか写っていないので、これもま
た代表画像としては不適切である。 (2)映像から抽出された代表画像にはカメラ操作のタ
イプ、方向、速度が表現されていない。なお、カメラ操
作のタイプとしては、パン、チルトのほかに、ズーム
(ズームレンズの画角を変化させて被写体サイズを連続
的に変える操作)、トラック(カメラを左右方向に移動
させる操作)、クレーン(カメラを上下方向に移動させ
る操作)などがある。 (3)映像から抽出された代表画像だけでは被写体の動
きが表現できない。
(1) In a scene including camera operations such as pan (operation for rotating the camera in the horizontal direction) and tilt (operation for rotating the camera in the vertical direction), a representative image representing the entire image of the scene is extracted. It is difficult. As an example, consider an image of a person's foot to face while moving the camera from bottom to top. Since the first image of this scene shows only the feet, it is inappropriate as a representative image in the sense that only a part of the scene is shown, and the last image shows only the face, so Are also inappropriate as representative images. (2) The type, direction, and speed of the camera operation are not represented in the representative image extracted from the video. In addition to the pan and tilt, the types of camera operation include zoom (operation for continuously changing the size of the subject by changing the angle of view of the zoom lens), truck (operation for moving the camera in the left and right direction), and crane operation. (Operation to move the camera up and down). (3) The motion of the subject cannot be expressed only by the representative image extracted from the video.

【0005】(1)の問題点を解決する一つの方法とし
て、連続する複数枚の画像を合成して広視野の画像を生
成し、それを代表画像として用いるアプローチがある
(例えば、特開平5−304675号公報)。これは、
映像の中でカメラがどのように動いたかを画像処理によ
って算出し、そのずれの量だけ画像を平行移動、拡大縮
小しながら合成することによって、1枚の広視野画像を
生成するというものである。この方法は(1)の問題点
を解決するが、(2)や(3)の問題点は解決されな
い。
As one method for solving the problem (1), there is an approach in which a plurality of continuous images are combined to generate an image having a wide field of view, and the image is used as a representative image (for example, see Japanese Patent Application Laid-Open No. H05-205,1992). -304675). this is,
By calculating the movement of the camera in the video by image processing, and combining the images while translating and enlarging / reducing the amount of the shift, a single wide-field image is generated. . This method solves the problem (1) but does not solve the problems (2) and (3).

【0006】(2)を解決する一つの手法として、カメ
ラ操作のタイプと方向を矢印表現し、映像から抜き出さ
れた代表画像に重畳して表示する方法がある。(「認識
技術を応用した対話型映像編集方式の提案」(電子情報
通信学会論文誌、D−II,Vol.J75−D−1
1,No.2,pp.216−225))。図2に、こ
の方法による表現の一例を示す。図2の21、22、2
3はそれぞれパン、チルト、ズームを矢印表現してい
る。
As one method for solving the problem (2), there is a method in which the type and direction of a camera operation are represented by arrows, and are superimposed on a representative image extracted from a video and displayed. ("Proposal of an interactive video editing method applying recognition technology" (Transactions of the Institute of Electronics, Information and Communication Engineers, D-II, Vol. J75-D-1)
1, No. 2, pp. 216-225)). FIG. 2 shows an example of the expression by this method. 21, 22, 2 in FIG.
Numerals 3 indicate pan, tilt, and zoom, respectively, by arrows.

【0007】しかし、この従来技術ではカメラ操作の速
度を表現できていないし、(1)や(3)の問題点を解
決していない。さらに、矢印が画像内容と対応づけられ
ていないため、カメラ操作によって画像内容がどのよう
に変化するかが分からないことが問題である。即ち、カ
メラ操作前の画像は代表画像として表示されるが、カメ
ラ操作後の画像が表示されないからである。また、カメ
ラ以外の動き情報(被写体の動き情報)の表現方法につ
いては述べられていない。
However, this conventional technique cannot express the speed of camera operation, and does not solve the problems (1) and (3). Furthermore, since the arrow is not associated with the image content, there is a problem that it is difficult to know how the image content changes due to the camera operation. That is, the image before the camera operation is displayed as the representative image, but the image after the camera operation is not displayed. Further, it does not describe a method of expressing motion information (movement information of a subject) other than a camera.

【0008】[0008]

【発明が解決しようとする課題】本発明は、上記従来技
術の問題点を解決するためになされたものであり、カメ
ラの動きがあってもシーン全体を表現する代表画像を生
成し、カメラ操作のタイプ、方向、速度などを代表画像
に対応づけて表示し、さらに、被写体の動きを直感的に
理解できるように代表画像に対応づけて表示する、映像
静止画表示方法及び装置、並びに、そのプログラム格納
記録媒体を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems of the prior art, and generates a representative image representing the entire scene even if the camera moves, and operates the camera. The type, direction, speed, etc. are displayed in association with the representative image, and further displayed in association with the representative image so that the motion of the subject can be intuitively understood. It is an object to provide a program storage medium.

【0009】[0009]

【課題を解決するための手段】請求項1の発明の映像静
止画表示方法は、映像に含まれる動き情報を抽出し、該
動き情報に応じて、映像を構成する複数枚の画像を合成
し、一枚の代表画像を生成するとともに、映像に含まれ
る動きを分類して、その結果に応じて動き情報の可視化
方法を選択し、該選択した可視化方法により動き情報を
代表画像と対応づけて可視化することを特徴とする
According to a first aspect of the present invention, there is provided a video still image display method for extracting motion information included in a video and synthesizing a plurality of images constituting the video in accordance with the motion information. , Generate one representative image and include it in the video
And classify the movements and visualize the movement information according to the results
Select a method and use the selected visualization method to generate motion information.
It is characterized by being visualized in association with the representative image .

【0010】請求項2の発明は、請求項1の映像静止画
表示方法において、動き情報としてカメラまたは被写体
の動作速度を抽出し、該動作速度を可視化することを特
徴とする。
According to a second aspect of the present invention, in the video still image display method of the first aspect, the operation speed of the camera or the subject is extracted as motion information, and the operation speed is visualized.

【0011】請求項3の発明の映像静止画表示装置は、
連続した映像を入力する映像入力手段と、該映像に含ま
れる動き情報を抽出する動き情報抽出手段と、該動き情
報に応じて、映像を構成する複数枚の画像を合成し、ー
枚の代表画像を生成する画像合成手段と、映像に含まれ
る動きを分類して、その結果に応じて動き情報の可視化
方法を選択し、該選択した可視化方法により動き情報を
代表画像と対応づけて可視化する動き情報可視化手段
と、画像合成手段と動き情報可視化手段から得られる画
像や情報を出力する画像出力手段とを具備することを特
徴とする。
According to a third aspect of the present invention, there is provided a video still image display device,
A video input unit for inputting a continuous video, a motion information extracting unit for extracting motion information included in the video, and a plurality of images constituting the video are synthesized according to the motion information; an image synthesizing means for generating an image, included in the video
And classify the movements and visualize the movement information according to the results
A motion information visualizing means for selecting a method, visualizing the motion information in association with the representative image by the selected visualizing method, and an image output means for outputting an image or information obtained from the image synthesizing means and the motion information visualizing means. It is characterized by having.

【0012】請求項4の発明の映像静止画表示プログラ
ム格納記録媒体は、連続した映像を入力し、そのシーン
を代表する静止画を表示するアルゴリズムにおいて、映
像に含まれる動き情報を抽出する処理プロセスと、前記
動き情報に応じて映像を構成する複数枚の画像を合成し
て代表画像を作成する処理プロセスと、映像に含まれ
動きを分類して、その結果に応じて動き情報の可視化方
法を選択し、該選択した可視化方法により前記情報を前
記代表画像と対応づけて可視化する処理プロセスとを含
むことを特徴とする。
According to a fourth aspect of the present invention, there is provided a recording medium for storing a still image display program for a video, wherein a continuous image is inputted, and a motion process included in the image is extracted in an algorithm for displaying a still image representing the scene. When a processing process of creating a representative image by combining a plurality of images constituting the image according to the motion information, Ru is included in the video
Classify motions and visualize motion information according to the results
A method of selecting a method and visualizing the information in association with the representative image by the selected visualization method .

【0013】[0013]

【発明の実施の形態】以下、本発明の一実施形態につい
て図面により説明する。図1は、本発明の映像静止画表
示方法の一実施形態の処理フロー図である。図1の処理
フローの各工程は、画像列を入力するための映像入力装
置、ハードディスクやそれに準ずる装置、動き情報を算
出するため、あるいは画像合成するために必要となる画
像バッファのメモリーやそれに準ずる装置、静止画を表
示するためのディスプレィなどの表示装置を備え、それ
らハードディスク、バッファメモリ、表示装置を予め定
められた手順に基づいて制御するコンピュータ(CP
U)やそれに準ずる装置により、適宜、実行することが
可能である。この種のコンピュータシステムは周知であ
るので、図示は省略する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a processing flowchart of an embodiment of a video still image display method according to the present invention. Each step of the processing flow in FIG. 1 includes a video input device for inputting an image sequence, a hard disk or a device similar thereto, a memory of an image buffer necessary for calculating motion information, or image synthesis, or the like. A computer (CP) that includes a display device such as a device and a display for displaying a still image, and controls the hard disk, the buffer memory, and the display device based on a predetermined procedure.
U) or a device equivalent thereto can be appropriately executed. Since this type of computer system is well known, it is not shown.

【0014】図1において、ステップ11は連続的に撮
影されたN枚の画像I1,I2,・・・,INを入力す
る。入力映像が複数の場面から構成されている場合に
は、予め場面の切り替わりを検出し、ショットの単位に
分割しておき、ステップ11ではショット毎に画像列を
入力する。ステップ12は画像の番号を示す変数iを1
に初期化する。ステップ13は画像バッファ(Com
p)を初期化し、最初の画像I1を画像バッファに格納
する。ステップ14は隣り合う2枚の画像Ii,Ii+1か
ら動き情報としてカメラパラメータを抽出する。カメラ
パラメータはカメラの動きを定量的に表すものであり、
その抽出方法の詳細については後述する。ステップ15
はカメラパラメータに従って画像Ii+1を変形し、ステ
ップ16は変形後の該画像を画像バッファCompに既
に格納されている画像と合成して格納する。11Aに示
した画像列の例では、カメラを左から右へパンしている
ので、ステップ15では画像Ii+1を逆に左に平行移動
する変形を行い、ステップ16では、該変形後の画像を
順次それまでの画像と合成することにより16Aに示す
横長の合成画像を得る。ステップ17は変数iに1を足
し、ステップ18は画像列をすべて処理し終わったか検
査し、終わらない場合、ステップ14に戻り、終ったな
らステップ19へ進む。ステップ19は、ステップ14
で得られた各カメラパラメータに基づいて、カメラの動
きを示す軌跡を後述する方法で算出し、画像バッファの
画像に軌跡を上書き描画して、最終的な静止画像19A
を表示する。
In FIG. 1, a step 11 inputs N images I1, I2,..., IN taken continuously. If the input video is composed of a plurality of scenes, a scene change is detected in advance, divided into shot units, and in step 11, an image sequence is input for each shot. Step 12 is to set a variable i indicating an image number to 1
Initialize to Step 13 is an image buffer (Com
p) is initialized and the first image I1 is stored in the image buffer. In step 14, camera parameters are extracted as motion information from two adjacent images Ii and Ii + 1. Camera parameters quantitatively describe camera movement,
Details of the extraction method will be described later. Step 15
Transforms the image Ii + 1 according to the camera parameters, and step 16 combines and stores the transformed image with the image already stored in the image buffer Comp. In the example of the image sequence shown in FIG. 11A, since the camera is panned from left to right, in step 15, the image Ii + 1 is transformed in parallel to the left, and in step 16, the transformed image Ii + 1 is transformed. Are sequentially combined with the previous images to obtain a horizontally long combined image shown in 16A. A step 17 adds 1 to a variable i, and a step 18 checks whether all image sequences have been processed. If not, the process returns to the step 14; Step 19 is Step 14
Is calculated based on the camera parameters obtained in step (1) by a method described later, and the path is overwritten on the image in the image buffer to draw the final still image 19A.
Is displayed.

【0015】ここで、ステップ14のカメラパラメータ
の抽出方法について説明する。カメラパラメータを抽出
するために、まず、カメラモデルを定義する。カメラモ
デルは、2次元画像中の点が次の時間の画像中のどの点
に移動するかを示す数学的モデルであり、本実施形態で
はカメラのパン、チルト、ズームを考慮した次の(1)式
のモデルを用いる。 (x′,y′)=(ax+b,ay+c) (1) (1)式のモデルは、ある画像点(x,y)と直前の画
像の点(x′,y′)の対応関係を表す。ここでa,
b,cをカメラパラメータと呼び、それぞれカメラのズ
ーム、パン、チルトに対応している。例えば、カメラ操
作がズームせず右方向にパンしている場合、a=1,b
>0,c=0となる。カメラがズームインしている場
合、a<1となる。カメラモデルとして(1)式で定義
されるもの以外にも、平行移動モデル、アフィンモデ
ル、Bilinearモデル、射影モデルなどを用いることが
できる。
Here, the method of extracting camera parameters in step 14 will be described. In order to extract camera parameters, first, a camera model is defined. The camera model is a mathematical model that indicates to which point in the image at the next time a point in the two-dimensional image moves. In the present embodiment, the following (1) considering the pan, tilt, and zoom of the camera is used. ) The model of the formula is used. (X ', y') = (ax + b, ay + c) (1) The model of equation (1) represents the correspondence between a certain image point (x, y) and the point (x ', y') of the immediately preceding image. . Where a,
b and c are called camera parameters, which correspond to zoom, pan, and tilt of the camera, respectively. For example, if the camera operation is panning right without zooming, a = 1, b
> 0, c = 0. If the camera is zoomed in, a <1. As a camera model, a translation model, an affine model, a Bilinear model, a projection model, or the like can be used other than the one defined by the equation (1).

【0016】二枚の画像Ii,Ii+1から、その間のカメ
ラの動きを表すカメラパラメータai,bi,ciを以下
のようにして推定する。二枚の画像Ii,Ii+1の誤差量
を見積もるために平均二乗誤差MSE(Mean Square
Error)を次の(2)式のように定義する。
From the two images Ii and Ii + 1, camera parameters ai, bi and ci representing the movement of the camera between them are estimated as follows. In order to estimate an error amount between the two images Ii and Ii + 1, a mean square error MSE (Mean Square) is used.
Err) is defined as in the following equation (2).

【0017】[0017]

【数1】 (Equation 1)

【0018】ただし、和(Σx,y)は、すべての対応
する画素について計算され、Nは対応する画素の数であ
る。誤差量の評価関数としては、MSE以外にもロバス
ト統計の考え方を導入したM推定法などもある。
Where the sum (Σx, y) is calculated for all corresponding pixels, and N is the number of corresponding pixels. As an evaluation function of the amount of error, there is an M estimation method that introduces a concept of robust statistics in addition to MSE.

【0019】誤差量MSEを最小とするa,b,cが求
めるべきカメラパラメータai,bi,ciであると考え
る。すなわち、
It is assumed that a, b, and c that minimize the error MSE are camera parameters ai, bi, and ci to be obtained. That is,

【0020】[0020]

【数2】 (Equation 2)

【0021】(3)式で定義される最適化問題の解法と
しては、単純にa,b,cを変化させながらMSEi
(ai,bi,ci)を算出し、その最小値を達成するパ
ラメータを出力する単純な方法でもよいが、処理コスト
が膨大であることが問題である。
As a solution of the optimization problem defined by the equation (3), MSEi is simply changed while a, b and c are changed.
A simple method of calculating (ai, bi, ci) and outputting a parameter that achieves the minimum value may be used, but the problem is that the processing cost is enormous.

【0022】これの解決策としては、解像度を段階的に
落とした画像(ピラミッド画像と呼ばれる)を作成し、
まず解像度の最も低い画像を使ってカメラパラメータを
推定し、推定されたカメラパラメータを初期値として、
もう一段階解像度の高い画像について最適解を得る、と
いうことを段階的に解像度を高めながら繰り返すことに
よってパラメータを効率的かつ精確に推定する方法があ
る(H.S.Sawhneyand S.Ayer:Compact Repre
sentation of Videos Through Dominantand Multip
le Motion Estimation,IEEE Transactions on
PatternAnalysis and Machine Intelligence,Vo
l.18,No.8,pp.814−830,199
6)。
As a solution to this, an image (called a pyramid image) in which the resolution is reduced stepwise is created,
First, camera parameters are estimated using the image with the lowest resolution, and the estimated camera parameters are used as initial values.
There is a method of efficiently and accurately estimating parameters by repeating the step of obtaining an optimum solution for an image with a higher resolution while increasing the resolution stepwise (HS Sawhneyand S. Ayer: Compact Repre).
sentation of Videos Through Dominantand Multip
le Motion Estimation, IEEE Transactions on
Pattern Analysis and Machine Intelligence, Vo
l. 18, No. 8, pp. 814-830,199
6).

【0023】ステップ15の画像変形操作は、(1)式
に上記のようにして求めたカメラパラメータai,bi,
ciを代入した式を用いて行う。
The image transformation operation in step 15 is performed by calculating the camera parameters ai, bi,
This is performed using an expression in which ci is substituted.

【0024】以上説明した方法は、画像処理によってカ
メラパラメータを推定するものであったが、カメラに取
り付けられたセンサによって動きが測定されてカメラパ
ラメータが取得可能である場合にはそれを用いてもよ
い。
The method described above is for estimating camera parameters by image processing. However, if the movement is measured by a sensor attached to the camera and the camera parameters can be obtained, the method may be used. Good.

【0025】次に、ステップ19のカメラ操作軌跡の算
出・描画手続きについて述べる。式(1)より、k=
1,・・・,N−1について、画像Ik+1上の点
(x,y)と画像I1上の点(x′,y′)の対応関係
は Wk(x,y)=(x′,y′) =(a1(a2(・・・(akx+bk)+bk-1)+・・・ b1,a1(a2(・・・(aky+ck)+ck-1)+・・・+c1) (4) と表すことができる。ただし、便宜的にW0(x,y)
=(x,y)と定義する。
Next, the procedure for calculating and drawing the camera operation trajectory in step 19 will be described. From equation (1), k =
, N−1, the correspondence between the point (x, y) on the image Ik + 1 and the point (x ′, y ′) on the image I1 is Wk (x, y) = (x ′, y) ') = (A 1 (a 2 (... ( ak x + b k ) + b k-1 ) + ... b 1 , a 1 (a 2 (... (a ky + c k ) + c k-1 ) ) +... + C 1 ) (4) where W0 (x, y) is used for convenience.
= (X, y).

【0026】(4)式から、画像バッファComp内の
座標系で、画像中心点の軌跡を表す点列Trajは Traj={W0(W/2,H/2),W1(W/2,H/2),・・・, WN−1(W/2,H/2)} (5) となる。ただし、W、Hはそれぞれ画像の幅と高さを表
す。
From equation (4), in the coordinate system in the image buffer Comp, the point sequence Traj representing the locus of the center point of the image is as follows: Traj = {W0 (W / 2, H / 2), W1 (W / 2, H / 2),..., WN-1 (W / 2, H / 2)} (5) Here, W and H represent the width and height of the image, respectively.

【0027】カメラ操作軌跡は、点列Trajを折れ線
と矢印を用いて描画することによって表わすことがで
き、パン、チルトの場合には、それぞれ図3の31、3
2に示すような図得られる。なお、カメラ操作の開始
点、終了点を示すために、19Aに示したように、図1
で開始画像と終了画像を囲む矩形を描画することも好適
である。
The trajectory of the camera operation can be represented by drawing a point sequence Traj using polygonal lines and arrows. In the case of pan and tilt, respectively, 31 and 3 in FIG.
Figure 2 is obtained. As shown in FIG. 19A, in order to indicate the start point and end point of the camera operation, FIG.
It is also preferable to draw a rectangle surrounding the start image and the end image.

【0028】カメラ操作軌跡の描画は、図3の37に示
すように、折れ線の終点にのみ矢印を描画するようにし
てもよいが、この場合にはカメラ操作の速度が表現され
ないことが問題である。カメラ操作の速度を表現する目
的には、例えば図3の31に示すように、矢印を一定時
間間隔で描画し、矢印の長さが速度に対応するような表
現を行うことが好適である。
In the drawing of the camera operation trajectory, an arrow may be drawn only at the end point of the polygonal line, as shown at 37 in FIG. 3. However, in this case, the speed of the camera operation is not expressed. is there. For the purpose of expressing the speed of the camera operation, it is preferable to draw arrows at regular time intervals, for example, as shown at 31 in FIG. 3, and to express the length of the arrow corresponding to the speed.

【0029】次に、映像に含まれる動きを分類し、その
結果に応じて動き情報の可視化方法を選択する手続きに
ついて述べる。カメラがパン、チルトしている場合は、
図3の31,32のように画像中心点の軌跡でよいが、
ズームの場合には画像中心点は変化しないのでズームの
向き(ズームインかズームアウトか)を可視化できな
い。この問題点を解決するためには、「カメラ操作がズ
ームを含むか否か」でカメラの動きを分類・判別し、判
別結果に応じて表現方法を切り替えることが有効であ
る。これを図5の処理フロー図を用いて説明する。
Next, a procedure for classifying motions included in a video and selecting a visualization method of motion information according to the result will be described. If the camera is panning or tilting,
Although the trajectory of the image center point may be used as indicated by 31 and 32 in FIG.
In the case of zooming, since the image center point does not change, it is not possible to visualize the direction of zooming (whether zooming in or out). In order to solve this problem, it is effective to classify and determine the motion of the camera based on “whether or not the camera operation includes zoom” and to switch the expression method according to the determination result. This will be described with reference to the processing flowchart of FIG.

【0030】図5において、ステップ51は、カメラ操
作を分類するために必要となるズーム率Zi(i=1,
2,・・・,N)を Zi=a1×a2×・・・×ai−1 (6) として算出する。ステップ52は、カメラ操作がズーム
を含むか否かを判定する。具体的には、ズーム率Zi
が、すべてのi=1,2,・・・,NについてZmin
<Zi<Zmaxを満たす場合にはズーム操作を含まな
いと判定する。ただし、Zmin、Zmaxは予め与え
られた閾値であり、Zmin<1かつZmax>1を満
たすように設定される。カメラ操作がズームを含まない
場合には、上で説明したように、ステップ53で画像の
中心点の軌跡を算出・描画する。カメラ操作としてズー
ムを含む場合には、ステップ54で、画像の四隅の軌跡
を同様に(4)式を用いて算出しその軌跡を描画する。
In FIG. 5, step 51 is a zoom ratio Zi (i = 1, 1) required to classify camera operations.
2,..., N) are calculated as Zi = a1 × a2 ×. Step 52 determines whether the camera operation includes zoom. Specifically, the zoom ratio Zi
Is Zmin for all i = 1, 2,..., N
If <Zi <Zmax is satisfied, it is determined that the zoom operation is not included. Here, Zmin and Zmax are thresholds given in advance, and are set so as to satisfy Zmin <1 and Zmax> 1. If the camera operation does not include zooming, the locus of the center point of the image is calculated and drawn in step 53 as described above. If the camera operation includes zooming, in step 54, the trajectories of the four corners of the image are similarly calculated using equation (4) and the trajectories are drawn.

【0031】ステップ54により、ズームイン、ズーム
アウトの映像についてそれぞれ図3の33,34に示す
ような静止画像が得られる。また、ズームしながらチル
トしているシーンでは、図3の35に示すような静止画
像が得られる。図3の36は、カメラが光軸の周りに回
転している場合の図示方法の一例である。
At step 54, still images such as 33 and 34 in FIG. 3 are obtained for the zoomed-in and zoomed-out images, respectively. Further, in a scene where the camera is tilted while zooming, a still image as indicated by 35 in FIG. 3 is obtained. Reference numeral 36 in FIG. 3 is an example of the illustrated method when the camera is rotating around the optical axis.

【0032】なお、上記実施形態ではカメラ操作軌跡を
矢印を用いて描画したが、その他にも直線の明暗によっ
て方向を示したり、矢印の太さで速度を表したりするこ
ともできる。また、ズーム操作の有無によって、表現方
法を切り替える例について示したが、例えば、カメラが
パンしている映像において、被写体をフォローしている
シーンか否かを判定して、被写体の動きの可視化方法を
切り替えるようにすることもできる。
In the above embodiment, the camera operation trajectory is drawn using arrows. However, it is also possible to indicate the direction by the brightness of a straight line or to express the speed by the thickness of an arrow. Also, an example in which the expression method is switched depending on the presence or absence of a zoom operation has been described. For example, in a video in which a camera is panning, it is determined whether or not the scene is following a subject, and a visualization method of the movement of the subject is determined. Can be switched.

【0033】図4は、本発明の映像静止画表示方法の他
の実施形態の処理フロー図である。これも、実際にはコ
ンピュータの支援のもとに実現される。図1ではカメラ
の動きを動き情報として可視化するものであったが、図
4では、被写体の動きを動き情報として抽出する。
FIG. 4 is a processing flowchart of another embodiment of the video still image display method of the present invention. This is also realized in practice with the aid of a computer. In FIG. 1, the motion of the camera is visualized as motion information. In FIG. 4, the motion of the subject is extracted as motion information.

【0034】図4において、ステップ41は連続する画
像列を入力する。本実施形態では、固定されたカメラに
よって撮影された映像I1,・・・,IN(41A)を
入力として仮定する。もちろん、図1と同様にしてカメ
ラの動きを考慮することも可能である。
In FIG. 4, a step 41 inputs a continuous image sequence. In the present embodiment, it is assumed that the images I1,..., IN (41A) captured by the fixed camera are input. Of course, it is also possible to consider the movement of the camera as in FIG.

【0035】ステップ42は、最初の画像I1について
被写体領域Obj1を指定する。ステップ43は、k=
2,3,・・・,Nについて画像Ikを順次調べて被写
体の動きを追跡する。具体的には、被写体領域Objk-1
と最も相関の高い領域を画像Ik内から検索し、それを
画像Ikの被写体領域Objkとして出力するということ
を、k=2,・・・,Nについて繰り返す。図4の43
Aはこれを示す。相関の算出方法としては、周知の色ヒ
ストグラム差分、輝度相関など様々なものを用いること
ができる。
In step 42, a subject area Obj1 is specified for the first image I1. In step 43, k =
The movement of the subject is tracked by sequentially examining the image Ik for 2, 3,..., N. Specifically, the object region Objk-1
And searching for an area having the highest correlation from the image Ik and outputting it as the subject area Objk of the image Ik, for k = 2,..., N. 43 in FIG.
A indicates this. As a method for calculating the correlation, various methods such as a well-known color histogram difference and a luminance correlation can be used.

【0036】ステップ44は、最初と最後の被写体領域
Obj1,ObjNが浮き出すように画像I1,INを合成
することによって、図4の44Aに示すような合成画像
を得る。具体的には、合成画像Comp(x,y)を次
式に従って合成する。 (i) 点(x,y)がObj1にもObjNにも含まれない Comp(x,y)={I1(x,y)+IN(x,y)}/2 (ii) 点(x,y)がObj1に含まれる Comp(x,y)=I1(x,y) (iii) 点(x,y)がObjNに含まれる Comp(x,y)=IN(x,y)。
In step 44, the images I1 and IN are synthesized so that the first and last object areas Obj1 and ObjN stand out, thereby obtaining a synthesized image as shown at 44A in FIG. Specifically, the combined image Comp (x, y) is combined according to the following equation. (i) Point (x, y) is not included in Obj1 or ObjN Comp (x, y) = {I1 (x, y) + IN (x, y)} / 2 (ii) Point (x, y ) Is included in Obj1 Comp (x, y) = I1 (x, y) (iii) Point (x, y) is included in ObjN Comp (x, y) = IN (x, y).

【0037】ステップ45は被写体動き軌跡を算出して
描画する。被写体動き軌跡は、被写体領域Obji(i=
1,・・・,N)の重心の軌跡として求めることができ
る。この被写体動き軌跡を合成画像Comp(x,y)
上に描画して、最終的な画像46Aをディスプレイ等に
表示する。
In step 45, the movement locus of the subject is calculated and drawn. The subject motion trajectory is represented by a subject area Obji (i =
1,..., N). This subject movement trajectory is represented by a composite image Comp (x, y).
The final image 46A is drawn on the display and displayed on a display or the like.

【0038】図6は、本発明の映像静止画表示装置の一
実施形態のブロック図である。図6において、映像入力
手段61は、映像信号を入力し、映像の切れ目を検出し
て、連続したシーン毎に画像列を動き情報抽出手段62
に渡す。動き情報抽出手段63は、複数枚の画像をバッ
ファに保持し、図1や図4の実施形態で説明したような
方法を用いてカメラの動きあるいは被写体の動きを抽出
する。画像合成手段64は、抽出された動き情報に基づ
いて画像列を合成し、内部バッファに保持する。動き情
報可視化手段64は、動き情報を、同じく図1や図4の
実施形態で説明したような方法を用いて可視化する。
の時、同じく図5で説明したような方法を用いて動き情
報の可視化方法を選択する。画像出力手段65は、映像
毎に画像合成手段64と動き情報可視化手段65から得
られる画像を重畳してディスプレイあるいはコンピュー
タスクリーン内のウィンドウ、あるいはプリンターに出
力表示する。
FIG. 6 is a block diagram of an embodiment of a video and still image display device according to the present invention. In FIG. 6, a video input unit 61 inputs a video signal, detects a break in the video, and extracts an image sequence for each continuous scene.
Pass to. The motion information extracting means 63 holds a plurality of images in a buffer, and extracts the motion of the camera or the motion of the subject using the method described in the embodiment of FIGS. The image synthesizing unit 64 synthesizes an image sequence based on the extracted motion information and holds the image sequence in an internal buffer. The motion information visualizing means 64 visualizes the motion information by using the same method as described in the embodiment of FIGS. This
At the same time, the motion information is
Select the method of visualizing the information. The image output unit 65 superimposes the images obtained from the image synthesizing unit 64 and the motion information visualizing unit 65 for each video, and outputs and displays the images on a display, a window in a computer screen, or a printer.

【0039】図6で説明した映像静止画表示装置の各部
の手段は、図1や図4の処理フローの各工程と同様に、
画像列を入力するための映像入力装置、ハードディスク
やそれに準ずる装置、動き情報を算出するため、あるい
は画像合成を行うために必要となる画像バッファとして
メモリーやそれに準ずる装置、静止画を表示するための
ディスプレイなどの表示装置とを備え、それらハードデ
ィスク、バッファメモリ、表示装置を予め定められた手
順に基づいて制御するコンピュータ(CPU)やそれに
準ずる装置により、適宜、実行することが可能である。
The means of each unit of the video / still image display device described with reference to FIG. 6 is similar to the respective steps of the processing flow of FIG. 1 and FIG.
A video input device for inputting image sequences, a hard disk or equivalent device, a memory or equivalent device for calculating motion information, or an image buffer required for image synthesis, or for displaying still images A computer (CPU) that includes a display device such as a display and controls the hard disk, the buffer memory, and the display device based on a predetermined procedure or a device equivalent thereto can be appropriately executed.

【0040】以上、本発明の実施形態について説明した
が、図1や図4の処理フロー、図6の各部の機能は、映
像静止画表示プログラムとしてコンピュータが読み取り
可能な記録媒体、例えばフロッピーディスクやメモリー
カード、MO、コンパクトディスク(CD−ROM)、
テープなどに記録して提供することが可能である。
Although the embodiment of the present invention has been described above, the processing flow of FIGS. 1 and 4 and the function of each unit in FIG. 6 are realized by a computer-readable recording medium such as a floppy disk as a video still image display program. Memory card, MO, compact disk (CD-ROM),
It can be recorded on a tape or the like and provided.

【0041】また、以上の実施形態では、一つの映像を
静止画表示する場合について述べたが、複数シーンから
成る映像を映像に分割し、それぞれについて実施形態で
説明した方法や装置によって静止画を作成し、複数枚の
該静止画を一覧表示するようにすることも、映像内容を
短時間で把握可能とする目的のために好適である。
Further, in the above embodiment, a case where one image is displayed as a still image has been described. However, an image composed of a plurality of scenes is divided into images, and a still image is formed by the method and apparatus described in each embodiment. Creating and displaying a list of a plurality of the still images is also suitable for the purpose of making it possible to grasp video contents in a short time.

【0042】[0042]

【発明の効果】本発明によれば、動き情報に応じて画像
を合成して代表画像を作成し、該代表画像と対応づけて
動き情報を可視化するようにしたので、カメラの動きが
あっても映像の全体を表現する代表画像を抽出でき、ま
た、カメラ操作のタイプ、方向、速度を代表画像に対応
づけて表示することができ、さらには、被写体の動きを
代表画像に対応づけて表示できる効果がある。その結果
として、映像にまつわる動き情報を利用者が直感的に理
解できるような形で表示することができるようになるの
で、映像内容を効率的に把握でき、目的の映像を視覚的
に短時間で検索できるようになる。
According to the present invention, a representative image is created by combining images according to motion information, and the motion information is visualized in association with the representative image. Can also extract a representative image representing the entire video, and display the type, direction, and speed of camera operation in association with the representative image, and display the movement of the subject in association with the representative image. There is an effect that can be done. As a result, motion information about the video can be displayed in such a way that the user can understand it intuitively, so that the content of the video can be grasped efficiently and the target video can be visually recognized in a short time. Be able to search.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態例を示す処理フロー図であ
る。
FIG. 1 is a process flowchart showing an embodiment of the present invention.

【図2】従来技術におけるカメラ操作可視化方法を説明
するための摸式図である。
FIG. 2 is a schematic diagram for explaining a camera operation visualization method in the related art.

【図3】本発明による静止画表示例を示すための摸式図
である。
FIG. 3 is a schematic diagram showing a still image display example according to the present invention.

【図4】本発明の他の実施形態例を示す処理フロー図で
ある。
FIG. 4 is a process flowchart showing another embodiment of the present invention.

【図5】動き情報可視化手続きの一実施形態例を示す処
理フロー図である。
FIG. 5 is a processing flowchart illustrating an example of an embodiment of a motion information visualization procedure.

【図6】本発明の更に他の一実施形態例の構成を示すブ
ロック図である。
FIG. 6 is a block diagram showing a configuration of still another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

61 映像シーン入力手段 62 動き情報抽出手段 63 画像合成手段 64 動き情報可視化手段 65 画像出力手段 61 Video scene input means 62 Motion information extraction means 63 Image synthesis means 64 Motion information visualization means 65 Image output means

フロントページの続き (72)発明者 佐藤 隆 東京都新宿区西新宿三丁目19番2号 日 本電信電話株式会社内 (56)参考文献 特開 平6−303562(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 5/76 - 5/956 Continuation of the front page (72) The inventor Takashi Sato 3-19-2 Nishi-Shinjuku, Shinjuku-ku, Tokyo Nippon Telegraph and Telephone Corporation (56) References JP-A-6-303562 (JP, A) (58) Survey Field (Int.Cl. 7 , DB name) H04N 5/76-5/956

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 連続した映像を静止画表示する方法であ
って、 映像に含まれる動き情報を抽出する第1の工程と、 前記動き情報に応じて、映像を構成する複数枚の画像を
合成し、一枚の代表画像を生成する第2の工程と、映像に含まれる動きを分類して、その結果に応じて動き
情報の可視化方法を選択し、該選択した可視化方法によ
前記動き情報を前記代表画像と対応づけて可視化する
第3の工程を具備することを特徴とする映像静止画表示
方法。
1. A method for displaying a continuous image as a still image, comprising: a first step of extracting motion information included in the image; and synthesizing a plurality of images constituting the image according to the motion information. Then, a second step of generating one representative image, and classifying motion included in the video, and
Select the information visualization method, and select the information visualization method.
A third step of visualizing the motion information in association with the representative image.
【請求項2】 請求項1記載の映像静止画表示方法にお
いて、第1の工程が動き情報としてカメラまたは被写体
の動作速度を抽出し、第3の工程が前記動作速度を可視
化することを特徴とする映像静止画表示方法。
2. The video still image display method according to claim 1, wherein the first step extracts a motion speed of the camera or the subject as motion information, and the third step visualizes the motion speed. Video still image display method.
【請求項3】 連続した映像を入力する映像入力手段
と、 前記映像に含まれる動き情報を抽出する動き情報抽出手
段と、 前記動き情報に応じて、映像を構成する複数枚の画像を
合成し、一枚の代表画像を生成する画像合成手段と、 映像に含まれる動きを分類して、その結果に応じて動き
情報の可視化方法を選択し、該選択した可視化方法によ
り前記動き情報を前記代表画像と対応づけて可視化する
動き情報可視化手段と、 前記画像合成手段と前記動き情報可視化手段から得られ
る画像や情報を出力する映像出力手段と、 を具備することを特徴とする映像静止画表示装置。
3. An image input means for inputting a continuous image.
And a motion information extracting means for extracting motion information contained in the video.
And a plurality of images forming a video according to the step and the motion information.
An image synthesizing unit that synthesizes and generates one representative image, and classifies motion included in the video, and performs motion according to the result.
Select the information visualization method, and select the information visualization method.
Visualizing the motion information in association with the representative image
Motion information visualization means, obtained from the image synthesis means and the motion information visualization means.
And a video output means for outputting images and information .
【請求項4】 連続した映像を静止画表示するための映
像静止画表示プログラムを格納したコンピュータ読み取
り可能な記録媒体であって、 映像に含まれる動き情報を抽出する処理プロセスと、前
記動き情報に応じて映像を構成する複数枚の画像を合成
して代表画像を作成する処理プロセスと、映像に含まれ
る動きを分類して、その結果に応じて動き情報の可視化
方法を選択し、 該選択した可視化方法により前記動き情
報を前記代表画像と対応づけて可視化する処理プロセス
を含むことを特徴とする映像静止画表示プログラム格納
記録媒体。
4. An image for displaying a continuous image as a still image.
A computer reading the image still image display program
A process for extracting motion information contained in a video,
Combines multiple images that compose a video according to the motion information
Process to create a representative image
And classify the movements and visualize the movement information according to the results
A method, and the motion information is selected by the selected visualization method.
Processing for visualizing information in association with the representative image
Video still image display program storage characterized by including
recoding media.
JP02582498A 1998-02-06 1998-02-06 Video still image display method and apparatus, and video still image display program storage recording medium Expired - Lifetime JP3325823B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02582498A JP3325823B2 (en) 1998-02-06 1998-02-06 Video still image display method and apparatus, and video still image display program storage recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02582498A JP3325823B2 (en) 1998-02-06 1998-02-06 Video still image display method and apparatus, and video still image display program storage recording medium

Publications (2)

Publication Number Publication Date
JPH11225310A JPH11225310A (en) 1999-08-17
JP3325823B2 true JP3325823B2 (en) 2002-09-17

Family

ID=12176618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02582498A Expired - Lifetime JP3325823B2 (en) 1998-02-06 1998-02-06 Video still image display method and apparatus, and video still image display program storage recording medium

Country Status (1)

Country Link
JP (1) JP3325823B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007019814A (en) * 2005-07-07 2007-01-25 Nippon Telegr & Teleph Corp <Ntt> Image processing method, device, and program, and storage medium having program stored therein

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4223762B2 (en) 2002-08-26 2009-02-12 ソニー株式会社 Video processing apparatus, video processing method, program and recording medium, and video processing system
KR100562119B1 (en) 2004-04-29 2006-03-21 삼성탈레스 주식회사 Image Alignment Method by Using Characteristics of Moving Image
JP5200816B2 (en) * 2008-09-24 2013-06-05 カシオ計算機株式会社 Imaging device, image processing method of imaging device, and image processing program
JP5199156B2 (en) * 2009-03-18 2013-05-15 オリンパスイメージング株式会社 Camera and wearable image display device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007019814A (en) * 2005-07-07 2007-01-25 Nippon Telegr & Teleph Corp <Ntt> Image processing method, device, and program, and storage medium having program stored therein
JP4640001B2 (en) * 2005-07-07 2011-03-02 日本電信電話株式会社 Video processing method and apparatus, program, and storage medium storing program

Also Published As

Publication number Publication date
JPH11225310A (en) 1999-08-17

Similar Documents

Publication Publication Date Title
US8805121B2 (en) Method and device for video image processing, calculating the similarity between video frames, and acquiring a synthesized frame by synthesizing a plurality of contiguous sampled frames
US5657402A (en) Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method
JP4181473B2 (en) Video object trajectory synthesis apparatus, method and program thereof
EP1154379A2 (en) Object region data describing method and object region data creating apparatus
US7606441B2 (en) Image processing device and a method for the same
US7535497B2 (en) Generation of static image data from multiple image data
EP0940978A2 (en) High resolution camera
US11758082B2 (en) System for automatic video reframing
GB2372658A (en) A method of creating moving video data from a static image
US6411339B1 (en) Method of spatio-temporally integrating/managing a plurality of videos and system for embodying the same, and recording medium for recording a program for the method
JP4555690B2 (en) Trajectory-added video generation apparatus and trajectory-added video generation program
JP3312105B2 (en) Moving image index generation method and generation device
JP3930504B2 (en) Object extraction device
JP2006092450A (en) Image processor and image processing method
JP3325823B2 (en) Video still image display method and apparatus, and video still image display program storage recording medium
JP2004348303A (en) Object detection system and program
WO1999005865A1 (en) Content-based video access
JP4244593B2 (en) Object extraction device, object extraction method, and image display device
JP3213105B2 (en) Video composition automatic decision processing method
JP3616111B2 (en) Method and apparatus for obtaining a high resolution still image using multiple images of different focal lengths or different viewing zones
JPH0937153A (en) Key signal generator, image composing device, key signal generating method and image composing method
JP3499729B2 (en) Method and apparatus for spatio-temporal integration and management of a plurality of videos, and recording medium recording the program
JP5192940B2 (en) Image conversion apparatus, image conversion program, and image conversion method
JP2005252803A (en) Apparatus, method, and program for image processing and recording medium with the program stored
JP3344600B2 (en) Image processing device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080705

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080705

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090705

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090705

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100705

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110705

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120705

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130705

Year of fee payment: 11

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term