JP4552553B2 - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP4552553B2
JP4552553B2 JP2004215143A JP2004215143A JP4552553B2 JP 4552553 B2 JP4552553 B2 JP 4552553B2 JP 2004215143 A JP2004215143 A JP 2004215143A JP 2004215143 A JP2004215143 A JP 2004215143A JP 4552553 B2 JP4552553 B2 JP 4552553B2
Authority
JP
Japan
Prior art keywords
vector
image
movement
vector distribution
optical flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004215143A
Other languages
Japanese (ja)
Other versions
JP2006039700A (en
Inventor
敬輔 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2004215143A priority Critical patent/JP4552553B2/en
Publication of JP2006039700A publication Critical patent/JP2006039700A/en
Application granted granted Critical
Publication of JP4552553B2 publication Critical patent/JP4552553B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像処理装置および画像処理のプログラムに関し、特に、オプティカルフローを推定して画像処理を行う画像処理装置および画像処理のプログラムに関するするものである。   The present invention relates to an image processing apparatus and an image processing program, and more particularly to an image processing apparatus and an image processing program for performing image processing by estimating an optical flow.

オプティカルフローを推定して画像処理を行う従来の技術として、移動撮影するカメラから得られる動画像から目的とする移動物体を自動的に検出する発明の提案がある。この発明の実施の形態として、図2(a),(b),(c),(d)に示されているように、2つの落石を検出する画像処理が記載されている。図2(a)には、単一色の落石Aおよび模様のある落石Bのフレーム画像が示されている。図2(b)は、図2(a)の入力フレーム画像とその1フレーム後(又は前)のフレーム画像とから求めた画像上の落石の動きを示す動きベクトルを実際の監視エリアとなる実平面に写像することにより得られる速度ベクトルをオプティカルフロー推定処理によって計算し、この速度ベクトルを座標配列した速度場ベクトルを示している。この速度場ベクトルにおいて落石の塊をベクトルの方向性に応じて領域分割した処理が、図2(c)に示す速度場ラベリングと呼ぶ状態である。次に、図2(c)の速度場ラベリング結果に基づいて、図2(d)のように、落石の塊の動きの方向を推定することで、落石の形状、面積を推定し、落石の有無を検出するような構成になっている。
さらに、図3に示されているように、動きベクトルを計算する際に、動きベクトルの空間的な滑らかさの度合いを示すパラメータを正則化パラメータとして用いている(特許文献1参照)。この正則化パラメータを用いたオプティカルフロー推定処理は、他の文献(特許文献2)で紹介されている公知の正規化手法に、正規化パラメータを用いる改良を加えたものである。
As a conventional technique for performing image processing by estimating an optical flow, there is a proposal of an invention for automatically detecting a target moving object from a moving image obtained from a camera that performs moving shooting. As an embodiment of the present invention, as shown in FIGS. 2A, 2B, 2C, and 2D, image processing for detecting two falling rocks is described. FIG. 2A shows a frame image of a single color falling rock A and a patterned falling rock B. FIG. FIG. 2B shows an actual monitoring area in which a motion vector indicating the movement of a falling rock on the image obtained from the input frame image of FIG. 2A and the frame image one frame after (or before) is obtained. A velocity vector obtained by mapping to a plane is calculated by an optical flow estimation process, and a velocity field vector obtained by coordinate arrangement of the velocity vector is shown. In this velocity field vector, the process of dividing the rock fall block according to the directionality of the vector is a state called velocity field labeling shown in FIG. Next, based on the velocity field labeling result of FIG. 2 (c), as shown in FIG. 2 (d), by estimating the direction of the movement of the rock fall, the shape and area of the rock fall are estimated. It is configured to detect the presence or absence.
Furthermore, as shown in FIG. 3, when calculating a motion vector, a parameter indicating the degree of spatial smoothness of the motion vector is used as a regularization parameter (see Patent Document 1). The optical flow estimation process using the regularization parameter is obtained by adding an improvement using a normalization parameter to a known normalization method introduced in another document (Patent Document 2).

一方、オプティカルフローを推定してカメラワークすなわち撮像するビデオカメラの移動を検出する発明の提案がある。例えば、ある提案の動画像処理装置によれば、処理対象のフレーム画像f(t,x,y)と隣り合うフレーム画像f(t−1,x,y)により差分画像diff1(t,x,y)を求め、さらに、差分に関わった2つのフレーム画像(横NXおよび縦NYの領域)間での変化の大きさD(t)を求める。次に、正規化によって得られた変化の大きさ(D(t)/(NX×NY))に対して、しきい値処理によってシーンの切れ目かどうかを判別する。次に、2つの方法(方法(a)および方法(b))によってカメラの移動を判別する。方法(a)では、該当するシーンの先頭と最後のフレームとを比較し、変化が大きい領域が大きい場合は、カメラ移動があると判別する。方法(b)では、画素ごとに、シーン全体を通しての輝度値の分散を求め、分散が大きい画素が多い場合は、カメラ移動があると判別する。カメラの動きは、例えば図4に示すように、画像に対して設定した4つの小領域の動きで求めることができる。すなわち、4つの小領域が同一方向に動いている期間をカメラの縦横の動きとして検出する(特許文献3参照)。
特開2002−74370号公報 特開平9−297851号公報 特開平6−333048号公報
On the other hand, there is a proposal of an invention for detecting the movement of a camera work, that is, a video camera to be imaged by estimating an optical flow. For example, according to a proposed moving image processing apparatus, a difference image diff1 (t, x, y) is calculated from a frame image f (t-1, x, y) adjacent to a processing target frame image f (t, x, y). y) is obtained, and the magnitude D (t) of change between two frame images (horizontal NX and vertical NY regions) involved in the difference is obtained. Next, with respect to the magnitude of change (D (t) / (NX × NY)) obtained by normalization, it is determined whether or not the scene is cut by threshold processing. Next, the movement of the camera is determined by two methods (method (a) and method (b)). In the method (a), the head and the last frame of the corresponding scene are compared, and if the region where the change is large is large, it is determined that the camera has moved. In the method (b), for each pixel, the variance of the luminance value throughout the entire scene is obtained. If there are many pixels having a large variance, it is determined that there is camera movement. For example, as shown in FIG. 4, the movement of the camera can be obtained by the movement of four small areas set for the image. That is, a period in which the four small areas are moving in the same direction is detected as a vertical and horizontal movement of the camera (see Patent Document 3).
JP 2002-74370 A Japanese Patent Laid-Open No. 9-297851 JP-A-6-333048

しかしながら、上記特許文献1のように、矢印によって動きベクトルを表す表示方法では、実際の画像の動きを視覚的に把握することができないという課題があった。特に、スポーツ観戦の画像を分析する場合には、選手の細かい動きを矢印によって分析することは困難である。例えば、図25に示すような、卓球のゲームにおいて、オプティカルフロー推定処理によって求めた腕、ラケット、球の動きベクトルを矢印で表しても、実際の画像の動きを視覚的に把握することは困難である。
また、上記特許文献3のように、4つの小領域が同一方向に動いている期間をカメラの縦横の動きとして検出するだけでは、縦、横又は斜めのビデオカメラ移動、すなわち、カメラの平行移動は検出できるが、拡大や縮小のズームのカメラワークや回転のカメラワークは検出することができないという課題があった。このため、撮像された動画に基づいて、サッカーなどのスポーツの試合における選手の動きや試合の攻防を分析することは困難である。あるいは、再生された動画に基づいて、映画におけるカメラワークを分析することによって、撮像技術(映像文法)を研究することは困難である。
本発明は、オプティカルフロー推定処理によって、画像の動きベクトルを視覚的に把握することが可能な画像処理装置および画像処理のプログラムを提供することを目的とする。
また、本発明は、オプティカルフロー推定処理によって、平行移動、ズーム、および回転のような様々なカメラワークを検出して画像の分析を可能にするとともに、分析の対象となる画像を抽出して、その画像の動きを表示できる画像処理装置および画像処理のプログラムを提供することを目的とする。
However, as in Patent Document 1, the display method that represents the motion vector with an arrow has a problem that the actual motion of the image cannot be visually grasped. In particular, when analyzing sports watching images, it is difficult to analyze the fine movements of the players with arrows. For example, in a table tennis game as shown in FIG. 25, it is difficult to visually grasp the actual image motion even if the arm, racket, and ball motion vectors obtained by the optical flow estimation process are represented by arrows. It is.
Further, as in the above-mentioned Patent Document 3, only by detecting the period in which the four small regions are moving in the same direction as the vertical and horizontal movements of the camera, the video camera moves vertically, horizontally, or diagonally, that is, the camera moves in parallel. Can be detected, but there is a problem that zoom camera work for enlargement or reduction and camera work for rotation cannot be detected. For this reason, it is difficult to analyze the movement of a player in a sports game such as soccer or the battle of the game based on the captured moving image. Alternatively, it is difficult to study imaging technology (video grammar) by analyzing camera work in a movie based on the reproduced moving image.
An object of the present invention is to provide an image processing apparatus and an image processing program capable of visually grasping a motion vector of an image by an optical flow estimation process.
In addition, the present invention detects various camera works such as translation, zoom, and rotation by optical flow estimation processing, enables image analysis, and extracts an image to be analyzed, An object of the present invention is to provide an image processing apparatus and an image processing program capable of displaying the movement of the image.

請求項1に記載の画像処理装置は、時系列に連続する動画の画面に対応する複数のフレーム画像の動きベクトルであるオプティカルフローを推定する動き推定手段と、前記動き推定手段によって推定されたオプティカルフローに基づくベクトル分布を算出するベクトル演算手段と、所定の表示手段の表示画面上において前記ベクトル演算手段によって算出されたベクトル分布に応じて画像の表示位置を移動して表示する表示制御手段と、前記動き推定手段によって推定されたオプティカルフローが所定の撮像手段によって撮像された動画の連続する撮像画面に対応する複数のフレーム画像のベクトル分布である場合に、前記撮像手段の移動に起因するベクトル分布を判定するベクトル判定手段と、を備え、前記ベクトル判定手段は、撮像画像における所定の画素数からなる複数の単位領域におけるオプティカルフローのベクトル分布の分散が所定の閾値内である場合には、前記撮像手段の移動に起因するベクトル分布を平行移動又は静止状態と判定し、前記複数の単位領域におけるオプティカルフローのベクトル分布の分散が所定の閾値を超える場合には、最小のベクトル量を有する単位領域を検出して、当該最小のベクトル量の単位領域と他の任意の単位領域との間の方向に対して、当該任意の単位領域のベクトル方向が略同一方向又は略逆方向である場合には前記撮像手段の移動に起因するベクトル分布を拡大又は縮小と判定し、当該任意の単位領域のベクトル方向が略直角方向である場合には前記撮像手段の移動に起因するベクトル分布を回転と判定し、前記表示制御手段は、前記ベクトル判定手段によって判定された前記撮像手段の移動に起因するベクトル分布とフレーム画像内の画像のベクトル分布との関係に基づいて画像の表示位置を移動して表示することを特徴とする。さらに、この場合において、請求項2に記載したように、表示制御手段は、ベクトル判定手段によって撮像手段の移動に起因するベクトル分布が平行移動と判定された場合の撮像画面のみを表示するような構成にしてもよい。 The image processing apparatus according to claim 1, a motion estimation means for estimating the optical flow is a motion vector of a plurality of frame images corresponding to the moving screen continuous in time series, estimated by the motion estimation unit Optical Vector calculation means for calculating a vector distribution based on the flow, display control means for moving and displaying the display position of the image according to the vector distribution calculated by the vector calculation means on the display screen of the predetermined display means, When the optical flow estimated by the motion estimation unit is a vector distribution of a plurality of frame images corresponding to continuous imaging screens of moving images captured by the predetermined imaging unit, the vector distribution resulting from the movement of the imaging unit A vector determination unit for determining the captured image. If the dispersion of the optical flow vector distribution in a plurality of unit regions having a predetermined number of pixels is within a predetermined threshold, the vector distribution resulting from the movement of the imaging means is determined to be in a parallel movement or stationary state, When the variance of the optical flow vector distribution in the plurality of unit regions exceeds a predetermined threshold, the unit region having the minimum vector amount is detected, and the unit region of the minimum vector amount and any other unit When the vector direction of the arbitrary unit region is substantially the same direction or the substantially opposite direction with respect to the direction between the regions, the vector distribution resulting from the movement of the imaging unit is determined to be enlarged or reduced, When the vector direction of an arbitrary unit region is a substantially right angle direction, the vector distribution resulting from the movement of the imaging means is determined as rotation, and the display control means And displaying by moving the display position of the image based on a relationship between the vector distribution image of vector distribution and the frame image due to the movement of the imaging means is determined by the vector determining means. Further, in this case, as described in claim 2, the display control means displays only the imaging screen when the vector distribution due to the movement of the imaging means is determined to be parallel movement by the vector determination means. It may be configured.

請求項3に記載の画像処理のプログラムは、時系列に連続する動画の画面に対応する複数のフレーム画像の動きベクトルであるオプティカルフローを推定する第1のステップと、前記第1のステップによって推定されたオプティカルフローに基づくベクトル分布を算出する第2のステップと、所定の表示手段の表示画面上において前記第2のステップによって算出されたベクトル分布に応じて画像の表示位置を移動して表示する第3のステップと、前記第1のステップによって推定されたオプティカルフローが所定の撮像手段によって撮像された動画の連続する撮像画面に対応する複数のフレーム画像のベクトル分布である場合に、前記撮像手段の移動に起因するベクトル分布を判定する第4のステップと、を画像処理装置のコンピューターに実行させるためのプログラムであって、前記第4のステップは、撮像画像における所定の画素数からなる複数の単位領域におけるオプティカルフローのベクトル分布の分散が所定の閾値内である場合には、前記撮像手段の移動に起因するベクトル分布を平行移動又は静止状態と判定し、前記複数の単位領域におけるオプティカルフローのベクトル分布の分散が所定の閾値を超える場合には、最小のベクトル量を有する単位領域を検出して、当該最小のベクトル量の単位領域と他の任意の単位領域との間の方向に対して、当該任意の単位領域のベクトル方向が略同一方向又は略逆方向である場合には前記撮像手段の移動に起因するベクトル分布を拡大又は縮小と判定し、当該任意の単位領域のベクトル方向が略直角方向である場合には前記撮像手段の移動に起因するベクトル分布を回転と判定し、前記第3のステップは、前記第4のステップによって判定された前記撮像手段の移動に起因するベクトル分布とフレーム画像内の画像のベクトル分布との関係に基づいて画像の表示位置を移動して表示することを特徴とする。さらに、この場合において、請求項4に記載したように、前記第3のステップは、前記第4のステップによって前記撮像手段の移動に起因するベクトル分布が平行移動と判定された場合の撮像画面のみを表示するような構成にしてもよい。 The image processing program according to claim 3, wherein a first step of estimating an optical flow, which is a motion vector of a plurality of frame images corresponding to a time-sequential moving image screen, is estimated by the first step. A second step of calculating a vector distribution based on the optical flow, and a display position of the image is moved and displayed in accordance with the vector distribution calculated by the second step on a display screen of a predetermined display means. When the optical flow estimated by the third step and the first step is a vector distribution of a plurality of frame images corresponding to continuous imaging screens of moving images captured by the predetermined imaging unit, the imaging unit A fourth step of determining a vector distribution resulting from the movement of the image processing apparatus; The fourth step is a program for executing the imaging when the variance of the optical flow vector distribution in a plurality of unit areas having a predetermined number of pixels in the captured image is within a predetermined threshold. If the vector distribution resulting from the movement of the means is determined to be parallel or stationary, and the variance of the optical flow vector distribution in the plurality of unit areas exceeds a predetermined threshold, the unit area having the minimum vector amount is determined. And when the vector direction of the arbitrary unit region is substantially the same direction or substantially opposite to the direction between the unit region of the minimum vector amount and another arbitrary unit region, If the vector distribution resulting from the movement of the imaging means is determined to be enlarged or reduced, and the vector direction of the arbitrary unit area is substantially perpendicular, the imaging The vector distribution resulting from the movement of the means is determined to be rotation, and the third step includes a vector distribution resulting from the movement of the imaging means determined by the fourth step and a vector distribution of the image in the frame image. The display position of the image is moved and displayed based on the relationship. Further, in this case, as described in claim 4, the third step includes only an imaging screen when the vector distribution resulting from the movement of the imaging unit is determined to be parallel movement by the fourth step. May be displayed.

本発明の画像処理装置および画像処理のプログラムによれば、オプティカルフロー推定処理によって、画像の動きベクトルを視覚的に把握することが可能になるという効果が得られる。
また、本発明の画像処理装置および画像処理のプログラムによれば、オプティカルフロー推定処理によって、平行移動、ズーム、および回転のような様々なカメラワークを検出して画像の分析を可能にするとともに、分析の対象となる画像を抽出して、その画像の動きを表示できるという効果が得られる。
According to the image processing apparatus and the image processing program of the present invention, it is possible to obtain an effect that the motion vector of the image can be visually grasped by the optical flow estimation process.
According to the image processing apparatus and the image processing program of the present invention, the optical flow estimation process detects various camera works such as translation, zoom, and rotation, and enables image analysis. It is possible to extract an image to be analyzed and display the movement of the image.

以下、本発明による画像処理装置の第1実施形態および第2実施形態について、図を参照して説明する。
図1は、第1実施形態における画像処理装置の構成を示すブロック図である。図1において、CPU1は、システムバスを介して、ROM2、RAM3、画像入力インターフェース(I/F)4、スイッチ部5、演算部6、フレームメモリ7、画像出力インターフェース8に接続され、これら各部との間で指令やデータの授受を行って、この装置全体を制御する。
Hereinafter, a first embodiment and a second embodiment of an image processing apparatus according to the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating the configuration of the image processing apparatus according to the first embodiment. In FIG. 1, a CPU 1 is connected to a ROM 2, a RAM 3, an image input interface (I / F) 4, a switch unit 5, an arithmetic unit 6, a frame memory 7, and an image output interface 8 via a system bus. The entire apparatus is controlled by sending and receiving commands and data.

ROM2は、画像処理のプログラムを含む制御プログラムや、電源起動時のイニシャライズにおける初期データを記憶している。RAM3は、CPU1のワークエリアであり、CPU1のプログラムの実行に必要な各種のレジスタ、フラグ、変数のエリアが設けられている。画像入力インターフェース4は、ビデオカメラやその他の映像資源からの画像データを入力する。スイッチ部5は、電源スイッチの他、画面分割を指示する画面分割スイッチ、シーン分割を指示するシーン分割スイッチ、オプティカルフロー推定処理の対象となる2つのフレーム画像のフレーム間隔を指定するフレーム間隔スイッチ、および、その他のスイッチで構成されている。演算部6は、CPU1の演算指令に応じて、オプティカルフロー推定処理に関する演算や、後述するその他の演算を行う。フレームメモリ7は、画像入力インターフェース4から入力された画像データをフレーム単位で記憶する。画像出力インターフェース8は、CPU1および演算部6によって画像処理されたフレームの画像データをディスプレイ9に出力して表示させる。   The ROM 2 stores a control program including an image processing program and initial data at initialization at power-on. The RAM 3 is a work area of the CPU 1 and is provided with various register, flag, and variable areas necessary for execution of the CPU 1 program. The image input interface 4 inputs image data from a video camera or other video resources. In addition to the power switch, the switch unit 5 includes a screen division switch for instructing screen division, a scene division switch for instructing scene division, a frame interval switch for specifying a frame interval between two frame images to be subjected to optical flow estimation processing, And other switches. The calculation unit 6 performs calculations related to the optical flow estimation process and other calculations described later in response to a calculation command from the CPU 1. The frame memory 7 stores the image data input from the image input interface 4 in units of frames. The image output interface 8 outputs the image data of the frame processed by the CPU 1 and the calculation unit 6 to the display 9 for display.

図2は、第1実施形態におけるCPU1のメインルーチンのフローチャートである。まず、所定のイニシャライズ(ステップSA1)の後、スイッチ処理を行う(ステップSA2)。図3は、スイッチ処理のフローチャートである。画面分割スイッチがオンされたか否かを判別し(ステップSB1)、このスイッチがオンされたときは、レジスタdivに「0」をセットする(ステップSB2)。さらに、表示形態設定スイッチによって、移動量一定表示が設定されているか否かを判別する(ステップSB3)。移動量一定表示が設定されている場合には、レジスタmodeに「0」をセットする(ステップSB4)。移動量一定表示が設定されていない場合には、振動数一定表示が設定されているか否かを判別する(ステップSB5)。振動数一定表示が設定されている場合には、modeに「1」をセットする(ステップSB6)。
ステップSB1において、画面分割スイッチがオンでない場合には、シーン分割スイッチがオンであるか否かを判別する(ステップSB7)。このスイッチがオンである場合には、divに「1」をセットする(ステップSB8)。
FIG. 2 is a flowchart of the main routine of the CPU 1 in the first embodiment. First, after predetermined initialization (step SA1), switch processing is performed (step SA2). FIG. 3 is a flowchart of the switch process. It is determined whether or not the screen division switch is turned on (step SB1). When this switch is turned on, "0" is set in the register div (step SB2). Further, it is determined whether or not the constant movement amount display is set by the display form setting switch (step SB3). If the constant movement amount display is set, “0” is set in the register mode (step SB4). If the constant movement amount display is not set, it is determined whether or not the constant frequency display is set (step SB5). When the constant frequency display is set, “1” is set in the mode (step SB6).
If the screen division switch is not on in step SB1, it is determined whether or not the scene division switch is on (step SB7). If this switch is on, div is set to “1” (step SB8).

ステップSB4においてmodeに「0」をセットした後、若しくは、ステップSB6においてmodeに「1」をセットした後、又は、ステップSB8においてdivに「1」をセットした後、若しくは、ステップSB7において、シーン分割スイッチがオンでない場合には、フレーム間隔スイッチがオンであるか否かを判別し(ステップSB9)、このスイッチがオンでフレーム間隔が指定された場合には、レジスタfに指定されたフレーム間隔の数値をセットする(ステップSB10)。この数値が「1」の場合には隣接するフレーム画像に対してオプティカルフロー推定処理を行ない、この数値が「10」の場合には10フレーム間隔のフレーム画像に対してオプティカルフロー推定処理を行なう。フレーム間隔スイッチがオンでない場合には、他のスイッチがオンであるか否かを判別し(ステップSB11)、他のスイッチがオンである場合には、そのスイッチに対応する処理を行う(ステップSB12)。ステップSB5において振動数一定表示が設定されていな場合には、他の処理を行う(ステップSB13)。   After setting mode to “0” in step SB4, or after setting mode to “1” in step SB6, or after setting “1” to div in step SB8, or in step SB7 If the division switch is not on, it is determined whether or not the frame interval switch is on (step SB9). If the switch is on and the frame interval is designated, the frame interval designated in the register f is determined. Is set (step SB10). When this value is “1”, the optical flow estimation process is performed on the adjacent frame images, and when this value is “10”, the optical flow estimation process is performed on the frame images at intervals of 10 frames. If the frame interval switch is not on, it is determined whether or not another switch is on (step SB11). If the other switch is on, processing corresponding to that switch is performed (step SB12). ). If the constant frequency display is not set in step SB5, other processing is performed (step SB13).

ステップSB10においてフレーム間隔の数値をセットした後、又は、ステップSB12若しくはステップSB13の処理の後は、図2のフローチャートに戻って、画像入力処理を行う(ステップSA3)。この処理では、画像入力インターフェース4を介してビデオカメラなどの撮像手段から入力される画像データをフレームメモリ7に記憶する。なお、この画像入力処理は、ルーチンワークでなくインタラプトに応じて処理してもよい。例えば、NTSCの場合には、約1/30秒ごとに発生するインタラプトに応じて画像入力処理を行うことになる。   After setting the numerical value of the frame interval in step SB10, or after the processing of step SB12 or step SB13, the process returns to the flowchart of FIG. 2 to perform image input processing (step SA3). In this process, image data input from an imaging means such as a video camera via the image input interface 4 is stored in the frame memory 7. Note that this image input processing may be performed according to an interrupt instead of a routine work. For example, in the case of NTSC, image input processing is performed according to an interrupt that occurs approximately every 1/30 seconds.

次に、レジスタdivの値が「0」であるか否かを判別し(ステップSA4)、この値が「0」である場合には、画面分割処理を行う(ステップSA5)。divの値が「0」でない場合には、divの値が「1」であるか否かを判別し(ステップSA6)、この値が「1」である場合には、シーン分割処理を行う(ステップSA7)。ステップSA5の画面分割処理の後、又は、ステップSA7のシーン分割処理の後は、画像出力処理を行う(ステップSA8)。この処理では、画像出力インターフェース8を介して、ディスプレイ9に対して画面分割処理又はシーン分割処理したフレーム画像を出力する。この画像出力処理の後、又は、divが「0」および「1」のいずれでもない場合には、その他の処理を行って(ステップSA9)、ステップSA2に移行してスイッチ処理を行う。   Next, it is determined whether or not the value of the register div is “0” (step SA4). If this value is “0”, screen division processing is performed (step SA5). If the value of div is not “0”, it is determined whether or not the value of div is “1” (step SA6). If this value is “1”, scene division processing is performed (step S6). Step SA7). After the screen division processing in step SA5 or after the scene division processing in step SA7, image output processing is performed (step SA8). In this process, a frame image subjected to screen division processing or scene division processing is output to the display 9 via the image output interface 8. After this image output process, or when div is neither “0” nor “1”, other processes are performed (step SA9), and the process proceeds to step SA2 to perform the switch process.

図4は、図2のステップSA5における画面分割処理のフローチャートである。まず、フレームメモリ7の中から処理の対象となるフレームF(n)を選択する(ステップSC1)。例えば、最新のフレームを選択する。次に、レジスタfにストアされているフレーム間隔の数値だけ前のフレームF(n−f)を選択する(ステップSC2)。フレーム間隔の数値は、動画における動き速度に応じて設定される。そして、選択した2つのフレームF(n)およびF(n−f)間のオプティカルフローを計算する(ステップSC3)。   FIG. 4 is a flowchart of the screen division process in step SA5 of FIG. First, the frame F (n) to be processed is selected from the frame memory 7 (step SC1). For example, the latest frame is selected. Next, the previous frame F (n−f) by the numerical value of the frame interval stored in the register f is selected (step SC2). The numerical value of the frame interval is set according to the moving speed in the moving image. Then, the optical flow between the two selected frames F (n) and F (n−f) is calculated (step SC3).

次に、2つのフレームF(n)およびF(n−f)をM×N(=J)のブロックB(1)〜B(J)に分割する(ステップSC4)。例えば、水平方向の画素数640、垂直方向の画素数480のフレームを水平方向に10個、垂直方向に8個の80個のブロックB(1)〜B(80)に分割する。したがって、各ブロックの画素数は3840個(水平画素数64×垂直画素数60)となる。   Next, the two frames F (n) and F (n−f) are divided into M × N (= J) blocks B (1) to B (J) (step SC4). For example, a frame having 640 pixels in the horizontal direction and 480 pixels in the vertical direction is divided into 10 blocks in the horizontal direction and 8 blocks B (1) to B (80) in the vertical direction. Accordingly, the number of pixels in each block is 3840 (horizontal pixel number 64 × vertical pixel number 60).

次に、変数jを「1」にセットして(ステップSC5)、jの値をインクリメントしながら、以下のループ処理を行う。jの値で指定するブロックB(j)の平均速度ベクトルVx(j)、Vy(j)を計算して(ステップSC6)、計算した平均速度ベクトルVx(j)、Vy(j)をRAM3にストアする(ステップSC7)。この後、jの値をインクリメントして(ステップSC8)、jの値が最大値Jの値を超えたか否かを判別する(ステップSC9)。   Next, the variable j is set to “1” (step SC5), and the following loop processing is performed while incrementing the value of j. The average velocity vectors Vx (j) and Vy (j) of the block B (j) designated by the value of j are calculated (step SC6), and the calculated average velocity vectors Vx (j) and Vy (j) are stored in the RAM 3. Store (step SC7). Thereafter, the value of j is incremented (step SC8), and it is determined whether or not the value of j exceeds the maximum value J (step SC9).

jの値がJの値以内である場合には、ステップSC6に移行してループ処理を繰り返すが、jの値がJの値を超えたときは、ループ処理を終了して、レジスタmodeの値が「0」であるか「1」であるかを判別する(ステップSC10)。modeの値が「0」である場合には、オプティカルフローの計算によるベクトル分布に従って、ブロックの画像を移動量一定でディスプレイ9に表示する(ステップSC11)。あるブロックについて移動量一定で表示する場合には、そのブロックにおいて指定した任意の点(x0,y0)は、その点(x0,y0)とベクトル分布に応じた下記の数1の点とを結ぶ直線上を、速度ベクトルに比例した振動数で移動する。

Figure 0004552553
一方、modeの値が「1」である場合には、オプティカルフローの計算によるベクトル分布に従って、ブロックの画像を振動数一定でディスプレイ9に表示する(ステップSC12)。あるブロックについて振動数一定で表示する場合には、そのブロックにおいて指定した任意の点(x0,y0)は、その点(x0,y0)とベクトル分布に応じた点(x0+Vx,y0+Vy)とを結ぶ直線上を、速度ベクトルに比例した移動量で移動する。
ステップSC11又はステップSC12の表示の後は、図2のメインルーチンに戻る。 If the value of j is within the value of J, the process proceeds to step SC6 to repeat the loop process. If the value of j exceeds the value of J, the loop process is terminated and the value of the register mode is reached. Is “0” or “1” (step SC10). When the value of mode is “0”, the image of the block is displayed on the display 9 with a constant movement amount according to the vector distribution obtained by the optical flow calculation (step SC11). When displaying a certain block with a constant movement amount, an arbitrary point (x0, y0) designated in the block is connected to the point (x0, y0) and the following equation 1 corresponding to the vector distribution. It moves on a straight line at a frequency proportional to the velocity vector.
Figure 0004552553
On the other hand, if the value of mode is “1”, the image of the block is displayed on the display 9 at a constant frequency according to the vector distribution calculated by the optical flow (step SC12). When a certain block is displayed with a constant frequency, an arbitrary point (x0, y0) designated in the block includes the point (x0, y0) and a point (x0 + Vx, y0 + Vy) corresponding to the vector distribution. It moves on the connecting line with a movement amount proportional to the velocity vector.
After the display of step SC11 or step SC12, the process returns to the main routine of FIG.

図5は、振動数一定でディスプレイ9に表示された画像を示す図である。この図は、フレームを水平方向に10個、垂直方向に8個の80個のブロックに分割した例である。各ブロックをその平均速度ベクトルに基づいて移動して表示する。図25に示した従来の画像と比較すると、静止画のイラストであるにもかかわらず、オプティカルフロー推定処理によって、画像の動きベクトルを視覚的に把握することが可能になる。実際に、これを動画で表示した画面で見ると、画像の動きベクトルを顕著に把握することができる。   FIG. 5 is a diagram showing an image displayed on the display 9 at a constant frequency. This figure shows an example in which a frame is divided into 80 blocks of 10 in the horizontal direction and 8 in the vertical direction. Each block is moved and displayed based on the average velocity vector. Compared with the conventional image shown in FIG. 25, it is possible to visually grasp the motion vector of the image by the optical flow estimation process despite the illustration of the still image. Actually, when this is viewed on a screen displayed as a moving image, the motion vector of the image can be recognized remarkably.

図6は、図2のメインルーチンにおけるステップSA7のシーン分割処理のフローチャートである。フレームメモリ7に記憶されている処理対象の複数のフレームにおいて、各フレームのオプティカルフローを計算する(ステップSD1)。オプティカルフローの計算においては、フレームを所定数の画素(例えば、16画素×16画素)からなる単位領域のエリアに分割して、そのエリアごとの動きベクトルを計算する。次に、フレームを1つ取り出す(ステップSD2)。例えば、最新のフレームを取り出す。そして、オプティカルフローに基づいてベクトルの分散Dvを計算する(ステップSD3)。   FIG. 6 is a flowchart of the scene dividing process in step SA7 in the main routine of FIG. In a plurality of processing target frames stored in the frame memory 7, an optical flow of each frame is calculated (step SD1). In the optical flow calculation, a frame is divided into unit area areas each including a predetermined number of pixels (for example, 16 pixels × 16 pixels), and a motion vector for each area is calculated. Next, one frame is taken out (step SD2). For example, the latest frame is taken out. Then, the vector variance Dv is calculated based on the optical flow (step SD3).

図7、図8、および図9は、様々なカメラワークの状態をエリアごとの動きベクトルで表した図である。図7(1)は各エリアのベクトルが均一に右向きの方向になっている。図7(2)は各エリアのベクトルが均一に右斜め上の方向になっている。図8(1)はハッチングで示すエリアを中心に各エリアのベクトルが時計回りの渦巻き状になっている。図8(2)はハッチングで示すエリアを中心に各エリアのベクトルが反時計回りの渦巻き状になっている。図9(1)は各エリアのベクトルがハッチングで示すエリアに向かう方向になっている。図9(2)は各エリアのベクトルがハッチングで示すエリアから外に向かう方向になっている。図7ないし図9においては、単位領域のエリア数を少なくしているが、実際には、水平方向が画素数640で垂直方向が画素数480のフレームの場合には、エリアを16画素×16画素とすると、水平40個×垂直30個からなる1200個のエリアとなる。   7, 8, and 9 are diagrams showing various camera work states by motion vectors for each area. In FIG. 7A, the vectors of the respective areas are uniformly directed to the right. In FIG. 7 (2), the vectors of the respective areas are uniformly in the upper right direction. In FIG. 8A, the vector of each area has a clockwise spiral shape around the hatched area. In FIG. 8B, the vector of each area has a counterclockwise spiral shape centering on the hatched area. In FIG. 9 (1), the vector of each area is in the direction toward the area indicated by hatching. In FIG. 9 (2), the vectors of the respective areas are directed outward from the areas indicated by hatching. In FIG. 7 to FIG. 9, the number of unit areas is reduced. However, in actuality, when the horizontal direction is a frame of 640 pixels and the vertical direction is 480 pixels, the area is 16 pixels × 16. If it is a pixel, it will be 1200 areas consisting of 40 horizontal x 30 vertical.

次に、ステップSD3で計算した動きベクトルの分散Dvが閾値Tvより大きいか否かを判別する(ステップSD4)。図7に示した各エリアのベクトルは同じ方向に均一な状態になっているので、分散Dvは閾値Tvよりも小さい。したがって、図7のカメラワークは平行移動に分類する(ステップSD5)。なお、動きが非常に少ない静止画に近いものも平行移動に分類するものとする。   Next, it is determined whether or not the motion vector variance Dv calculated in step SD3 is larger than a threshold value Tv (step SD4). Since the vectors of the areas shown in FIG. 7 are uniform in the same direction, the variance Dv is smaller than the threshold value Tv. Therefore, the camera work in FIG. 7 is classified as a parallel movement (step SD5). Note that images that are very close to still images with very little movement are also classified as parallel movements.

一方、図8および図9に示す各エリアのベクトルは、均一性がなく分散した状態になっている。この場合には、ステップSD4において、分散Dvが閾値Tvより大きいと判別する。この場合には、最小ベクトル量のエリアを検出する(ステップSD6)。具体的には、ステップSD1において計算したオプティカルフローに基づいて、最小ベクトル量のエリアを検出する。図8および図9においては、ハッチングで示すエリアが最小ベクトル量のエリアである。   On the other hand, the vectors of the areas shown in FIGS. 8 and 9 are in a dispersed state with no uniformity. In this case, in step SD4, it is determined that the variance Dv is larger than the threshold value Tv. In this case, the area of the minimum vector amount is detected (step SD6). Specifically, the area of the minimum vector amount is detected based on the optical flow calculated in step SD1. In FIGS. 8 and 9, the area indicated by hatching is the area of the minimum vector amount.

次に、カメラワーク判定演算を行う(ステップSD7)。この演算では、最小ベクトル量のエリアと他のエリアとを結ぶ直線の方向と他のエリアにおける動きベクトルの方向との関係を分析する。最小ベクトル量のエリアの中心位置を起点座標(x、y)とし、起点座標と他のエリアの中心位置とを結ぶ直線と水平方向(X軸方向)との角度をθxyとした場合には、図8(2)に示すように、各エリアのベクトルが反時計回りの渦巻き状になっている状態においては、そのエリアのベクトルVは図10(1)に示すようになる。   Next, camera work determination calculation is performed (step SD7). In this calculation, the relationship between the direction of the straight line connecting the area of the minimum vector amount and the other area and the direction of the motion vector in the other area is analyzed. When the center position of the area of the minimum vector amount is the starting point coordinate (x, y), and the angle between the straight line connecting the starting point coordinate and the center position of the other area and the horizontal direction (X-axis direction) is θxy, As shown in FIG. 8 (2), in a state where the vector of each area is in a counterclockwise spiral shape, the vector V of that area is as shown in FIG. 10 (1).

したがって、ベクトルVにおける水平方向のベクトルVxおよび垂直方向のベクトルVyは、下記の式で表される。
Vx=−V・sinθxy
Vy=V・cosθxy
次に、起点座標と他のエリアの中心位置とを結ぶ直線と法線方向の成分drおよび接線方向の成分dxを下記の式で求める。
dr=Vy・cosθxy−Vx・sinθxy
=V・cosθxy・cosθxy−V(−sinθxy)・sinθxy=V
dz=Vy・sinθxy+Vx・cosθxy
=V・cosθxy・sinθxy・+V・(−sinθxy)・cosθxy=0
Therefore, the horizontal vector Vx and the vertical vector Vy in the vector V are expressed by the following equations.
Vx = -V · sinθxy
Vy = V · cosθxy
Next, a straight line connecting the starting point coordinate and the center position of another area, a normal direction component dr, and a tangential direction component dx are obtained by the following equations.
dr = Vy · cos θxy−Vx · sin θxy
= V.cos.theta.xy.cos .theta.xy-V (-sin .theta.xy) .sin .theta.xy = V
dz = Vy · sin θxy + Vx · cos θxy
= V.cos.theta.xy.sin.theta.xy. + V. (-Sin .theta.xy) .cos .theta.xy = 0

すなわち、各エリアのベクトルが反時計回りの渦巻き状になっている状態においては、オプティカルフロー計算の誤差を考慮しても、ベクトルVで正規化した後の法線方向の成分はほぼ「1」、接線方向の成分はほぼ「0」となる。   That is, in the state where the vector of each area is in a counterclockwise spiral shape, the component in the normal direction after normalization with the vector V is substantially “1” even if the error of the optical flow calculation is taken into consideration. The component in the tangential direction is almost “0”.

一方、図9(2)に示すように、各エリアのベクトルがハッチングで示すエリアから外に向かう方向になっている場合には、そのエリアのベクトルVは図10(2)に示すようになる。
したがって、ベクトルVにおける水平方向のベクトルVxおよび垂直方向のベクトルVyは、下記の式で表される。
Vx=V・cosθxy
Vy=V・sinθxy
次に、起点座標と他のエリアの中心位置とを結ぶ直線と法線方向の成分drおよび接線方向の成分dxを下記の式で求める。
dr=Vy・cosθxy−Vx・
=V・sinθxy・cosθxy−V・cosθxy・sinθxy=0
dz=Vy・sinθxy+Vx・cosθxy
=V・sinθxy・sinθxy・+V・cosθxy・cosθxy=V
On the other hand, as shown in FIG. 9 (2), when the vector of each area is directed outward from the hatched area, the vector V of the area is as shown in FIG. 10 (2). .
Therefore, the horizontal vector Vx and the vertical vector Vy in the vector V are expressed by the following equations.
Vx = V · cosθxy
Vy = V · sinθxy
Next, a straight line connecting the starting point coordinate and the center position of another area, a normal direction component dr, and a tangential direction component dx are obtained by the following equations.
dr = Vy · cos θxy−Vx ·
= V · sinθxy · cosθxy−V · cosθxy · sinθxy = 0
dz = Vy · sin θxy + Vx · cos θxy
= V · sin θxy · sin θxy · + V · cos θxy · cos θxy = V

すなわち、各エリアのベクトルがハッチングで示すエリアから外に向かう方向になっている場合には、オプティカルフロー計算の誤差を考慮しても、ベクトルVで正規化した後の法線方向の成分はほぼ「0」、接線方向の成分はほぼ「1」となる。   That is, when the vectors in each area are directed outward from the hatched areas, the normal direction component after normalization with the vector V is almost the same even if the optical flow calculation error is taken into account. “0”, the tangential component is almost “1”.

このことは、2つのベクトルの内積を計算することと等価である。図11(1)に示すように、起点座標と他のエリアの中心位置とを結ぶ直線方向の単位ベクトルをVu(|Vu|=1)、他の任意のエリアのベクトルをVn、VnおよびVuのベクトル角をαとすると、ベクトルの内積は、次の式で表される。
|Vn|・|Vu|・cosα=|Vn|・cosα
あるいは、一般に2つのベクトルの内積は、水平方向成分同士の積と垂直方向成分同士の積との和で表されるので、ベクトルVnと水平方向との角度をβとすると、ベクトルの内積は、次の式でも表される。
|Vn|cosβ・|Vu|cosθxy+|Vn|・sinβ・|Vu|sinθxy
=|Vn|cosβ・cosθxy+|Vn|・sinβ・sinθxy
=|Vn|・cos(β−θxy)
なお、θxyはベクトルVuと水平方向の角度であるので、β−θxy=αとなり、
|Vn|・cos(β−θxy)=|Vn|・cosα
This is equivalent to calculating the inner product of two vectors. As shown in FIG. 11 (1), Vu (| Vu | = 1) is a linear unit vector connecting the starting point coordinates and the center position of another area, and Vn, Vn and Vu are vectors of other arbitrary areas. If the vector angle of α is α, the inner product of the vectors is expressed by the following equation.
| Vn | ・ | Vu | ・ cosα = | Vn | ・ cosα
Alternatively, since the inner product of two vectors is generally represented by the sum of the product of horizontal components and the product of vertical components, if the angle between the vector Vn and the horizontal direction is β, the inner product of the vectors is It is also expressed by the following formula.
| Vn | cosβ · | Vu | cosθxy + | Vn | · sinβ · | Vu | sinθxy
= | Vn | cosβ · cosθxy + | Vn | · sinβ · sinθxy
= | Vn | .cos (β-θxy)
Since θxy is a horizontal angle with the vector Vu, β−θxy = α,
| Vn | · cos (β−θxy) = | Vn | · cosα

したがって、図11(2)に示すように、単位ベクトルVuとベクトルVn1とがほぼ直角の場合、すなわち、図8(1)若しくは(2)に示すように、カメラワークが回転の場合にはαが約90°であるので、|Vn|で正規化した内積は約「1」となる。一方、単位ベクトルVuとベクトルVn2とがほぼ平行の場合、すなわち、図9(1)若しくは(2)に示すように、カメラワークが拡大又は縮小の場合には、αが約180°若しくは0°であるので、|Vn|で正規化した内積は約「0」となる。   Therefore, as shown in FIG. 11 (2), when the unit vector Vu and the vector Vn1 are substantially perpendicular, that is, as shown in FIG. 8 (1) or (2), when the camera work is rotated, α Is about 90 °, the inner product normalized by | Vn | is about “1”. On the other hand, when the unit vector Vu and the vector Vn2 are substantially parallel, that is, as shown in FIG. 9 (1) or (2), when the camera work is enlarged or reduced, α is about 180 ° or 0 °. Therefore, the inner product normalized by | Vn | is about “0”.

したがって、drの値がdzの値より大きいか否かを判別して(ステップSD8)、drの値がdzの値より大きい場合には、カメラワークを回転に分類する(ステップSD9)。一方、drの値がdzの値より大きくない場合には、カメラワークを拡大若しくは縮小に分類する(ステップSD10)。ステップSD5、ステップSD9、ステップSD10において、カメラワークを分類した後は、フレームメモリ7に処理対象のフレームが残っているか否かを判別し(ステップSD11)、残っている場合には、ステップSD2に移行して、ステップSD11までのループ処理を繰り返す。
フレームメモリ7に処理対象のフレームが残っていない場合には、画像出力インターフェース8を介して、ディスプレイ9にシーン分割した画像を表示する(ステップSD12)。そして、図2のメインルーチンに戻る。
Therefore, it is determined whether or not the value of dr is larger than the value of dz (step SD8). If the value of dr is larger than the value of dz, the camera work is classified as rotation (step SD9). On the other hand, when the value of dr is not larger than the value of dz, the camera work is classified as enlarged or reduced (step SD10). After the camera work is classified in step SD5, step SD9, and step SD10, it is determined whether or not the frame to be processed remains in the frame memory 7 (step SD11). Then, the loop process up to step SD11 is repeated.
If no frame to be processed remains in the frame memory 7, the scene-divided image is displayed on the display 9 via the image output interface 8 (step SD 12). Then, the process returns to the main routine of FIG.

カメラワークを分類した後は、撮像された画面からカメラワークの影響を除外して、対象画像の動きを分析するための画像処理、および、撮像された画面から移動画像の影響を除外して、カメラワーク自体の動きを分析するための画像処理が可能となる。
図12は、対象画像の動きを分析するための画像処理の例を示す図である。図12(1)は、ビデオカメラを平行移動させながら、サッカーの試合を撮像した動画であり、3人の選手がそれぞれオプティカルフローで算出されたベクトル分布であるv1、v2、v3の動きベクトルで移動している。カメラワークのベクトル分布を右方向に向かうvcとすると、各選手のベクトル分布v1、v2、v3は、図12(2)に示すように、カメラワークのベクトル分布vcと選手自体のベクトル分布v1’、v2’、v3’に分解できる。したがって、各選手のベクトル分布からカメラワークのベクトル分布を相殺すると、選手自体のベクトル分布v1’、v2’、v3’に基づいて、動画像の中から選手の画像を抽出することができる。
そして、図12(3)に示すように、フレームから抽出した各選手の画像をそれぞれのベクトル分布に従って移動して表示することができる。この結果、試合中の各選手の動きを分析することによって、今後の練習の方針や次の試合における対策を研究することができる。
After classifying the camera work, exclude the influence of the camera work from the captured screen, image processing to analyze the movement of the target image, and exclude the influence of the moving image from the captured screen, Image processing for analyzing the movement of the camera work itself becomes possible.
FIG. 12 is a diagram illustrating an example of image processing for analyzing the motion of the target image. FIG. 12 (1) is a moving image in which a soccer game is imaged while moving the video camera in parallel, and motion vectors of v1, v2, and v3, which are vector distributions calculated by an optical flow for three players, respectively. Has moved. Assuming that the camera work vector distribution is vc toward the right direction, the vector distributions v1, v2, v3 of each player are as shown in FIG. 12 (2). , V2 ′, v3 ′. Therefore, if the camera work vector distribution is offset from the vector distribution of each player, the player image can be extracted from the moving image based on the player's own vector distributions v1 ′, v2 ′, and v3 ′.
Then, as shown in FIG. 12 (3), the image of each player extracted from the frame can be moved and displayed according to the respective vector distribution. As a result, by analyzing the movement of each player during the game, it is possible to study the policy of future practice and the measures for the next game.

図13は、カメラワーク自体の動きを分析するための画像処理の例を示す図である。図13(1)は、ビデオカメラを移動させながらサッカーの試合を撮像した場合の連続したフレームを示している。このフレームの画面では、ボールが飛び、選手も走っているので、カメラワーク自体の動きは分かりにくい。そこで、所定の閾値よりも速い動きベクトルの画像を除外する。
図13(2)は、その閾値より速い動きベクトルのボールおよび選手の画像を除外した場合の連続したフレームを示している。図13(2)のフレームからはカメラワーク自体の動きを抽出して容易に分析することができる。この場合のカメラワークは左から右に平行する単純なものであるが、回転や拡大・縮小などが復号したカメラワークにおいては、所定の閾値よりも速い動きベクトルの画像を除外することによって、カメラワーク自体の動きを分析に顕著な効果が得られる。例えば、映画撮影の場合には、監督や映画のジャンルなどによって、カメラワークがどのように異なるかの分析、すなわち映画文法の分析が可能となる。
FIG. 13 is a diagram illustrating an example of image processing for analyzing the movement of the camera work itself. FIG. 13 (1) shows consecutive frames when a soccer game is imaged while moving the video camera. On the screen of this frame, since the ball flies and the players are running, the movement of the camera work itself is difficult to understand. Therefore, an image having a motion vector faster than a predetermined threshold is excluded.
FIG. 13 (2) shows a continuous frame when a ball having a motion vector faster than the threshold and an image of a player are excluded. The movement of the camera work itself can be extracted from the frame of FIG. 13 (2) and easily analyzed. The camera work in this case is a simple one that is parallel from left to right, but in camera work that has been decoded by rotation, enlargement / reduction, etc., the camera vector is excluded by excluding images with motion vectors that are faster than a predetermined threshold. A remarkable effect can be obtained in analyzing the movement of the workpiece itself. For example, in the case of movie shooting, it is possible to analyze how camera work differs depending on the director, movie genre, etc., that is, movie grammar analysis.

この場合において、カメラワーク自体の動きが平行移動である場合だけを表示するようにしてもよい。この場合には、ビデオカメラの移動方向によって攻撃側のチームを容易に認識することで、試合全体の流れを明確に把握することができる。   In this case, only when the movement of the camera work itself is a parallel movement may be displayed. In this case, by easily recognizing the attacking team by the moving direction of the video camera, it is possible to clearly grasp the flow of the entire game.

図14は、ビデオカメラの撮像位置を特定するための図である。サッカー場において、センターサークル、ライン、ゴールなどの動きのない背景画像をあらかじめフレームメモリ7に記憶し、撮像された時系列のフレーム(t)、フレーム(t+1)、…フレーム(t+n)の画像において、背景画像とマッチングを行ってカメラワークの分析を行う。   FIG. 14 is a diagram for specifying the imaging position of the video camera. In a soccer field, background images without movement such as center circles, lines, goals, etc. are stored in the frame memory 7 in advance, and in the time-series frames (t), frames (t + 1),. The camera work is analyzed by matching with the background image.

以上のように、この第1実施形態によれば、CPU1は、時系列に連続する動画の画面に対応する複数のフレーム画像の動きベクトルであるオプティカルフローを推定し、フレーム画像を所定数の部分画像に分割し、その部分画像の各々に対して推定したオプティカルフローに基づくベクトル分布を算出し、算出したベクトル分布に応じて部分画像の表示位置を移動して表示する。例えば、算出したベクトル分布に応じて部分画像の移動量を一定にして表示する。あるいは、算出したベクトル分布に応じて部分画像の振動数を一定にして表示する。
したがって、オプティカルフロー推定処理によって、画像の動きベクトルを視覚的に把握することが可能になる。
As described above, according to the first embodiment, the CPU 1 estimates an optical flow that is a motion vector of a plurality of frame images corresponding to a time-sequential moving image screen, and determines a predetermined number of frame images. A vector distribution based on the optical flow estimated for each of the partial images is calculated, and the display position of the partial image is moved and displayed according to the calculated vector distribution. For example, the moving amount of the partial image is displayed with a constant amount according to the calculated vector distribution. Alternatively, the frequency of the partial image is displayed with a constant frequency according to the calculated vector distribution.
Therefore, the motion vector of the image can be visually grasped by the optical flow estimation process.

また、第1実施形態によれば、CPU1は、推定したオプティカルフローが、ビデオカメラによって撮像された動画の連続する撮像画面に対応する複数のフレーム画像のベクトル分布である場合に、ビデオカメラのベクトル分布を判定して、ビデオカメラのベクトル分布と、フレーム画像内の画像のベクトル分布との関係に基づいて部分画像の表示位置を移動して表示する。
例えば、ビデオカメラによって撮像されたフレーム画像のベクトル分布から、ビデオカメラのベクトル分布を相殺したベクトル分布に基づいて、部分画像の表示位置を移動して表示する。この場合において、ビデオカメラのベクトル分布を相殺したベクトル分布に対応する特定の画像(図12における選手の画像)を抽出して、相殺したベクトル分布に基づいてその特定の画像の表示位置を移動して表示する。
したがって、オプティカルフロー推定処理によって、分析の対象となる画像を抽出して、カメラワークの動きに関係なく、その画像自体の動きを表示できる。
あるいは、ビデオカメラのベクトル分布に基づいて、ビデオカメラによって撮像された動きのない背景画像の表示位置を移動して表示する。
したがって、オプティカルフロー推定処理によって、平行移動、ズーム、および回転のような様々なカメラワークを検出して画像の分析を可能にする。
Further, according to the first embodiment, the CPU 1 determines the vector of the video camera when the estimated optical flow is a vector distribution of a plurality of frame images corresponding to continuous imaging screens of moving images captured by the video camera. The distribution is determined, and the display position of the partial image is moved and displayed based on the relationship between the vector distribution of the video camera and the vector distribution of the image in the frame image.
For example, the display position of the partial image is moved and displayed based on the vector distribution obtained by canceling the vector distribution of the video camera from the vector distribution of the frame image captured by the video camera. In this case, a specific image (player image in FIG. 12) corresponding to the vector distribution obtained by canceling the vector distribution of the video camera is extracted, and the display position of the specific image is moved based on the canceled vector distribution. To display.
Therefore, an image to be analyzed can be extracted by the optical flow estimation process, and the movement of the image itself can be displayed regardless of the movement of the camera work.
Alternatively, based on the vector distribution of the video camera, the display position of the background image without movement captured by the video camera is moved and displayed.
Therefore, the optical flow estimation process detects various camera works such as translation, zoom, and rotation to enable image analysis.

さらに、CPU1は、撮像画像における所定の画素数(16画素×16画素)からなる複数の単位領域におけるオプティカルフローのベクトル分布の分散が所定の閾値内である場合には、ビデオカメラのベクトル分布を平行移動又は静止状態と判定し、複数の単位領域におけるオプティカルフローのベクトル分布の分散が所定の閾値を超える場合には、最小のベクトル量を有する単位領域を検出して、当該最小のベクトル量の単位領域と他の任意の単位領域との間の方向に対して、当該任意の単位領域のベクトル方向が略同一方向又は略逆方向である場合には、ビデオカメラのベクトル分布を拡大又は縮小と判定し、当該任意の単位領域のベクトル方向が略直角方向である場合には、ビデオカメラのベクトル分布を回転と判定する。
したがって、平行移動、ズーム、および回転のような様々なカメラワークを正確に検出することができる。
この場合において、CPU1は、ビデオカメラのベクトル分布が平行移動と判定された場合の撮像画面のみを表示する。
したがって、スポーツの試合において、ビデオカメラの移動方向によって攻撃側のチームを容易に認識することで、試合全体の流れを明確に把握することができる。
Further, the CPU 1 determines the vector distribution of the video camera when the variance of the optical flow vector distribution in a plurality of unit regions having a predetermined number of pixels (16 pixels × 16 pixels) in the captured image is within a predetermined threshold. If the dispersion of the optical flow vector distribution in a plurality of unit regions exceeds a predetermined threshold value, the unit region having the minimum vector amount is detected, and the minimum vector amount is determined. When the vector direction of the arbitrary unit area is substantially the same or substantially opposite to the direction between the unit area and another arbitrary unit area, the vector distribution of the video camera is enlarged or reduced. If the vector direction of the arbitrary unit area is substantially perpendicular, the vector distribution of the video camera is determined to be rotation.
Therefore, various camera work such as translation, zooming, and rotation can be accurately detected.
In this case, the CPU 1 displays only the imaging screen when the vector distribution of the video camera is determined to be parallel movement.
Therefore, in a sports game, the team on the attacking side can be easily recognized based on the moving direction of the video camera, so that the overall flow of the game can be clearly grasped.

次に、本発明による画像処理装置の第2実施形態について説明する。
第2実施形態における画像処理装置の構成は、図1に示した第1実施形態のブロック図と同じである。さらに、第2実施形態における画像処理の動作についても、シーン分割処理の一部を除いて、第1実施形態の動作と同じである。したがって、第1実施形態と同じ処理については説明を省略し、第1実施形態の図面を援用するとともに、第1実施形態と異なる内容について説明する。
Next, a second embodiment of the image processing apparatus according to the present invention will be described.
The configuration of the image processing apparatus in the second embodiment is the same as the block diagram of the first embodiment shown in FIG. Further, the image processing operation in the second embodiment is the same as the operation in the first embodiment except for a part of the scene division processing. Therefore, the description of the same processing as that of the first embodiment will be omitted, and the content of the first embodiment will be described while contents different from those of the first embodiment will be described.

図15は、第2実施形態におけるシーン分割処理のフローチャートである。図15と第1実施形態における図6との比較から明らかなように、図15においては、カメラワークを平行移動若しくは静止に分類したステップSD5の後、回転に分類したステップSD9の後、又は、拡大若しくは縮小に分類したステップSD10の後に、静止の場合(速度がゼロの場合)を除き、分類に応じた速度パラメータの計算を行う(ステップSD13)。   FIG. 15 is a flowchart of the scene division process in the second embodiment. As is clear from a comparison between FIG. 15 and FIG. 6 in the first embodiment, in FIG. 15, after step SD5 in which camera work is classified as translation or stationary, after step SD9 in which rotation is classified, or After step SD10 classified as enlargement or reduction, a speed parameter corresponding to the classification is calculated (step SD13) except for the case of stillness (when the speed is zero).

カメラワークが平行移動の場合には、任意の点の座標(x、y)における水平方向の速度パラメータをVx、垂直方向の速度パラメータをVyとすると、座標(x、y)における水平方向のベクトル分布vxおよび垂直方向のベクトル分布vyは、下記の式で表される。したがって、下記の式によって水平方向の速度パラメータVx、垂直方向の速度パラメータVyを求めることができる。
vx=x+Vx
vy=y+Vy
When the camera work is translated, if the horizontal velocity parameter at the coordinate (x, y) of an arbitrary point is Vx and the vertical velocity parameter is Vy, the horizontal vector at the coordinate (x, y) The distribution vx and the vertical vector distribution vy are expressed by the following equations. Therefore, the velocity parameter Vx in the horizontal direction and the velocity parameter Vy in the vertical direction can be obtained by the following equations.
vx = x + Vx
vy = y + Vy

カメラワークが回転の場合には、任意の点の座標(x、y)が座標(xc,yc)を中心として回転しているときの回転の速度パラメータをVθとすると、座標(x、y)における水平方向のベクトル分布vxおよび垂直方向のベクトル分布vyは、下記の式で表される。したがって、下記の式によって回転の中心位置xc、yc、回転の速度パラメータVθを求めることができる。
vx=(x−xc)cosVθ−(y−yc)sinVθ
vy=(x−xc)sinVθ−(y−yc)cosVθ
When the camerawork is rotating, assuming that the rotation speed parameter when the coordinates (x, y) of an arbitrary point is rotating around the coordinates (xc, yc) is Vθ, the coordinates (x, y) The vector distribution vx in the horizontal direction and the vector distribution vy in the vertical direction are expressed by the following equations. Therefore, the rotation center positions xc and yc and the rotation speed parameter Vθ can be obtained by the following equations.
vx = (x−xc) cosVθ− (y−yc) sinVθ
vy = (x−xc) sinVθ− (y−yc) cosVθ

さらに、カメラワークも被写体も回転している場合において、被写体の動きを解析する場合には、被写体の回転速度によるベクトル分布からカメラの回転速度によるベクトル分布を相殺したベクトル分布に基づいて被写体の動きを分析する。これに対して、カメラワークの動きすなわち映像文法を解析する場合には、カメラの回転速度によるベクトル分布から被写体の回転速度によるベクトル分布を相殺したベクトル分布に基づいてカメラワークを分析する。   In addition, when the camerawork and the subject are both rotating, when analyzing the subject's movement, the subject's movement is based on the vector distribution obtained by offsetting the vector distribution by the camera's rotational speed from the vector distribution by the subject's rotational speed. Analyze. On the other hand, when analyzing the motion of the camera work, that is, the video grammar, the camera work is analyzed based on the vector distribution obtained by canceling the vector distribution based on the rotation speed of the subject from the vector distribution based on the camera rotation speed.

図16は、著名な監督による映画を記録したビデオテープ又はDVDの画面を示す図であり、3人の人物p0、p1、p2および図示しない他の人物やセットの建物が撮影されている。図16(A)のシーンから単位時間(例えば、1秒)後にカメラが動いて図16(B)のシーンに変化した場合に、カメラワークの動きである映像文法を動きベクトルのオプティカルフローによって分析する。この2つのシーンの映像に示されているように、人物p0の画像は移動せず、人物p1の画像が左にd1の距離だけ移動し、人物p2の画像が右にd2の距離だけ移動している。したがってこの場合には、人物p0を中心にカメラが回転移動していることが分析できる。すなわち、単位時間における移動距離d1およびd2は、人物p1およびp2の動きベクトルを表している。   FIG. 16 is a diagram showing a screen of a videotape or DVD on which a movie by a well-known director is recorded. Three persons p0, p1, and p2 and other persons or sets of buildings not shown are photographed. When the camera moves from the scene of FIG. 16A to a scene of FIG. 16B after a unit time (for example, 1 second), the video grammar that is the motion of the camera work is analyzed by the motion vector optical flow. To do. As shown in the images of these two scenes, the image of the person p0 does not move, the image of the person p1 moves to the left by the distance d1, and the image of the person p2 moves to the right by the distance d2. ing. Therefore, in this case, it can be analyzed that the camera is rotating around the person p0. That is, the movement distances d1 and d2 per unit time represent the motion vectors of the persons p1 and p2.

図17は、この分析結果に基づいたカメラワークの俯瞰図である。図16(A)のシーンではカメラ11は、図17の回転移動の軌道を示す円12において点線の位置にあり、図16(B)のシーンでは、カメラ11は人物p0を中心に動きベクトルθで回転移動した実線の位置にある。図17において、2点鎖線でしめす画面G1が人物p1の画像の移動を表し、2点鎖線でしめす画面G2が人物p2の画像の移動を表している。いま、人物p0と人物p1との距離をr1とし、人物p0と人物p2との距離をr2とすると、下記の近似式が成り立つ。
r1・θ=d1、r2・θ=d2
すなわち、この式から次の式を導くことができる。
d2/d1=r2/r1
したがって、図16の映像における人物p1およびp2の画像の動きベクトルを分析することによって、3人の人物p0、p1、p2の配置関係も分析できる。
図18は、このような映像文法の分析に基づいて、実際の撮影現場を予想した図である。この図に示すように、カメラ11は、人物p0を中心とする円の軌道12に沿って矢印の方向に回転移動している。
FIG. 17 is an overhead view of camera work based on the analysis result. In the scene of FIG. 16A, the camera 11 is at the position of the dotted line in the circle 12 indicating the rotational movement trajectory of FIG. 17, and in the scene of FIG. 16B, the camera 11 has the motion vector θ centered on the person p0. It is in the position of the solid line rotated and moved by. In FIG. 17, a screen G1 shown by a two-dot chain line represents the movement of the image of the person p1, and a screen G2 shown by a two-dot chain line represents the movement of the image of the person p2. Assuming that the distance between the person p0 and the person p1 is r1, and the distance between the person p0 and the person p2 is r2, the following approximate expression is established.
r1 · θ = d1, r2 · θ = d2
That is, the following equation can be derived from this equation.
d2 / d1 = r2 / r1
Therefore, by analyzing the motion vectors of the images of the persons p1 and p2 in the video of FIG. 16, the positional relationship between the three persons p0, p1, and p2 can be analyzed.
FIG. 18 is a diagram in which an actual shooting site is predicted based on such video grammar analysis. As shown in this figure, the camera 11 is rotationally moved in the direction of the arrow along a circular orbit 12 centered on the person p0.

図19は、この映画のロケシーンの画面を示す図であり、連続する撮像画面である図19(A)、(B)、(C)に、人物の画像13が同じ大きさで表示されている。ただし、背景の町並みの画像は次第に小さくなっている。この3つのシーン動きベクトルのオプティカルフローによれば、右方向にカメラを回転させながら人物の進行に合わせて左後方にズームし、低い位置すなわちローアングルで撮影するカメラワークであることが分析される。   FIG. 19 is a diagram showing the location scene screen of this movie. In FIGS. 19A, 19B, and 19C, which are continuous imaging screens, the human image 13 is displayed in the same size. . However, the image of the townscape in the background is getting smaller. According to the optical flow of these three scene motion vectors, it is analyzed that the camera work is to shoot at a low position, that is, at a low angle, by rotating the camera in the right direction and zooming to the left and rear in accordance with the progress of the person. .

図20は、この映画の散歩のシーンを示す図である。図20(A)のシーンから図20(B)のシーンに変化した場合には、人物は右方向にd1の距離だけ移動し、背景は左方向にd2の距離だけ移動している。したがって、この2つのシーン動きベクトルのオプティカルフローによれば、カメラを右方向に移動するパンのカメラワークであることが分析される。また、人物は図20(A)のシーンから図20(B)のシーンに変化するまでの時間に(d1+d2)の距離を移動していることが分かる。   FIG. 20 shows a scene of this movie walk. When the scene in FIG. 20A changes to the scene in FIG. 20B, the person moves to the right by a distance of d1, and the background moves to the left by a distance of d2. Therefore, according to the optical flow of the two scene motion vectors, it is analyzed that the camera work is panning that moves the camera to the right. It can also be seen that the person moves a distance of (d1 + d2) during the time from the scene of FIG. 20A to the scene of FIG. 20B.

図21は、この映画における人物のクローズアップのシーンを示す図である。図21(A)のシーン、図21(B)のシーン、図21(C)のシーンに変化しているので、この3つのシーン動きベクトルのオプティカルフローによれば、カメラを下から上に移動させながら撮影するカメラワークであることが分析される。なお、図には示さないが、さらに、図21(C)のシーンから逆に、カメラを上から下に移動させながら撮影するカメラワークも行われる。すなわち、縦揺れの映像文法のカメラワークである。   FIG. 21 is a diagram showing a close-up scene of a person in this movie. Since the scene changes to the scene of FIG. 21A, the scene of FIG. 21B, and the scene of FIG. 21C, the camera moves from the bottom to the top according to the optical flow of these three scene motion vectors. It is analyzed that it is camera work to shoot while. Although not shown in the drawing, camera work is also performed in which the camera is moved from the top to the bottom, contrary to the scene of FIG. In other words, it is camera work of vertical video grammar.

図22は、この映画の戦闘場面における戦闘機のコックピット内のシーンを示す図である。図22(A)のシーン、図22(B)のシーン、図22(C)のシーンに変化し、水平線の画像が右回転しているので、この3つのシーン動きベクトルのオプティカルフローによれば、コックピット内のカメラが戦闘機の左回転するのに伴って、回転しながら撮影するカメラワークであることが分析される。図16に示した回転のカメラワークは、撮影現場の所定の地点を垂直の軸として回転するカメラワークであるのに対して、この図22に示す回転のカメラワークは、カメラの光軸を中心に回転するカメラワークになっている。   FIG. 22 is a diagram showing a scene in the cockpit of a fighter in the battle scene of this movie. Since the scene changes to the scene of FIG. 22A, the scene of FIG. 22B, and the scene of FIG. 22C, and the image of the horizontal line rotates to the right, according to the optical flow of these three scene motion vectors. As the camera in the cockpit rotates to the left of the fighter, it is analyzed that the camera work is taken while rotating. The rotating camera work shown in FIG. 16 is a camera work that rotates about a predetermined point on the shooting site as a vertical axis, whereas the rotating camera work shown in FIG. 22 is centered on the optical axis of the camera. It is a camera work that rotates.

図23は、この映画において時間の経過に応じて異なるカメラワークの種類を示す一連の図であり、カメラワークの種類に応じた画面の変化を矢印で示している。この図に示すように、回転(所定の地点を垂直の軸とした回転)のカメラワーク、ズームのカメラワーク、パンのカメラワーク、縦揺れのカメラワーク、実施形態においては示していないが、パンと縦揺れの合成である斜め揺れのカメラワーク、回転(カメラの光軸を中心とする回転)のカメラワークに応じて、画面が矢印のように変化する。
なお、各種類のカメラワークを各シーン番号で表示したり、あるいは、各種類のカメラワークを各シーンの開始時間および終了時間で表示するようにしてもよい。
FIG. 23 is a series of diagrams showing different types of camera work according to the passage of time in this movie, and changes in the screen according to the types of camera work are indicated by arrows. As shown in this figure, rotation (rotation with a predetermined point as a vertical axis) camera work, zoom camera work, pan camera work, pitch camera work, panning camera work, although not shown in the embodiment, The screen changes as shown by an arrow in accordance with the camera work of the diagonal shake that is a combination of the vertical shake and the camera work of the rotation (rotation around the optical axis of the camera).
Each type of camera work may be displayed with each scene number, or each type of camera work may be displayed with the start time and end time of each scene.

図24は、この映画の一連のカメラワークによって映像文法を分析する際の画面を示す図である。この図に示すように、一連の動画をベクトル分布の分類であるカメラワークに応じた区間、すなわち複数の画面からなるシーン(1,2,3…)に分割し、各分割区間ごとに一枚の画像(ディスプレイ9の1画面)をその区間のベクトル分布に応じて移動して表示する。この場合において、各区間における移動表示、すなわち、縦軸又は横軸を中心とする画像の回転、画面の拡大又は縮小であるズーム、画像を横又は斜めに移動するパン、画像を上又は下に移動する縦揺れ、画面の任意の表示位置すなわちカメラの光軸を中心とする回転などが可能なように、図24に示すように、各分割区間の画像の間を空けて表示する。   FIG. 24 is a diagram showing a screen when the video grammar is analyzed by a series of camera work of the movie. As shown in this figure, a series of moving images is divided into sections corresponding to camera work as a vector distribution classification, that is, scenes (1, 2, 3,...) Composed of a plurality of screens, one for each divided section The image (one screen of the display 9) is moved and displayed according to the vector distribution of the section. In this case, moving display in each section, that is, rotation of the image around the vertical axis or horizontal axis, zoom that is enlargement or reduction of the screen, panning to move the image horizontally or diagonally, image up or down As shown in FIG. 24, the images in the divided sections are displayed with a space between them so that the pitching movement, the arbitrary display position on the screen, that is, the rotation around the optical axis of the camera, and the like are possible.

さらにこの場合において、任意のシーンを選択して表示することも可能であるし、特定のカメラワーク、例えば、縦軸を中心とする画像の回転のカメラワークだけの分割区間を複数抽出して、それぞれの画像の回転を比較することにより、より詳細な映像文法の分析を行うことも可能である。あるいは、同じ監督の他の作品又は他の著名な監督の作品から、特定のカメラワークを抽出して比較することによって、作品ごとの映像文法の分析を行うことも可能である。   Furthermore, in this case, it is also possible to select and display an arbitrary scene, and to extract a plurality of divided sections only for a specific camera work, for example, a camera work of rotating an image around the vertical axis, It is also possible to analyze the video grammar in more detail by comparing the rotation of each image. Alternatively, it is possible to analyze video grammar for each work by extracting and comparing specific camera work from other works of the same director or works of other prominent directors.

なお、映像文法の分析において、カメラワークが図19に示すようなズームの場合には、任意の点の座標(x、y)が座標(xc,yc)を中心として外側に拡大しているとき、又は、座標(xc,yc)を中心として内側に縮小しているときに、拡大又は縮小の速度パラメータをVzとすると、座標(x、y)における水平方向のベクトル分布vxおよび垂直方向のベクトル分布vyは、下記の式で表される。したがって、下記の式によって拡大又は縮小の中心位置xc、yc、拡大又は縮小の速度パラメータVzを求めることができる。
vx=(x−xc)Vz
vy=(y−yc)Vz
In the analysis of video grammar, when the camera work is zoom as shown in FIG. 19, the coordinates (x, y) of an arbitrary point are expanded outward with the coordinates (xc, yc) as the center. Or, when the image is reduced inward with the coordinate (xc, yc) as the center, if the enlargement or reduction speed parameter is Vz, the horizontal vector distribution vx and the vertical vector at the coordinate (x, y) The distribution vy is expressed by the following formula. Accordingly, the enlargement / reduction center position xc, yc and the enlargement / reduction speed parameter Vz can be obtained by the following equations.
vx = (x−xc) Vz
vy = (y−yc) Vz

以上のように、この第2実施形態によれば、CPU1は、オプティカルフローの推定の対象であるフレーム画像の任意の位置における速度パラメータを算出し、当該算出した速度パラメータに従った速度で部分画像の表示位置を移動する。
したがって、オプティカルフロー推定処理によって、平行移動、ズーム、および回転のような様々なカメラワークの速度を検出して、カメラワークの定量的な分析を可能にする。
As described above, according to the second embodiment, the CPU 1 calculates the speed parameter at an arbitrary position of the frame image that is the target of optical flow estimation, and the partial image at a speed according to the calculated speed parameter. Move the display position of.
Thus, the optical flow estimation process detects various camera work velocities such as translation, zoom, and rotation, allowing quantitative analysis of the camera work.

各実施形態においては、オプティカルフローの推定を行う2つのフレーム間の間隔については特に限定していないが、通常は隣接するフレーム間においてオプティカルフローの推定を行う。この場合には、図3に示したスイッチ処理のステップSB10において、レジスタfの値が「1」にセットされる。しかしながら、分析対象の動画の動きがフレーム間隔の33.3msに比べてかなり遅い場合には、隣接するフレーム間においては、動きベクトル量が非常に小さくなり、オプティカルフローの推定を行っても分析が困難である。このような場合には、fにセットする値を大きくして、オプティカルフローの推定を行う2つのフレーム間隔を長くする。   In each embodiment, the interval between two frames for which the optical flow is estimated is not particularly limited, but the optical flow is normally estimated between adjacent frames. In this case, the value of the register f is set to “1” in step SB10 of the switch process shown in FIG. However, if the motion of the moving image to be analyzed is considerably slower than the frame interval of 33.3 ms, the amount of motion vector between adjacent frames becomes very small, and analysis is possible even if optical flow is estimated. Have difficulty. In such a case, the value set in f is increased, and the interval between two frames for performing optical flow estimation is lengthened.

また、各実施形態においては、サッカーの試合を例に採ってオプティカルフローによる画像処理を説明したが、本発明は、他のスポーツの試合やスポーツ以外の画像に対する画像処理にも応用できることは明らかである。
また、各実施形態においては、画像の形に基づいて特定の画像を抽出するようにしたが、画像の色情報に基づいて特定の画像を抽出してもよい。
第1実施形態においては、図14に示したビデオカメラの撮像位置を特定するために、背景画像とマッチングを行ってカメラワークの分析を行うようにしたが、直接手作業でカメラワークの分析を行うようにしてもよい。
Moreover, in each embodiment, the image processing by the optical flow has been described taking a soccer game as an example, but it is obvious that the present invention can be applied to image processing for other sports games or images other than sports. is there.
In each embodiment, the specific image is extracted based on the shape of the image. However, the specific image may be extracted based on the color information of the image.
In the first embodiment, in order to specify the imaging position of the video camera shown in FIG. 14, the camera work is analyzed by matching with the background image. However, the camera work is analyzed directly by hand. You may make it perform.

なお、上記第1実施形態および第2実施形態においては、画像処理のプログラムがあらかじめ記憶されているROM2を備えた画像処理装置の発明について説明したが、フレキシブルディスク(FD)、CD、DVDなどの外部の記憶媒体から読み出した画像処理のプログラムを、パソコン、ミニコン、オフィスコンピュータ、ワークステーションなどの汎用の情報処理装置におけるフレッシュROMやハードディスクなどの書込み可能な不揮発性メモリにインストールして実行する構成も可能である。又は、インターネットなどのネットワークを介してダウンロードした画像処理のプログラムを、このような不揮発性メモリにインストールして実行する構成も可能である。
すなわち、汎用の情報処理装置にプログラムをインストールして画像処理を実行することにより、いわゆる物の発明としての画像処理装置の発明だけでなく、画像処理のプログラムの発明を実現できる。また、このような画像処理のプログラムを記憶したフレキシブルディスク、CD、DVD自体も独立して販売できるので、記憶媒体の発明をも実現できることは言うまでもない。
In the first embodiment and the second embodiment, the invention of the image processing apparatus including the ROM 2 in which the image processing program is stored in advance has been described. However, the flexible disk (FD), CD, DVD, etc. A configuration in which an image processing program read from an external storage medium is installed and executed in a writable non-volatile memory such as a fresh ROM or a hard disk in a general-purpose information processing apparatus such as a personal computer, a minicomputer, an office computer, or a workstation. Is possible. Alternatively, a configuration in which an image processing program downloaded via a network such as the Internet is installed in such a nonvolatile memory and executed is also possible.
That is, by installing a program in a general-purpose information processing apparatus and executing image processing, it is possible to realize not only an image processing apparatus invention as a so-called product invention but also an image processing program invention. Further, since a flexible disk, CD, or DVD itself storing such an image processing program can be sold independently, it goes without saying that the invention of the storage medium can also be realized.

画像処理のプログラムは、上記各実施形態におけるCPUのフローチャートに示される構成になっている。すなわち、
時系列に連続する動画の画面に対応する複数のフレーム画像の動きベクトルであるオプティカルフローを推定する第1のステップと、フレーム画像を所定数の部分画像に分割する第2のステップと、前記第2のステップによって分割された部分画像の各々に対して前記第1のステップによって推定されたオプティカルフローに基づくベクトル分布を算出する第3のステップと、所定の表示手段の表示画面上において前記第3のステップによって算出されたベクトル分布に応じて画像の表示位置を移動して表示する第4のステップと、を実行する。
The image processing program has a configuration shown in the flowchart of the CPU in each of the above embodiments. That is,
A first step of estimating an optical flow that is a motion vector of a plurality of frame images corresponding to a time-sequential moving image screen; a second step of dividing the frame image into a predetermined number of partial images; A third step of calculating a vector distribution based on the optical flow estimated in the first step for each of the partial images divided in step 2, and the third step on the display screen of a predetermined display means. And a fourth step in which the display position of the image is moved and displayed according to the vector distribution calculated in this step.

前記第3のステップは、前記第2のステップによって算出されたベクトル分布に応じた移動量で画像を表示する。   In the third step, an image is displayed with a movement amount corresponding to the vector distribution calculated in the second step.

前記第3のステップは、前記第2のステップによって算出されたベクトル分布に応じた振動数で画像を表示する。   In the third step, an image is displayed at a frequency corresponding to the vector distribution calculated in the second step.

時系列に連続する動画の画面に対応する各フレーム画像を所定数の部分画像に分割する第4のステップをさらに有し、前記第2のステップは、前記第4のステップによって分割された部分画像の各々に対して前記第1のステップによって推定されたオプティカルフローに基づくベクトル分布を算出する。   The method further includes a fourth step of dividing each frame image corresponding to a moving image screen continuous in time series into a predetermined number of partial images, wherein the second step is a partial image divided by the fourth step. A vector distribution based on the optical flow estimated by the first step is calculated.

前記第1のステップによって推定されたオプティカルフローが所定の撮像手段によって撮像された動画の連続する撮像画面に対応する複数のフレーム画像のベクトル分布である場合に、前記撮像手段の移動に起因するベクトル分布を判定する第5のステップをさらに有し、前記第3のステップは、前記第5のステップによって判定された前記撮像手段の移動に起因するベクトル分布とフレーム画像内の画像のベクトル分布との関係に基づいて部分画像の表示位置を移動して表示する。   A vector resulting from movement of the imaging means when the optical flow estimated by the first step is a vector distribution of a plurality of frame images corresponding to continuous imaging screens of moving images captured by the predetermined imaging means. A fifth step of determining a distribution, wherein the third step includes a vector distribution resulting from the movement of the imaging means determined by the fifth step and a vector distribution of an image in the frame image; The display position of the partial image is moved and displayed based on the relationship.

前記第3のステップは、前記撮像手段によって撮像されたフレーム画像のベクトル分布から前記第5のステップによって判定された前記撮像手段の移動に起因するベクトル分布が相殺されたベクトル分布に基づいて部分画像の表示位置を移動して表示する。   The third step is a partial image based on a vector distribution in which the vector distribution resulting from the movement of the imaging unit determined by the fifth step is offset from the vector distribution of the frame image captured by the imaging unit. The display position of is moved and displayed.

前記撮像手段の移動に起因するベクトル分布が相殺されたベクトル分布に対応する特定の画像を前記画像分割手段によって分割された部分画像に基づいて抽出する第6のステップをさらに有し、前記第3のステップは、前記相殺されたベクトル分布に基づいて前記特定の画像の表示位置を移動して表示する。   A sixth step of extracting a specific image corresponding to the vector distribution in which the vector distribution resulting from the movement of the imaging unit is canceled based on the partial image divided by the image dividing unit; In this step, the display position of the specific image is moved and displayed based on the canceled vector distribution.

前記第3のステップは、前記第5のステップによって判定された前記撮像手段の移動に起因するベクトル分布に基づいて前記撮像手段によって撮像された動きのない背景画像の表示位置を移動して表示する。   In the third step, the display position of the background image having no motion imaged by the imaging unit is moved and displayed based on the vector distribution resulting from the movement of the imaging unit determined in the fifth step. .

前記第5のステップは、撮像画像における所定の画素数からなる複数の単位領域におけるオプティカルフローのベクトル分布の分散が所定の閾値内である場合には、前記撮像手段の移動に起因するベクトル分布を平行移動又は静止状態と判定し、前記複数の単位領域におけるオプティカルフローのベクトル分布の分散が所定の閾値を超える場合には、最小のベクトル量を有する単位領域を検出して、当該最小のベクトル量の単位領域と他の任意の単位領域との間の方向に対して、当該任意の単位領域のベクトル方向が略同一方向又は略逆方向である場合には前記撮像手段の移動に起因するベクトル分布を拡大又は縮小と判定し、当該任意の単位領域のベクトル方向が略直角方向である場合には前記撮像手段の移動に起因するベクトル分布を回転と判定する。   In the fifth step, when the dispersion of the optical flow vector distribution in a plurality of unit regions having a predetermined number of pixels in the captured image is within a predetermined threshold, the vector distribution resulting from the movement of the imaging unit is calculated. When the variance of the optical flow vector distribution in the plurality of unit regions exceeds a predetermined threshold value, the unit region having the minimum vector amount is detected and the minimum vector amount is determined. Vector distribution resulting from the movement of the imaging means when the vector direction of the arbitrary unit region is substantially the same direction or the substantially opposite direction with respect to the direction between the unit region and any other unit region If the vector direction of the arbitrary unit region is a substantially perpendicular direction, the vector distribution resulting from the movement of the imaging means is calculated. It determines that.

前記第3のステップは、前記第5のステップによって前記撮像手段の移動に起因するベクトル分布が平行移動と判定された場合の撮像画面のみを表示する。   In the third step, only the imaging screen when the vector distribution resulting from the movement of the imaging means is determined to be parallel movement in the fifth step is displayed.

前記第3のステップは、前記第1のステップによるオプティカルフローの推定の対象であるフレーム画像の任意の位置における速度パラメータを算出し、当該算出した速度パラメータに従った速度で部分画像の表示位置を移動する。   The third step calculates a speed parameter at an arbitrary position of the frame image that is the target of the optical flow estimation in the first step, and sets the display position of the partial image at a speed according to the calculated speed parameter. Moving.

前記第3のステップは、一連の動画を前記第2のステップによって算出されたベクトル分布の分類に応じた区間に分割し、各分割区間ごとに一枚の画像をその区間のベクトル分布に応じて移動する。   The third step divides a series of moving images into sections corresponding to the classification of the vector distribution calculated in the second step, and one image for each divided section according to the vector distribution of the section. Moving.

第1実施形態における画像処理装置の構成を示すブロック図。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment. 第1実施形態におけるメインルーチンのフローチャート。The flowchart of the main routine in 1st Embodiment. 第1実施形態におけるメインルーチンのスイッチ処理のフローチャート。The flowchart of the switch process of the main routine in 1st Embodiment. 第1実施形態におけるメインルーチンの画面分割処理のフローチャート。The flowchart of the screen division | segmentation process of the main routine in 1st Embodiment. 第1実施形態における画面分割の表示例を示す図。The figure which shows the example of a display of the screen division | segmentation in 1st Embodiment. 第1実施形態におけるメインルーチンのシーン分割処理のフローチャート。The flowchart of the scene division | segmentation process of the main routine in 1st Embodiment. 第1実施形態においてカメラワークが平行移動の場合に単位領域ごとのベクトル分布を示す図。The figure which shows the vector distribution for every unit area | region when camerawork is a parallel movement in 1st Embodiment. 第1実施形態においてカメラワークが回転の場合に単位領域ごとのベクトル分布を示す図。The figure which shows the vector distribution for every unit area | region when camerawork is rotation in 1st Embodiment. 第1実施形態においてカメラワークが拡大又は縮小の場合に単位領域ごとのベクトル分布を示す図。The figure which shows vector distribution for every unit area | region when camerawork is expansion or reduction in 1st Embodiment. 第1実施形態において起点座標および単位領域を結ぶ直線の方向と単位領域におけるベクトル分布との関係を示す図。The figure which shows the relationship between the direction of the straight line which connects a starting point coordinate and a unit area | region, and the vector distribution in a unit area | region in 1st Embodiment. 第1実施形態において起点座標および単位領域を結ぶ直線の方向の単位ベクトルと単位領域におけるベクトル分布との内積を説明する図。The figure explaining the inner product of the unit vector of the direction of the straight line which connects a starting point coordinate and a unit area, and the vector distribution in a unit area in a 1st embodiment. 第1実施形態において対象画像の動きを分析するための画像処理の例を示す図。The figure which shows the example of the image process for analyzing the motion of a target image in 1st Embodiment. 第1実施形態においてカメラワークの動きを分析するための画像処理の例を示す図。The figure which shows the example of the image process for analyzing the motion of camera work in 1st Embodiment. 第1実施形態においてビデオカメラの撮像位置を特定するための図。The figure for pinpointing the imaging position of a video camera in a 1st embodiment. 第2実施形態におけるメインルーチンのシーン分割処理のフローチャート。The flowchart of the scene division process of the main routine in 2nd Embodiment. 第2実施形態における映画のスタジオシーンを記録した画面を示す図。The figure which shows the screen which recorded the studio scene of the movie in 2nd Embodiment. 第2実施形態における分析結果に基づいたカメラワークの俯瞰図。The overhead view of the camera work based on the analysis result in 2nd Embodiment. 第2実施形態における映像文法の分析に基づいて実際の撮影現場を予想した図。The figure which estimated the actual photography field based on the analysis of the image grammar in 2nd Embodiment. 第2実施形態における映画のロケシーンを記録した画面を示す図The figure which shows the screen which recorded the location scene of the movie in 2nd Embodiment 第2実施形態における映画の散歩のロケシーンを示す図。The figure which shows the location scene of the walk of the movie in 2nd Embodiment. 第2実施形態における映画において人物のクローズアップのシーンを示す図The figure which shows the close-up scene of a person in the movie in 2nd Embodiment 第2実施形態における映画の戦闘場面において戦闘機のコックピット内のシーンを示す図。The figure which shows the scene in the cockpit of a fighter in the battle scene of the movie in 2nd Embodiment. 第2実施形態における映画において時間の経過に応じたカメラワークを示す図。The figure which shows the camera work according to progress of time in the movie in 2nd Embodiment. 映画の一連のカメラワークによって映像文法を分析する際の画面を示す図。The figure which shows the screen at the time of analyzing image grammar by a series of camera work of a movie. 従来技術における画面分割の表示例を示す図。The figure which shows the example of a display of the screen division | segmentation in a prior art.

符号の説明Explanation of symbols

1 CPU
2 ROM
3 RAM
4 画像入力インターフェース
5 スイッチ部
6 演算部
7 フレームメモリ
8 画像出力インターフェース
9 ディスプレイ
1 CPU
2 ROM
3 RAM
4 Image Input Interface 5 Switch Unit 6 Arithmetic Unit 7 Frame Memory 8 Image Output Interface 9 Display

Claims (4)

時系列に連続する動画の画面に対応する複数のフレーム画像の動きベクトルであるオプティカルフローを推定する動き推定手段と、
前記動き推定手段によって推定されたオプティカルフローに基づくベクトル分布を算出するベクトル演算手段と、
所定の表示手段の表示画面上において前記ベクトル演算手段によって算出されたベクトル分布に応じて画像の表示位置を移動して表示する表示制御手段と、
前記動き推定手段によって推定されたオプティカルフローが所定の撮像手段によって撮像された動画の連続する撮像画面に対応する複数のフレーム画像のベクトル分布である場合に、前記撮像手段の移動に起因するベクトル分布を判定するベクトル判定手段と、
を備え、
前記ベクトル判定手段は、撮像画像における所定の画素数からなる複数の単位領域におけるオプティカルフローのベクトル分布の分散が所定の閾値内である場合には、前記撮像手段の移動に起因するベクトル分布を平行移動又は静止状態と判定し、前記複数の単位領域におけるオプティカルフローのベクトル分布の分散が所定の閾値を超える場合には、最小のベクトル量を有する単位領域を検出して、当該最小のベクトル量の単位領域と他の任意の単位領域との間の方向に対して、当該任意の単位領域のベクトル方向が略同一方向又は略逆方向である場合には前記撮像手段の移動に起因するベクトル分布を拡大又は縮小と判定し、当該任意の単位領域のベクトル方向が略直角方向である場合には前記撮像手段の移動に起因するベクトル分布を回転と判定し、
前記表示制御手段は、前記ベクトル判定手段によって判定された前記撮像手段の移動に起因するベクトル分布とフレーム画像内の画像のベクトル分布との関係に基づいて画像の表示位置を移動して表示することを特徴とする画像処理装置。
Motion estimation means for estimating an optical flow that is a motion vector of a plurality of frame images corresponding to a time-series video screen;
Vector calculation means for calculating a vector distribution based on the optical flow estimated by the motion estimation means;
Display control means for moving and displaying the display position of the image according to the vector distribution calculated by the vector calculation means on the display screen of the predetermined display means;
When the optical flow estimated by the motion estimation unit is a vector distribution of a plurality of frame images corresponding to continuous imaging screens of moving images captured by the predetermined imaging unit, the vector distribution resulting from the movement of the imaging unit Vector determination means for determining
With
The vector determining means parallelizes the vector distribution resulting from the movement of the imaging means when the variance of the optical flow vector distribution in a plurality of unit regions having a predetermined number of pixels in the captured image is within a predetermined threshold. If the variance of the optical flow vector distribution in the plurality of unit regions exceeds a predetermined threshold value, the unit region having the minimum vector amount is detected and the minimum vector amount is determined. When the vector direction of the arbitrary unit region is substantially the same direction or the substantially opposite direction with respect to the direction between the unit region and another arbitrary unit region, the vector distribution resulting from the movement of the imaging means is When the vector direction of the arbitrary unit region is a substantially perpendicular direction, the vector distribution resulting from the movement of the imaging unit is determined. It is determined that the rolling,
The display control means moves and displays the display position of the image based on the relationship between the vector distribution resulting from the movement of the imaging means determined by the vector determination means and the vector distribution of the image in the frame image. An image processing apparatus.
前記表示制御手段は、前記ベクトル判定手段によって前記撮像手段の移動に起因するベクトル分布が平行移動と判定された場合の撮像画面のみを表示することを特徴とする請求項に記載の画像処理装置。 2. The image processing apparatus according to claim 1 , wherein the display control unit displays only an imaging screen when a vector distribution resulting from movement of the imaging unit is determined to be parallel movement by the vector determination unit. . 時系列に連続する動画の画面に対応する複数のフレーム画像の動きベクトルであるオプティカルフローを推定する第1のステップと、
前記第1のステップによって推定されたオプティカルフローに基づくベクトル分布を算出する第2のステップと、
所定の表示手段の表示画面上において前記第2のステップによって算出されたベクトル分布に応じて画像の表示位置を移動して表示する第3のステップと、
前記第1のステップによって推定されたオプティカルフローが所定の撮像手段によって撮像された動画の連続する撮像画面に対応する複数のフレーム画像のベクトル分布である場合に、前記撮像手段の移動に起因するベクトル分布を判定する第4のステップと、
を画像処理装置のコンピューターに実行させるためのプログラムであって、
前記第4のステップは、撮像画像における所定の画素数からなる複数の単位領域におけるオプティカルフローのベクトル分布の分散が所定の閾値内である場合には、前記撮像手段の移動に起因するベクトル分布を平行移動又は静止状態と判定し、前記複数の単位領域におけるオプティカルフローのベクトル分布の分散が所定の閾値を超える場合には、最小のベクトル量を有する単位領域を検出して、当該最小のベクトル量の単位領域と他の任意の単位領域との間の方向に対して、当該任意の単位領域のベクトル方向が略同一方向又は略逆方向である場合には前記撮像手段の移動に起因するベクトル分布を拡大又は縮小と判定し、当該任意の単位領域のベクトル方向が略直角方向である場合には前記撮像手段の移動に起因するベクトル分布を回転と判定し、
前記第3のステップは、前記第4のステップによって判定された前記撮像手段の移動に起因するベクトル分布とフレーム画像内の画像のベクトル分布との関係に基づいて画像の表示位置を移動して表示することを特徴とする画像処理のプログラム。
A first step of estimating an optical flow that is a motion vector of a plurality of frame images corresponding to a time-sequential moving image screen;
A second step of calculating a vector distribution based on the optical flow estimated by the first step;
A third step of moving and displaying the display position of the image according to the vector distribution calculated by the second step on the display screen of the predetermined display means;
A vector resulting from movement of the imaging means when the optical flow estimated by the first step is a vector distribution of a plurality of frame images corresponding to continuous imaging screens of moving images captured by the predetermined imaging means. A fourth step of determining the distribution;
Is a program for causing a computer of an image processing apparatus to execute
In the fourth step, when the dispersion of the optical flow vector distribution in a plurality of unit regions having a predetermined number of pixels in the captured image is within a predetermined threshold, the vector distribution resulting from the movement of the imaging unit is calculated. When the variance of the optical flow vector distribution in the plurality of unit regions exceeds a predetermined threshold value, the unit region having the minimum vector amount is detected and the minimum vector amount is determined. Vector distribution resulting from the movement of the imaging means when the vector direction of the arbitrary unit region is substantially the same direction or the substantially opposite direction with respect to the direction between the unit region and any other unit region If the vector direction of the arbitrary unit region is a substantially perpendicular direction, the vector distribution resulting from the movement of the imaging means is calculated. It is determined that,
In the third step, the display position of the image is moved and displayed based on the relationship between the vector distribution resulting from the movement of the imaging means determined in the fourth step and the vector distribution of the image in the frame image. An image processing program characterized by:
前記第3のステップは、前記第のステップによって前記撮像手段の移動に起因するベクトル分布が平行移動と判定された場合の撮像画面のみを表示することを特徴とする請求項に記載の画像処理のプログラム。 The third step, an image according to claim 4, characterized in that display only the imaging screen when the originating vector distribution to the movement of the imaging means by said fourth step is determined to be translated Processing program.
JP2004215143A 2004-07-23 2004-07-23 Image processing apparatus and image processing program Expired - Fee Related JP4552553B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004215143A JP4552553B2 (en) 2004-07-23 2004-07-23 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004215143A JP4552553B2 (en) 2004-07-23 2004-07-23 Image processing apparatus and image processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010111591A Division JP4985818B2 (en) 2010-05-14 2010-05-14 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2006039700A JP2006039700A (en) 2006-02-09
JP4552553B2 true JP4552553B2 (en) 2010-09-29

Family

ID=35904666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004215143A Expired - Fee Related JP4552553B2 (en) 2004-07-23 2004-07-23 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP4552553B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101481008B1 (en) 2012-12-17 2015-01-14 한국과학기술원 Gradient Test based Image Feature Detection Method
WO2022259618A1 (en) * 2021-06-08 2022-12-15 ソニーグループ株式会社 Information processing device, information processing method, and program
CN114399539A (en) * 2022-01-14 2022-04-26 合肥英睿系统技术有限公司 Method, apparatus and storage medium for detecting moving object

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222585A (en) * 1999-02-01 2000-08-11 Toshiba Corp Method and device for detecting and recognizing motion, and recording medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3008235B2 (en) * 1991-09-12 2000-02-14 富士写真フイルム株式会社 Subject extraction device
JPH07123416A (en) * 1993-10-22 1995-05-12 Canon Inc Motion vector detector
JPH08149356A (en) * 1994-11-17 1996-06-07 Canon Inc Moving picture display device
JPH10112863A (en) * 1996-10-04 1998-04-28 Nippon Telegr & Teleph Corp <Ntt> Method and device for extracting motion subject information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222585A (en) * 1999-02-01 2000-08-11 Toshiba Corp Method and device for detecting and recognizing motion, and recording medium

Also Published As

Publication number Publication date
JP2006039700A (en) 2006-02-09

Similar Documents

Publication Publication Date Title
JP6702329B2 (en) Video processing device, video processing method, and program
US20230092516A1 (en) Computer-implemented method for automated detection of a moving area of interest in a video stream of field sports with a common object of interest
US20180077345A1 (en) Predictive camera control system and method
US10389935B2 (en) Method, system and apparatus for configuring a virtual camera
Chen et al. Mimicking human camera operators
US10839594B2 (en) Method, system and apparatus for capture of image data for free viewpoint video
US20180225852A1 (en) Apparatus and method for generating best-view image centered on object of interest in multiple camera images
US20180176502A1 (en) Method, System and Apparatus for Displaying a Video Sequence
JP4985818B2 (en) Image processing apparatus and image processing program
US20190188482A1 (en) Spatio-temporal features for video analysis
Chen et al. Autonomous camera systems: A survey
Patrona et al. Computational UAV cinematography for intelligent shooting based on semantic visual analysis
JP2018078431A (en) Object tracker and its program
JP2009048347A (en) Image processing apparatus, method and program
US20230164424A1 (en) Control apparatus, control system, and control program
JP6983049B2 (en) Object tracking device and its program
US10440313B2 (en) Method, system and apparatus for spatially arranging a plurality of video frames for display
JP4552553B2 (en) Image processing apparatus and image processing program
US11468258B2 (en) Information processing apparatus, information processing method, and storage medium
US20220036591A1 (en) Image processing apparatus, image processing method, and storage medium
US11557122B2 (en) Control apparatus, control system, control method, and storage medium
JP2001285849A (en) Photographing system
EP4220556A1 (en) Image processing apparatus, image processing method, program, and storage medium
JP6846963B2 (en) Video playback device, video playback method, video playback program and video playback system
JP4407530B2 (en) Motion detection device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060210

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070528

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100622

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100705

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4552553

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees