JPH11259661A - Method and device for measuring moving picture speed field and recording medium where moving picture speed field measuring program is recorded - Google Patents

Method and device for measuring moving picture speed field and recording medium where moving picture speed field measuring program is recorded

Info

Publication number
JPH11259661A
JPH11259661A JP10063422A JP6342298A JPH11259661A JP H11259661 A JPH11259661 A JP H11259661A JP 10063422 A JP10063422 A JP 10063422A JP 6342298 A JP6342298 A JP 6342298A JP H11259661 A JPH11259661 A JP H11259661A
Authority
JP
Japan
Prior art keywords
speed
pixel
component
moving image
velocity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10063422A
Other languages
Japanese (ja)
Inventor
Kazuhiro Otsuka
和弘 大塚
Tsutomu Horikoshi
力 堀越
Satoshi Suzuki
智 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP10063422A priority Critical patent/JPH11259661A/en
Publication of JPH11259661A publication Critical patent/JPH11259661A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide the method and device for moving picture field measurement which find the speed field of a moving picture fast and the recording medium where the moving picture speed field measuring program is recorded. SOLUTION: A time-series image is inputted (step 401), a partial image is extracted from a moving image (step 402), and a speed component in the partial image is estimated (step 403); and the possibility of the estimated speed (degree of contribution) is calculated as to respective pixels (step 404) and similar processes are performed for other partial images at different positions. After partial images covering the entire image area are all processed, speed components are put together by using the degrees of contribution to obtain the speed field of the whole image (step 406). Lastly, the speed field is outputted (step 407).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ビデオカメラや気
象レーダ装置やリモートセンシング等により得られた時
系列画像中の対象の動きを認識する技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for recognizing a motion of an object in a time-series image obtained by a video camera, a weather radar device, remote sensing, or the like.

【0002】[0002]

【従来の技術】人、交通等の監視や製造工程の制御、気
象等の自然現象の解明や予測への応用等において、時系
列画像の認識処理の高度化、効率化が望まれている。
2. Description of the Related Art In monitoring of people, traffic and the like, controlling manufacturing processes, and elucidating and predicting natural phenomena such as weather, it is desired to improve the efficiency and efficiency of time-series image recognition processing.

【0003】従来、時系列画像から対象の動きを計測す
る方法としてハフ変換(または投票とも呼ぶ)を用いた
方法がある。その一例として、時系列画像を時間方向に
積層した時系列画像中を考えたとき、画像に含まれる対
象のエッジや輪郭が描く曲面状の運動軌跡を検出し、そ
の運動軌跡に接する複数の異なる接平面がつくる交線の
方向から対象の速度成分を求める方法がある(特願平9
−3116号,特願平9−8563号,特願平9−11
4577号)。この方法は、ハフ変換により、時空間画
像を対象物体の速度成分(速度の方法と大きさ)を表現
するパラメータ空間に変換し、そのパラメータ空間中の
分布のピークを検出し、その座標値から対象物体の速度
成分を求めている。この方法には、ノイズやオクルージ
ョンにロバストに対象領域内の最も優勢な並進速度成分
が得られるという利点がある。
Conventionally, there is a method using Hough transform (or voting) as a method for measuring the movement of an object from a time-series image. As an example, when considering a time-series image in which time-series images are stacked in the time direction, a curved motion trajectory drawn by an edge or contour of an object included in the image is detected, and a plurality of different motion trajectories in contact with the motion trajectory are detected. There is a method of obtaining the velocity component of an object from the direction of an intersection line formed by a tangent plane (Japanese Patent Application No. 9-214,197).
-3116, Japanese Patent Application No. 9-8563, Japanese Patent Application No. 9-11
No. 4577). This method converts a spatiotemporal image into a parameter space that expresses the velocity component (velocity method and size) of a target object by Hough transform, detects a peak of the distribution in the parameter space, and uses the coordinate values to determine the peak. The velocity component of the target object is obtained. This method has the advantage that the most dominant translation velocity component in the target area is obtained robustly against noise and occlusion.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上述し
た従来の技術では、動画像の速度場を求めようとする
と、一画素毎に、その近傍を含む部分画像を切り出して
処理を行なう必要があるために、計算コストが大きく、
処理時間が大きいという問題があった。
However, in the above-described conventional technique, when trying to obtain a velocity field of a moving image, it is necessary to cut out a partial image including its vicinity for each pixel and perform processing. In addition, the calculation cost is large,
There is a problem that processing time is long.

【0005】本発明の目的は、動画像の速度場をより高
速に求める動画像速度場計測方法、装置、および動画像
速度場計測プログラムを記録した記録媒体を提供するこ
とである。
It is an object of the present invention to provide a moving image speed field measuring method and apparatus for obtaining a moving image speed field at a higher speed, and a recording medium on which a moving image speed field measuring program is recorded.

【0006】[0006]

【課題を解決するための手段】本発明の動画像速度場計
測方法は、動画像を互いにオーバーラップする複数の部
分画像へと分割するステップと、個々の部分画像につい
て優勢な速度成分を推定するステップと、部分画像中の
各画素について、推定された速度成分をもつ度合を計算
するステップと、その度合の大小により部分画像中の各
画素について速度成分の有無を判定するステップと、複
数の部分画像が互いにオーバーラップし、画素が速度成
分を有している領域に含まれる各画素で、かつ複数の速
度成分が推定された画素について、その複数の速度成分
を有する度合を用いて、速度成分を決定するステップと
を有する。
A moving image speed field measuring method according to the present invention divides a moving image into a plurality of partial images overlapping each other, and estimates a dominant velocity component for each partial image. A step of calculating a degree having an estimated velocity component for each pixel in the partial image; a step of determining the presence or absence of a velocity component for each pixel in the partial image based on the magnitude of the degree; For each pixel included in the region where the images overlap each other and the pixel has a velocity component, and for a pixel for which a plurality of velocity components have been estimated, the velocity component is calculated using the degree having the plurality of velocity components. Is determined.

【0007】本発明の動画像速度場計測装置は、動画像
を互いにオーバーラップする複数の部分画像へと分割す
る手段と、個々の部分画像について優勢な速度成分を推
定する手段と、部分画像中の各画素について、推定され
た速度成分をもつ度合を計算する手段と、その度合の大
小により部分画像中の各画素について速度成分の有無を
判定する手段と、複数の部分画像が互いにオーバーラッ
プし、画素が速度成分を有している領域に含まれる各画
素でかつ複数の速度成分が推定された画素について、そ
の複数の速度成分を有する度合を用いて、速度成分を決
定する手段を有する。
According to the moving image speed field measuring apparatus of the present invention, there are provided means for dividing a moving image into a plurality of partial images overlapping each other, means for estimating a dominant speed component for each partial image, Means for calculating the degree of the estimated velocity component for each pixel, means for determining the presence or absence of the velocity component for each pixel in the partial image based on the magnitude of the degree, and a plurality of partial images overlapping each other. Means for determining a speed component for each pixel included in the region where the pixel has a speed component and for a pixel for which a plurality of speed components have been estimated, using the degree having the plurality of speed components.

【0008】本発明の動画像速度場計測プログラムを記
録した記録媒体は、動画像を互いにオーバーラップする
複数の部分画像へと分割する処理と、個々の部分画像に
ついて優勢な速度成分を推定する処理と、部分画像中の
各画素について、推定された速度成分をもつ度合を計算
する処理と、その度合の大小により部分画像中の各画素
について速度成分の有無を判定する処理と、複数の部分
画像が互いにオーバーラップし、画素が速度成分を有し
ている領域に含まれる各画素でかつ複数の速度成分が推
定された画素について、その複数の速度成分を有する度
合を用いて、速度成分を決定する処理をコンピュータに
実行させるための動画像速度場計測プログラムを記録し
ている。
The recording medium on which the moving image speed field measuring program of the present invention is recorded is a process for dividing a moving image into a plurality of partial images overlapping each other, and a process for estimating a dominant speed component for each partial image. A process of calculating a degree having an estimated speed component for each pixel in the partial image; a process of determining the presence or absence of a speed component for each pixel in the partial image based on the magnitude of the degree; Are overlapped with each other, and for each pixel included in the region where the pixel has a speed component, and for a pixel for which a plurality of speed components are estimated, a speed component is determined using the degree having the plurality of speed components. A moving image speed field measurement program for causing a computer to execute the processing to be performed is recorded.

【0009】本発明は、動画像を互いにオーバーラップ
する複数の部分画像に分割し、それぞれの部分画像につ
いて優勢な並進速度成分を計算し、部分画像内の画素に
ついて速度成分を割り当て、また、オーバーラップして
いる画素については、複数の速度成分を用いて速度成分
を決定する。そのため、ノイズやオクルージョンへのロ
バスト性を確保しつつ、少ない計算量で、画像中の位置
により速度が変化するような動画像中の速度場を計測す
ることが可能となる。
The present invention divides a moving image into a plurality of partial images overlapping each other, calculates a dominant translation speed component for each partial image, assigns a speed component to pixels in the partial image, For a wrapped pixel, a velocity component is determined using a plurality of velocity components. Therefore, it is possible to measure a speed field in a moving image whose speed changes depending on a position in an image with a small amount of calculation while ensuring robustness against noise and occlusion.

【0010】また、推定された速度成分を有する度合を
各画素に与えることにより、オーバーラップしている領
域について、推定された複数の速度成分を統合して妥当
な速度成分を決定することが可能となる。
Further, by giving each pixel a degree having the estimated velocity component, it is possible to determine an appropriate velocity component by integrating a plurality of estimated velocity components in an overlapping area. Becomes

【0011】さらに、部分画像中の各画素について推定
速度を有する度合を計算し、速度成分の有無を判定して
いるため、移動する対象物体と背景との境界などの、速
度場の不連続部分が保存された精度の高い速度場を測定
することができる。
Further, since the degree of the estimated speed is calculated for each pixel in the partial image and the presence or absence of the speed component is determined, discontinuous portions of the speed field such as the boundary between the moving target object and the background are determined. Can measure the stored speed field with high accuracy.

【0012】[0012]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して詳細に説明する。
Next, embodiments of the present invention will be described in detail with reference to the drawings.

【0013】図1を参照すると、本発明の一実施形態の
動画像速度場計測装置は、入力部100と処理部200
と出力部300で構成されている。
Referring to FIG. 1, a moving image speed field measuring apparatus according to an embodiment of the present invention includes an input unit 100 and a processing unit 200.
And an output unit 300.

【0014】処理部200は、入力部100において入
力された動画像から部分画像を抽出する画像分割抽出部
201と、個々の部分画像について速度成分を推定する
速度成分推定部202と、推定された速度成分を部分画
像中の各画素が有する度合(寄与度)を計算する寄与度
計算部203と、寄与度を画素毎に記憶する寄与度メモ
リ204と、寄与度の大きさに応じて部分画像中の各画
素に速度成分を割り当てる速度成分割り当て部205
と、各画素に割り当てられた速度を記憶する速度成分メ
モリ206と、画像中の全ての画素について与えられた
速度成分と寄与度から、速度場を合成する速度場合成部
207からなる。
The processing unit 200 includes an image division and extraction unit 201 for extracting a partial image from a moving image input at the input unit 100, a speed component estimating unit 202 for estimating a speed component for each partial image, and A contribution calculator 203 for calculating the degree (contribution) of each pixel in the partial image having the velocity component, a contribution memory 204 for storing the contribution for each pixel, and a partial image according to the magnitude of the contribution. Speed component allocating unit 205 that allocates a speed component to each of the pixels inside
And a velocity component memory 206 for storing the velocity assigned to each pixel, and a velocity case component 207 for synthesizing a velocity field from the velocity components and contributions given for all the pixels in the image.

【0015】出力部300は、速度場合成部207より
出力される動画像の速度場をディスプレイ装置やファイ
ル装置などに出力する。
The output unit 300 outputs the speed field of the moving image output from the speed generating unit 207 to a display device or a file device.

【0016】図2は図1の実施形態の処理の流れを示す
フローチャートである。
FIG. 2 is a flowchart showing the flow of the processing in the embodiment of FIG.

【0017】時系列画像を入力し(ステップ401)、
動画像から部分画像を抽出し(ステップ402)、部分
画像中の速度成分を推定し(ステップ403)、推定さ
れた速度をもつ度合(寄与度)を各画素について計算し
(ステップ404)、他の位置にある部分画像について
同様の処理を行なう。また、画像全領域をカバーする部
分画像全てについて処理を終了した後、速度成分を寄与
度を用いて合成し、画像全体の速度場を得る(ステップ
406)、最後に、速度場を出力する(ステップ40
7)。
A time-series image is input (step 401).
A partial image is extracted from the moving image (step 402), a velocity component in the partial image is estimated (step 403), and a degree (contribution) having the estimated velocity is calculated for each pixel (step 404). The same processing is performed for the partial image at the position of. Further, after the processing is completed for all the partial images covering the entire image area, the velocity components are combined using the contributions to obtain the velocity field of the entire image (step 406). Finally, the velocity field is output (step 406). Step 40
7).

【0018】以下、処理部200の動作例を具体的に説
明する。
Hereinafter, an operation example of the processing section 200 will be specifically described.

【0019】画像分割抽出部201では、入力部100
において入力された動画像を互いにオーバーラップする
部分画像に分割し、個々の部分画像の抽出を行なう。
In the image division / extraction unit 201, the input unit 100
Divides the input moving image into partial images overlapping each other, and extracts individual partial images.

【0020】例えば、図3のように動画像中の画像平面
を、M×N個の格子点を中心とするM×N個の窓に分割
し、各々の部分画像を抽出する。隣り合う窓は互いにオ
ーバーラップしている。ここでは、格子点(m,n)に
おける部分画像をIm,n(x,y,t)と表す。
For example, as shown in FIG. 3, an image plane in a moving image is divided into M × N windows centered on M × N grid points, and each partial image is extracted. Adjacent windows overlap each other. Here, the partial image at the grid point (m, n) is represented as I m, n (x, y, t).

【0021】次に、速度成分推定部202では、画像分
割抽出部201において分割・抽出された部分画像を入
力し、その画像内における最も優勢な速度成分を推定す
る。
Next, the speed component estimating unit 202 inputs the partial image divided and extracted by the image dividing and extracting unit 201, and estimates the most dominant speed component in the image.

【0022】ここでは、例として、動画像の複数のフレ
ームに含まれる動輪郭が時空間に描く運動軌跡分布を構
築し、その運動軌跡に接する接平面の頻度分布を投票に
より求め、その相異なる接平面がなす交線の方向の頻度
分布から速度成分を投票により推定する方法を示す。
Here, as an example, a motion trajectory distribution in which a moving contour included in a plurality of frames of a moving image is drawn in space and time is constructed, and a frequency distribution of a tangent plane tangent to the motion trajectory is obtained by voting. A method of estimating a velocity component by voting from a frequency distribution in a direction of an intersection formed by tangent planes will be described.

【0023】まず、動輪郭が時空間に描く運動軌跡分布
を構築するために、動画像のフレーム間の差分を計算
し、その正値または負値もしくは絶対値を用いた時空間
差分画像D(x,y,t)として運動軌跡を構築する方
法が利用できる。正値を用いる例では、
First, in order to construct a motion trajectory distribution in which a moving contour is drawn in space-time, a difference between frames of a moving image is calculated, and a spatio-temporal difference image D ( A method of constructing a motion trajectory as (x, y, t) can be used. In the example using positive values,

【0024】[0024]

【数1】 のように、時空間差分画像D(x,t,t)が計算で
き、画像中のエッジや輪郭を底曲線とする柱面状の運動
軌跡が抽出できる。時空間差分画像D(x,y,t)の
濃淡値の大きさは、画像中のエッジや輪郭の輝度の空間
分布の不連続の大きさと動きの量にほぼ比例する。な
お、上述以外の運動軌跡の抽出の方法も利用可能であ
る。
(Equation 1) , A spatiotemporal difference image D (x, t, t) can be calculated, and a columnar motion trajectory having an edge or contour in the image as a bottom curve can be extracted. The magnitude of the gray value of the spatiotemporal difference image D (x, y, t) is substantially proportional to the discontinuity of the spatial distribution of the brightness of edges and contours in the image and the amount of motion. It should be noted that a method of extracting a motion trajectory other than those described above can also be used.

【0025】次に、時系列差分画像Dとして構築された
運動軌跡に接する接平面の頻度分布を投票により求め
る。ここでは、3次元ハフ変換を用い、接平面の頻度分
布を3次元の配列中に得る方法を示す。
Next, the frequency distribution of a tangent plane that is in contact with the motion trajectory constructed as the time-series difference image D is obtained by voting. Here, a method of obtaining a frequency distribution of a tangent plane in a three-dimensional array using a three-dimensional Hough transform will be described.

【0026】ここで、図4に示すように、3次元空間中
の点(xi,yi,ti)を通る平面は3つのパラメータ
(θ,φ,ρ)を用いて
Here, as shown in FIG. 4, a plane passing through a point (x i , y i , t i ) in a three-dimensional space is determined by using three parameters (θ, φ, ρ).

【0027】[0027]

【数2】 のように表現することができる。ただし、(θ,φ)は
平面の法線方向、ρは原点から平面までの最短距離を表
す。平面を表す3つのパラメータ(θ,φ,ρ)が張る
空間を平面パラメータ空間SPとここでは呼ぶことにす
る。式(2)から、3次元空間中の一点(xi,yi,t
i)は図5のS1のような平面パラメータ空間中の一曲面
に対応する。
(Equation 2) Can be expressed as Here, (θ, φ) represents the normal direction of the plane, and ρ represents the shortest distance from the origin to the plane. Three parameters representing the plane (θ, φ, ρ) is be referred in the space here the plane parameter space S P spanned. From equation (2), one point (x i , y i , t) in the three-dimensional space
i) corresponds to a curved surface in a plane parameter space, such as S 1 in FIG.

【0028】3次元ハフ変換においては、平面パラメー
タ空間SPは、微小間隔(△θ,△φ,△ρ)で離散化
され、3次元配列中に記憶されている。ここで、配列の
要素をセルと呼ぶ。
In a three-dimensional Hough transform, the plane parameter space S P, small gap (△ θ, △ φ, △ ρ) is discretized, which is stored in 3-dimensional array. Here, the elements of the array are called cells.

【0029】次に、投票を用いて、時空間差分画像Dと
して表される対象領域中の運動軌跡の接平面の分布をパ
ラメータ空間中のセルの値として得る。具体的には、時
空間差分画像D(i,j,t)中の全ての画素につい
て、式(2)で表される曲面を計算し、この曲面が通過
するパラメータ空間SP中のセルの値を、時空間差分画
像中の画素D(i,j,t)の値だけ増加させる。この
処理を投票と呼ぶ。全ての画素について投票を行なった
後、平面パラメータ空間SP(θ,φ,ρ)のセルの投
票の合計値をパラメータ(θ,φ,ρ)をもつ運動軌跡
の接平面の強度とする。よって、パラメータ空間SP
の投票値の分布がピークをなす場合、そのピークの座標
によって、時空間に含まれる運動軌跡の接平面が表現で
きる。なお、上述以外の方法も利用可能である。
Next, using the voting, the distribution of the tangent plane of the motion trajectory in the target area represented as the spatiotemporal difference image D is obtained as the value of the cell in the parameter space. Specifically, space-time difference image D (i, j, t) for all the pixels in, computes a curved surface represented by the formula (2), the cells in the parameter space S P that the curved surface passes The value is increased by the value of the pixel D (i, j, t) in the spatiotemporal difference image. This process is called voting. After voting for all pixels, the total value of the voting of the cells in the plane parameter space SP (θ, φ, ρ) is defined as the intensity of the tangent plane of the motion trajectory having the parameters (θ, φ, ρ). Therefore, if the distribution of the vote value in the parameter space S P forms a peak, the coordinates of the peak, tangent plane of movement trajectories included in the time-space can be represented. Note that methods other than those described above can also be used.

【0030】次に、接平面がなす交線の方向の頻度分布
から速度成分を投票により推定する。
Next, a velocity component is estimated by voting from the frequency distribution in the direction of the intersection line formed by the tangent planes.

【0031】その前に、平面パラメータ空間SP(θ,
φ,ρ)中の個々の(θ,φ)について、ρ方向にセル
に集積された投票値の最大値を探索し、その投票の最大
値を、2次元配列である2次元法線パラメータ空間に格
納する。この(θ,φ)が張る空間を法線パラメータ空
間SN(θ,φ)と呼ぶことにする。
Before that, the plane parameter space S P (θ,
For each (θ, φ) in (φ, ρ), the maximum value of the voting values accumulated in the cell is searched in the ρ direction, and the maximum value of the voting is searched for in the two-dimensional normal parameter space that is a two-dimensional array. To be stored. The space formed by (θ, φ) is referred to as a normal parameter space S N (θ, φ).

【0032】[0032]

【数3】 この処理は、対象領域中の輪郭やエッジが時空間中に描
く運動軌跡の接平面の分布を、時間と位置に不変な法線
方向ごとにみたときの分布に統合する働きをもつ。
(Equation 3) This processing has a function of integrating the distribution of the tangent plane of the motion trajectory drawn in the space and time by the contour and the edge in the target area into the distribution when viewed in the normal direction invariant in time and position.

【0033】そして、法線パラメータ空間SN(θ,
φ)から、運動軌跡に接し得る複数の接平面がなす交線
の方向の分布を表すパラメータ空間(これを交線パラメ
ータ空間SLと呼ぶ)に変換する。
Then, the normal parameter space S N (θ,
From phi), into a parameter space that represents the direction of the distribution of the intersection line formed by a plurality of tangent planes may contact with the moving path (this is referred to as intersection line parameter space S L).

【0034】ここでは、交線の方向を、原点を通る交線
をx−y平面に射影したときのx軸となす角α、x−y
平面(画像平面)とのなす角βを用い、
Here, the direction of the intersection line is defined as an angle α, xy that forms the x-axis when the intersection line passing through the origin is projected on the xy plane.
Using the angle β made with the plane (image plane),

【0035】[0035]

【数4】 と表現する。(Equation 4) Is expressed as

【0036】いま、交線上にある異なる2点について式
(2)を連立して解き、式(4)〜(6)を代入するこ
とで、法線パラメータ空間SNと交線パラメータ空間SL
の関係を
[0036] Now, the two different points on the line of intersection solved by simultaneous equation (2), by substituting Equation (4) to (6), the normal parameter space S N and the line of intersection parameter space S L
The relationship

【0037】[0037]

【数5】 のように得ることができる。(Equation 5) Can be obtained as follows.

【0038】二つの接平面は法線パラメータ空間SN
の2点として表され、その点をそれぞれ交線のパラメー
タ空間SLに変換すると、式(7)で表される曲線にな
り、その交点として、接平面の交線の方向が得られる。
The two tangent planes are represented as two points in the normal parameter space S N , and when these points are respectively converted into the intersection parameter space S L , a curve represented by equation (7) is obtained. As the intersection, the direction of the intersection line of the tangent plane is obtained.

【0039】ここでは、法線のパラメータ空間中SN
すべての要素(θ,φ)(セルと呼ぶ)について、式
(7)の曲線が通る交線パラメータ空間SL中のセルに
N(θ,φ)の値を投票していく。このようなハフ変
換を実行することで、対象物体の速度成分を表現する対
象領域に含まれ得る対象の速度成分が、交線パラメータ
空間SL中の投票分布に反映される。
Here, for all the elements (θ, φ) (referred to as cells) of S N in the parameter space of the normal, the cells in the intersection parameter space S L through which the curve of equation (7) passes are denoted by S N. Vote on the value of (θ, φ). Such By executing the Hough transformation, the velocity component of the object that may be included in the target region representing the velocity component of the object is reflected in the vote distribution in the line of intersection parameter space S L.

【0040】交線パラメータ空間メモリSLに格納され
ている投票値の分布のピークを検出し、このピークの座
標値(αp,βp)より、対象領域中の対象物体の最も優
勢な並進速度成分を求める。この動きの方向は、
[0040] detecting the peak of the distribution of the vote value stored in the line of intersection parameter space memory S L, the coordinate value of the peak (α p, β p) from the most dominant translational of the target object in the target area Find the velocity component. The direction of this movement is

【0041】[0041]

【数6】 と得られ、速度の大きさVは、(Equation 6) And the magnitude V of the velocity is

【0042】[0042]

【数7】 と得られる。ピークを示す投票値SL(αp,βp)は、
対象領域内に速度V、方向αPの並進速度成分が存在す
る確からしさ表す証拠情報といえる。このように得られ
た速度を以下では、速度成分
(Equation 7) Is obtained. The voting value S Lp , β p ) indicating the peak is
This can be said to be evidence information indicating the likelihood that a translation velocity component in the velocity V and the direction α P exists in the target area. The speed thus obtained is hereinafter referred to as the speed component

【0043】[0043]

【外1】 と記す。[Outside 1] It is written.

【0044】上記の速度推定法は、ノイズやオクルージ
ョンにロバストに、部分画像中の優勢な並進速度成分を
得ることができるという利点がある。
The speed estimation method described above has an advantage that it is possible to obtain a dominant translation speed component in a partial image robustly against noise and occlusion.

【0045】次に、寄与度計算部203では、部分画像
中において、速度成分推定部202において推定された
速度成分を、部分画像中の各画素が有する度合(寄与
度)を計算し、寄与度メモリ204に格納する。
Next, the contribution calculator 203 calculates the degree (contribution) of each pixel in the partial image of the velocity component estimated by the velocity component estimator 202 in the partial image. It is stored in the memory 204.

【0046】ここでは、その一例として以下に示す方法
を記す。速度成分推定部202の例としてあげた方法に
おいて推定された速度成分に対応する交線方向をなす接
平面で、かつ各々の画素を含む接平面の頻度分布から、
最大の頻度分布の値を、推定された速度成分への寄与度
として求める。
Here, the following method will be described as an example. From the frequency distribution of the tangent plane forming the direction of intersection corresponding to the speed component estimated by the method given as an example of the speed component estimating unit 202 and the tangent plane including each pixel,
The value of the maximum frequency distribution is determined as the degree of contribution to the estimated velocity component.

【0047】時空間差分画像D(x,y,t)中のひと
つの画素を通り得る平面は、式(2)で表される図5中
の曲面S1のような分布をもつ。一方、速度成分推定部
202において推定された速度に対応する接平面の交線
方向(αp,βp)をもつ接平面の分布は、式(7)から
導かれる、
The spatiotemporal difference image D (x, y, t) plane may pass one pixel in has a distribution such as the curved surface S 1 in FIG. 5 of the formula (2). On the other hand, the distribution of the tangent plane having the direction of intersection (α p , β p ) of the tangent plane corresponding to the speed estimated by the speed component estimation unit 202 is derived from Expression (7).

【0048】[0048]

【数8】 で表される曲線が指す平面パラメータ空間SP中のセル
の集合となる。その分布は図5のS2のような式(1
0)の曲線を底曲線とする柱面をなす。
(Equation 8) A set of cells in a plane parameter space S P THAT is represented by a curve refers. The distribution is expressed by an equation (1) such as S 2 in FIG.
It forms a column surface with the curve of 0) as the bottom curve.

【0049】よって、部分画像中の一画素が推定された
速度成分
Therefore, the velocity component in which one pixel in the partial image is estimated

【0050】[0050]

【外2】 を有する度合は、一画素が交線パラメータ空間メモリS
L中のピーク投票値に寄与する割合と考えることがで
き、各画素D(x,y,t)が速度成分
[Outside 2] Is that one pixel is in the intersection parameter space memory S
It can be considered as a ratio contributing to the peak voting value in L , and each pixel D (x, y, t) has a velocity component

【0051】[0051]

【外3】 に寄与し得る3次元投票空間メモリ中のセルの集合は、
式(2)と式(10)の双方を同時に満たす曲線、つま
り、図5の2つの曲面が交わる曲線(これをLと呼ぶ)
が指すセルの集合となる。ここでは、このセルの集合の
内での最大値C(x,y,t)と定義し、求める。この
各画素についての寄与度C(x,y,t)は寄与度メモ
リ204に格納される。
[Outside 3] The set of cells in the three-dimensional voting space memory that can contribute to
A curve that satisfies both equations (2) and (10) at the same time, that is, a curve where two curved surfaces in FIG.
Is a set of cells indicated by. Here, it is defined and obtained as the maximum value C (x, y, t) in this set of cells. The contribution C (x, y, t) for each pixel is stored in the contribution memory 204.

【0052】なお、上述以外の寄与の度合いの計算方法
も利用可能である。
It is to be noted that a method of calculating the degree of contribution other than those described above can also be used.

【0053】次に、速度成分割り当て部204では、寄
与度計算部203において部分画像中の各画素について
求められた寄与度の大小により、各画素に速度成分推定
部202において推定された速度成分を割り当てる。
Next, the velocity component allocating section 204 assigns the velocity component estimated by the velocity component estimating section 202 to each pixel based on the magnitude of the contribution calculated for each pixel in the partial image by the contribution calculating section 203. assign.

【0054】ここでは、その一例として以下に示す方法
を記す。交線パラメータ空間SLの投票値には、画素中
のノイズや速度のばらつきなどの影響も含まれる。これ
らの影響を除外し、速度成分の寄与のみに必須な時空間
差分画像D(x,y,t)中の画素を特定し、速度成分
を付与する必要がある。
Here, the following method will be described as an example. The voting value of the intersection line parameter space S L, includes the effects of variations in the noise and speed in the pixel. It is necessary to exclude these influences, specify a pixel in the spatiotemporal difference image D (x, y, t) that is essential only for the contribution of the velocity component, and add the velocity component.

【0055】そこで、各画素の寄与度C(x,y,t)
にしきい値Tを設け、しきい値T以上の寄与度をもつ画
素のみに速度成分推定部202で推定された速度成分を
割り当てる。ここで、しきい値Tは、交線パラメータ空
間メモリ中の投票値の最低値からピーク値SL(αp,β
p)までを1.0としたときの割合εを与えたとき、し
きい値T以上の寄与度C(x,y,t)をもつ画素によ
る投票値の寄与により、交線パラメータ空間のピーク点
(αP,βP)に集積される投票値がεSL(αP,βP
となるようなTの値を設定する。εを寄与率とよび、入
力画像に付加的なノイズが多く含まれるときには、1.
0に近い値を与える。寄与度C(x,y,t)がしきい
値Tに満たない場合には、画素(x,y,t)には速度
がないものと判断する。よって、時空間差分画像D中の
各画素の速度成分
Therefore, the contribution C (x, y, t) of each pixel
Is assigned a threshold value T, and the speed component estimated by the speed component estimating unit 202 is assigned only to pixels having a contribution degree equal to or larger than the threshold value T. Here, the threshold value T is calculated from the lowest value of the voting value in the intersection line parameter space memory to the peak value SLp , β
Given a ratio ε when p ) is set to 1.0, the peak of the intersection parameter space is obtained by the contribution of the voting value by the pixels having the contribution C (x, y, t) equal to or larger than the threshold T. the point (α P, β P) voting value is integrated in the εS L (α P, β P )
Set the value of T such that ε is called a contribution rate, and when the input image contains much additional noise, 1.
Give a value close to 0. If the contribution C (x, y, t) is less than the threshold value T, it is determined that the pixel (x, y, t) has no speed. Therefore, the velocity component of each pixel in the spatiotemporal difference image D

【0056】[0056]

【外4】 は、[Outside 4] Is

【0057】[0057]

【数9】 と割り当てることができる。このようにして、部分画像
中の各画素について割り当てられた速度成分は、速度成
分メモリ206に格納される。
(Equation 9) And can be assigned. In this way, the velocity component assigned to each pixel in the partial image is stored in the velocity component memory 206.

【0058】最後に、速度成分合成部207では、画像
分割抽出部201で抽出された複数の部分画像につい
て、速度成分メモリ206に記憶されている部分画像中
の各画素の速度成分と、寄与度メモリ204に記憶され
ている、その速度成分を有する度合を用いて、動画像全
体の速度場を求める。
Finally, in the speed component synthesizing unit 207, for a plurality of partial images extracted by the image division extracting unit 201, the speed component of each pixel in the partial image stored in the speed component memory 206 and the contribution degree Using the degree having the velocity component stored in the memory 204, the velocity field of the entire moving image is obtained.

【0059】その一つの方法として以下の例を示す。い
ま、画像全体中の画素(x,y)について、速度成分メ
モリ206に記憶されている速度成分の集合を、
The following example is shown as one of the methods. Now, for a pixel (x, y) in the entire image, a set of velocity components stored in the velocity component memory 206 is

【0060】[0060]

【数10】 と表す。また、寄与度メモリ204に記憶されている画
素(x,y)の寄与度の集合を
(Equation 10) It expresses. Further, a set of contributions of the pixel (x, y) stored in the contribution memory 204 is

【0061】[0061]

【数11】 と表す。ここで、q(x,y)は画素(x,y)がオー
バーラップしている部分画像の個数であり、部分画像が
オーバーラップしていない領域中の画素については、q
(x,y)=1となり、最終的な速度場中の速度成分は
[Equation 11] It expresses. Here, q (x, y) is the number of partial images in which the pixels (x, y) overlap, and for pixels in an area where the partial images do not overlap, q
(X, y) = 1, and the final velocity component in the velocity field is

【0062】[0062]

【外5】 となる。オーバーラップしている領域中の画素について
はq(x,y)>1となり、複数の速度成分とその寄与
度から最終的な速度場中の速度成分
[Outside 5] Becomes For pixels in the overlapping area, q (x, y)> 1, and the velocity component in the final velocity field is determined from the plurality of velocity components and their contributions.

【0063】[0063]

【外6】 を決定する。[Outside 6] To determine.

【0064】その一つの方法として寄与度を重みとする
速度成分の線形結合として速度成分を決定する方法が利
用できる。そこで、速度成分割り当て部205において
速度成分が無いと判定された画素については、寄与度を
0としておく。部分画像がオーバーラップしている速度
場中の速度成分
As one of the methods, a method of determining the speed component as a linear combination of the speed components with the contribution as a weight can be used. Therefore, the contribution degree is set to 0 for a pixel determined to have no speed component by the speed component assignment unit 205. Velocity component in the velocity field where partial images overlap

【0065】[0065]

【外7】 は、[Outside 7] Is

【0066】[0066]

【数12】 のように計算することができる。(Equation 12) It can be calculated as follows.

【0067】また、別の方法として、オーバーラップし
ている画素の複数の寄与度の内、最大の寄与度に対応す
る速度成分をその画素の速度成分
As another method, the velocity component corresponding to the maximum contribution among the plurality of contributions of the overlapping pixel is calculated as the velocity component of the pixel.

【0068】[0068]

【外8】 として決定する方法も利用できる。[Outside 8] The method of determining as is also available.

【0069】さらに、部分画像中の画素の速度成分は、
部分画像の中心から離れると、その信頼性が薄れるとい
う性質がある。そこで、部分画像の中心からの距離に応
じて上述の寄与度に重みをつけるという方法を利用でき
る。
Further, the velocity component of the pixel in the partial image is
The further away from the center of the partial image, the less reliable it is. Therefore, a method can be used in which the above-mentioned contribution is weighted according to the distance from the center of the partial image.

【0070】なお、上述以外の方法も利用できる。Note that methods other than those described above can be used.

【0071】図6を参照すると、本発明の他の実施形態
の動画像速度場計測装置は、動画像を入力する入力装置
501と、それぞれ図1中の寄与度メモリ204、速度
成分メモリ206と同じ寄与度メモリ502、速度成分
メモリ503と、動画像の速度場が出力されるディスプ
レイ装置、ファイル装置などの出力装置504と、図1
の実施形態中の入力部100、画像分割抽出部201、
速度成分推定部202、寄与度計算部203、速度成分
割り当て部205、速度成分合成部207、出力部30
0の各処理からなる動画像速度場計算プログラムを記録
した、FD、CD−ROM、半導体メモリなどの記録媒
体505と、記録媒体505から動画像速度場計算プロ
グラムを読み込んで実行するデータ処理装置506で構
成されている。
Referring to FIG. 6, a moving image speed field measuring apparatus according to another embodiment of the present invention includes an input device 501 for inputting a moving image, a contribution memory 204 and a speed component memory 206 shown in FIG. The same contribution memory 502, speed component memory 503, output device 504 such as a display device or a file device for outputting a speed field of a moving image, and FIG.
Input unit 100, image division extraction unit 201,
Speed component estimating unit 202, contribution calculating unit 203, speed component allocating unit 205, speed component synthesizing unit 207, output unit 30
0, a recording medium 505 such as an FD, a CD-ROM, a semiconductor memory, etc., on which a moving image speed field calculation program composed of each process is recorded, and a data processing device 506 for reading and executing the moving image speed field calculation program from the recording medium 505. It is composed of

【0072】[0072]

【発明の効果】以上説明したように、本発明は、動画像
中の速度場を計測する際に、動画像を互いにオーバーラ
ップする複数の部分画像へと分割し、個々の部分画像に
ついて優勢な速度成分を推定し、また、部分画像中の各
画素について、推定された速度成分をもつ度合を計算
し、その度合の大小により速度成分を割り当て、さら
に、複数の部分画像が互いにオーバーラップしている領
域に含まれる各画素で、かつ複数の速度成分が推定され
た画素について、その複数の速度成分を有する度合を用
いて、速度成分を決定することにより、少ない計算コス
トで、高速に、かつノイズやオクルージョンにロバスト
に動画像の速度場を計算することが可能となる。
As described above, according to the present invention, when measuring the velocity field in a moving image, the moving image is divided into a plurality of overlapping partial images, and each partial image is predominant. Estimate the velocity component, and calculate the degree having the estimated velocity component for each pixel in the partial image, assign the velocity component according to the magnitude of the degree, and further, a plurality of partial images overlap each other. For each pixel included in the region, and for a pixel for which a plurality of speed components are estimated, by using the degree having the plurality of speed components, the speed component is determined, with a small calculation cost, at high speed, and It is possible to calculate a velocity field of a moving image robustly against noise and occlusion.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態の動画像速度場計測装置の
構成図である。
FIG. 1 is a configuration diagram of a moving image speed field measuring apparatus according to an embodiment of the present invention.

【図2】図1の実施形態の処理の流れ図である。FIG. 2 is a flowchart of a process of the embodiment of FIG. 1;

【図3】画像中の部分画像への分割の様子を示す図であ
る。
FIG. 3 is a diagram showing a state of division into partial images in an image.

【図4】3次元空間中の平面の極座標表現を説明する図
である。
FIG. 4 is a diagram illustrating a polar coordinate expression of a plane in a three-dimensional space.

【図5】平面のパラメータ空間中の接平面分布の様子を
説明する図である。
FIG. 5 is a diagram illustrating a state of a tangent plane distribution in a plane parameter space.

【図6】本発明の他の実施形態の動画像速度場計測装置
の構成図である。
FIG. 6 is a configuration diagram of a moving image speed field measuring apparatus according to another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

100 入力部 200 処理部 201 画像分割抽出部 202 速度成分推定部 203 寄与度計算部 204 寄与度メモリ 205 速度成分割り当て部 206 速度成分メモリ 207 速度成分合成部 300 出力部 401〜407 ステップ 501 入力装置 502 寄与度メモリ 503 速度成分メモリ 504 出力装置 505 記録媒体 506 データ処理装置 REFERENCE SIGNS LIST 100 input unit 200 processing unit 201 image division extraction unit 202 speed component estimation unit 203 contribution calculation unit 204 contribution memory 205 speed component assignment unit 206 speed component memory 207 speed component synthesis unit 300 output unit 401 to 407 step 501 input device 502 Contribution memory 503 Speed component memory 504 Output device 505 Recording medium 506 Data processing device

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 動画像を入力し、その速度場を計測する
動画像速度場計測方法であって、 動画像を互いにオーバーラップする複数の部分画像へと
分割するステップと、個々の部分画像について優勢な速
度成分を推定するステップと、部分画像中の各画素につ
いて、推定された速度成分をもつ度合を計算するステッ
プと、その度合の大小により部分画像中の各画素につい
て速度成分の有無を判定するステップと、複数の部分画
像が互いにオーバーラップし、画素が速度成分を有して
いる領域に含まれる各画素で、かつ複数の速度成分が推
定された画素について、それぞれの速度成分を有する度
合を用いて速度成分を決定するステップとを有する動画
像速度場計測方法。
1. A moving image speed field measuring method for inputting a moving image and measuring a speed field of the moving image, comprising: dividing a moving image into a plurality of partial images overlapping each other; Estimating the dominant velocity component, calculating the degree of the estimated velocity component for each pixel in the partial image, and determining the presence or absence of the velocity component for each pixel in the partial image based on the magnitude of the degree And the degree to which each of the pixels included in the region where the plurality of partial images overlap each other and the pixels have the speed component, and for which the plurality of speed components are estimated, have the respective speed components. Determining a velocity component using the moving image speed field.
【請求項2】 分割された部分画像について優勢な速度
成分を推定するステップにおいて、動画像の複数のフレ
ームに含まれる動輪郭が時空間に描く運動軌跡分布を構
築し、その運動軌跡に接する接平面の頻度分布を求め、
その相異なる接平面がなす交線の方向の頻度分布から速
度成分を投票により推定する、請求項1に記載の動画像
速度場計測方法。
2. A step of estimating a dominant velocity component for a divided partial image, constructing a motion trajectory distribution in which a moving contour included in a plurality of frames of the moving image is drawn in space and time, and Find the frequency distribution of the plane,
The moving image speed field measurement method according to claim 1, wherein a speed component is estimated by voting from a frequency distribution in a direction of an intersection formed by the different tangent planes.
【請求項3】 部分画像中の各画素について請求項2に
おいて推定された速度成分をもつ度合を、各々の画素を
通る接平面で、かつ該速度成分に対応する交線方向をな
す接平面の頻度分布の最大値として求める、請求項2に
記載の動画像速度場計測方法。
3. The degree having the velocity component estimated in claim 2 with respect to each pixel in the partial image is determined by a tangent plane passing through each pixel and a tangent plane forming an intersection line direction corresponding to the velocity component. The moving image speed field measuring method according to claim 2, wherein the moving image speed field measuring method is obtained as a maximum value of a frequency distribution.
【請求項4】 複数の部分画像が互いにオーバーラップ
している領域に含まれる画素の速度成分を決定するステ
ップにおいて、推定された複数の速度成分を有する度合
を重みとする複数の速度成分の線形結合として画素の速
度成分を決定する、請求項1から3のいずれか1項に記
載の動画像速度場計測方法。
4. A method of determining a speed component of a pixel included in an area where a plurality of partial images overlap each other, wherein the linearity of the plurality of speed components weighted by the degree having the plurality of estimated speed components is used. The moving image speed field measurement method according to claim 1, wherein a speed component of a pixel is determined as a combination.
【請求項5】 複数の部分画像が互いにオーバーラップ
している領域に含まれる画素の速度成分を決定するステ
ップにおいて、推定された複数の速度成分を有する度合
のうちで、最も大きな度合に対応する速度成分を、その
画素の速度成分とする、請求項1から3のいずれか1項
に記載の動画像速度場計測方法。
5. The step of determining a velocity component of a pixel included in an area where a plurality of partial images overlap each other corresponds to the largest degree among the degrees having the estimated plurality of velocity components. The moving image speed field measuring method according to claim 1, wherein the speed component is a speed component of the pixel.
【請求項6】 動画像を入力し、その速度場を計測する
動画像速度場計測装置であって、 動画像を互いにオーバーラップする複数の部分画像へと
分割する手段と、個々の部分画像について優勢な速度成
分を推定する手段と、部分画像中の各画素について、推
定された速度成分をもつ度合を計算する手段と、その度
合の大小により部分画像中の各画素について速度成分の
有無を判定する手段と、複数の部分画像が互いにオーバ
ーラップし、画素が速度成分を有している領域に含まれ
る各画素で、かつ複数の速度成分が推定された画素につ
いて、それぞれの速度成分を有する度合を用いて、速度
成分を決定する手段とを有する動画像速度場計測装置。
6. A moving image speed field measuring apparatus for inputting a moving image and measuring a speed field thereof, comprising: means for dividing the moving image into a plurality of partial images overlapping each other; Means for estimating the dominant velocity component, means for calculating the degree of the estimated velocity component for each pixel in the partial image, and judging the presence or absence of the velocity component for each pixel in the partial image based on the magnitude of the degree A plurality of partial images overlap each other, and the degree of each pixel included in the region where the pixel has a speed component, and the pixel for which the plurality of speed components are estimated has the respective speed components. And a means for determining a velocity component using the moving image velocity field measurement apparatus.
【請求項7】 分割された部分画像について優勢な速度
成分を推定する手段が、動画像の複数のフレームに含ま
れる動輪郭が時空間に描く運動軌跡分布を構築し、その
運動軌跡に接する接平面の頻度分布を求め、その相異な
る接平面がなす交線の方向の頻度分布から速度成分を投
票により推定する手段である請求項6に記載の動画像速
度場計測装置。
7. A means for estimating a dominant velocity component for a divided partial image, comprising: constructing a motion trajectory distribution in which a moving contour included in a plurality of frames of a moving image is drawn in space and time; 7. The moving image speed field measuring device according to claim 6, wherein the moving image speed field measuring device is means for obtaining a frequency distribution of a plane, and estimating a speed component from the frequency distribution in a direction of an intersection formed by different tangent planes by voting.
【請求項8】 部分画像中の各画素について請求項7に
おいて推定された速度成分をもつ度合を、各々の画素を
通る接平面で、かつ該速度成分に対応する交線方向をな
す接平面の頻度分布の最大値として求める手段である請
求項7に記載の動画像速度場計測装置。
8. The degree having the velocity component estimated in claim 7 for each pixel in the partial image is determined by using a tangent plane passing through each pixel and a tangent plane forming an intersection line direction corresponding to the velocity component. The moving image speed field measuring device according to claim 7, wherein the moving image speed field measuring device is means for obtaining the maximum value of the frequency distribution.
【請求項9】 複数の部分画像が互いにオーバーラップ
している領域に含まれる画素の速度成分を決定する手段
が、推定された複数の速度成分を有する度合を重みとす
る複数の速度成分の線形結合として、画素の速度成分を
決定する手段である請求項6から8のいずれか1項に記
載の動画像速度場計測装置。
9. A method for determining a velocity component of a pixel included in an area where a plurality of partial images overlap each other, the method comprising: determining a linearity of a plurality of velocity components by weighting the degree having the estimated plurality of velocity components. The moving image speed field measurement apparatus according to claim 6, wherein the combination is means for determining a speed component of a pixel.
【請求項10】 複数の部分画像が互いにオーバーラッ
プしている領域に含まれる画素の速度成分を決定する手
段が、推定された複数の速度成分を有する度合のうち
で、最も大きな値に対応する速度成分を、その画素の速
度成分とする手段である請求項6から8のいずれか1項
に記載の動画像速度場計測装置。
10. A means for determining a velocity component of a pixel included in a region where a plurality of partial images overlap each other corresponds to a largest value among the degrees having the estimated plurality of velocity components. 9. The moving image speed field measuring apparatus according to claim 6, wherein the speed component is means for setting a speed component of the pixel.
【請求項11】 動画像を入力し、その速度場を計測す
る動画像速度場計測プログラムを記録した記録媒体であ
って、 動画像を互いにオーバーラップする複数の部分画像へと
分割する処理と、個々の部分画像について優勢な速度成
分を推定する処理と、部分画像中の各画素について、推
定された速度成分をもつ度合を計算する処理と、その度
合の大小により部分画像中の各画素について速度成分の
有無を判定する処理と、複数の部分画像がオーバーラッ
プし、画素が速度成分を有している領域に含まれる各画
素で、かつ複数の速度成分が推定された画素について、
それぞれの速度成分を有する度合を用いて、速度成分を
決定する処理を有するコンピュータに実行されるための
動画像速度場計測プログラムを記録した記録媒体。
11. A recording medium on which a moving image is input and a moving image speed field measuring program for measuring a speed field is recorded, wherein the processing is performed to divide the moving image into a plurality of partial images overlapping each other. A process of estimating a dominant speed component for each partial image, a process of calculating a degree having an estimated speed component for each pixel in the partial image, and a speed for each pixel in the partial image according to the magnitude of the degree. With the process of determining the presence or absence of a component, a plurality of partial images overlap, each pixel included in the region where the pixel has a speed component, and for a pixel for which a plurality of speed components are estimated,
A recording medium storing a moving image speed field measurement program to be executed by a computer having a process of determining a speed component using the degree having each speed component.
【請求項12】 分割された部分画像について優勢な速
度成分を推定する処理が、動画像の複数のフレームに含
まれる動輪郭が時空間に描く運動軌跡分布を構築し、そ
の運動軌跡に接する接平面の頻度分布を求め、その相異
なる接平面がなす交線の方向の頻度分布から速度成分を
投票により推定する処理である請求項11に記載の記録
媒体。
12. A process for estimating a dominant velocity component for a divided partial image comprises constructing a motion trajectory distribution in which a moving contour included in a plurality of frames of a moving image is drawn in space and time, and 12. The recording medium according to claim 11, wherein the process is a process of obtaining a frequency distribution of a plane, and estimating a velocity component by voting from a frequency distribution in a direction of an intersection formed by different tangent planes.
【請求項13】 部分画像中の各画素について請求項1
2において推定された速度成分をもつ度合を、各々の画
素を通る接平面で、かつ該速度成分に対応する交線方向
をなす接平面の頻度分布の最大値として求める処理を有
する請求項12に記載の記録媒体。
13. The method according to claim 1, wherein each pixel in the partial image is provided.
13. The processing according to claim 12, further comprising the step of obtaining the degree having the velocity component estimated in 2 as a maximum value of the frequency distribution of a tangent plane passing through each pixel and forming a direction of intersection corresponding to the velocity component. The recording medium according to the above.
【請求項14】 複数の部分画像が互いにオーバーラッ
プしている領域に含まれる画素の速度成分を決定する処
理が、推定された複数の速度成分を有する度合を重みと
する複数の速度成分の線形結合として、画素の速度成分
を決定する処理である請求項11から13のいずれか1
項に記載の記録媒体。
14. A process for determining a velocity component of a pixel included in an area where a plurality of partial images overlap each other is performed by performing linear processing on a plurality of velocity components weighted by a degree having the estimated plurality of velocity components. 14. The method according to claim 11, wherein the combination is processing for determining a velocity component of a pixel.
The recording medium according to Item.
【請求項15】 複数の部分画像が互いにオーバーラッ
プしている領域に含まれる画素の速度成分を決定する処
理が、推定された複数の速度成分を有する度合のうち
で、最も大きな値に対応する速度成分を、その画素の速
度成分とする処理である請求項11から13のいずれか
1項に記載の記録媒体。
15. A process for determining a velocity component of a pixel included in an area where a plurality of partial images overlap each other corresponds to the largest value among the estimated degrees having a plurality of velocity components. The recording medium according to any one of claims 11 to 13, wherein the processing is a process in which a speed component is set as a speed component of the pixel.
JP10063422A 1998-03-13 1998-03-13 Method and device for measuring moving picture speed field and recording medium where moving picture speed field measuring program is recorded Pending JPH11259661A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10063422A JPH11259661A (en) 1998-03-13 1998-03-13 Method and device for measuring moving picture speed field and recording medium where moving picture speed field measuring program is recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10063422A JPH11259661A (en) 1998-03-13 1998-03-13 Method and device for measuring moving picture speed field and recording medium where moving picture speed field measuring program is recorded

Publications (1)

Publication Number Publication Date
JPH11259661A true JPH11259661A (en) 1999-09-24

Family

ID=13228848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10063422A Pending JPH11259661A (en) 1998-03-13 1998-03-13 Method and device for measuring moving picture speed field and recording medium where moving picture speed field measuring program is recorded

Country Status (1)

Country Link
JP (1) JPH11259661A (en)

Similar Documents

Publication Publication Date Title
US8948448B2 (en) Method and apparatus for trajectory estimation, and method for segmentation
TWI536318B (en) Depth measurement quality enhancement
EP1329850B1 (en) Apparatus, program and method for detecting both stationary objects and moving objects in an image
JP5181704B2 (en) Data processing apparatus, posture estimation system, posture estimation method and program
CN110663060B (en) Method, device, system and vehicle/robot for representing environmental elements
US9747690B2 (en) Image processing device, image processing method, and program
CN111160291B (en) Human eye detection method based on depth information and CNN
EP3376468B1 (en) Object detection device and object detection method
CN111382637A (en) Pedestrian detection tracking method, device, terminal equipment and medium
CN112258403A (en) Method for extracting suspected smoke area from dynamic smoke
CN110992393A (en) Target motion tracking method based on vision
Mazoul et al. Fast spatio-temporal stereo for intelligent transportation systems
El Ansari et al. Temporal consistent fast stereo matching for advanced driver assistance systems (ADAS)
US11461597B2 (en) Object likelihood estimation device, method, and program
JP5217917B2 (en) Object detection and tracking device, object detection and tracking method, and object detection and tracking program
JPH08335268A (en) Area extracting method
CN113920254B (en) Monocular RGB (Red Green blue) -based indoor three-dimensional reconstruction method and system thereof
CN111915713A (en) Three-dimensional dynamic scene creating method, computer equipment and storage medium
JPH11259661A (en) Method and device for measuring moving picture speed field and recording medium where moving picture speed field measuring program is recorded
JPH1196375A (en) Method and device for measuring time series image moving place and recording medium recorded with time series image moving place measuring program
Nguyen et al. Scan profiles based method for segmentation and extraction of planar objects in mobile laser scanning point clouds
WO2020175085A1 (en) Image processing apparatus and image processing method
JP4479174B2 (en) Object detection device
US9721151B2 (en) Method and apparatus for detecting interfacing region in depth image
CN110929572B (en) Forest fire identification method and system