JP2003058892A - Device and method for processing animation - Google Patents

Device and method for processing animation

Info

Publication number
JP2003058892A
JP2003058892A JP2001241919A JP2001241919A JP2003058892A JP 2003058892 A JP2003058892 A JP 2003058892A JP 2001241919 A JP2001241919 A JP 2001241919A JP 2001241919 A JP2001241919 A JP 2001241919A JP 2003058892 A JP2003058892 A JP 2003058892A
Authority
JP
Japan
Prior art keywords
image
moving
feature point
rgb
equation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001241919A
Other languages
Japanese (ja)
Inventor
Hiroyuki Hoshino
坦之 星野
Toyohiko Shimizu
豊彦 清水
Rattanasakoonchai Purancharii
ラッタナサコーンチャイ プランチャリー
Takashi Yamaguchi
貴志 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TECHNO SCOPE KK
Original Assignee
TECHNO SCOPE KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TECHNO SCOPE KK filed Critical TECHNO SCOPE KK
Priority to JP2001241919A priority Critical patent/JP2003058892A/en
Publication of JP2003058892A publication Critical patent/JP2003058892A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device and a method for analyzing and processing a moving image in real time. SOLUTION: The animation processing device for analyzing a moving object from each of image data continuously picked up as animation by a digital image pickup means and transmitted, is composed of the digital image pickup means for continuously picking up images, a main body of processor for processing the animation transmitted from digital video and a connection means for connecting the digital image pickup means and the main body of processor. The main body of processor is composed of an image data memory part for storing image data, background video memory part for storing background data, background separation operating part for separating a background image, feature point extraction operating part for extracting the feature points of a moving object, matching operating part, feature point position fixing part, moving image moving locus operating/judging part for operating the locus of the moving object, and image display part for displaying the locus of the moving object.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、連続して撮像さ
れたデジタル映像である動画を処理するための動画処理
装置、及び動画処理方法に関する。より詳しく述べる
と、デジタルカメラ、デジタルビデオカメラ等のデジタ
ル撮像手段により連続的に撮像され、そして送信された
画像データから動く対象を解析処理する動画処理装置、
及び動画処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image processing apparatus and a moving image processing method for processing a moving image which is a digital image continuously captured. More specifically, a moving image processing apparatus that analyzes and processes a moving object from image data continuously captured and transmitted by digital image capturing means such as a digital camera and a digital video camera,
And a video processing method.

【0002】[0002]

【従来の技術】近年、デジタルビデオカメラ、デジタル
カメラ等のデジタル撮像手段からのデジタル画像に基づ
く情報処理分野が進展しつつあり、かかるデジタル画像
処理は、われわれの生活に必要不可欠なものとなってき
ている。特に、デジタル画像の撮像手段の普及に加え
て、コンピュータ等の画像処理システムの高速化、ハー
ドディスク等のデジタルデータの保存手段が大容量化す
るに伴い、撮像手段により連続して撮像された動画の処
理に対する関心が高まってきている。
2. Description of the Related Art In recent years, the field of information processing based on digital images from digital image pickup means such as digital video cameras and digital cameras has been developing, and such digital image processing has become indispensable to our lives. ing. In particular, in addition to the widespread use of digital image capturing means, the speed of image processing systems such as computers has increased, and the storage capacity of digital data such as hard disks has increased in capacity. There is increasing interest in processing.

【0003】通常、かかる動画の処理は、運動分析の方
法論に基づいて行われている。すなわち、通常、連続し
て撮像される動画の動きの分析システムへの入力は、瞬
間的なイメージの連続であり(例えば1秒間に数10フ
レームの連続した画像)、処理される画像データは膨大
なものとなり、特に入力増加(入力時間の増加)に比例
して膨大なものとなる。また、人間に検出が容易なカラ
ーのマークを付け、そのマークを目印として位置を検出
する方法があった。
Usually, the processing of such a moving image is performed based on the methodology of motion analysis. That is, in general, the input to the analysis system for the motion of continuously moving images is a series of instantaneous images (for example, several tens of frames of continuous images per second), and the image data to be processed is enormous. In particular, it becomes enormous in proportion to the increase in input (increase in input time). In addition, there is a method in which a color mark that can be easily detected is attached to a person and the position is detected by using the mark as a mark.

【0004】[0004]

【発明が解決しようとする課題】そして、例えば自動ナ
ビゲーションやセキュリティーシステムのように、常に
リアルタイムの分析が要求される分野においては、処理
時間の早さが要求されるが、これに対応できるような処
理装置、処理方法に対する高い要求がある。従って、こ
の発明の目的は、自動ナビゲーションやセキュリティー
システムのように、常にリアルタイムの分析が要求され
る分野において要求される処理速度に対応可能な動画の
処理装置、及び処理方法を提供することである。
In fields such as automatic navigation and security systems, where real-time analysis is always required, fast processing time is required. There is a high demand for processing devices and processing methods. Therefore, an object of the present invention is to provide a moving image processing apparatus and a processing method capable of supporting a processing speed required in a field where real-time analysis is always required, such as an automatic navigation system or a security system. .

【0005】この発明者等は、上記課題に鑑みて鋭意検
討した結果、デジタルカメラ映像からの連続した画像
(動画)におけるRGBデータを用いて、映像中の動く物
の画像の色特徴点を見つけて抽出し、フレーム毎の動く
対象の移動距離と方向を検出することによって、当該映
像から動く対象を追跡することができることを見出し
て、本発明を創作するに至った。
As a result of earnest studies in view of the above problems, the present inventors have found color feature points of an image of a moving object in a video by using RGB data in a continuous image (moving image) from a digital camera video. The present invention has been found out that the moving object can be tracked from the image by detecting the moving distance and the direction of the moving object for each frame.

【0006】[0006]

【課題を解決するための手段】すなわち、この発明の動
画処理装置は、デジタル撮像手段により連続的に動画と
して撮像され、そして送信された各画像データから動く
対象を解析処理する動画処理装置であって、対象を連続
的に撮像するためのデジタル撮像手段、前記デジタル映
像から送信される動画を処理する処理装置本体、及び前
記デジタル撮像手段と前記処理装置本体を接続する接続
手段とから構成され、前記処理装置本体が、前記撮像手
段からの画像データを記憶する映像データメモリ部およ
び前記撮像手段からの背景データを記憶する背景映像メ
モリー部、前記映像データメモリ部及び背景映像メモリ
ー部に格納された画像データから背景画像を分離する画
像分離演算部、画像分離演算部で前記画像データから背
景画像が分離された画像から動く対象の特徴点を抽出す
る特徴点抽出演算部、前記特徴点抽出演算部で抽出した
特徴点のマッチング処理を行うマッチング演算部、前記
特徴点抽出演算部で抽出し、前記マッチング演算部でマ
ッチング処理された特徴点の位置を確定する特徴点位置
確定部、前記特徴点位置確定部で確定した、動く対象の
特徴点から動く対象の軌跡を演算する動画像移動軌跡演
算・判断部及び前記動画像移動軌跡演算・判断部で演算
した、動く対象の特徴点から動く対象の軌跡を表示する
動画像移動軌跡表示部とから構成されることを特徴とす
るものである(請求項1)。
That is, the moving picture processing apparatus of the present invention is a moving picture processing apparatus for analyzing a moving object from each image data continuously picked up as a moving picture by the digital image pickup means and transmitted. A digital image pickup means for continuously picking up an object, a processing device body for processing a moving image transmitted from the digital video, and a connection means for connecting the digital image pickup means and the processing device body, The processing device main body is stored in a video data memory unit that stores image data from the image pickup unit, a background video memory unit that stores background data from the image pickup unit, the video data memory unit, and the background video memory unit. An image separation calculation unit that separates a background image from image data, and a background image is separated from the image data by the image separation calculation unit. A feature point extraction calculation unit that extracts a feature point of a moving target from an image, a matching calculation unit that performs matching processing of the feature points extracted by the feature point extraction calculation unit, and a matching calculation unit that is extracted by the feature point extraction calculation unit And a moving image moving locus calculation / judgment unit that calculates the locus of the moving target from the characteristic point of the moving target, which is fixed by the characteristic point position fixing unit. A moving image moving locus display unit that displays a moving object locus from a moving object characteristic point calculated by the moving image moving locus calculation / judgment unit (claim 1). .

【0007】この発明の動画処理装置によると、動画中
から動く対象の特徴点を抽出することによって、特徴点
のみの追跡を行うことが可能となるので、短時間に大容
量の画像から必要な部分を選択的に処理可能となる。
According to the moving picture processing apparatus of the present invention, it is possible to trace only the characteristic points by extracting the moving characteristic points from the moving picture. The parts can be selectively processed.

【0008】この発明の動画処理装置において、前記画
像分離演算部は、デジタル撮像手段からの画像信号
(R,G,B)を下記式(1)
In the moving image processing apparatus of the present invention, the image separation calculation section calculates the image signals (R, G, B) from the digital image pickup means by the following equation (1).

【0009】[0009]

【数9】 [Equation 9]

【0010】にしたがって入力画像RGB(x、y)か
ら前記動く対象の画像RGBdiff(x、y)を背景
画像RGBback(x、y)と分離し、前記特徴点抽
出演算部は、前記画像分離演算部で分離された動く対象
の画像から、動く対象の画像を構成する画素マトリック
スの画像データの分散、又は色空間での分散が大きい値
を示すマトリックスの中心を特徴点とし、下記式(2)
〜(6):
The image RGB diff (x, y) of the moving object is separated from the background image RGB back (x, y) from the input image RGB (x, y) according to From the image of the moving object separated by the separation calculation unit, the distribution of the image data of the pixel matrix forming the image of the moving object or the center of the matrix showing a large value in the color space is set as the characteristic point, and the following equation ( 2)
~ (6):

【0011】[0011]

【数10】 [Equation 10]

【0012】のいずれかの式にしたがって動く対象の特
徴点Tを抽出することを特徴とするものである(請求項
2)。このように構成することによって、入力画像から
背景画像の分離および動く対象の特徴点の計算を容易に
行うことが可能となる。
The feature point T of the object to be moved is extracted according to any one of the expressions (Claim 2). With this configuration, it is possible to easily separate the background image from the input image and calculate the moving feature point.

【0013】また、この発明の動画処理装置において、
前記特徴点抽出演算部は、特徴点を抽出する際に、既に
抽出された特徴点の回りにその特徴点を中心として、そ
の特徴点からの距離の増大によって減少する値を前記分
散値から差し引き、式(7)
Further, in the moving image processing apparatus of the present invention,
When extracting a feature point, the feature point extraction calculation unit deducts from the variance value a value that decreases with increasing distance from the feature point around the already extracted feature point. , Equation (7)

【0014】[0014]

【数11】 [Equation 11]

【0015】(式中、RGBmax、(xcpi、y
cpi)は各式(2)〜(6)のいずれかによる計算値
及び特徴点の位置であり、aは正の定数、Fは増加関
数、RGB’maxは式(7)による処理結果である)
により特徴点を分散させることを特徴とするものである
(請求項4)。このように構成することによって、特徴
点を好適に分散させることが可能となり、動く対象の至
るところに分散することが可能となる。
( Wherein RGB max , (x cpi , y
cpi ) is the calculated value and the position of the feature point according to any one of the equations (2) to (6), a is a positive constant, F is an increasing function, and RGB ′ max is the processing result by the equation (7). )
The feature points are dispersed according to (Claim 4). With such a configuration, it becomes possible to appropriately disperse the characteristic points, and it becomes possible to disperse the characteristic points throughout the moving object.

【0016】さらに、この発明の動画処理装置におい
て、前記マッチング演算部は、前記抽出された特徴点を
中心とした領域と最も近い領域を画素情報分布の類似
度、又は画素情報のヒストグラムの類似度から特徴点の
移動先を探し、式(8):
Further, in the moving image processing apparatus according to the present invention, the matching calculation section may have a pixel information distribution similarity or a pixel information histogram similarity in an area closest to an area centered on the extracted feature point. Find the destination of the feature point from Equation (8):

【0017】[0017]

【数12】 [Equation 12]

【0018】(式中、kは水平方向の位置値であり、l
は垂直方向の位置値である)に従って特徴点の変化を追
跡することを特徴とするものである(請求項5)。この
ように構成することによって、画像のマッチングを行う
ことが可能となる。そして、このようにしてマッチング
された画像の特徴点は次の画像の特徴点と比較されて、
動く対象の追跡を行うことが可能となる。
(Where k is a horizontal position value, l
Is a position value in the vertical direction) and changes in feature points are tracked (claim 5). With such a configuration, it is possible to perform image matching. Then, the feature points of the image thus matched are compared with the feature points of the next image,
It becomes possible to track a moving object.

【0019】この発明の動画処理方法は、デジタル撮像
手段により連続的に動画として撮像され、そして送信さ
れた各画像データから動く対象を解析処理する動画処理
方法であって、 (S1) 前記デジタル撮像手段より第1の画像を読み
込み、 (S2) 前記第1の画像の背景画像データをRGB背
景バッファーに記憶させ、 (S3) ステップS1及びステップS2のプロセスを
繰り返した後、動く対象が存在する場合動く対象を読み
込み、 (S4) 入力したデータをRGBバッファーに取り込
む (S5) 前記第1の画像データから背景画像データを
引き取り、 (S6) ステップS5から動く対象の特徴点を決定
し、 (S6) ステップS6で得られた特徴点から特徴点の
位置を計算し、 (S7) 前記デジタル撮像手段より第nの画像を取り
込み、 (S8) ステップS3〜S7を繰返し、そして (S10) 第nの画像の特徴点と第n+1の画像の特
徴点とを比較するステップを含むことを特徴とするもの
である(請求項6)。
The moving picture processing method of the present invention is a moving picture processing method for analyzing a moving object from each image data which is continuously picked up as a moving picture by the digital image pickup means, and which is (S1) When the first image is read by the means, (S2) the background image data of the first image is stored in the RGB background buffer, and (S3) the process of steps S1 and S2 is repeated, and then there is a moving object. The moving object is read, (S4) the input data is loaded into the RGB buffer (S5) the background image data is taken from the first image data, (S6) the characteristic point of the moving object is determined from step S5, and (S6) The positions of the characteristic points are calculated from the characteristic points obtained in step S6, and (S7) the nth image is obtained by the digital image pickup means. Capturing, (S8) repeating steps S3 to S7, and (S10) comparing the feature point of the n-th image with the feature point of the (n + 1) -th image (claim 6). ).

【0020】この発明の動画処理方法によると、動画中
から動く対象の特徴点を抽出することによって、特徴点
のみを前の画像と比較して移動を追跡を行うことが可能
となるので、短時間に大容量の画像から必要な部分を選
択的に処理可能となる。
According to the moving picture processing method of the present invention, by extracting the characteristic points of the moving object from the moving picture, it becomes possible to track the movement by comparing only the characteristic points with the previous image, so that it is possible to shorten the movement. It is possible to selectively process a necessary portion from a large-capacity image in time.

【0021】この発明の動画処理方法において、前記画
像信号(R,G,B)を下記式(1)
In the moving image processing method of the present invention, the image signals (R, G, B) are expressed by the following equation (1).

【0022】[0022]

【数13】 [Equation 13]

【0023】に従って入力画像RGB(x、y)から前
記動く対象の画像RGBdiff(x、y)を背景画像
RGBback(x、y)と分離することが好ましく、
(請求項7)、またステップS5において得られた特徴
点を動く対象の画像から、特徴点を構成する画素マトリ
ックスの画像データの分散、又は色空間での分散が大き
い値を示すマトリックスの中心を特徴点とし、下記式
(2)〜(6):
It is preferable to separate the moving image RGB diff (x, y) from the input image RGB (x, y) in accordance with the background image RGB back (x, y),
(Claim 7) Further, from the image of the object that moves the characteristic points obtained in step S5, the center of the matrix showing a large dispersion of the image data of the pixel matrix forming the characteristic points or the dispersion in the color space is determined. As the characteristic points, the following equations (2) to (6):

【0024】[0024]

【数14】 [Equation 14]

【0025】のいずれかの式に従って動く対象の特徴点
Tを抽出することが好ましく(請求項8)、さらに、特
徴点を抽出する際に、既に抽出された特徴点の回りにそ
の特徴点を中心として、その特徴点からの距離の増大に
よって減少する値を前記分散値から差し引き、抽出した
特徴点を式(7)
It is preferable to extract the feature point T of the object to be moved according to any one of the expressions (claim 8), and when extracting the feature point, the feature point is extracted around the already extracted feature point. As a center, a value that decreases with an increase in the distance from the feature point is subtracted from the variance value, and the extracted feature point is expressed by equation (7).

【0026】[0026]

【数15】 [Equation 15]

【0027】(式中、RGBmax、(xcpi、y
cpi)は各式(2)〜(6)のいずれかによる計算値
及び特徴点の位置であり、aは正の定数、Fは増加関
数、RGB’ maxは式(7)による処理結果であ
る)により特徴点を分散させる処理を行うことが好まし
く(請求項9)、そして、前記抽出された特徴点を中心
とした領域と最も近い領域を画素情報分布の類似度、又
は画素情報のヒストグラムの類似度から特徴点の移動先
を探し、ステップS6で得られた画像を式(8)
( Wherein RGB max , (x cpi , y
cpi ) is the calculated value and the position of the feature point according to any one of the equations (2) to (6), a is a positive constant, F is an increasing function, and RGB ′ max is the processing result by the equation (7). ) Is used to disperse the feature points (claim 9), and the region closest to the region centered on the extracted feature point is the similarity of the pixel information distribution or the histogram of the pixel information. The destination of the feature point is searched for from the degree of similarity, and the image obtained in step S6 is calculated using equation (8).

【0028】[0028]

【数16】 (式中、kは水平方向の位置値であり、lは垂直方向の
位置値である)に従って特徴点の変化を追跡することが
好ましい(請求項10)。このように構成することによ
って、各ステップを容易に実行することが可能となる。
[Equation 16] It is preferable to track the change of the feature points according to the equation (k is a horizontal position value and l is a vertical position value). With this configuration, each step can be easily executed.

【0029】[0029]

【発明の実施の形態】以下、この発明にかかる動画処理
装置及び動画処理方法の実施の形態を添付図面に従って
詳細に説明する。なお、この発明はこれらの実施の形態
に限定されるものではない。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of a moving image processing apparatus and a moving image processing method according to the present invention will be described below in detail with reference to the accompanying drawings. The present invention is not limited to these embodiments.

【0030】図1は、この発明にかかる動画処理装置の
全体を示す概略図であり、図2はこの発明に係る動画処
理装置の処理装置本体の構成を示す概略図である。図3
は、この発明において入力・処理された画像の一例を示
し、図3(a)は、処理前の画像、図3(b)は、画像
分離処理により分離された背景画像の一例を示し、そし
て図3(c)は、背景画像から分離された動く対象の画
像の一例を示す。図4は、この発明において色特徴点を
抽出する一例を示す図面であり、図4(a)〜図4
(e)に示す。図4(a)は、式(2)を、図4(b)
は、式(3)を、図4(c)は式(4)を、図4(d)
は式(5)を、そして図4(e)は、式(6)を用いた
場合の色特徴点を示す図面である。 図5(a)〜図5
(e)は、各々図4(a)〜図4(e)における特徴点
を分散させた一例を示す図面である。図6および図7
は、特徴点を示すフレーム毎に次のマッチングブロック
との位置関係の比較を行う一例を示す図面である。
FIG. 1 is a schematic view showing the whole moving picture processing apparatus according to the present invention, and FIG. 2 is a schematic view showing the structure of the processing apparatus main body of the moving picture processing apparatus according to the present invention. Figure 3
Shows an example of an image input / processed in the present invention, FIG. 3 (a) shows an image before processing, FIG. 3 (b) shows an example of a background image separated by image separation processing, and FIG. 3C shows an example of a moving target image separated from the background image. FIG. 4 is a diagram showing an example of extracting color feature points in the present invention, and FIGS.
It shows in (e). FIG. 4A shows the equation (2) as shown in FIG.
Is the equation (3), FIG. 4 (c) is the equation (4), and FIG.
4A and 4E are diagrams showing color feature points when the formula (5) is used and the formula (6) is used. 5 (a) to 5
4E is a diagram showing an example in which the feature points in FIGS. 4A to 4E are dispersed. 6 and 7
FIG. 5 is a diagram showing an example in which a positional relationship with a next matching block is compared for each frame indicating a feature point.

【0031】まず、図1および図2に基づいて、この発
明の動画処理装置の全体構成を説明する。図1に示す通
り、この発明の動画処理装置は、デジタルカメラ、デジ
タルビデオカメラ等の画像を連続的に動画として撮像す
ることが可能なデジタル撮像手段1と、前記デジタル映
像から送信される動画を処理する処理装置本体2(コン
ピュータシステム)およびデジタル撮像手段1と処理装
置本体2とを接続し、デジタルデータを相互に送受信す
るための接続手段3から主として構成されている。
First, the overall structure of the moving image processing apparatus of the present invention will be described with reference to FIGS. 1 and 2. As shown in FIG. 1, the moving image processing apparatus of the present invention includes a digital image pickup means 1 capable of continuously picking up images of a digital camera, a digital video camera or the like as a moving image, and a moving image transmitted from the digital image. The processing device main body 2 (computer system) for processing and the digital image pickup means 1 and the processing device main body 2 are mainly connected to each other, and the connection means 3 is provided for transmitting and receiving digital data.

【0032】この発明における処理装置本体2は、通
常、所定のオペレーティングシステム(例えば、WIN
DOWS(登録商標)系OS、UNIX(登録商標)系
OS、Mac(登録商標)OS)等により駆動されてお
り、図示しない中央演算子、メモリー、ハードディス
ク、ビデオカード、前記ビデオカードと接続した表示手
段であるディスプレイから主として構成されている。
The processing apparatus main body 2 in the present invention is usually a predetermined operating system (for example, WIN).
It is driven by a DOWS (registered trademark) type OS, a UNIX (registered trademark) type OS, a Mac (registered trademark) OS, etc., and a display connected to a central operator (not shown), a memory, a hard disk, a video card, and the video card. It is mainly composed of a display which is a means.

【0033】そして、図2に示す通り、この画像処理装
置本体2は、前記デジタル撮像手段とデータを送受信す
るためのカメラ映像取込部A、画像分離演算部P1、特
徴点抽出演算部P2、マッチング演算部P3、特徴点位
置確定部P4、及び動画像移動軌跡演算・判断部P5等
の演算部P1〜P5、カメラ映像データ取込制御部C、
映像データメモリ部M1、背景映像メモリ部M2、特徴
点位置確定部M3、さらに動画像移動軌跡表示部Dから
構成されている。映像データメモリー部M2、背景映像
メモリ部M2、及び特徴点位置確定部M3は、前記ハー
ドディスク内に確保された保存領域あるいはRAM等の
テンポラリーメモリーであることができ、各演算部P1
〜P5は、前記ハードディスク上に保存された演算プロ
グラムである。
As shown in FIG. 2, the image processing apparatus main body 2 includes a camera image capturing section A for transmitting and receiving data to and from the digital image pickup means, an image separation calculation section P1, a feature point extraction calculation section P2, A matching calculation unit P3, a feature point position determination unit P4, calculation units P1 to P5 such as a moving image movement locus calculation / judgment unit P5, a camera image data acquisition control unit C,
The image data memory unit M1, the background image memory unit M2, the feature point position determination unit M3, and the moving image movement locus display unit D are included. The image data memory unit M2, the background image memory unit M2, and the feature point position determination unit M3 may be a storage area secured in the hard disk or a temporary memory such as RAM, and each operation unit P1.
~ P5 are arithmetic programs stored on the hard disk.

【0034】次いで、このような構成を有するこの発明
の動画処理装置による動画処理動作を説明する。この説
明において、デジタル撮像手段1は固定されているもの
と想定する。
Next, a moving image processing operation by the moving image processing apparatus of the present invention having such a configuration will be described. In this description, it is assumed that the digital image pickup means 1 is fixed.

【0035】まず、撮像手段1で映像された動く対象を
含んでいない初期画像(背景画像)は、図2に示す通
り、カメラ映像取込部Aを介して前記撮像手段1からの
画像データを記憶する背景映像メモリ部M2に記憶され
る。次いで、図3(a)に示す画像データRGBmax
は、図2に示す通り、接続手段3を介して前記撮像手段
1からの画像データを記憶する映像データメモリ部M1
に記憶される。そして、映像データメモリ部M1に記憶
された画像データRGBmaxは、第1演算部P1によ
り画像全体から背景画像の分離処理が行われ、図3
(b)に示す背景画像RGBbackと、図3(c)に
示す動く対象RGBdiffとに分離される。この際に
画像の分離処理は、下記式(1)によって行われる。
First, as shown in FIG. 2, the initial image (background image) which does not include a moving object and which is imaged by the image pickup means 1 is obtained from the image data from the image pickup means 1 via the camera image capturing section A. It is stored in the background image memory unit M2. Then, the image data RGB max shown in FIG.
2 is a video data memory unit M1 for storing the image data from the image pickup means 1 through the connection means 3 as shown in FIG.
Memorized in. Then, the image data RGB max stored in the video data memory unit M1 is subjected to a background image separation process from the entire image by the first calculation unit P1, and FIG.
The background image RGB back shown in FIG. 3B and the moving target RGB diff shown in FIG. 3C are separated. At this time, the image separation process is performed by the following equation (1).

【0036】[0036]

【数17】 [Equation 17]

【0037】この際の閾値は、前のフレームの平均値に
よって適宜確定される。この際、撮像手段は固定されて
いるものと仮定するが、雲台等を用いて適宜移動するこ
とも可能である。このようにして背景画像RGB
backと分離された動く対象の画像RGB
diffは、全てのピクセルを考慮して動く対象の動き
を発見し、追跡するのには非常に煩雑な計算と時間を要
する。
The threshold value at this time is appropriately determined by the average value of the previous frame. At this time, it is assumed that the imaging means is fixed, but it is also possible to move it appropriately by using a platform or the like. In this way, the background image RGB
Image RGB of moving object separated from back
The diff requires a very complicated calculation and time to find and track the motion of a moving object in consideration of all the pixels.

【0038】そこで、この発明において、動く対象の画
像RGBdiffは、後段の特徴点抽出演算部P2へ送
信される。特徴点抽出演算部P2では、動く対象の全ピ
クセルの代わりにいくつかの色特徴点Tを抽出し特定を
行う。
Therefore, in the present invention, the image RGB diff of the moving object is transmitted to the feature point extraction calculation section P2 in the subsequent stage. The feature point extraction calculation unit P2 extracts and specifies some color feature points T instead of all the pixels to be moved.

【0039】この発明において、前のフレームの色特徴
点と、その次のフレームに対応している位置とを正確に
マッチングさせるために、この色特徴点を抽出するプロ
セスには、動画像の各点を中心としたマトリックスで画
像を走査し、そのマトリックス中での画素R.G,B値
を組み合わせた演算の値が最大となるマトリックスの中
心を特徴点とすることとする。このような概念から、色
特徴点を抽出する際に、下記式(2)〜(6)のいずれ
かを用いるのが好ましい。
In the present invention, in order to accurately match the color feature point of the previous frame and the position corresponding to the next frame, the process of extracting this color feature point includes The image is scanned with a matrix centered around the points and the pixels R. The center of the matrix that maximizes the value of the combination of G and B values will be the feature point. From such a concept, it is preferable to use any one of the following formulas (2) to (6) when extracting the color feature points.

【0040】[0040]

【数18】 [Equation 18]

【0041】このようにして、動く画像から式(2)〜
(6)のいずれかを用いて抽出した色特徴点の一例を図
4(a)〜図4(e)に示す。図4(a)は、式(2)
を、図4(b)は、式(3)を、図4(c)は式(4)
を、図4(d)は式(5)を、そして図4(e)は、式
(6)を用いた場合の色特徴点を各々示す。なお、図中
のa、b、・・・は、各々抽出した特徴点を示す。この
ように構成することによって動く対象全体ではなく、抽
出した色特徴点を用いて動く対象を取り扱うことが可能
となる。
In this way, from the moving image, equations (2)-
An example of the color feature points extracted using any of (6) is shown in FIGS. 4 (a) to 4 (e). FIG. 4 (a) shows the equation (2).
4 (b) is the equation (3), and FIG. 4 (c) is the equation (4).
4 (d) shows the color feature points when the equation (5) is used, and FIG. 4 (e) shows the color feature points when the equation (6) is used. In the figure, a, b, ... Show the extracted feature points. With such a configuration, it is possible to handle not the entire moving object but the moving object using the extracted color feature points.

【0042】また、このようにして抽出された色特徴点
を後段の特徴点の位置をそのまま特徴点位置確定部P4
により確定することも可能であるが、かかる特徴点は、
部分的に集まっている場合があり、動く対象の全体を表
現するのに適切でない場合がある。そこで、前記特徴点
抽出演算部P2において、部分的に集まった特徴点を分
散させることが好ましい。このような特徴点の分散は、
この発明における特徴点境界技術を用いて、特徴点を動
く対象全体に分散させるアルゴリズムを用いることによ
って達成することができる。
Further, the color feature points thus extracted are the same as the positions of the feature points in the subsequent stage, and the feature point position determination unit P4 is used.
It is also possible to confirm by
It may be partly gathered and may not be suitable for representing the whole moving object. Therefore, it is preferable to disperse the partially collected feature points in the feature point extraction calculation unit P2. The distribution of such feature points is
The feature point boundary technique of the present invention can be used to achieve this by using an algorithm that distributes feature points over a moving object.

【0043】このようなアルゴリズムとして例えば、式
(7)
As such an algorithm, for example, equation (7)

【0044】[0044]

【数19】 [Formula 19]

【0045】(式中、RGBmax、(xcpi、y
cpi)は各式(2)〜(6)のいずれかによる計算値
及び特徴点の位置であり、aは正の定数、Fは増加関
数、RGB’ maxは式(7)による処理結果であ
る)によって表すことができる。
( Wherein RGB max , (x cpi , y
cpi ) is the calculated value and the position of the feature point according to any one of the equations (2) to (6), a is a positive constant, F is an increasing function, and RGB ′ max is the processing result by the equation (7). ) Can be represented by.

【0046】図5(a)〜図5(e)に各々図4(a)
〜図4(e)に示す特徴点を式(7)により分散させた
結果を示す。なお図中のa、b、・・・は、図4に示す
特徴点a、b・・に対応して分散した特徴点を示す。図
5(a)〜図5(e)に示す通り、動く対象の中心に位
置した特徴点a、b・・・が各々広範囲に分布したこと
が判る。
5 (a) to 5 (e) respectively show FIG. 4 (a).
4 shows the result obtained by dispersing the characteristic points shown in FIG. 4 (e) by the equation (7). In the figure, a, b, ... Show feature points dispersed corresponding to the feature points a, b, ... Shown in FIG. As shown in FIGS. 5A to 5E, it can be seen that the characteristic points a, b, ... Located at the center of the moving object are distributed in a wide range.

【0047】そして、場合により前記の通りに分散させ
た特徴点は、マッチング演算部P3で順次,例えば8×
8ピクセルの正方形マッチングブロックに拡大され、特
徴点位置確定部P4で特徴点の位置を確定し、動く対象
の特徴点から動く対象の軌跡を動画像移動軌跡演算・判
断部P5で演算し、そして動く対象の特徴点から動く対
象の軌跡を動画像移動軌跡表示部Dで表示する。
Then, the feature points dispersed as described above in some cases are sequentially processed by the matching calculation unit P3, for example, 8 ×.
It is expanded to a square matching block of 8 pixels, the position of the feature point is determined by the feature point position determination unit P4, the locus of the moving target from the feature point of the moving target is calculated by the moving image moving locus calculation / determination unit P5, and The moving image moving locus display unit D displays the moving object locus from the moving object feature point.

【0048】即ち、例えば演算部P4確定したデータは
メモリーM3に順次記憶され、前後のマッチングブロッ
クを動画像移動軌跡演算・判断部P5で順次、対応する
ブロックと比較して動く対象の移動を追跡する。この際
の比較は、前フレームのマッチングブロックの水平方向
および垂直方向における位置の確認を行う。この際の比
較の変化値は、例えば式(8)
That is, for example, the data determined by the arithmetic unit P4 is sequentially stored in the memory M3, and the preceding and following matching blocks are sequentially compared with the corresponding blocks by the moving image movement locus calculation / judgment unit P5 to trace the movement of the moving object. To do. In this comparison, the positions of the matching blocks of the previous frame in the horizontal direction and the vertical direction are confirmed. The change value of the comparison at this time is, for example, Equation (8).

【0049】[0049]

【数20】 [Equation 20]

【0050】(式中、kは水平方向の位置値であり、l
は垂直方向の位置値である)に従って特徴点の変化を追
跡する。このようにして、動く対象の移動を追跡した結
果を動画像移動軌跡表示部Dで表示を行う。すなわち、
例えば図6および図7に示すようにフレーム毎に次のマ
ッチングブロックとの位置関係、即ち、kおよびlの値
の変化部分を動きの距離と方向を示すこととなる。従っ
て、動く対象の動きの特性や速度等を用意に分析可能と
なる。
(Where k is a horizontal position value, and l
Is the position value in the vertical direction). In this way, the result of tracking the movement of the moving object is displayed on the moving image movement locus display unit D. That is,
For example, as shown in FIGS. 6 and 7, the positional relationship with the next matching block for each frame, that is, the changing portion of the values of k and l indicates the movement distance and direction. Therefore, it becomes possible to easily analyze the characteristics and speed of the movement of the moving object.

【0051】次いで、この発明の第二の実施の形態であ
る動画処理方法を図8〜図11に基づいて説明する。図
8は、この発明の動画処理方法の全体プロセスを示すフ
ローチャートであり、図9は、この発明の動画処理方法
において背景画像と動く対象の画像とを分離するプロセ
スを示すフローチャートであり、図10は、この発明の
動画処理方法において特徴点を演算するプロセスを示す
フローチャートであり、そして図11は、この発明の動
画処理方法において画像のマッチングを行うプロセスの
一例を示すフローチャートである。
Next, a moving image processing method according to the second embodiment of the present invention will be described with reference to FIGS. 8 is a flowchart showing the whole process of the moving image processing method of the present invention, and FIG. 9 is a flowchart showing the process of separating the background image and the moving target image in the moving image processing method of the present invention. Is a flowchart showing a process of calculating feature points in the moving image processing method of the present invention, and FIG. 11 is a flowchart showing an example of a process of performing image matching in the moving image processing method of the present invention.

【0052】図8に示す通り、ステップS0において、
入力コマンド待機状態となっている。そして、ステップ
S1において、デジタル撮像手段より第1の画像を読み
込みを行う。この際の第1の画像は通常動く対象が存在
しない背景画像である。そして、このようにして読み込
まれた画像にはステップS2において、背景画像データ
をRGB背景バッファーに記憶させる。
As shown in FIG. 8, in step S0,
Waiting for an input command. Then, in step S1, the first image is read from the digital image pickup means. The first image at this time is a background image in which there is normally no moving object. Then, in step S2, background image data is stored in the RGB background buffer for the image thus read.

【0053】そして、動く対象が存在する場合、すなわ
ち、デジタル撮像手段が動く対象を映像した際に、動く
対象を読み込み(ステップS3)、入力したデータをR
GBバッファーに取り込む(ステップS4)。そして、
ステップS5においてこのようにして得られた背景画像
と動く対象の画像との分離を行う。背景画像の分離プロ
セスは、例えば後述の図9のごとく行われる。
Then, when there is a moving object, that is, when the digital imaging means images the moving object, the moving object is read (step S3), and the input data is read as R.
It is taken into the GB buffer (step S4). And
In step S5, the background image thus obtained and the moving target image are separated. The background image separation process is performed, for example, as shown in FIG. 9 described later.

【0054】そして、この分離プロセスにより特徴点が
決定したか否かを判断し(ステップS6)、特徴点が決
定していない場合、特徴点の決定を行う(ステップS
7)。ステップS6において特徴点が決定している場
合、あるいはステップS7において特徴点を決定した
後、マッチングプロセス(ステップS8)を経て、次の
画像の特徴点と比較を行う(ステップS9)。
Then, it is judged whether or not the characteristic point is determined by this separation process (step S6), and if the characteristic point is not determined, the characteristic point is determined (step S).
7). When the feature point is determined in step S6, or after the feature point is determined in step S7, a matching process (step S8) is performed and comparison with the feature point of the next image is performed (step S9).

【0055】ステップS5における画像分離プロセス
は、例えば図9に示すとおり行われる。すなわち、RG
Bの垂直方向の位置yを0と設定し(ステップS1
1)、水平方向の位置xを0に設定する(ステップS1
2)。そして動く対象のRGBdi ff(x、y)が背
景画像のRGBbackから全体画像のRGB(x、
y)差し引いた値として求める(ステップS13)。そ
してこのRGBdiff(x、y)が所定の閾値より大
きいか否かを判断する(ステップS14)。
The image separation process in step S5 is performed, for example, as shown in FIG. That is, RG
The vertical position y of B is set to 0 (step S1
1), the horizontal position x is set to 0 (step S1)
2). And moving the target of RGB di ff (x, y) of the entire image from the RGB back of the background image RGB (x,
y) Obtained as a subtracted value (step S13). Then, it is determined whether or not this RGB diff (x, y) is larger than a predetermined threshold value (step S14).

【0056】RGBdiff(x、y)が閾値未満であ
る場合はRGBdiff(x、y)を0に設定し(ステ
ップS14)、そしてxの値を増加させる(ステップS
15)。RGBdiff(x、y)が閾値以上である場
合は、ステップS16においてそのままxの値を増加さ
せる。
[0056] RGB diff (x, y) if it is less than the threshold value RGB diff (x, y) was set to 0 (step S14), and then increases the value of x (step S
15). If RGB diff (x, y) is greater than or equal to the threshold value, the value of x is increased as it is in step S16.

【0057】次いで、ステップS17において増加させ
たxの値が320より小さいか否かを判断し、小さい場
合にはステップS13に戻る(ステップS18)。xの
値が320より大きい場合、yの値を増加させる(ステ
ップS19時41分)。次いで、ステップS20におい
て、yの値が240より小さいか否かを判断する。yの
値が240より小さい場合にはステップS12に戻る。
そしてyの値が240より大きい場合は画像分離プロセ
スを完了させる(return)。
Next, it is judged whether or not the value of x increased in step S17 is smaller than 320, and if it is smaller, the process returns to step S13 (step S18). When the value of x is larger than 320, the value of y is increased (step S19: 41). Next, in step S20, it is determined whether or not the value of y is smaller than 240. If the value of y is smaller than 240, the process returns to step S12.
If the value of y is greater than 240, the image separation process is completed (return).

【0058】また、図8におけるS6の特徴点の決定
は、例えば図10に示すフローにしたがって行われる。
即ち、式(2)〜(6)に従ってRGBmaxを求める
(ステップS21)。そして、i=0を設定して(ステ
ップS22)、特定点CP[i]を選択し、その位置を保
持する(ステップS23)。次いで、特徴点を例えば前
述の式(7)に従って分散させ(ステップS24)、iを
増加させ(S25)、そしてiが必要とされる特長点の
量未満か否かを判断する。iが必要とされる特長点の量
未満である場合、S23に戻り処理を続行する。またi
が必要とされる特長点の量以上である場合、特徴点を決
定する。また、図8におけるステップS8のマッチング
プロセスは、例えば図11に示すフローにしたがって行
われる。
The determination of the characteristic points in S6 in FIG. 8 is performed according to the flow shown in FIG. 10, for example.
That is, RGB max is obtained according to equations (2) to (6) (step S21). Then, i = 0 is set (step S22), the specific point CP [i] is selected, and its position is held (step S23). Then, the characteristic points are dispersed according to, for example, the above-mentioned equation (7) (step S24), i is increased (S25), and it is determined whether or not i is less than the required amount of characteristic points. If i is less than the required amount of feature points, the process returns to S23 and continues. I
If is greater than or equal to the amount of required feature points, then the feature points are determined. The matching process of step S8 in FIG. 8 is performed according to the flow shown in FIG. 11, for example.

【0059】まず、水平方向位置kを0に設定し(ステ
ップS31)、そして垂直方向位置lを0に設定する
(ステップS32)。そして、式(8)で示される計算
式を用いて特徴点の位置M(k、l)を算出する(ステ
ップS33)。次いで、このM(k、l)がMmin未
満か否かを判断する(ステップS34)。M(k、l)
がMmin未満である場合、Mmin値をM(k、l)
と設定し(ステップS35)、l値を増加させ(ステッ
プS36)、そしてl値がlmaxか否かを判断する
(ステップS37)。
First, the horizontal position k is set to 0 (step S31), and the vertical position l is set to 0 (step S32). Then, the position M (k, l) of the feature point is calculated using the calculation formula shown in the formula (8) (step S33). Next, it is determined whether M (k, l) is less than Mmin (step S34). M (k, l)
Is less than Mmin, the Mmin value is set to M (k, l).
Is set (step S35), the l value is increased (step S36), and it is determined whether or not the l value is lmax (step S37).

【0060】一方、M(k、l)がMmin以上である
場合にはステップS37においてl値がlmaxを超え
るか否かを判断する。1がlmax未満である場合、k
値を増加させ(ステップS38)、そしてkがkmax
未満であるか否かを判断する(ステップS39)。kが
kmax未満である場合、ステップS32に戻って処理
を続行する。一方、kがkmaxを越える場合、マッチ
ングを完了させる。
On the other hand, if M (k, l) is greater than or equal to Mmin, it is determined in step S37 whether the l value exceeds lmax. If 1 is less than lmax, then k
The value is increased (step S38), and k is kmax
It is determined whether or not it is less than (step S39). If k is less than kmax, the process returns to step S32 to continue the process. On the other hand, when k exceeds kmax, the matching is completed.

【0061】このような方法により、動画中から動く対
象の特徴点を抽出することによって、特徴点のみの追跡
を行うことが可能となるので、短時間に大容量の画像か
ら必要な部分を選択的に処理可能となる。
With such a method, it is possible to trace only the characteristic points by extracting the characteristic points of the moving object from the moving image, so that the necessary portion can be selected from the large-capacity image in a short time. Can be processed as desired.

【0062】[0062]

【発明の効果】以上説明した通り、この発明は次の優れ
た効果を奏する。請求項1によると。動画中から動く対
象の特徴点を抽出することによって、特徴点のみの追跡
を行うことが可能となるので、短時間に大容量の画像か
ら必要な部分を選択的に処理可能となる。さらに、精度
の良い特徴点の抽出が可能となる。請求項2によると入
力画像から背景画像の分離および動く対象の特徴点の計
算を容易に行うことが可能となる。
As described above, the present invention has the following excellent effects. According to claim 1. By extracting the feature points of the moving object from the moving image, it is possible to track only the feature points, so that it is possible to selectively process a necessary portion from a large-capacity image in a short time. Further, it becomes possible to extract the feature points with high accuracy. According to the second aspect, it is possible to easily separate the background image from the input image and calculate the feature point of the moving target.

【0063】請求項3によると特徴点を好適に分散させ
ることが可能となり、動く対象の至るところに分散する
ことが可能となる。従って、動く対象の全体の動きを少
ない特徴点でとらえることができる。請求項4によると
画像のマッチングを行うことが可能となる。そして、こ
のようにしてマッチングされた画像の特徴点は次の画像
の特徴点と比較されて、動く対象の追跡を行うことが可
能となる。
According to the third aspect, the characteristic points can be preferably dispersed, and can be dispersed throughout the moving object. Therefore, it is possible to capture the entire movement of the moving object with few feature points. According to claim 4, it is possible to perform image matching. Then, the feature points of the image matched in this way are compared with the feature points of the next image, and it becomes possible to track the moving object.

【0064】請求項5によると、動画中から動く対象の
特徴点を抽出することによって、特徴点のみを前の画像
と比較して移動の追跡を行うことが可能となるので、短
時間に大容量の画像から必要な部分を選択的に処理する
ことが可能となる。また、特徴点は精度良く抽出され、
しかも少ない特徴点を処理する結果、きわめて高速に処
理することが可能となる。
According to the fifth aspect, by extracting the characteristic points of the moving object from the moving image, it becomes possible to track the movement by comparing only the characteristic points with the previous image, and therefore, it is possible to make a large movement in a short time. It is possible to selectively process a necessary portion from the image of the capacity. Also, the feature points are extracted accurately,
Moreover, as a result of processing a small number of feature points, it becomes possible to process at extremely high speed.

【0065】請求項6〜9によると各段階を容易に実行
することが可能となる。
According to the sixth to ninth aspects, each step can be easily executed.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明にかかる動画処理装置の全体を示す概
略図である。
FIG. 1 is a schematic diagram showing an entire moving image processing apparatus according to the present invention.

【図2】この発明の動画処理装置における処理装置本体
の構成を示す概略図である。
FIG. 2 is a schematic diagram showing a configuration of a processing device main body in the moving image processing device of the present invention.

【図3】この発明において入力・処理された画像の一例
を示し、図3(a)は、処理前の画像、図3(b)は、
画像分離処理により分離背景画像の一例を示し、そして
図3(c)は、背景画像から分離された動く対象の画像
の一例を示す。
3A and 3B show an example of an image input / processed in the present invention. FIG. 3A is an image before processing, and FIG.
An example of a separated background image is shown by the image separation process, and FIG. 3C shows an example of a moving target image separated from the background image.

【図4】この発明において色特徴点を抽出する一例を示
す図面である。
FIG. 4 is a diagram showing an example of extracting color feature points in the present invention.

【図5】図4における特徴点を分散させた一例を示す図
面である。
FIG. 5 is a diagram showing an example in which the characteristic points in FIG. 4 are dispersed.

【図6】特徴点を示すフレーム毎に次のマッチングブロ
ックとの位置関係の比較を行う一例を示す図面である。
FIG. 6 is a diagram illustrating an example in which a positional relationship with a next matching block is compared for each frame indicating a feature point.

【図7】特徴点を示すフレーム毎に次のマッチングブロ
ックとの位置関係の比較を行う一例を示す図面である。
FIG. 7 is a diagram illustrating an example in which a positional relationship with a next matching block is compared for each frame indicating a feature point.

【図8】この発明の動画処理方法の全体プロセスを示す
フローチャートである。
FIG. 8 is a flowchart showing the entire process of the moving image processing method of the present invention.

【図9】この発明の動画処理方法において背景画像と動
く対象の画像とを分離するプロセスを示すフローチャー
トである。
FIG. 9 is a flowchart showing a process of separating a background image and a moving target image in the moving image processing method of the present invention.

【図10】この発明の動画処理方法において特徴点を演
算するプロセスを示すフローチャートである。
FIG. 10 is a flowchart showing a process of calculating feature points in the moving image processing method of the present invention.

【図11】図11は、この発明の動画処理方法において
画像のマッチングを行うプロセスの一例を示すフローチ
ャートである。
FIG. 11 is a flowchart showing an example of a process of performing image matching in the moving image processing method of the present invention.

【符号の説明】[Explanation of symbols]

M1〜M5 メモリー部 P1〜P5 演算部 1 デジタル撮像手段 2 処理装置本体 3 接続手段 M1 to M5 memory section P1 to P5 calculation unit 1 Digital imaging means 2 Processing device body 3 connection means

フロントページの続き (72)発明者 山口 貴志 埼玉県南埼玉郡宮代町学園台4−1 日本 工業大学内 Fターム(参考) 5B050 DA04 EA04 EA09 GA01 5B057 AA19 BA11 CA01 CA08 CA16 CB01 CB08 CB20 CH01 CH11 DA07 DA11 DA17 DB06 DB09 DC25 5L096 AA02 AA06 BA02 CA04 FA15 FA33 FA35 FA66 GA51 HA04 HA05 JA03 JA11 LA01 LA05Continued front page    (72) Inventor Takashi Yamaguchi             Saitama Prefecture Minami Saitama District Miyashiro Town Gakuendai 4-1 Japan             Inside the university F-term (reference) 5B050 DA04 EA04 EA09 GA01                 5B057 AA19 BA11 CA01 CA08 CA16                       CB01 CB08 CB20 CH01 CH11                       DA07 DA11 DA17 DB06 DB09                       DC25                 5L096 AA02 AA06 BA02 CA04 FA15                       FA33 FA35 FA66 GA51 HA04                       HA05 JA03 JA11 LA01 LA05

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 デジタル撮像手段により連続的に動画と
して撮像され、そして送信された各画像データから動く
対象を解析処理する動画処理装置であって、対象を連続
的に撮像するためのデジタル撮像手段、前記デジタル撮
像手段から送信される動画を処理する処理装置本体、及
び前記デジタル撮像手段と前記処理装置本体を接続する
接続手段とから構成され、 前記処理装置本体が、前記撮像手段からの画像データを
記憶する映像データメモリー部および前記撮像手段から
の背景データを記憶する背景映像メモリー部、前記映像
データメモリー部及び背景映像メモリー部に格納された
画像データから背景画像を分離する画像分離演算部、画
像分離演算部で前記画像データから背景画像が分離され
た画像から動く対象の特徴点を抽出する特徴点抽出演算
部、前記特徴点抽出演算部で抽出した特徴点のマッチン
グ処理を行うマッチング演算部、前記特徴点抽出演算部
で抽出しマッチング演算部でマッチング処理された特徴
点の位置を確定する特徴点位置確定部、前記特徴点位置
確定部で確定した動く対象の特徴点から動く対象の軌跡
を演算する動画像移動軌跡演算・判断部及び前記動画像
移動軌跡演算・判断部で演算した動く対象の特徴点から
動く対象の軌跡を表示する動画像移動軌跡表示部とから
構成されることを特徴とする動画処理装置。
1. A moving image processing apparatus for analyzing a moving object from each image data transmitted and continuously captured as a moving image by the digital image capturing means, the digital image capturing means for continuously capturing the object. A processing device body for processing a moving image transmitted from the digital image pickup means, and a connection means for connecting the digital image pickup means and the processing device body, wherein the processing device body is image data from the image pickup means. A video data memory section for storing the background data, a background video memory section for storing the background data from the image pickup means, an image separation calculation section for separating a background image from the image data stored in the video data memory section and the background video memory section, A feature point for extracting a feature point of a moving target from an image in which a background image is separated from the image data by an image separation calculation unit Output calculation unit, a matching calculation unit that performs matching processing of the characteristic points extracted by the characteristic point extraction calculation unit, and a characteristic point that determines the position of the characteristic points extracted by the characteristic point extraction calculation unit and subjected to matching processing by the matching calculation unit A position determination unit, a moving image moving locus calculation / judgment unit for calculating a locus of a moving object from the characteristic point of the moving object decided by the characteristic point position fixing unit, and a moving object calculated by the moving image movement locus calculation / judgment unit. A moving image processing apparatus, comprising: a moving image movement locus display unit that displays a locus of an object that moves from a feature point.
【請求項2】 画像分離演算部は、デジタル撮像手段か
らの画像信号(R,G,B)を下記式(1) 【数1】 にしたがって入力画像RGB(x、y)から前記動く対
象の画像RGBdiff(x、y)を背景画像RGB
back(x、y)と分離し、前記特徴点抽出演算部
は、前記画像分離演算部で分離された動く対象の画像か
ら、動く対象の画像を構成する画素マトリックスの画像
データの分散、又は色空間での分散が大きい値を示すマ
トリックスの中心を特徴点とし、下記式(2)〜
(6): 【数2】 のいずれかの式にしたがって動く対象の特徴点Tを抽出
することを特徴とする請求項1に記載の動画処理装置。
2. The image separation calculation unit calculates the image signals (R, G, B) from the digital image pickup means by the following formula (1): The input image RGB (x, y) from the moving target image RGB diff (x, y) according to the background image RGB.
back (x, y), and the feature point extraction calculation unit distributes the image data of the pixel matrix forming the image of the movement target from the image of the movement target separated by the image separation calculation unit, or the color. Using the center of the matrix showing a large value of spatial variance as a feature point, the following equation (2)
(6): [Equation 2] The moving image processing apparatus according to claim 1, wherein the feature point T of the target to be moved is extracted according to any one of the expressions.
【請求項3】 マッチング演算部は、特徴点を抽出する
際に分離された動く対象の画像を分割し、その分割ごと
に特徴点を抽出することを特徴とする請求項2に記載の
動画処理装置。
3. The moving image processing according to claim 2, wherein the matching calculation unit divides the image of the moving target that is separated when the feature points are extracted, and extracts the feature points for each division. apparatus.
【請求項4】 マッチング演算部は、特徴点を抽出する
際に、既に抽出された特徴点の回りにその特徴点を中心
として、その特徴点からの距離の増大によって減少する
値を前記分散値から差し引き、式(7) 【数3】 (式中、RGBmax(xcpi、ycpi)は各式
(2)〜(6)のいずれかによる計算値及び特徴点の位
置であり、aは正の定数、Fは増加関数、RGB’
maxは式(7)による処理結果である)により、特徴
点を分散させることを特徴とする請求項2又は3に記載
の動画処理装置。
4. The matching calculation section extracts feature points.
Center the feature points around the already extracted feature points.
As the distance from the feature point increases
The value is subtracted from the dispersion value to obtain the formula (7). [Equation 3] (In the formula, RGBmax(Xcpi, Ycpi) Is each formula
Positions of calculated values and feature points according to any of (2) to (6)
Where a is a positive constant, F is an increasing function, and RGB '
maxIs the processing result by equation (7))
The points are dispersed, according to claim 2 or 3.
Video processing device.
【請求項5】 前記マッチング演算部は、前記抽出され
た特徴点を中心とした領域と最も近い領域を画素情報分
布の類似度、又は画素情報のヒストグラムの類似度から
特徴点の移動先を探し、式(8): 【数4】 (式中、kは水平方向の位置値であり、lは垂直方向の
位置値である)にしたがって特徴点の変化を追跡するこ
とを特徴とする請求項2〜4のいずれか1項に記載の動
画処理装置。
5. The matching calculation unit searches for a destination of a feature point in a region closest to a region centered on the extracted feature point from the similarity of pixel information distribution or the similarity of histogram of pixel information. Equation (8): The change of the feature point is tracked according to (wherein, k is a position value in the horizontal direction and l is a position value in the vertical direction) according to any one of claims 2 to 4. Video processing device.
【請求項6】 デジタル撮像手段により連続的に動画と
して映像され、そして送信された各画像データから動く
対象を解析処理する動画処理方法であって、 (S1) 前記デジタル撮像手段より第1の画像を読み
込み、 (S2) 前記第1の画像の背景画像データをRGB背
景バッファーに記憶させ、(S3) ステップS1及び
ステップS2のプロセスを繰り返した後、動く対象が存
在する場合動く対象を読み込み (S4) 入力したデータをRGBバッファーに取り込
む (S5) 前記第1の画像データから背景画像データを
分離し、 (S6) ステップS5から動く対象の特徴点を決定
し、 (S6) ステップS6で得られた特徴点から特徴点の
位置を計算し、 (S7) 前記デジタル撮像手段より第nの画像を取り
込み、 (S8) ステップS3〜S7を繰返し、そして (S10) 第nの画像の特徴点と第n+1の画像の特
徴点とを比較するステップを含むことを特徴とする動画
の処理方法。
6. A moving image processing method for analyzing a moving object from each image data transmitted and continuously imaged as a moving image by the digital image pickup means, wherein: (S1) the first image from the digital image pickup means. (S2) The background image data of the first image is stored in the RGB background buffer, and (S3) After the processes of steps S1 and S2 are repeated, if a moving object exists, the moving object is read (S4). ) Inputting the input data into the RGB buffer (S5) Separating the background image data from the first image data, (S6) Determining the target feature point to move from step S5, (S6) obtained in step S6 The position of the characteristic point is calculated from the characteristic point, and (S7) the nth image is captured from the digital imaging means, (S8) step S A method of processing a moving image, comprising repeating steps 3 to S7, and (S10) comparing the feature point of the nth image with the feature point of the (n + 1) th image.
【請求項7】 ステップS5において、前記画像信号
(R,G,B)を下記式(1) 【数5】 に従って入力画像RGB(x、y)から前記動く対象の
画像RGBdiff(x、y)を背景画像RGB
back(x、y)と分離することを特徴とする請求項
6に記載の動画処理方法。
7. In step S5, the image signals (R, G, B) are expressed by the following equation (1): According to the input image RGB (x, y), the moving target image RGB diff (x, y) is converted into the background image RGB.
The moving image processing method according to claim 6, wherein the moving image processing method is separated from back (x, y).
【請求項8】 ステップS5において得られた特徴点を
動く対象の画像から、動く対象の画像を構成する画素マ
トリックスの画像データの分散、又は色空間での分散が
大きい値を示すマトリックスの中心を特徴点とし、下記
式(2)〜(6): 【数6】 のいずれかの式にしたがって動く対象の特徴点Tを抽出
することを特徴とする請求項7に記載の動画処理方法。
8. From the image of the moving object that moves the feature points obtained in step S5, the variance of the image data of the pixel matrix forming the image of the moving object or the center of the matrix showing a large variance in the color space is set. As the characteristic points, the following equations (2) to (6): 8. The moving image processing method according to claim 7, wherein the feature point T of the target to be moved is extracted according to any one of the expressions.
【請求項9】 特徴点を抽出する際に、既に抽出された
特徴点の回りにその特徴点を中心として、その特徴点か
らの距離の増大によって減少する値を前記分散値から差
し引き、抽出した特徴点を式(7) 【数7】 (式中、RGBmax(xcpi、ycpi)は各式
(2)〜(6)のいずれかによる計算値及び特徴点の位
置であり、aは正の定数、Fは増加関数、RGB’
maxは式(7)による処理結果である)により特徴点
を分散させる処理を行うことを特徴とする請求項8に記
載の動画処理方法。
9. When extracting a feature point, it has already been extracted.
Is the feature point centered around the feature point?
The value that decreases with increasing distance from
Subtract and extract the extracted feature points using equation (7). [Equation 7] (In the formula, RGBmax(Xcpi, Ycpi) Is each formula
Positions of calculated values and feature points according to any of (2) to (6)
Where a is a positive constant, F is an increasing function, and RGB '
maxIs the processing result by equation (7))
The process according to claim 8, wherein the process of dispersing
How to process the video.
【請求項10】 前記抽出された特徴点を中心とした領
域と最も近い領域を画素情報分布の類似度、又は画素情
報のヒストグラムの類似度から特徴点の移動先を探し、
段階S6で得られた画像を式(8) 【数8】 (式中、kは水平方向の位置値であり、lは垂直方向の
位置値である)に従って特徴点の変化を追跡することを
特徴とする請求項8または請求項9に記載の動画処理方
法。
10. The destination of the feature point is searched for from the similarity of the pixel information distribution or the similarity of the pixel information histogram in the region closest to the region centered on the extracted feature point,
The image obtained in step S6 is represented by equation (8) 10. The moving image processing method according to claim 8 or 9, wherein changes in feature points are tracked according to (wherein, k is a horizontal position value and l is a vertical position value). .
JP2001241919A 2001-08-09 2001-08-09 Device and method for processing animation Pending JP2003058892A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001241919A JP2003058892A (en) 2001-08-09 2001-08-09 Device and method for processing animation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001241919A JP2003058892A (en) 2001-08-09 2001-08-09 Device and method for processing animation

Publications (1)

Publication Number Publication Date
JP2003058892A true JP2003058892A (en) 2003-02-28

Family

ID=19072276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001241919A Pending JP2003058892A (en) 2001-08-09 2001-08-09 Device and method for processing animation

Country Status (1)

Country Link
JP (1) JP2003058892A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005270534A (en) * 2004-03-26 2005-10-06 Sumitomo Rubber Ind Ltd Golf swing measuring method
JP2005270480A (en) * 2004-03-26 2005-10-06 Sumitomo Rubber Ind Ltd Golf swing measuring system
WO2022002082A1 (en) * 2020-07-01 2022-01-06 北京达佳互联信息技术有限公司 Method and apparatus for displaying video special effect, and electronic device and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005270534A (en) * 2004-03-26 2005-10-06 Sumitomo Rubber Ind Ltd Golf swing measuring method
JP2005270480A (en) * 2004-03-26 2005-10-06 Sumitomo Rubber Ind Ltd Golf swing measuring system
WO2022002082A1 (en) * 2020-07-01 2022-01-06 北京达佳互联信息技术有限公司 Method and apparatus for displaying video special effect, and electronic device and storage medium

Similar Documents

Publication Publication Date Title
KR101441333B1 (en) Detecting Apparatus of Human Component AND Method of the same
US20130236057A1 (en) Detecting apparatus of human component and method thereof
JP4373840B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
WO2014001610A1 (en) Method, apparatus and computer program product for human-face features extraction
JP6624878B2 (en) Image processing apparatus, image processing method, and program
US11704934B2 (en) Information processing apparatus, information processing method, and program
JP6362085B2 (en) Image recognition system, image recognition method and program
EP2276234A1 (en) Image processing device, camera, image processing method, and program
CN105744115A (en) Method and system for processing video content
JP2017076288A (en) Information processor, information processing method and program
JP2010140425A (en) Image processing system
CN106530407A (en) Three-dimensional panoramic splicing method, device and system for virtual reality
TWI514172B (en) An animation search device, an animation search method, a recording medium, and a program
JPH10126721A (en) Dynamic image retrieving information generating device
JPH1115979A (en) Face detection and method and device for tracing face
US7019773B1 (en) Video mosaic
JP5776312B2 (en) Image analysis apparatus, image analysis method, image analysis program, and recording medium
JP6862596B1 (en) How to select video analysis equipment, wide area surveillance system and camera
JP2003058892A (en) Device and method for processing animation
JP2000348180A (en) Method and device for tracing moving area and recording medium
US11836217B2 (en) Information processing apparatus, information processing method, and program
CN113688680B (en) Intelligent recognition and tracking system
JPH09265538A (en) Automatic tracking device
EP1612725A1 (en) Image processing method and image processing device
Song et al. Object tracking with dual field-of-view switching in aerial videos

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070531