WO2008047774A1 - Moving image processing device, moving image processing method, and moving image processing program - Google Patents

Moving image processing device, moving image processing method, and moving image processing program Download PDF

Info

Publication number
WO2008047774A1
WO2008047774A1 PCT/JP2007/070132 JP2007070132W WO2008047774A1 WO 2008047774 A1 WO2008047774 A1 WO 2008047774A1 JP 2007070132 W JP2007070132 W JP 2007070132W WO 2008047774 A1 WO2008047774 A1 WO 2008047774A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving object
object region
winner
vector data
pixel
Prior art date
Application number
PCT/JP2007/070132
Other languages
French (fr)
Japanese (ja)
Inventor
Nobuyuki Matsui
Naotake Kamiura
Teijiro Isokawa
Yuzo Ogawa
Akitsugu Ohtsuka
Kenji Iwatani
Original Assignee
Toa Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toa Corporation filed Critical Toa Corporation
Publication of WO2008047774A1 publication Critical patent/WO2008047774A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based

Abstract

A novel moving image processing device for detecting a moving object in a moving image by using a self-organized map. A composite video signal from a camera (20) is converted into color image data by an input converting section (50). The color image data is inputted into a feature extracting section (58) through an image dividing section (52) and a frame setting section (56). The feature extracting section (58) extracts an n-dimensional feature of each pixel constituted of color image data of one frame each time the color image data of the one frame is inputted. The extracted feature data is inputted into a control section (60). The control section (60) constitutes a self-organized map of block unit learning type together with a map (62) and identifies which of the moving object region and the background region each pixel constitutes. According to the identification results, an output converting section (70) generates a processed video signal so processed that only the moving object region is displayed.

Description

明 細 書  Specification
動画像処理装置および動画像処理方法ならびに動画像処理プログラム 技術分野  Moving image processing apparatus, moving image processing method, and moving image processing program
[0001] 本発明は、動画像処理装置および動画像処理方法ならびに動画像処理プログラム に関し、特に自己組織化マップ(Self-Organizing Maps ;以下、 SOMと言う。)を用い て動画像中の移動物体を検知する動画像処理装置および動画像処理方法ならびに 動画像処理プログラムに関する。  TECHNICAL FIELD [0001] The present invention relates to a moving image processing apparatus, a moving image processing method, and a moving image processing program, and in particular, a moving object in a moving image using a self-organizing map (SOM). The present invention relates to a moving image processing apparatus, a moving image processing method, and a moving image processing program.
背景技術  Background art
[0002] SOMは、多次元のデータを 2次元状のマップに写像するものであり、例えば、未知 のデータを分類するのに用いられる。この SOMを発展させた技術として、従来、例え ば、特許文献 1に開示されたものがある。この特許文献 1に開示された従来技術によ れば、マップを構成する複数のセル力 その集合体であるブロック単位で扱われ、つ まり、当該ブロック単位で学習が行なわれる。そして、このブロック単位のベクトルデ ータに基づいて未知データが分類される。これにより、セル単体で学習が行なわれ、 当該セル単体のベクトルデータに基づいて未知データが分類される、という一般の S OMに比べて、より正確な学習および未知データの分類が実現される、とされている  [0002] SOM maps multidimensional data to a two-dimensional map, and is used, for example, to classify unknown data. As a technology developed from this SOM, for example, there is one disclosed in Patent Document 1, for example. According to the conventional technique disclosed in Patent Document 1, a plurality of cell forces constituting a map are handled in units of blocks that are aggregates, that is, learning is performed in units of the blocks. Then, the unknown data is classified based on the block unit vector data. As a result, more accurate learning and classification of unknown data is realized compared to a general SOM in which learning is performed in a single cell and unknown data is classified based on vector data of the single cell. It is said
[0003] さらに、特許文献 2には、主たるマップである未学習マップの他に擬似マップが設け られており、この擬似マップによってベクトルデータから成る学習データに基づく学習 が逐一行なわれ、全ての学習データに基づく学習が行なわれた後、当該擬似マップ による学習結果が未学習マップに一括して反映される技術力 S、開示されている。この 特許文献 2に開示された従来技術によれば、擬似マップによる学習が行なわれて!/、 る最中に、未学習マップを構成する各セルのベクトルデータが変化することはないの で、これら各セルのベクトルデータに基づく未知データの分類が常に正確に行なわ れる、とされている。なお、この特許文献 2に開示された従来技術は、特許文献 1に開 示された従来技術と同様、マップを構成する各セルがブロック単位で扱われる場合に も適用可能である、とされている。 [0004] 特許文献 1:特開 2006— 53842号公報 [0003] Further, in Patent Document 2, a pseudo map is provided in addition to the unlearned map which is the main map, and learning based on learning data consisting of vector data is performed one by one by this pseudo map, and all learning is performed. After the learning based on the data, the technical skill S is disclosed in which the learning results of the pseudo map are collectively reflected in the unlearned map. According to the prior art disclosed in Patent Document 2, the vector data of each cell constituting the unlearned map does not change during the learning by the pseudo map! / The classification of unknown data based on the vector data of each cell is always performed accurately. The conventional technique disclosed in Patent Document 2 is also applicable to the case where each cell constituting the map is handled in units of blocks, as in the conventional technique disclosed in Patent Document 1. Yes. [0004] Patent Document 1: Japanese Unexamined Patent Publication No. 2006-53842
特許文献 2:特開 2006— 79326号公報  Patent Document 2: Japanese Unexamined Patent Publication No. 2006-79326
発明の開示  Disclosure of the invention
発明が解決しょうとする課題  Problems to be solved by the invention
[0005] ところで、一般の SOMにおいては、学習に先立って、各種パラメータの設定が必 要である。しかも、最重要とされる学習係数および近傍の広さというパラメータは、学 習が進行するに連れて単調に減少する。従って、学習中に学習データが変化する場 合や、新たな学習データが追加される場合に、当該学習係数および近傍の広さが適 切に対応することができず、正確な学習が行われない、という不都合が生じる。  [0005] Incidentally, in a general SOM, various parameters must be set prior to learning. Moreover, the most important parameters, the learning coefficient and the size of the neighborhood, decrease monotonically as learning progresses. Therefore, when the learning data changes during learning or when new learning data is added, the learning coefficient and the area of the neighborhood cannot be appropriately handled, and accurate learning is performed. The inconvenience that there is no occurs.
[0006] これに対して、各特許文献 1および 2に開示された従来技術では、各セルがブロック 単位で扱われることによって、上述の学習係数や近傍の広さのような単調減少性の ノ ラメータが排除される。従って、学習中に学習データが変化する場合や、新たな学 習データが追加される場合にも、十分に対応することができる。このことは、時々刻々 と変化する動画像の各フレームの画像データを学習データとして採用しつつ、それ ぞれのフレームにおいて各画素が移動物体領域および非移動物体領域のいずれを 形成しているのかを識別すること、言い換えれば移動物体を検知すること、への応用 力期待されることを、意味する。  [0006] On the other hand, in the conventional techniques disclosed in Patent Documents 1 and 2, each cell is handled in units of blocks, so that no monotonic decrease such as the above-described learning coefficient and the size of the neighborhood. The parameter is eliminated. Therefore, even when the learning data changes during learning or when new learning data is added, it is possible to cope with it sufficiently. This means that image data of each frame of a moving image that changes every moment is adopted as learning data, and whether each pixel forms a moving object region or a non-moving object region in each frame. This means that it is expected to be applied to detecting moving objects, in other words, detecting moving objects.
[0007] そこで、本発明は、 SOMを用いて動画像中の移動物体を適確に検知することがで きる新規な動画像処理装置および動画像処理方法ならびに動画像処理プログラム を提供することを、 目的とする。  Therefore, the present invention provides a novel moving image processing apparatus, moving image processing method, and moving image processing program capable of accurately detecting a moving object in a moving image using SOM. The purpose.
課題を解決するための手段  Means for solving the problem
[0008] この目的を達成するために、本発明による動画像処理装置は、移動物体領域を形 成する画素と非移動物体領域を形成する画素とを含み動画像を構成する 1フレーム 分の画像データが入力され、この画像データの n (n ;複数)個の特徴を当該画素ごと に抽出して n次元の第 1ベクトルデータを生成する抽出手段と、 2次元状に配置され ておりそれぞれ n次元の第 2ベクトルデータを有すると共に移動物体領域および非移 動物体領域のいずれか一方のクラスに属する複数のニューロンを含むマップと、を具 備する。さらに、互いに隣り合う一部のニューロンから成る複数のブロックのうち、それ ぞれを構成する当該ニューロンの第 2ベクトルデータの統計である第 3ベクトルデータ が第 1べ外ルデータに対応する勝者ブロックを、個々の画素ごとに探索する探索手 段と、勝者ブロックを構成するニューロンの属するクラスに基づいてそれぞれの画素 が移動物体領域および非移動物体領域のいずれを形成するのかを識別する識別手 段と、この識別手段による識別結果およびそれぞれの画素の第 1ベクトルデータに基 づいて当該画素に対応する勝者ブロックを構成するニューロンの第 2ベクトルデータ およびクラスを更新する更新手段と、をも具備する。そして、更新手段によって全ての 画素に基づく更新が行なわれた後、動画像を構成する新たな 1フレーム分の画像デ ータが抽出手段に入力される、というものである。 In order to achieve this object, a moving image processing apparatus according to the present invention includes an image for one frame that forms a moving image including pixels that form a moving object region and pixels that form a non-moving object region. Data is input, n (n; plural) features of this image data are extracted for each pixel, and n-dimensional first vector data is generated, and two-dimensionally arranged n And a map including a plurality of neurons having dimensions of second vector data and belonging to either a moving object region or a non-migrating animal region class. Furthermore, among a plurality of blocks composed of some neurons adjacent to each other, it The 3rd vector data, which is the statistics of the 2nd vector data of each neuron that constitutes each, constitutes a search unit that searches each pixel for a winner block corresponding to the 1st outer data, and a winner block An identification means for identifying whether each pixel forms a moving object area or a non-moving object area based on the class to which the neuron belongs, the identification result by this identification means, and the first vector data of each pixel. And updating means for updating the second vector data and class of the neurons constituting the winner block corresponding to the pixel. Then, after updating based on all the pixels is performed by the updating means, image data for one new frame constituting the moving image is input to the extracting means.
即ち、本発明では、動画像の或る 1フレームの画像を構成するそれぞれの画素ごと に、その画素が有するデータの n個の特徴力 抽出手段によって抽出される。そして 、抽出手段は、抽出した n個の特徴を表す n次元の第 1ベクトルデータを、それぞれ の画素ごとに生成する。その一方で、マップを構成する各ニューロンは、それぞれ n 次元の第 2ベクトルデータを有すると共に、移動物体領域および非移動物体領域の いずれかのクラスに属している。そして、探索手段によって、互いに隣り合う一部の二 ユーロンの集合体である複数のブロックが組み立てられると共に、これら複数のブロッ クの中からそれぞれの画素に対応する勝者ブロックが当該画素ごとに探索される。具 体的には、それぞれの画素ごとに、その第 1ベクトルデータに最も対応する第 3ベタト ルデータを有するブロック、より具体的には、当該第 1ベクトルデータとの間のユータリ ッド距離が最も短い第 3ベクトルデータを有するブロック、力 S勝者ブロックとされる。な お、第 3ベクトルデータとは、それぞれのブロックを構成する各ニューロンの第 2ベタト ルデータの統計であり、例えば平均値である。そして、勝者ブロックを構成する各ニュ 一ロンの属するクラスに基づいて、それぞれの画素が移動物体領域および非移動物 体領域のいずれを形成するの力、が、識別手段によって識別される。さらに、この識別 手段による識別結果およびそれぞれの画素の第 1ベクトルデータに基づいて、それ ぞれの画素に対応する勝者ブロックを構成する個々のニューロンの第 2ベクトルデー タおよびクラス力 S、更新手段によって更新され、言わば学習される。そして、この更新 手段によって全ての画素に基づく学習が行われた後、新たな 1フレーム分の画像デ ータが抽出手段に入力される。つまり、フレームが改まるたびに、各画素の識別、お よび識別後の各画素に基づく学習が、繰り返される。 That is, in the present invention, for each pixel constituting an image of a certain frame of a moving image, the data of the pixel is extracted by n characteristic power extracting means. Then, the extraction means generates n-dimensional first vector data representing the extracted n features for each pixel. On the other hand, each neuron constituting the map has n-dimensional second vector data and belongs to either the moving object region or the non-moving object region class. Then, the search means assembles a plurality of blocks that are a collection of a part of two euroons adjacent to each other, and a winner block corresponding to each pixel is searched for each pixel from the plurality of blocks. The Specifically, for each pixel, the block having the third vector data most corresponding to the first vector data, more specifically, the utarid distance to the first vector data is the largest. A block with short third vector data, a power S winner block. The third vector data is statistics of the second vector data of each neuron constituting each block, and is, for example, an average value. Then, based on the class to which each neuron constituting the winner block belongs, the power of forming each of the moving object region and the non-moving object region by each pixel is identified by the identifying unit. Further, based on the identification result by the identification means and the first vector data of each pixel, the second vector data and class force S of each neuron constituting the winner block corresponding to each pixel, the updating means Updated, and so to speak. Then, after learning based on all the pixels is performed by the updating means, a new one-frame image data is stored. Data is input to the extraction means. That is, every time the frame is changed, the identification of each pixel and the learning based on each pixel after the identification are repeated.
[0010] なお、本発明においては、識別手段によって移動物体領域を形成すると識別され た画素のみを表示させる表示手段を、さらに備えてもよい。このようにすれば、動画像 のうち移動物体のみを取り出して、表示させること力 Sできる。 [0010] It should be noted that the present invention may further include display means for displaying only the pixels identified as forming the moving object region by the identifying means. In this way, it is possible to extract only moving objects from the moving image and display them.
[0011] また、探索手段は、互いに同サイズの複数のブロックのうち第 3ベクトルデータが第 1ベクトルデータに対応する勝者候補ブロックをそれぞれの画素ごとに探索する勝者 候補探索手段と、この勝者候補探索手段によって探索された勝者候補ブロック内に おいてよりサイズの小さい別の勝者候補ブロックを順次探索するように当該勝者候補 探索手段による探索を当該画素ごとに繰り返し実行させる繰り返し実行手段と、勝者 候補探索手段による探索が繰り返し実行されることによって探索された複数の勝者候 補ブロックのうち第 3ベクトルデータが最も第 1ベクトルに対応するものを勝者ブロック として当該画素ごとに決定する決定手段と、を含むものであってもよい。この構成によ れば、いわゆる決定木方式によって、互いにサイズの異なる複数の勝者候補ブロック が順次探索される。そして、これら複数の勝者候補ブロックの中から、真の勝者ブロッ クが決定される。このように、勝者ブロックの探索に決定木方式が採用されることによ つて、当該勝者ブロックの探索に要する演算量が低減され、探索手段の負担が軽減 される。このことは、探索手段を含む動画像処理装置全体の処理速度を向上させる のに、極めて有効である。  [0011] In addition, the search means searches for a winner candidate block whose third vector data corresponds to the first vector data among a plurality of blocks of the same size for each pixel, and this winner candidate Repeating execution means for repeatedly executing the search by the winner candidate searching means for each pixel so as to sequentially search for another winner candidate block having a smaller size in the winner candidate block searched by the searching means, and a winner candidate Determining means for determining, for each pixel, a winner block that has the third vector data corresponding to the first vector among a plurality of winner candidate blocks searched by repeatedly performing a search by the search means; It may be included. According to this configuration, a plurality of winner candidate blocks having different sizes are sequentially searched by a so-called decision tree method. Then, a true winner block is determined from the plurality of winner candidate blocks. In this way, the adoption of the decision tree method for searching for the winner block reduces the amount of calculation required for searching for the winner block and reduces the burden on the search means. This is extremely effective for improving the processing speed of the entire moving image processing apparatus including the search means.
[0012] さらに、更新手段は、識別手段によって全ての画素について識別が行なわれた後 に、一括して、言わばバッチ的に、当該全ての画素に基づく更新を行うものとしてもよ い。このようにすれば、更新手段による更新に要する演算量が低減され、当該更新手 段の負担が軽減される。このこともまた、更新手段を含む動画像処理装置全体の処 理速度を向上させるのに、極めて有効である。  [0012] Further, the updating unit may perform updating based on all the pixels in a batch, that is, in batch, after all the pixels are identified by the identifying unit. In this way, the amount of computation required for updating by the updating means is reduced, and the burden on the updating means is reduced. This is also extremely effective in improving the processing speed of the entire moving image processing apparatus including the updating means.
[0013] 本発明における画像データは、色情報を含むものであってもよい。この場合、抽出 手段は、当該色情報を画像データの特徴として抽出するのが、望ましい。なお、ここ で言う色情報とは、一般に知られている RGBフォーマットに従う色空間情報であって もよいし、 YUVフォーマットに従う色空間情報であってもよい。また、印刷用の CMY Kフォーマットに従う色空間情報であってもよい。 The image data in the present invention may include color information. In this case, it is desirable that the extraction unit extracts the color information as a feature of the image data. Note that the color information mentioned here may be color space information according to a generally known RGB format, or may be color space information according to a YUV format. CMY for printing Color space information according to the K format may be used.
[0014] さらに、それぞれの画素についての特徴は、当該画素の近傍にある近傍画素、例 えば周辺画素、の当該特徴をも含むものであってもよい。  [0014] Furthermore, the feature of each pixel may include the feature of neighboring pixels in the vicinity of the pixel, for example, peripheral pixels.
[0015] また、抽出手段は、互いに隣り合う複数の画素を 1画素として取り扱うものであっても よい。このようにすれば、抽出手段を含む動画像処理装置全体の処理の負担が軽減 され、当該動画像処理装置全体の処理速度を向上させるのに、極めて有効である。  [0015] Further, the extracting means may handle a plurality of adjacent pixels as one pixel. In this way, the processing load of the entire moving image processing apparatus including the extracting means is reduced, and it is extremely effective in improving the processing speed of the entire moving image processing apparatus.
[0016] そして、移動物体領域と一部の非移動物体領域とを含む枠を設定する枠設定手段 を、さらに備えると共に、抽出手段は、当該枠内にある画素のみを取り扱うものとして もよい。このようにすることによつても、抽出手段を含む動画像処理装置全体の処理 の負担が軽減され、当該動画像処理装置全体の処理速度を向上させるのに、極め て有効である。また、非移動物体領域 (特に枠外の非移動物体領域)を形成する画 素が移動物体領域を形成するものであると誤って識別される可能性が減り、そのよう な画素がノイズとなって影響するのが抑制される。  [0016] The image processing apparatus may further include a frame setting unit that sets a frame including the moving object region and a part of the non-moving object region, and the extraction unit may handle only the pixels in the frame. This also reduces the processing load on the entire moving image processing apparatus including the extracting means, and is extremely effective in improving the processing speed of the entire moving image processing apparatus. In addition, the possibility that pixels that form non-moving object areas (especially non-moving object areas outside the frame) will be mistakenly identified as moving object areas is reduced, and such pixels become noise. Influence is suppressed.
[0017] 本発明による動画像処理方法は、移動物体領域を形成する画素と非移動物体領 域を形成する画素とを含み動画像を構成する 1フレーム分の画像データの η (η ;複数 Μ固の特徴を当該画素ごとに抽出して η次元の第 1ベクトルデータを生成する抽出過 程と、それぞれ η次元の第 2ベクトルデータを有すると共に移動物体領域および非移 動物体領域のいずれか一方のクラスに属する複数のニューロンが 2次元状に配置さ れたマップを形成するマップ形成過程と、を具備する。さらに、互いに隣り合う一部の ニューロンから成る複数のブロックのうち、それぞれを構成する当該ニューロンの第 2 ベクトルデータの統計である第 3ベクトルデータが第 1ベクトルデータに対応する勝者 ブロックを、個々の画素ごとに探索する探索過程と、勝者ブロックを構成するニューロ ンの属するクラスに基づいてそれぞれの画素が移動物体領域および非移動物体領 域の!/、ずれを形成するのかを識別する識別過程と、この識別過程における識別結果 およびそれぞれの画素の第 1ベクトルデータに基づいて当該画素に対応する勝者ブ ロックを構成するニューロンの第 2ベクトルデータおよびクラスを更新する更新過程と 、をも具備する。そして、更新過程において全ての画素に基づく更新が行なわれた後 、新たな 1フレーム分の画像データが抽出過程における処理の対象とされる、というも のである。 [0017] A moving image processing method according to the present invention includes η (η; plural Μ) of image data for one frame constituting a moving image including pixels that form a moving object region and pixels that form a non-moving object region. An extraction process for extracting η-dimensional first vector data by extracting a solid feature for each pixel, and either a moving object region or a non-moving animal region, each having η-dimensional second vector data Forming a map in which a plurality of neurons belonging to a certain class form a two-dimensionally arranged map, and constituting each of a plurality of blocks composed of a part of adjacent neurons. A search process for searching each pixel for a winner block whose third vector data, which is statistics of the second vector data of the neuron, corresponds to the first vector data, and a winner block Based on the class to which the neuron that constitutes the pack belongs, the identification process for identifying whether each pixel forms a! /, Shift between the moving object area and the non-moving object area, and the identification result in this identification process and each And updating the second vector data and class of the neurons constituting the winner block corresponding to the pixel based on the first vector data of the pixel of the pixel. After the update based on this, the image data for one new frame will be processed in the extraction process. It is.
[0018] 本発明による動画像処理プログラムは、移動物体領域を形成する画素と非移動物 体領域を形成する画素とを含み動画像を構成する 1フレーム分の画像データの n (n ; 複数)個の特徴を当該画素ごとに抽出して n次元の第 1ベクトルデータを生成する抽 出手順と、それぞれ n次元の第 2ベクトルデータを有すると共に移動物体領域および 非移動物体領域のいずれか一方のクラスに属する複数のニューロンが 2次元状に配 置されたマップを形成するマップ形成手順と、を具備する。さらに、互いに隣り合う一 部のニューロンから成る複数のブロックのうち、それぞれを構成する当該ニューロンの 第 2ベクトルデータの統計である第 3ベクトルデータが第 1ベクトルデータに対応する 勝者ブロックを、個々の画素ごとに探索する探索手順と、勝者ブロックを構成するニュ 一ロンの属するクラスに基づいてそれぞれの画素が移動物体領域および非移動物 体領域のいずれを形成するの力、を識別する識別手順と、この識別手順による識別結 果およびそれぞれの画素の第 1ベクトルデータに基づいて当該画素に対応する勝者 ブロックを構成するニューロンの第 2ベクトルデータおよびクラスを更新する更新手順 と、を具備する。そして、これら抽出手順、マップ形成手順、探索手順、識別手順およ び更新手順を、コンピュータに実行させると共に、当該更新手順によって全ての画素 に基づく更新が行なわれた後、新たな 1フレーム分の画像データが抽出手順による 処理の対象とされる、というものである。  [0018] A moving image processing program according to the present invention includes n (n; plural) pieces of image data for one frame constituting a moving image including pixels forming a moving object region and pixels forming a non-moving object region. An extraction procedure for extracting n features for each pixel and generating n-dimensional first vector data, each having n-dimensional second vector data, and either moving object region or non-moving object region A map forming procedure for forming a map in which a plurality of neurons belonging to the class are arranged in a two-dimensional manner. In addition, among the plurality of blocks composed of a part of neurons adjacent to each other, the third vector data, which is the statistics of the second vector data of each neuron constituting each, is assigned to the winner block corresponding to the first vector data. A search procedure for searching for each pixel, and an identification procedure for identifying the power of each pixel forming a moving object region or a non-moving object region based on the class to which the neuron constituting the winner block belongs And an update procedure for updating the second vector data and the class of the neurons constituting the winner block corresponding to the pixel based on the discrimination result by the discrimination procedure and the first vector data of each pixel. Then, the extraction procedure, map formation procedure, search procedure, identification procedure, and update procedure are executed by the computer, and after updating based on all pixels by the update procedure, a new one frame is obtained. The image data is the target of processing by the extraction procedure.
図面の簡単な説明  Brief Description of Drawings
[0019] [図 1]本発明の一実施形態の概略構成を示す図である。  FIG. 1 is a diagram showing a schematic configuration of an embodiment of the present invention.
[図 2]同実施形態における入力画像と出力画像との関係を示す図解図である。  FIG. 2 is an illustrative view showing a relationship between an input image and an output image in the same embodiment.
[図 3]図 1における動画像処理装置の詳細な構成を示すブロック図である。  3 is a block diagram showing a detailed configuration of the moving image processing apparatus in FIG. 1.
[図 4]図 3における画像分割部による処理の内容を説明するための図解図である。  4 is an illustrative view for explaining the contents of processing by the image dividing unit in FIG. 3.
[図 5]図 3における枠設定部部による処理の内容を説明するための図解図である。  FIG. 5 is an illustrative view for explaining the contents of processing by the frame setting unit in FIG. 3;
[図 6]図 3におけるマップの構成を概念的に示す図解図である。  FIG. 6 is an illustrative view conceptually showing the structure of the map in FIG. 3.
[図 7]図 3における制御部による処理の内容を説明するための図解図である。  FIG. 7 is an illustrative view for illustrating the contents of processing by the control unit in FIG. 3.
[図 8]図 3におけるマップがクラス分けされた状態を概念的に示す図解図である。  FIG. 8 is an illustrative view conceptually showing a state where the map in FIG. 3 is classified.
[図 9]図 5に対する出力画像を示す図解図である。 [図 10]同実施形態における実際の入力画像と出力画像とを示す図解図である。 FIG. 9 is an illustrative view showing an output image corresponding to FIG. 5. FIG. 10 is an illustrative view showing an actual input image and output image in the same embodiment.
[図 11]図 3における制御部が実行する物体検知タスクの概略を示すフローチャートで ある。  FIG. 11 is a flowchart showing an outline of an object detection task executed by the control unit in FIG. 3.
[図 12]図 11に続くフローチャートである。  FIG. 12 is a flowchart following FIG. 11.
[図 13]図 11における勝者ブロック探索処理の詳細を示すフローチャートである。  FIG. 13 is a flowchart showing details of a winner block search process in FIG. 11.
[図 14]図 10における更新準備処理の詳細を示すフローチャートである。  FIG. 14 is a flowchart showing details of the update preparation process in FIG.
発明を実施するための最良の形態  BEST MODE FOR CARRYING OUT THE INVENTION
[0020] 本発明の一実施形態について、図 1〜図 14を参照して説明する。 One embodiment of the present invention will be described with reference to FIGS.
[0021] 図 1に示すように、本実施形態に係る動画像処理システム 10は、カラービデオカメ ラ(以下、単にカメラと言う。)20と、動画像処理装置 30と、モニタ 40と、を備えている As shown in FIG. 1, a moving image processing system 10 according to the present embodiment includes a color video camera (hereinafter simply referred to as a camera) 20, a moving image processing device 30, and a monitor 40. Have
[0022] カメラ 20は、いわゆる固定式のものであり、図示しない固定具によつて適当な場所 に固定されている。このカメラ 20に、レンズ 22を介して被写界の光学像が入射される と、当該カメラ 20は、入射された光学像をアナログ電気信号であるコンポジットビデオ 信号に変換し、出力する。カメラ 20から出力されたコンポジットビデオ信号は、動画 像処理装置 30に入力される。動画像処理装置 30は、入力されたコンポジットビデオ 信号に対して、次のような処理を施す。 [0022] The camera 20 is a so-called fixed type, and is fixed at an appropriate place by a fixing tool (not shown). When an optical image of the object scene is incident on the camera 20 through the lens 22, the camera 20 converts the incident optical image into a composite video signal that is an analog electric signal and outputs the composite video signal. The composite video signal output from the camera 20 is input to the moving image processing device 30. The moving image processing device 30 performs the following processing on the input composite video signal.
[0023] 例えば、コンポジットビデオ信号に従う入力画像が、図 2 (a)に示すように、移動物 体領域 100と、非移動物体領域、言わば背景領域 102と、を含む、と仮定する。動画 像処理装置 30は、このうちの移動物体領域 100のみを取り出し、この移動物体領域 100のみを取り出した画像を表示させるように処理した処理後ビデオ信号を生成する 。この処理後ビデオ信号は、モニタ 40に入力され、これにより、モニタ 40の表示画面 に、図 2 (b)に示すような移動物体領域 100のみの画像が映し出される。  [0023] For example, it is assumed that an input image according to a composite video signal includes a moving object region 100 and a non-moving object region, that is, a background region 102, as shown in FIG. The moving image processing device 30 takes out only the moving object region 100 out of these, and generates a processed video signal processed so as to display an image obtained by taking out only the moving object region 100. This processed video signal is input to the monitor 40, whereby an image of only the moving object region 100 as shown in FIG. 2B is displayed on the display screen of the monitor 40.
[0024] このように、動画像処理装置 30は、カメラ 20から与えられる動画像中の移動物体領 域 110を自動的に検知して、これをモニタ 40に表示させる、という機能を奏する。この 機能を実現するために、動画像処理装置 30は、例えば図 3に示すような構成とされ ている。  As described above, the moving image processing device 30 has a function of automatically detecting the moving object region 110 in the moving image given from the camera 20 and displaying the moving object region 110 on the monitor 40. In order to realize this function, the moving image processing apparatus 30 is configured as shown in FIG. 3, for example.
[0025] 同図に示すように、動画像処理装置 30は、カメラ 20からのコンポジットビデオ信号 が入力される入力変換回路 50を、有している。この入力変換回路 50は、入力された コンポジットビデオ信号を、 YUVフォーマットに従うディジタル映像信号、言わばカラ 一画像データ、に変換する。 [0025] As shown in the figure, the moving image processing device 30 includes a composite video signal from the camera 20. Is input. The input conversion circuit 50 converts the input composite video signal into a digital video signal conforming to the YUV format, that is, color image data.
[0026] 入力変換回路 50によって変換されたカラー画像データは、 1フレーム分ずつ順次、 画像分割部 52に入力される。画像分割部 52は、この 1フレーム分のカラー画像デー タが入力されるごとに、当該カラー画像データによって構成される入力画像を、水平 方向および垂直方向のそれぞれに複数画素ずつ、例えば a (a; 2以上の整数)画素 ずつ、分割する。具体的には、図 4 (a)に示すように、入力画像の水平方向の画素数 が Hであり、垂直方向の画素数が Vであるとき、画像分割部 52は、図 4 (b)に示すよう に、当該入力画像を水平方向に H' ( = H/a)個、垂直方向に V' (=V/a)個、の 合計 H' XV'個の小区画 110, 110,…に分割する。なお、本実施形態においては 、 H XV力 640 X 480であり、 a X a力 4 X 4であり、よって、 H' X V, ίま 160 X 120であ る。つまり、入力画像は、合計 19200 ( = 160 Χ 120Μ固の/ J、区画 110, 110,…に 分割される。 The color image data converted by the input conversion circuit 50 is sequentially input to the image dividing unit 52 for each frame. Each time this one-frame color image data is input, the image dividing unit 52 converts an input image constituted by the color image data into a plurality of pixels in each of the horizontal and vertical directions, for example, a (a ; Integer of 2 or more) Divide by pixel. Specifically, as shown in FIG. 4 (a), when the number of pixels in the horizontal direction of the input image is H and the number of pixels in the vertical direction is V, the image dividing unit 52 As shown in Fig. 4, the input image is H '(= H / a) in the horizontal direction and V' (= V / a) in the vertical direction, for a total of H 'XV' subsections 110, 110, ... Divide into In the present embodiment, the H XV force is 640 X 480, the a X a force is 4 X 4, and thus H 'X V, ί 160 X 120. That is, the input image is divided into a total of 19200 (= 160 160120Μ / J, sections 110, 110, ...).
[0027] この画像分割部 52による分割処理後のカラー画像データは、 1フレーム分ずつ順 次、初期検知部 54および枠設定部 56のそれぞれに入力される。このうち、初期検知 部 54は、移動物体領域 100が現れたときに最初にこれを検知するためのものであり 、一般に知られているフレーム差分法等の画像処理法によって当該移動物体領域 1 00を検知する。そして、この初期検知部 54によって移動物体領域 100が検知される と、当該移動物体領域 100を表す画素、厳密には上述の小区画 110, 110,…、の 画像上の位置 (座標)データが、枠設定部 56に入力される。  The color image data after the division processing by the image dividing unit 52 is sequentially input to the initial detection unit 54 and the frame setting unit 56 one frame at a time. Among these, the initial detection unit 54 detects the moving object region 100 first when it appears. The moving object region 100 is detected by an image processing method such as a generally known frame difference method. Is detected. When the moving object area 100 is detected by the initial detection unit 54, the position (coordinate) data on the image of the pixel representing the moving object area 100, strictly speaking, the small sections 110, 110,. Is input to the frame setting unit 56.
[0028] 枠設定部 56は、初期検知部 54から上述の位置データが入力されると、これに基づ いて、図 5に示すように、その時点でのフレームの画像において、移動物体領域 100 を囲むように矩形枠 120を設定する。そして、この矩形枠 120内にある各小区画 110 , 110,…それぞれの位置データと、当該各小区画 110, 110,…それぞれを構成す る各画素それぞれの YUVデータと力 特徴抽出部 58に入力される。  [0028] When the above-described position data is input from the initial detection unit 54, the frame setting unit 56, based on this, as shown in FIG. 5, in the frame image at that time, the moving object region 100 A rectangular frame 120 is set to enclose. The position data of each of the small sections 110, 110,... In the rectangular frame 120, the YUV data of each pixel constituting each of the small sections 110, 110,. Entered.
[0029] 特徴抽出部 58は、矩形枠 120内にある各小区画 110, 110,…それぞれが持つ総 合的な YUVデータの特徴を抽出するためのものである。具体的には、特徴抽出部 5 8は、矩形枠 120内にあるそれぞれの小区画 110ごとに、当該小区画 110を構成す る合計 16 ( = a X a)個の画素それぞれの Yデータ, Uデータおよび Vデータを抽出し て、これら Yデータ, Uデータおよび Vデータそれぞれの平均値および分散値を求め る。これにより、それぞれの小区画 110ごとに、 Yデータ, Uデータおよび Vデータそ れぞれの平均値および分散値という合計 6種類の特徴が抽出される。さらに、特徴抽 出部 58は、矩形枠 120内にあるそれぞれの小区画 110と、これを取り囲む 8個の周 辺/ J、区画 110, 110,…と、の合計 9固の/ J、区画 110, 110,…を一纏めにし、これら 合計 9個の小区画 110, 110, …を構成する各画素それぞれの Yデータ, Uデータお よび Vデータを抽出する。そして、抽出した Yデータ, Uデータおよび Vデータそれぞ れの平均値および分散値を求め、これら Yデータ, Uデータおよび Vデータそれぞれ の平均 および分散直と!/、う合計 6種類の特徴をも、中心の小区画(言わば注目小 区画) 110の特徴として付加する。つまり、それぞれの小区画 110ごとに、全部で 12 種類の特徴が抽出される。そして、特徴抽出部 58は、これら 12種類の特徴を表す第 1ベクトルデータとしての 12次元の特徴データ X[t, g] = {x [t, g] , x [t, g] , · · · , x [0029] The feature extraction unit 58 is for extracting the features of the overall YUV data of each of the small sections 110, 110, ... in the rectangular frame 120. Specifically, the feature extraction unit 5 For each sub-section 110 in the rectangular frame 120, Y data, U data, and V data for each of the 16 (= a X a) pixels in total constituting the sub-section 110 are extracted. Then, the average value and variance value of these Y data, U data, and V data are obtained. As a result, a total of six types of features, that is, the average value and the variance value of each of the Y data, U data, and V data, are extracted for each subsection 110. In addition, the feature extraction unit 58 has a total of 9 solid / J sections, each of the small sections 110 in the rectangular frame 120 and the eight perimeters / J, 110, 110,. 110, 110,... Are grouped together, and Y data, U data, and V data for each pixel constituting a total of nine subsections 110, 110,. Then, the average value and variance value of each of the extracted Y data, U data, and V data are obtained, and the average and variance values of each of these Y data, U data, and V data are obtained! Is also added as a feature of the central sub-section (in other words, the sub-section of interest) 110. In other words, a total of 12 types of features are extracted for each subsection 110. Then, the feature extraction unit 58 uses 12-dimensional feature data X [t, g] = {x [t, g], x [t, g], ··· as first vector data representing these 12 types of features. ·, X
1 2 i 1 2 i
[t, g] , · · · , xn[t, g] } (tは、フレーム番号 (離散時間)を表すインデックスであり、 gは[t, g], · · ·, x n [t, g]} (t is an index representing the frame number (discrete time), g is
、小区画 110の番号 (座標)を表すインデックスであり、 iは、特徴の番号(次元)を表 すインデックスであり、当該 iの最大値 nは、 n= 12である。)を生成する。この特徴デ ータ X[t, g]は、制御部 60に入力される。 , I is an index representing the feature number (dimension), and the maximum value n of i is n = 12. ) Is generated. This feature data X [t, g] is input to the control unit 60.
制御部 60は、マップ 62と共に、言わばブロック単位学習型の SOMを実現するため のものである。具体的には、制御部 60は、特徴抽出部 58から入力されたそれぞれの 小区画 110についての特徴データ X[t, g]をマップ 62に印加することで、当該小区 画 110が移動物体領域 100および背景領域 102のいずれを形成するのかを識別す る。併せて、制御部 60は、この識別後の特徴データを学習データとしてマップ 62の 学習を行い、詳しくは後述する参照ベクトル wjを更新すると共に、クラス分けを行う。 なお、上述した初期検知部 54によって移動物体領域 100が検知された当初の第 1フ レームについては、マップ 62は言わば未学習の状態にあるので、当該初期検知部 5 4から得られる位置データに基づいて、それぞれの小区画 110が移動物体領域 100 および背景領域 102のいずれを形成するのかが識別される。 [0031] より具体的に説明すると、マップ 62は、図 6に示すように、 2次元状に配置された m X m個のニューロン 64, 64,…を、有する。なお、この実施形態においては、 m= 6と されており、つまり 36 ( = 6 X 6)個のニューロン 64, 64,…が設けられている。そして 、各ニューロン 64, 64,…には、それぞれ個別の第 2ベクトルデータとしての参照べ タトル wj (jは、後述するブロック 66内におけるそれぞれのニューロン 64の番号を表す インデックスである。)が、付与されている。 The control unit 60, together with the map 62, is for realizing a block-unit learning type SOM. Specifically, the control unit 60 applies the feature data X [t, g] for each small block 110 input from the feature extraction unit 58 to the map 62, so that the small block 110 is moved to the moving object region. Identify whether 100 or background region 102 is formed. At the same time, the control unit 60 learns the map 62 using the feature data after the identification as learning data, updates the reference vector w j described later in detail, and performs classification. Note that the map 62 is in an unlearned state with respect to the initial first frame in which the moving object region 100 is detected by the initial detection unit 54 described above, so the position data obtained from the initial detection unit 54 is not included. Based on this, it is identified whether each subsection 110 forms the moving object area 100 or the background area 102. More specifically, as shown in FIG. 6, the map 62 has m × m neurons 64, 64,... Arranged two-dimensionally. In this embodiment, m = 6, that is, 36 (= 6 × 6) neurons 64, 64,... Are provided. Each neuron 64, 64,... Has a reference vector w j (j is an index representing the number of each neuron 64 in block 66 described later) as individual second vector data. , Has been granted.
[0032] 一方、制御部 60は、マップ 62上において、 2 X 2個以上のニューロン 64, 64,…力、 ら成る正方形のブロック 66を種々形成する。そして、これらのブロック 66, 66, …のう ち、それぞれが持つ第 3ベクトルデータとしてのブロック参照ベクトル B= {b , b ,…  On the other hand, the control unit 60 forms various square blocks 66 composed of 2 × 2 or more neurons 64, 64,. Of these blocks 66, 66,..., The block reference vector B = (b, b,.
1 2 1 2
, b , · · · , b }が、上述の特徴データ X[t, g]に最も対応するもの、詳しくはこれら両者 間のユークリッド距離 D= I x[t, g] -B Iが最も短いもの、を探索して、これを勝者 ブロックとする。なお、ここで言うブロック参照ベクトル Bは、それぞれのブロック 66を 構成する各ニューロン 64, 64, …の参照ベクトル wjの統計であり、例えば平均値で ある。詳しくは、当該ブロック参照ベクトル Bの任意 (i次)の要素 bは、次の数 1で表さ れる。 , b,..., b} corresponds most to the above-described feature data X [t, g], more specifically, the Euclidean distance D = I x [ t , g ] -BI is the shortest between the two , And make this a winner block. The block reference vector B mentioned here is a statistic of the reference vector w j of each neuron 64, 64,... Constituting each block 66, and is, for example, an average value. Specifically, an arbitrary (i-th) element b of the block reference vector B is expressed by the following equation (1).
[0033] [数 1]
Figure imgf000012_0001
[0033] [Equation 1]
Figure imgf000012_0001
[0034] ここで、 αは、ブロック 66を構成するニューロン 64の総数であり、言い換えれば当 該ブロック 66内におけるュユーロン 64の番号 jの最大値である。  Here, α is the total number of neurons 64 constituting the block 66, in other words, the maximum value of the number j of the Euron 64 in the block 66.
[0035] ただし、マップ 62上で考えられるブロック 66の総数 Tは、次の数 2で表されるように 膨大であり、マップ 62のサイズ m X mが大きくなるほど指数的に増大する。従って、こ の膨大な数のブロック 66, 66, …の全てについてユークリッド距離 Dを求め、ひいて は勝者ブロックを求めるのは、制御部 60にとつてかなりの負担になる。  However, the total number T of blocks 66 that can be considered on the map 62 is enormous as represented by the following equation 2, and increases exponentially as the size m X m of the map 62 increases. Therefore, obtaining the Euclidean distance D for all of this huge number of blocks 66, 66,..., And thus the winner block, is a considerable burden on the control unit 60.
[0036] [数 2]  [0036] [Equation 2]
T m(m - l)(2m - l) T m (m-l) (2m-l)
6  6
[0037] そこで、本実施形態における制御部 60は、図 7に示すような決定木方式に基づい て、勝者ブロックを探索する。まず、同図(a)に示すマップ 62上の全領域 m X mのう ち、同図(b)に示すように、これよりもサイズが 1つ小さい [m— l] X [m— 1]サイズの 全ての(4つの)ブロック 66, 66, …を選択する。そして、選択された 4つのブロック 66 , 66,…のうち、それぞれのブロック参照ベクトル B= {b , b , · · · , b , · · · , b }と特徴 データ X[t, g]との間のユークリッド距離 D = I X[t, g] -B Iが最も短いものを探索 して、これを勝者候補ブロックとする。なお、同図(b)は、右から 2番目の斜線模様 68 で示されるブロック 66が勝者候補ブロックである状態を表す。 Therefore, the control unit 60 in the present embodiment is based on a decision tree method as shown in FIG. And search for the winner block. First, out of the entire region m X m on the map 62 shown in Fig. (A), the size is one smaller than this [m- l] X [m- 1], as shown in Fig. (B). ] Select all (four) blocks 66, 66,… of size. And among the four selected blocks 66, 66,..., Each block reference vector B = {b, b,..., B, b, b} and feature data X [t, g] Search for the shortest Euclidean distance D = IX [t, g] -BI and make this the winner candidate block. FIG. 7B shows a state in which the block 66 indicated by the second diagonal pattern 68 from the right is a winner candidate block.
[0038] このようにして [m—l] X [m—l]サイズの勝者候補ブロック 68が決まると、制御部 60は、図 7 (c)に示すように、当該勝者候補ブロック 68内において、これよりもさらに サイズが 1つ小さい [m— 2] X [m— 2]サイズの全てのブロック 66, 66,…を選択す る。そして、上述と同じ要領で、これらのブロック 66, 66,…の中力、ら [m— 2] X [m— 2]サイズの勝者候補ブロック 68を探索する。これと同様にして、制御部 60は、同図( d)に示すように、 [m- 2] X [m— 2]サイズの勝者候補ブロック 68内において、さら にサイズが 1つ小さい [m— 3] X [m— 3]サイズの勝者候補ブロック 68を探索する。こ の勝者候補ブロック 68の探索は、同図(e)に示すように、 2 X 2 (本実施形態では [m -4] X [m— 4] )サイズの勝者候補ブロック 68が探索されるまで、続けられる。  [0038] When the winner candidate block 68 of [m-l] X [m-l] size is determined in this way, the control unit 60, in the winner candidate block 68, as shown in FIG. , Select all the blocks 66, 66, ... that are [m-2] X [m-2] size smaller by one. Then, in the same manner as described above, the middle candidate of these blocks 66, 66,... Is searched for a winner candidate block 68 of [m-2] X [m-2] size. Similarly, as shown in FIG. 4D, the control unit 60 further reduces the size by one in the [m-2] X [m-2] size winner candidate block 68 [m-2] — Search for winner candidate block 68 of size 3] X [m—3]. In this search for the winner candidate block 68, as shown in FIG. 5E, a winner candidate block 68 of size 2 X 2 (in this embodiment, [m-4] X [m-4]) is searched. Until you continue.
[0039] [m— 1] X [m— 1]サイズ〜 2 X 2サイズまでの各サイズの勝者候補ブロック 68, 68 , …が決まると、制御部 60は、これらの勝者候補ブロック 68, 68, …の中から最も上 述したユークリッド距離 D = I X[t, g] -B Iの小さいものを選出する。そして、選出 した勝者候補ブロック 68を、真の勝者ブロックとして決定する。  [0039] When the winner candidate blocks 68, 68,... Of each size from [m—1] X [m—1] size to 2 X 2 sizes are determined, the control unit 60 determines these winner candidate blocks 68, 68. Select the one with the smallest Euclidean distance D = IX [t, g] -BI from the above. Then, the selected winner candidate block 68 is determined as a true winner block.
[0040] このような決定木方式に基づいて勝者ブロックを探索することで、ユークリッド距離 D を求める対象となるブロック 66の総数 Tは、上述の数 2で表される値よりも激減し、次 の数 3で表される値となる。  [0040] By searching for the winner block based on such a decision tree method, the total number T of blocks 66 for which the Euclidean distance D is obtained is drastically reduced from the value represented by the above-mentioned formula 2, and This is the value represented by number 3.
[0041] [数 3]  [0041] [Equation 3]
Γ = 4(w - 2) これにより、勝者ブロックを探索する際の制御部 60の負担が大きく軽減され、制御 部 60を含む動画像処理装置 30の処理速度の向上が図られる。 [0043] 制御部 60は、それぞれの小区画 110について、勝者ブロックの探索を行う。そして 、それぞれの小区画 110について勝者ブロックが決まるごとに、次の数 4に基づいて 、当該勝者ブロックを構成するそれぞれのニューロン 64の参照ベクトル wjと当該小 区画 110の特徴データ X[t, g]との偏差の累積量 wd^t, g]を、算出する。 Γ = 4 (w−2) Thereby, the burden on the control unit 60 when searching for the winner block is greatly reduced, and the processing speed of the moving image processing apparatus 30 including the control unit 60 is improved. The control unit 60 searches for a winner block for each of the small sections 110. Then, each time the winner block is determined for each sub-section 110, the reference vector w j of each neuron 64 constituting the winner block and the feature data X [t, The cumulative amount of deviation wd ^ t, g] from g] is calculated.
[0044] [数 4コ wdl i [t, g) = wdi i [t, g - l] + ^^ [0044] [Numeric 4 wd l i [t, g) = wd i i [t, g-l] + ^^
a  a
[0045] 併せて、制御部 60は、次の数 5に基づいて、偏差累積率 wr j [t, g]を算出する。 At the same time, the control unit 60 calculates the deviation accumulation rate wr j [t, g] based on the following formula 5.
[0046] [数 5] w , ] = [^一 1] +— [0046] [Equation 5] w,] = [^ 1 1] + —
a  a
[0047] 全ての小区画 110, 110,…について勝者ブロックを決定すると共に、偏差累積量 wd j [t, g]および偏差累積率 wrj [t, g]を算出すると、制御部 60は、次の数 6に基づ V、て、それぞれのニューロン 64の参照ベクトル wjを更新する。 [0047] When the winner block is determined for all of the small sections 110, 110, ... and the deviation accumulation amount wd j [t, g] and the deviation accumulation rate wr j [t, g] are calculated, the control unit 60 The reference vector w j of each neuron 64 is updated based on the following equation (6).
[0048] [数 6] w. (new) =  [0048] [Equation 6] w. (New) =
1 wr' [t, G]  1 wr '[t, G]
[0049] なお、上述の如ぐ全ての小区画 110, 110,…について勝者ブロックを決定すると 共に、偏差累積量 wdj [t, g]および偏差累積率 wrj [t, g]を算出する、という制御部 60による一連の処理を、本実施形態では、エポックと言う。つまり、それぞれのニュー ロン 64の参照ベクトル wjは、 1回のエポックが終了するごとに、一括して、言わばバッ チ的に、更新される。制御部 60は、このエポックを、 1フレームにっき複数回、例えば 30回、繰り返す。そして、この 30回にわたるエポックの実行後、次のフレームについ ても同様に、 30回にわたるエポックを繰り返す。 [0049] It should be noted that the winner block is determined for all the small sections 110, 110, ... as described above, and the deviation accumulation amount wd j [t, g] and the deviation accumulation rate wr j [t, g] are calculated. In the present embodiment, a series of processing by the control unit 60 is called an epoch. In other words, the reference vector w j of each neuron 64 is updated collectively, that is, in a batch, every time one epoch is completed. The control unit 60 repeats this epoch several times in one frame, for example, 30 times. Then, after the 30 epochs are executed, the epoch is repeated 30 times in the same manner for the next frame.
[0050] さて、制御部 60は、上述したように、第 1フレームについては、初期検知部 54から 与えられる位置データに基づいて、それぞれの小区画 110が移動物体領域 100およ び背景領域 102のいずれを形成するの力、を識別する力 S、第 2フレーム以降について は、マップ 62を用いて当該識別を行う。このため、制御部 60は、第 1フレームについ ての識別後、その識別結果に基づいて、マップ 62上の各ニューロン 64, 64, …のク ラス分けを行う。 [0050] Now, as described above, the control unit 60 determines that each of the small sections 110 for the first frame includes the moving object region 100 and the background region 102 based on the position data provided from the initial detection unit 54. For the force S for identifying which of these is formed, and for the second and subsequent frames, the map 62 is used for the identification. For this reason, the control unit 60 attaches to the first frame. After the identification, the neurons 64, 64,... On the map 62 are classified based on the identification result.
[0051] このクラス分けについては、上述した特許文献 1および 2にも開示されている力 こ こで改めて簡単に説明する。まず、制御部 60は、それぞれの小区画 110· · ·に対応す る勝者ブロックの各ニューロン 64, 64,…に、当該小区画 110の第 1フレームにおけ る識別結果、つまり当該小区画 110が移動物体領域 100および背景領域 102のい ずれを形成するものであるの力、、を表す所定の指標値を、付与する。そして、全ての 小区画 110, 110, …の識別結果に基づいて各ニューロン 64, 64,…に指標値を付 与した後、それぞれのニューロン 64ごとに付与された指標値の統計、例えば平均値 、を求める。そして、この平均値が、移動物体領域 100および背景領域 102のいずれ の指標値に近いのかを判別し、この判別結果に基づいて、それぞれのニューロン 64 が移動物体領域 100および背景領域 102のいずれのクラスに属するのかを決定する 。この結果、マップ 62上の各ニューロン 64, 64,…は、図 8に示すように、移動物体 領域 100に属するもの(格子模様)と、背景領域 102に属するもの(斜線模様)とに、 クラス分けされる。  [0051] This classification will be briefly described again here, which is the force disclosed in Patent Documents 1 and 2 described above. First, the control unit 60 assigns to each neuron 64, 64,... Of the winner block corresponding to each small section 110... The identification result in the first frame of the small section 110, that is, the small section 110. Is assigned a predetermined index value representing the force that forms either the moving object region 100 or the background region 102. Then, after assigning an index value to each neuron 64, 64,... Based on the identification results of all the small sections 110, 110,..., Statistics of the index value assigned to each neuron 64, for example, an average value , Ask. Then, it is determined whether the average value is close to the index value of the moving object region 100 or the background region 102, and based on the determination result, each neuron 64 is assigned to the moving object region 100 or the background region 102. Decide if it belongs to a class. As a result, the neurons 64, 64,... On the map 62 are classified into those belonging to the moving object region 100 (lattice pattern) and those belonging to the background region 102 (hatched pattern) as shown in FIG. Divided.
[0052] この第 1フレームの識別結果に基づいてクラス分けされたマップ 62を用いて、制御 部 60は、続く第 2フレームについて、上述した矩形枠 120内にある各小区画 110, 1 10,…それぞれが移動物体領域 100および背景領域 102のいずれを形成するのか を識別する。具体的には、勝者ブロックを構成する各ニューロン 64, 64, …のうち移 動物体領域 100に属するものが多い小区画 110については、移動物体領域 100を 形成するものと識別する。これとは反対に、勝者ブロックを構成する各ニューロン 64, 64, …のうち背景領域 102に属するものが多い小区画 110については、背景領域 1 02を形成するものと識別する。なお、勝者ブロックを構成する各ニューロン 64, 64, …のうち移動物体領域 100に属するものと背景領域 102に属するものとが同数であ る小区画 110については、予め定めたいずれか一方の領域、例えば移動物体領域 1 00、を形成するものと識別する。  [0052] Using the map 62 classified based on the identification result of the first frame, the control unit 60, for the subsequent second frame, each of the small sections 110, 110, 10 in the rectangular frame 120 described above. ... identifies whether each forms moving object region 100 or background region 102. Specifically, among the neurons 64, 64,... Constituting the winner block, the small section 110 having many belonging to the moving object region 100 is identified as forming the moving object region 100. On the other hand, among the neurons 64, 64,... Constituting the winner block, the small section 110 having many belonging to the background area 102 is identified as forming the background area 102. It should be noted that, among the neurons 64, 64,... Constituting the winner block, the small section 110 in which the number belonging to the moving object region 100 and the number belonging to the background region 102 is the same number is one of the predetermined regions. For example, the moving object region 100 is identified.
[0053] この制御部 60による識別結果は、出力変換部 70に与えられる。出力変換部 70に は、上述した入力変換部 50からカラー画像データが 1フレーム分ずつ順次入力され ている。出力変換部 70は、 1フレーム分のカラー画像データが入力されるごとに、当 該カラー画像データによって構成される入力画像のうち、制御部 60によって移動物 体領域 100を形成すると識別された小区画 110を構成する画素のみを表示させるよ うに処理した上述の処理後ビデオ信号を生成する。この処理後ビデオ信号がモニタ 40に入力されることで、モニタ 40の表示画面に、図 9に示すような移動物体領域 100 のみの画像が映し出される。 The identification result by the control unit 60 is given to the output conversion unit 70. Color image data is sequentially input to the output conversion unit 70 frame by frame from the input conversion unit 50 described above. ing. Each time color image data for one frame is input, the output conversion unit 70 is a small unit that is identified as forming the moving object region 100 by the control unit 60 out of the input image constituted by the color image data. The above-described processed video signal processed so as to display only the pixels constituting the section 110 is generated. When this processed video signal is input to the monitor 40, an image of only the moving object region 100 as shown in FIG. 9 is displayed on the display screen of the monitor 40.
[0054] さらに、制御部 60は、第 2フレームの識別結果に基づいて、改めてマップ 62上の各 ニューロン 64, 64, …のクラス分けを行う。つまり、各ニューロン 64, 64,…それぞれ の参照ベクトル wjのみならず、当該各ニューロン 64, 64,…それぞれのクラスについ ても、更新され、言わば学習される。そして、この学習されたマップ 62に基づいて、次 の第 3フレームについての識別が行われる。これ以降、フレームが改まるたびに、識 別および学習が繰り返される。なお、第 3フレーム以降のそれぞれのフレームについ ては、その前のフレームの識別結果に基づいて、上述の矩形枠 120が設定される。 例えば、前のフレームで移動物体領域 100を形成すると識別された全ての小区画 11 0, 110,…を囲むように、当該前のフレームと同じ大きさの矩形枠 120が設定される [0054] Further, the control unit 60 classifies each neuron 64, 64, ... on the map 62 again based on the identification result of the second frame. That is, not only the reference vectors w j of the neurons 64, 64,... But also the classes of the neurons 64, 64,. Then, based on the learned map 62, the next third frame is identified. Thereafter, identification and learning are repeated each time the frame is changed. For each frame after the third frame, the above-described rectangular frame 120 is set based on the identification result of the previous frame. For example, a rectangular frame 120 having the same size as the previous frame is set so as to surround all the small sections 110, 110,... Identified as forming the moving object region 100 in the previous frame.
[0055] なお、或るフレームにおいて、移動物体領域 100を形成する小区画 110がなくなる と、制御部 60は、識別および学習を停止すると共に、初期検知部 54をリセットする。 これによつて、動画像処理装置 30は、移動物体領域 100が現れる前の初期の状態 に戻る。 [0055] When there is no small section 110 forming the moving object region 100 in a certain frame, the control unit 60 stops identification and learning and resets the initial detection unit 54. Thereby, the moving image processing apparatus 30 returns to the initial state before the moving object region 100 appears.
[0056] 図 10に、本実施形態の動画像処理装置 30の実際の入力画像と出力画像との一 例を示す。なお、同図において、左側に示される画像が入力画像であり、右側に示さ れる画像が出力画像である。また、同図(a) , (b)および (c)は、それぞれ第 1フレー ム,第 20フレームおよび第 40フレームの画像である。この図 10から、カメラ 20の被写 界 (視野)を横切ろうとしている人間のみが、移動物体として検知されていることが、分 かる。つまり、本実施形態の動画像処理装置 30によって、当該移動物体を適確に検 失口でさること力 確言忍された。  FIG. 10 shows an example of an actual input image and output image of the moving image processing apparatus 30 of the present embodiment. In the figure, the image shown on the left is the input image, and the image shown on the right is the output image. Figures (a), (b), and (c) are images of the first frame, the 20th frame, and the 40th frame, respectively. From FIG. 10, it can be seen that only a person who is going to cross the field of view (field of view) of the camera 20 is detected as a moving object. In other words, the moving image processing device 30 of the present embodiment has made it clear that the moving object can be properly touched with a detection opening.
[0057] このようなマップ 62を用いての移動物体検知を実現するべぐ制御部 60は、図 11 および図 12のフローチャートで示される物体検知タスクを実行する。 [0057] The beg controller 60 that realizes the moving object detection using such a map 62 is shown in FIG. The object detection task shown in the flowchart of FIG. 12 is executed.
[0058] 即ち、初期検知部 54によって移動物体領域 100が検知されると、具体的には初期 検知部 54から言わば初期識別データとしての上述の位置データが入力されると、制 御部 60は、図 11のステップ S1に進み、当該位置データを記憶する。そして、ステツ プ S3に進み、移動物体領域 100が検知されたことを表すフラグ Fに";!"を設定した後 、ステップ S 5に進む。 That is, when the moving object region 100 is detected by the initial detection unit 54, specifically, when the above-described position data as initial identification data is input from the initial detection unit 54, the control unit 60 Then, the process proceeds to step S1 in FIG. 11, and the position data is stored. Then, the process proceeds to step S3. After setting “;!” To the flag F indicating that the moving object region 100 is detected, the process proceeds to step S5.
[0059] ステップ S5において、制御部 60は、マップ 62を初期化し、詳しくはマップ 62上の 各ニューロン 64, 64, …それぞれの参照ベクトル wjに乱数を設定する。そして、ステ ップ S7に進み、特徴抽出部 58から特徴データ X[t, g]を取得する。この特徴データ X[t, g]もまた、制御部 60によって記憶される。さらに、制御部 60は、ステップ S9に おいて、上述したエポックの実行回数を表すインデックス eに初期値である" 1 "を設定 した後、ステップ S11において、上述した矩形枠 120内の小区画 110の番号を表す インデックス gに初期値である "1"を設定し、ステップ S 13の勝者ブロック探索処理を 実行する。 [0059] In step S5, the control unit 60 initializes the map 62, and in detail sets a random number to each reference vector w j of each neuron 64, 64, ... on the map 62. Then, the process proceeds to step S 7, and feature data X [t, g] is acquired from the feature extraction unit 58. The feature data X [t, g] is also stored by the control unit 60. Furthermore, after setting the initial value “1” to the index e indicating the number of executions of the epoch described above in step S9, the control unit 60 sets the small section 110 in the rectangular frame 120 described above in step S11. The initial value “1” is set in the index g representing the number of, and the winner block search process in step S 13 is executed.
[0060] このステップ S 13の勝者ブロック探索処理においては、制御部 60は、上述した決定 木方式に基づいて勝者ブロックを探索する。そして、今現在の処理の対象である小 区画 110について勝者ブロックが決定すると、制御部 60は、ステップ S 15に進み、上 述したフラグ Fが" 0"であるか否かを判定する。  [0060] In the winner block search process in step S13, the control unit 60 searches for a winner block based on the above-described decision tree method. When the winner block is determined for the small block 110 that is the current processing target, the control unit 60 proceeds to step S15 and determines whether or not the flag F described above is “0”.
[0061] このステップ S15において、フラグ F力 0"でない場合、つまり移動物体領域 100が 検知された直後である場合、制御部 60は、ステップ S 17に進み、上述のステップ S1 で記憶した初期識別データに基づいて、移動物体領域 100のみを表示させるよう出 力変換部 70を制御する。そして、制御部 60は、ステップ S19において、フラグ Fに" 0 "を設定した後、ステップ S21の更新準備処理に進む。  [0061] If the flag F force is not 0 "in step S15, that is, immediately after the moving object region 100 is detected, the control unit 60 proceeds to step S17 and stores the initial identification stored in step S1 described above. Based on the data, the output conversion unit 70 is controlled to display only the moving object region 100. Then, the control unit 60 sets “0” to the flag F in step S19, and then prepares for the update in step S21. Proceed to processing.
[0062] 一方、ステップ S15において、フラグ F力 0"である場合、つまり移動物体領域 100 が検知されてから上述のステップ S 17を実行した経験がある場合、制御部 60は、ス テツプ S23に進む。そして、このステップ S23において、今現在のエポックの実行回 数 eが "1"回目であるか否かを判定し、 "1"回目である場合は、ステップ S25の識別 処理に進む。 [0063] ステップ S25において、制御部 60は、今現在の処理の対象である小区画 110の特 徴データ X[t, g]をマップ 62に印加して、当該小区画 110が移動物体領域 100およ び背景領域 102のいずれを形成するものであるの力、を識別する。そして、ステップ S2 7に進み、当該ステップ S25における識別結果に基づいて、出力変換部 70を制御す る。つまり、今現在の処理の対象である小区画 110が移動物体領域 100を形成する 場合にはこれを表示させ、そうでない場合には表示させないように、出力変換部 70を 制御する。そして、このステップ S27の実行後、ステップ S21の更新準備処理に進む [0062] On the other hand, if the flag F force is 0 "in step S15, that is, if there is experience of executing step S17 after the moving object region 100 is detected, the control unit 60 proceeds to step S23. Then, in this step S23, it is determined whether or not the current epoch execution number e is “1”, and if it is “1”, the process proceeds to identification processing in step S25. [0063] In step S25, the control unit 60 applies the feature data X [t, g] of the small section 110 that is the current processing target to the map 62, and the small section 110 moves to the moving object region 100. And the force that forms any of the background regions 102. Then, the process proceeds to step S27, and the output conversion unit 70 is controlled based on the identification result in step S25. That is, the output conversion unit 70 is controlled so that the small section 110 that is the current processing target forms the moving object region 100 and displays it when it does not. After executing step S27, the process proceeds to the update preparation process of step S21.
[0064] ステップ S21において、制御部 60は、上述した数 4に基づいて、勝者ブロックを構 成するそれぞれのニューロン 64についての偏差累積量 wdj [t, g]を算出する。併せ て、数 5に基づいて、偏差累積率 wr j [t, g]を算出する。これらの算出後、制御部 60 は、ステップ S29に進む。 [0064] In step S21, the control unit 60 calculates an accumulated deviation amount wd j [t, g] for each neuron 64 constituting the winner block, based on the above-described equation 4. In addition, the deviation accumulation rate wr j [t, g] is calculated based on Equation 5. After these calculations, the control unit 60 proceeds to step S29.
[0065] ステップ S29において、制御部 60は、今現在の処理の対象である小区画 110の番 号 gが最大値 Gに達したか否力、、つまり全ての小区画 110, 110,…についてステツ プ S13〜ステップ S27を一通り実行したか否か、を判定する。そして、未だ当該ステツ プ S13〜ステップ S27を実行していない小区画 110が存在する場合には、ステップ S 31に進み、小区画 110の番号 gの値を "1 "つインクリメントした後、ステップ S 13に戻 る。一方、全ての/ J、区画 110, 110, …についてステップ S13〜ステップ S27を一通 り実行した場合には、ステップ S33に進む。  [0065] In step S29, the control unit 60 determines whether or not the number g of the small section 110 that is the current processing target has reached the maximum value G, that is, all the small sections 110, 110,. It is determined whether step S13 to step S27 have been executed. If there is a small section 110 for which steps S13 to S27 have not yet been executed, the process proceeds to step S31, and the value of the number g of the small section 110 is incremented by “1”, and then step S Return to 13. On the other hand, when step S13 to step S27 are executed once for all / J, sections 110, 110,..., The process proceeds to step S33.
[0066] ステップ S33において、制御部 60は、上述した数 6に基づいて、それぞれのニュー ロン 64の参照ベクトル wjを更新する。そして、図 12のステップ S35に進み、エポック の実行回数 eがその最大値 Eに達したか否かを、判定する。なお、上述したように、本 実施形態におけるエポックの最大実行回数 Eは、 30回である。 [0066] In step S33, the control unit 60 updates the reference vector w j of each neuron 64 based on the above-described Expression 6. Then, the process proceeds to step S35 in FIG. 12 to determine whether or not the epoch execution count e has reached its maximum value E. As described above, the maximum number of executions E of the epoch in the present embodiment is 30 times.
[0067] ステップ S35において、エポックの実行回数 eが最大値 E ( = 30)に達していない場 合は、改めて当該エポックを繰り返すベぐ制御部 60は、ステップ S37に進む。そし て、このステップ S37においてエポックの実行回数 eの値を" 1"つインクリメントした後 、図 11のステップ S 11に戻る。一方、エポックの実行回数 eが最大値 Eに達した場合 には、ステップ S35からステップ S39に進む。 [0068] ステップ S39において、制御部 60は、移動物体領域 100が未だ存在するか否かを 判定する。そして、当該移動物体領域 100が存在する場合には、ステップ S41のクラ ス分け処理に進む。 [0067] In step S35, if the epoch execution count e has not reached the maximum value E (= 30), the control unit 60 that repeats the epoch again proceeds to step S37. Then, after the value of the epoch execution number e is incremented by “1” in step S37, the process returns to step S11 in FIG. On the other hand, when the epoch execution number e reaches the maximum value E, the process proceeds from step S35 to step S39. [0068] In step S39, the control unit 60 determines whether or not the moving object region 100 still exists. When the moving object region 100 exists, the process proceeds to the class dividing process in step S41.
[0069] ステップ S41のクラス分け処理においては、制御部 60は、上述した要領で、マップ  [0069] In the classification process of step S41, the control unit 60 performs the map in the manner described above.
62上の各ニューロン 64, 64,…のクラス分けを行う。そして、このクラス分けの完了後 、新たなフレームの特徴データ X[t+ 1 , g]を取得するべぐステップ S43に進み、フ レーム番号 tの値を "1"つインクリメントした後、図 11のステップ S7に戻る。  Classify each neuron 64, 64, ... on 62. Then, after this classification is completed, the process proceeds to step S43 where the feature data X [t + 1, g] of a new frame is acquired. After the frame number t is incremented by "1", Return to step S7.
[0070] なお、上述のステップ S 39において、移動物体領域 100の存在が確認されない場 合には、制御部 60は、ステップ S45に進む。そして、このステップ S45において、初 期検知部 54をリセットして、一連の物体検知タスクを終了する。  [0070] If the presence of the moving object region 100 is not confirmed in step S39, the control unit 60 proceeds to step S45. In step S45, the initial detection unit 54 is reset, and the series of object detection tasks is completed.
[0071] ここで、この物体検知タスクにおけるステップ S13の勝者ブロック探索処理について 、図 13を参照して、さらに詳しく説明する。  [0071] Here, the winner block search process of step S13 in this object detection task will be described in more detail with reference to FIG.
[0072] 勝者ブロック探索処理において、制御部 60は、まず、ステップ S101に進み、マップ  [0072] In the winner block search process, the control unit 60 first proceeds to step S101, where the map
62全体を仮の勝者候補ブロック 68として設定する。そして、ステップ S 103に進み、こ れから探索しょうとする勝者候補ブロック 68のサイズ pを設定し、詳しくは p=m—lと いうサイズを設定する。  The entire 62 is set as a temporary winner candidate block 68. In step S103, the size p of the winner candidate block 68 to be searched for is set, and more specifically, the size p = m−l is set.
[0073] そして、制御部 60は、ステップ S105に進み、勝者候補ブロック 68内にある p X pと いうサイズの全てのブロック 66, 66, …のうち、それぞれのブロック参照ベクトル Bと特 徴データ X[t, g]との間のユークリッド距離 Dが最も短いものを探索する。制御部 60 は、このステップ S 105で探索されたブロック 66を、次のステップ S107において勝者 候補ブロック 68として記憶し、併せて勝者候補ブロック 68のユークリッド距離 Dを記  [0073] Then, the control unit 60 proceeds to step S105, and among all the blocks 66, 66, ... having a size of pXp in the winner candidate block 68, the respective block reference vectors B and the characteristic data Search for the shortest Euclidean distance D between X [t, g]. The control unit 60 stores the block 66 searched in step S105 as the winner candidate block 68 in the next step S107, and also records the Euclidean distance D of the winner candidate block 68.
[0074] さらに、制御部 60は、ステップ S109に進み、今現在のブロックサイズ pが最小値で ある" 2"に達したか否かを判定する。そして、達していない場合には、ステップ S 111 に進み、ブロックサイズ pを";!"だけ小さくした後、ステップ S105に戻る。一方、ブロッ クサイズ pが最小値である" 2"に達した場合には、ステップ S113に進む。 Further, the control unit 60 proceeds to step S109, and determines whether or not the current block size p has reached the minimum value “2”. If not, the process proceeds to step S 111, the block size p is reduced by “;!”, And the process returns to step S 105. On the other hand, if the block size p has reached the minimum value “2”, the process proceeds to step S113.
[0075] ステップ S113において、制御部 60は、上述のステップ S105〜ステップ S 107を繰 り返すことで探索された複数の勝者候補ブロック 68, 68,…のうち、最もユークリッド 距離 Dが短いものを探索する。そして、探索された勝者候補ブロック 68を真の勝者ブ ロックとして決定して、この図 13のフローチャートで示される勝者ブロック探索処理を 終了する。 [0075] In step S113, the control unit 60 selects the most Euclidean among the plurality of winner candidate blocks 68, 68, ... searched by repeating the above-described steps S105 to S107. Search for a short distance D. Then, the searched winner candidate block 68 is determined as a true winner block, and the winner block search process shown in the flowchart of FIG. 13 is terminated.
[0076] さらに、図 14を参照して、上述した物体検知タスクにおけるステップ S21の更新準 備処理について、詳しく説明する。  Furthermore, with reference to FIG. 14, the update preparation process in step S21 in the object detection task described above will be described in detail.
[0077] この更新準備処理において、制御部 60は、まず、ステップ S201に進み、今現在の 勝者ブロック内におけるニューロン 64の番号を表すインデックス jに、初期値である" 1[0077] In this update preparation process, the control unit 60 first proceeds to step S201, where the index j representing the number of the neuron 64 in the current winner block is an initial value "1"
"を設定する。そして、ステップ S203に進み特徴(次元)の番号を表すインデックス iにThen, go to step S203 and set index i representing the feature (dimension) number.
、初期値である "1"を設定した後、ステップ S205に進む。 After the initial value “1” is set, the process proceeds to step S205.
[0078] ステップ S205において、制御部 60は、上述した数 4に基づいて、偏差累積量 wdj [ t, g]を算出する。そして、その算出結果 wdj [t, g]を、次のステップ S207で記憶す In step S205, the control unit 60 calculates the accumulated deviation amount w dj [t, g] based on the above-described equation 4. Then, the calculation result wd j [t, g] is stored in the next step S207.
[0079] さらに、制御部 60は、ステップ S209に進み、上述した数 5に基づいて、偏差累積 率 wrj [t, g]を算出する。そして、その算出結果 wrj [t, g]を、次のステップ S211で 記憶した後、ステップ S213に進む。 Furthermore, the control unit 60 proceeds to step S209, and calculates the deviation accumulation rate wr j [t, g] based on the above equation 5. Then, the calculation result wr j [t, g] is stored in the next step S211 and then the process proceeds to step S213.
[0080] ステップ S213において、制御部 60は、特徴の番号を表すインデックス iの値が最大 値 n (= 12)に達したか否力、、つまり全ての特徴についてステップ S205〜ステップ S2 11を一通り実行したか否か、を判定する。そして、未だステップ S205〜ステップ S21 1を実行していない特徴が存在する場合には、ステップ S215に進み、インデックス i の値を "1"つインクリメントした後、ステップ S205に戻る。一方、全ての特徴について ステップ S205〜ステップ S211を実行した場合には、ステップ S217に進む。  [0080] In step S213, the control unit 60 determines whether or not the value of the index i representing the feature number has reached the maximum value n (= 12), that is, step S205 to step S211 for all features. It is determined whether or not it has been executed. If there is a feature that has not yet been executed from step S205 to step S211, the process proceeds to step S215, the index i is incremented by "1", and the process returns to step S205. On the other hand, if step S205 to step S211 have been executed for all features, the process proceeds to step S217.
[0081] ステップ S217において、制御部 60は、ニューロン 64の番号を表すインデックス jの 値が最大値 αに達したか否力、、つまり今現在の勝者ブロック内における全てのニュ 一ロン 64についてステップ S203〜ステップ S215を実行したか否力、、を判定する。そ して、未だステップ S203〜ステップ S215を実行していないニューロン 64が存在する 場合には、ステップ S219に進み、インデックス jの値を "1 "だけインクリメントした後、ス テツプ S203に戻る。一方、全てのニューロン 64についてステップ S203〜ステップ S 215を実行した場合には、これをもって、図 14のフローチャートで示される更新準備 処理を終了する。 [0081] In step S217, the control unit 60 performs step for the power of whether or not the value of the index j representing the number of the neuron 64 has reached the maximum value α, that is, for all the neurons 64 in the current winner block. It is determined whether or not S203 to step S215 have been executed. If there is a neuron 64 that has not yet executed steps S203 to S215, the process proceeds to step S219, the value of index j is incremented by “1”, and the process returns to step S203. On the other hand, when Steps S203 to S215 are executed for all neurons 64, the update preparation shown in the flowchart of FIG. The process ends.
[0082] 以上のように、本実施形態によれば、マップ 62を構成する各ニューロン 64, 64, · · · をブロック単位で扱うというブロック単位学習型の SOMを利用して、動画像中の移動 物体領域 100を検知するための動画像処理装置 30を実現することができる。また、 移動物体領域 100がどのような態様であろうとも(例えば黒っぽいとか赤っぽいとかで あっても)、学習によってその態様に応じた特徴を正確に捉えることができる。従って 、様々な移動物体領域 100の態様(状況)に柔軟かつ適確に対応することができる。  As described above, according to the present embodiment, a block unit learning type SOM in which each neuron 64, 64,... Constituting the map 62 is handled in units of blocks is used. The moving image processing apparatus 30 for detecting the moving object region 100 can be realized. In addition, regardless of the mode of the moving object region 100 (for example, whether it is blackish or reddish), the characteristics according to the mode can be accurately captured by learning. Therefore, it is possible to respond flexibly and appropriately to various aspects (situations) of the moving object region 100.
[0083] なお、本実施形態においては、図 3に示した画像分割部 52によって、図 4に示した ように入力画像を a X a画素ずつ分割することとした力 これに限らない。例えば、 a X b (b ; aとは異なる整数)画素ずつ分割してもよいし、極端には分割しなくてもよぐつ まり図 3の構成から画像分割部 52を排除してもよい。ただし、このような画像分割部 5 2を設けることによって、これよりも後段、特に制御部 60、の負担が軽減される。このこ とは、当該制御部 60を含む動画像処理装置 30全体の処理速度を向上させるのに、 極めて有効である。  In the present embodiment, the force of dividing the input image by a X a pixels as shown in FIG. 4 by the image dividing unit 52 shown in FIG. 3 is not limited to this. For example, a X b (b; an integer different from a) pixels may be divided, or may not be divided extremely, that is, the image dividing unit 52 may be excluded from the configuration of FIG. However, by providing such an image dividing unit 52, the burden on the subsequent stage, particularly the control unit 60, is reduced. This is extremely effective for improving the processing speed of the entire moving image processing apparatus 30 including the control unit 60.
[0084] また、図 3に示した枠設定部 56によって、図 5に示したように矩形枠 120を設定する と共に、この矩形枠 120によって囲まれた小区画 110, 110,…のみの位置データと YUVデータとが特徴抽出部 58に入力されるようにした力 これに限らない。即ち、図 3の構成からこの枠設定部 56を排除して、全ての小区画 110, 110,…(または画素 )の位置データと YUVデータとが特徴抽出部 58に入力されるようにしてもよい。ただ し、このような枠設定部 56を設けることによって、これよりも後段、特に特徴抽出部 58 および制御部 60、の負担が軽減される。このこともまた、動画像処理装置 30全体の 処理速度を向上させるのに、極めて有効である。また、特に、矩形枠 120以外の背景 領域 102に移動物体領域 100と同様の特徴を有する小区画 110が存在する場合に 、これが移動物体領域 100を構成するものと誤って識別される可能性が減り、そのよ うな一種のノイズとして作用する小区画 110の影響が抑制される。  Further, the frame setting unit 56 shown in FIG. 3 sets the rectangular frame 120 as shown in FIG. 5, and the position data of only the small sections 110, 110,... Surrounded by the rectangular frame 120. And the force that allows YUV data to be input to the feature extraction unit 58. That is, the frame setting unit 56 is excluded from the configuration of FIG. 3, and the position data and YUV data of all the small sections 110, 110,... (Or pixels) are input to the feature extraction unit 58. Good. However, by providing such a frame setting unit 56, the burden on the subsequent stage, in particular, the feature extraction unit 58 and the control unit 60 is reduced. This is also extremely effective in improving the processing speed of the entire moving image processing apparatus 30. In particular, when a small section 110 having the same characteristics as the moving object area 100 exists in the background area 102 other than the rectangular frame 120, this may be erroneously identified as constituting the moving object area 100. The effect of the sub-compartment 110 acting as a kind of noise is reduced.
[0085] さらに、図 3に示した特徴抽出部 58によって、それぞれの小区画 110ごとに、周辺 小区画 110, 110,…の Yデータ, Uデータおよび Vデータそれぞれの平均値および 分散値をも含む合計 12種類 (次元)の特徴を抽出することとしたが、これに限らない。 例えば、当該周辺小区画 110, 110,…の特徴を排除して、それぞれの小区画(注 目小区画) 110のみの Yデータ, Uデータおよび Vデータそれぞれの平均値および 分散値という 6種類の特徴を抽出してもよいし、当該平均値および分散値の一方の みを抽出してもよい。また、 YUVフォーマットではなぐ RGBフォーマットの色空間デ ータを抽出してもよいし、輝度データのみを抽出してもよい。さらに、それぞれの画素 の画像上における位置 (座標)データを、併せて抽出してもよい。つまりは、状況に応 じて適宜の特徴を抽出すればよい。 [0085] Further, the feature extraction unit 58 shown in FIG. 3 calculates the average value and the variance of each of the Y data, U data, and V data of the surrounding small sections 110, 110,. A total of 12 types (dimensions) of features were extracted, but this is not a limitation. For example, by eliminating the features of the surrounding subdivisions 110, 110,..., There are six types of Y data, U data, and V data for each subdivision (note subdivision) 110 only, the average value and the variance value. A feature may be extracted, or only one of the average value and the variance value may be extracted. In addition, RGB format color space data may be extracted, and only luminance data may be extracted. Further, position (coordinate) data on the image of each pixel may be extracted together. In other words, an appropriate feature should be extracted according to the situation.
[0086] そして、図 3に示した制御部 60によって、図 7に示したように決定木方式に基づい て勝者ブロックを探索することとした力 S、これに限らない。即ち、マップ 62上で考えら れる全てのブロック 66, 66,…についてそれぞれのユークリッド距離 Dを求め、その 結果を基に勝者ブロックを探索してもよい。ただし、この場合は、上述したように制御 部 60にかなりの負担が掛かるので、好ましくは、本実施形態のように決定木方式に 基づいて勝者ブロックを探索することを推奨する。  [0086] The force S determined by the control unit 60 shown in FIG. 3 to search for a winner block based on the decision tree method as shown in FIG. 7 is not limited to this. That is, the Euclidean distance D may be obtained for all the blocks 66, 66,... Considered on the map 62, and the winner block may be searched based on the result. However, in this case, since a considerable burden is imposed on the control unit 60 as described above, it is preferable to search for a winner block based on the decision tree method as in the present embodiment.
[0087] また、制御部 60によって、 1回のエポックが終了するごとに、バッチ的に、それぞれ のニューロン 64の参照ベクトル wjを更新することとした力 S、これに限らない。例えば、 それぞれの小区画 110について勝者ブロックが決定されるごとに、参照ベクトル wjを 更新してもよい。なお、この場合の参照ベクトル wjの更新式は、次の数 7で表される。 [0087] Further, the control unit 60, every time one epoch is finished, batchwise, force was decided to update the reference vector w j of each neuron 64 S, not limited to this. For example, the reference vector w j may be updated each time a winner block is determined for each subdivision 110. In this case, the update formula for the reference vector w j is expressed by the following equation (7).
[0088] [数 7] \ / , ,\ Xi [t, g] - w^old)  [0088] [Equation 7] \ /,, \ Xi [t, g]-w ^ old)
w- (new) = w; [old) +  w- (new) = w; (old) +
a  a
[0089] ただし、勝者ブロックが決定されるごとにこの数 7に基づいて参照ベクトル wjを更新 する場合は、言うまでもなぐバッチ的に更新する場合に比べて、制御部 60の負担が 大きい。従って、本実施形態のようにバッチ的に更新されるの力 望ましい。 However, when the reference vector w j is updated based on the number 7 every time a winner block is determined, it is needless to say that the burden on the control unit 60 is greater than when updating the batch. Therefore, it is desirable to update the data batchwise as in this embodiment.
[0090] さらに、制御部 60は、 1フレームにっきエポックを 30回繰り返すこととした力 それ 以外の回数にわたってエポックを繰り返してもよい。また、単にエポックを繰り返すの ではなぐ例えば、前回のエポックと今回のエポックとのそれぞれにおける偏差累積 量 wdj [t, g]を比較して、両者の差、言わば量子化誤差、が所定の閾値以下となつ たときに、次のフレームについてエポックを行うようにしてもよい。 [0091] 併せて、本実施形態では、それぞれのブロック 66のサイズを p X pとし、言い換えれ ば当該ブロック 66の形状を正方形としたが、長方形としてもよい。ただし、特に勝者 ブロックを決定する際を含め、制御部 60による処理を簡素化する上では、当該ブロッ ク 66の正方形とするの力 S、望ましい。マップ 62についても、同様に、 m X mの正方形 である必要はなぐ長方形でもよいが、正方形の方が好都合である。 [0090] Further, the control unit 60 may repeat the epoch over the number of times other than the force determined to repeat the epoch 30 times per frame. Also, instead of simply repeating the epoch, for example, comparing the accumulated deviation wd j [t, g] in the previous epoch and the current epoch, the difference between the two, that is, the quantization error, is a predetermined threshold value. The epoch may be performed for the next frame when: In addition, in the present embodiment, the size of each block 66 is p X p, in other words, the shape of the block 66 is a square, but may be a rectangle. However, in order to simplify the processing by the control unit 60, particularly when determining the winner block, the force S for making the block 66 a square is desirable. Similarly, the map 62 need not be an m × m square, but may be a rectangle, but a square is more convenient.
[0092] また、本実施形態では、図 1に示したカメラ 20として、固定式のものを採用したが、 雲台を備えた可動式のものを採用してもよい。特に、動画像処理装置 30 (制御部 60 )によって検出された移動物体領域 100の画像上での位置 (座標)データに基づいて 、当該移動物体領域 100を当該画像上の中心位置に移動させるための変位量を求 め、この変位量に基づいて雲台を制御 (パンおよびチルト)するようにすれば、常に移 動物体をカメラの中心で捉えるという、自動追尾機能を実現することができる。なお、 この自動追尾機能を実現する場合であっても、マップ 62のブロック単位での識別お よび学習手順については、本実施形態で説明した固定式カメラ 20の場合と同様であ る。また、この識別および学習を行うに当たっては、言うまでもなく画像上における各 画素の位置 (座標)データは必須である。従って、ここで言う変位量を求めるのに特 段な問題はなぐゆえに、 自動追尾機能を実現するのにも本発明は極めて有用であ  In the present embodiment, a fixed camera is used as the camera 20 shown in FIG. 1. However, a movable camera having a pan head may be used. In particular, in order to move the moving object region 100 to the center position on the image based on the position (coordinate) data on the image of the moving object region 100 detected by the moving image processing device 30 (control unit 60). If the amount of displacement is determined and the pan head is controlled (pan and tilt) based on this amount of displacement, an automatic tracking function can be realized in which the moving object is always captured at the center of the camera. Even when the automatic tracking function is realized, the identification and learning procedure of the map 62 in units of blocks is the same as that of the fixed camera 20 described in the present embodiment. Needless to say, the position (coordinate) data of each pixel on the image is indispensable for this identification and learning. Accordingly, since there is no particular problem in obtaining the displacement amount referred to here, the present invention is extremely useful for realizing the automatic tracking function.
[0093] なお、本実施形態における動画像処理装置 30は、パーソナルコンピュータ等の汎 用のコンピュータによって実現することができる。また、このように汎用コンピュータを 動画像処理装置 30として機能させるためのプログラムのみを、提供することもできる。 Note that the moving image processing apparatus 30 in the present embodiment can be realized by a general-purpose computer such as a personal computer. In addition, only a program for causing a general-purpose computer to function as the moving image processing apparatus 30 can be provided.

Claims

請求の範囲 The scope of the claims
[1] 移動物体領域を形成する画素と非移動物体領域を形成する画素とを含み動画像 を構成する 1フレーム分の画像データが入力され該画像データの n (n;複数)個の特 徴を該画素ごとに抽出して n次元の第 1ベクトルデータを生成する抽出手段と、 [1] Image data for one frame constituting a moving image including pixels that form a moving object region and pixels that form a non-moving object region is input, and n (n: multiple) features of the image data are input. Extracting for each pixel to generate n-dimensional first vector data;
2次元状に配置されておりそれぞれ n次元の第 2ベクトルデータを有すると共に上記 移動物体領域および上記非移動物体領域のいずれか一方のクラスに属する複数の ニューロンを含むマップと、 A map including a plurality of neurons arranged in two dimensions, each having n-dimensional second vector data, and belonging to one of the classes of the moving object region and the non-moving object region;
互いに隣り合う一部の上記ニューロンから成る複数のブロックのうちそれぞれを構成 する該ニューロンの上記第 2ベクトルデータの統計である第 3ベクトルデータが上記 第 1ベクトルデータに対応する勝者ブロックを上記画素ごとに探索する探索手段と、 上記勝者ブロックを構成する上記ニューロンの属する上記クラスに基づいてそれぞ れの上記画素が上記移動物体領域および上記非移動物体領域のいずれを形成す るのかを識別する識別手段と、  The third vector data, which is the statistic of the second vector data of each of the plurality of blocks composed of a part of the neurons adjacent to each other, is selected as the winner block corresponding to the first vector data for each pixel. And an identification for identifying whether each of the pixels forms the moving object region or the non-moving object region based on the class to which the neuron constituting the winner block belongs. Means,
上記識別手段による識別結果およびそれぞれの上記画素の上記第 1ベクトルデー タに基づいて該画素に対応する上記勝者ブロックを構成する上記ニューロンの上記 第 2ベクトルデータおよび上記クラスを更新する更新手段と、  Updating means for updating the second vector data and the class of the neuron constituting the winner block corresponding to the pixel based on the identification result by the identifying means and the first vector data of each pixel;
を具備し、  Comprising
上記更新手段によって全ての上記画素に基づく更新が行なわれた後、新たな上記 1フレーム分の画像データが上記抽出手段に入力される、  After the updating based on all the pixels is performed by the updating means, new image data for one frame is input to the extracting means.
動画像処理装置。  Moving image processing device.
[2] 上記識別手段によって上記移動物体領域を形成すると識別された上記画素のみを 表示させる表示手段をさらに備える、請求項 1に記載の動画像処理装置。  2. The moving image processing apparatus according to claim 1, further comprising display means for displaying only the pixels identified as forming the moving object region by the identification means.
[3] 上記探索手段は、互いに同サイズの複数の上記ブロックのうち上記第 3ベクトルデ ータが上記第 1べ外ルデータに対応する勝者候補ブロックを上記画素ごとに探索す る勝者候補探索手段と、該勝者候補探索手段によって探索された該勝者候補ブロッ ク内にぉレ、てよりサイズの小さレ、別の勝者候補ブロックを順次探索するように該勝者 候補探索手段による探索を該画素ごとに繰り返し実行させる繰り返し実行手段と、該 勝者候補探索手段による探索が繰り返し実行されることによって探索された複数の該 勝者候補ブロックのうち該第 3ベクトルデータが最も該第 1ベクトルデータに対応する ものを上記勝者ブロックとして該画素ごとに決定する決定手段と、を含む、請求項 1に 記載の動画像処理装置。 [3] The search means includes a winner candidate search means for searching, for each pixel, a winner candidate block whose third vector data corresponds to the first outer data among the plurality of blocks having the same size. The search by the winner candidate search means is performed for each pixel so that the winner candidate block searched by the winner candidate search means is sequentially searched for smaller winner sizes and other winner candidate blocks. A repetitive execution means for repetitive execution and a plurality of the search results obtained by repetitively executing a search by the winner candidate search means. 2. The moving image processing apparatus according to claim 1, further comprising: a determining unit that determines, for each pixel, a winner candidate block that has the third vector data corresponding to the first vector data most as the winner block.
[4] 上記更新手段は上記識別手段によって全ての上記画素について識別が行なわれ た後に一括して該全ての画素に基づく更新を行なう、請求項 1に記載の動画像処理 装置。 4. The moving image processing apparatus according to claim 1, wherein the updating means performs updating based on all the pixels at once after the identifying means has identified all the pixels.
[5] 上記画像データは色情報を含み、  [5] The above image data includes color information,
上記特徴は上記色情報を含む、  The features include the color information,
請求項 1に記載の動画像処理装置。  The moving image processing apparatus according to claim 1.
[6] それぞれの上記画素についての上記特徴は該画素の近傍にある近傍画素の特徴 をも含む、請求項 1に記載の動画像処理装置。 6. The moving image processing apparatus according to claim 1, wherein the feature for each of the pixels includes a feature of a neighboring pixel in the vicinity of the pixel.
[7] 上記抽出手段は互いに隣り合う複数の上記画素を 1画素として取り扱う、請求項 1 に記載の動画像処理装置。 7. The moving image processing apparatus according to claim 1, wherein the extracting unit handles a plurality of adjacent pixels as one pixel.
[8] 上記移動物体領域と一部の上記非移動物体領域とを含む枠を設定する枠設定手 段をさらに備え、 [8] The camera further comprises a frame setting means for setting a frame including the moving object area and a part of the non-moving object area,
上記抽出手段は上記枠内にある上記画素のみを取り扱う、  The extraction means handles only the pixels within the frame;
請求項 1に記載の動画像処理装置。  The moving image processing apparatus according to claim 1.
[9] 移動物体領域を形成する画素と非移動物体領域を形成する画素とを含み動画像 を構成する 1フレーム分の画像データの n (n ;複数)個の特徴を該画素ごとに抽出し て n次元の第 1ベクトルデータを生成する抽出過程と、 [9] Extract n (n; plural) features of image data for one frame constituting a moving image including pixels forming a moving object region and pixels forming a non-moving object region for each pixel. An extraction process to generate n-dimensional first vector data,
それぞれ n次元の第 2ベクトルデータを有すると共に上記移動物体領域および上記 非移動物体領域のいずれか一方のクラスに属する複数のニューロンが 2次元状に配 置されたマップを形成するマップ形成過程と、  A map forming process in which a plurality of neurons each having n-dimensional second vector data and belonging to one of the classes of the moving object region and the non-moving object region are two-dimensionally arranged; and
互いに隣り合う一部の上記ニューロンから成る複数のブロックのうちそれぞれを構成 する該ニューロンの上記第 2ベクトルデータの統計である第 3ベクトルデータが上記 第 1ベクトルデータに対応する勝者ブロックを上記画素ごとに探索する探索過程と、 上記勝者ブロックを構成する上記ニューロンの属する上記クラスに基づいてそれぞ れの上記画素が上記移動物体領域および上記非移動物体領域のいずれを形成す るのかを識別する識別過程と、 The third vector data, which is the statistic of the second vector data of each of the plurality of blocks composed of a part of the neurons adjacent to each other, is selected as the winner block corresponding to the first vector data for each pixel. Each of the pixels forms either the moving object region or the non-moving object region based on the search process to search for and the class to which the neuron constituting the winner block belongs. An identification process for identifying
上記識別過程における識別結果およびそれぞれの上記画素の上記第 1ベクトルデ ータに基づいて該画素に対応する上記勝者ブロックを構成する上記ニューロンの上 記第 2ベクトルデータおよび上記クラスを更新する更新過程と、  An updating process for updating the second vector data and the class of the neuron constituting the winner block corresponding to the pixel based on the identification result in the identification process and the first vector data of each pixel; ,
を具備し、 Comprising
上記更新過程にお!/、て全ての上記画素に基づく更新が行なわれた後、新たな上 記 1フレーム分の画像データが上記抽出過程における処理の対象とされる、 動画像処理方法。  A moving image processing method in which, after the update process is performed based on all the pixels, the image data for one frame is subjected to processing in the extraction process.
移動物体領域を形成する画素と非移動物体領域を形成する画素とを含み動画像 を構成する 1フレーム分の画像データの n (n ;複数)個の特徴を該画素ごとに抽出し て n次元の第 1ベクトルデータを生成する抽出手順と、  Extract n (n; multiple) features of image data for one frame that make up a moving image including pixels that form a moving object region and pixels that form a non-moving object region. An extraction procedure for generating the first vector data of
それぞれ n次元の第 2ベクトルデータを有すると共に上記移動物体領域および上記 非移動物体領域のいずれか一方のクラスに属する複数のニューロンが 2次元状に配 置されたマップを形成するマップ形成手順と、  A map forming procedure for forming a map having a plurality of neurons each having n-dimensional second vector data and belonging to one of the classes of the moving object region and the non-moving object region;
互いに隣り合う一部の上記ニューロンから成る複数のブロックのうちそれぞれを構成 する該ニューロンの上記第 2ベクトルデータの統計である第 3ベクトルデータが上記 第 1ベクトルデータに対応する勝者ブロックを上記画素ごとに探索する探索手順と、 上記勝者ブロックを構成する上記ニューロンの属する上記クラスに基づいてそれぞ れの上記画素が上記移動物体領域および上記非移動物体領域のいずれを形成す るのかを識別する識別手順と、  The third vector data, which is the statistic of the second vector data of each of the plurality of blocks composed of a part of the neurons adjacent to each other, is selected as the winner block corresponding to the first vector data for each pixel. An identification for identifying whether each of the pixels forms the moving object region or the non-moving object region based on the search procedure to search for and the class to which the neuron constituting the winner block belongs Procedure and
上記識別手順による識別結果およびそれぞれの上記画素の上記第 1ベクトルデー タに基づいて該画素に対応する上記勝者ブロックを構成する上記ニューロンの上記 第 2ベクトルデータおよび上記クラスを更新する更新手順と、  An updating procedure for updating the second vector data and the class of the neuron constituting the winner block corresponding to the pixel based on the identification result by the identification procedure and the first vector data of each pixel;
をコンピュータに実行させるための動画像処理プログラムであって、 A moving image processing program for causing a computer to execute
上記更新手順によって全ての上記画素に基づく更新が行なわれた後、新たな上記 1フレーム分の画像データが上記抽出手順による処理の対象とされる、  After the update based on all the pixels is performed by the update procedure, new one frame of image data is processed by the extraction procedure.
動画像処理プログラム。 A moving image processing program.
PCT/JP2007/070132 2006-10-17 2007-10-16 Moving image processing device, moving image processing method, and moving image processing program WO2008047774A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-282496 2006-10-17
JP2006282496A JP2008102589A (en) 2006-10-17 2006-10-17 Moving image processor, moving image processing method and moving image processing program

Publications (1)

Publication Number Publication Date
WO2008047774A1 true WO2008047774A1 (en) 2008-04-24

Family

ID=39314002

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/070132 WO2008047774A1 (en) 2006-10-17 2007-10-16 Moving image processing device, moving image processing method, and moving image processing program

Country Status (2)

Country Link
JP (1) JP2008102589A (en)
WO (1) WO2008047774A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101799876B (en) * 2010-04-20 2011-12-14 王巍 Video/audio intelligent analysis management control system
CN101859436B (en) * 2010-06-09 2011-12-14 王巍 Large-amplitude regular movement background intelligent analysis and control system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05174149A (en) * 1991-12-26 1993-07-13 Nippon Telegr & Teleph Corp <Ntt> Picture recognition device
JPH05210739A (en) * 1991-09-12 1993-08-20 Fuji Photo Film Co Ltd Method for recognizing subject
JP2000259838A (en) * 1999-03-12 2000-09-22 Fujitsu Ltd Image tracking device and recording medium
JP2004164563A (en) * 2002-09-26 2004-06-10 Toshiba Corp Image analysis method, image analysis apparatus, image analysis program
JP2005063308A (en) * 2003-08-19 2005-03-10 Fuji Photo Film Co Ltd Image identification method and device, object identification method and device, and program
JP2006079326A (en) * 2004-09-09 2006-03-23 Sysmex Corp Classification support map preparation method, program for executing the method, and classification support map preparation device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05210739A (en) * 1991-09-12 1993-08-20 Fuji Photo Film Co Ltd Method for recognizing subject
JPH05174149A (en) * 1991-12-26 1993-07-13 Nippon Telegr & Teleph Corp <Ntt> Picture recognition device
JP2000259838A (en) * 1999-03-12 2000-09-22 Fujitsu Ltd Image tracking device and recording medium
JP2004164563A (en) * 2002-09-26 2004-06-10 Toshiba Corp Image analysis method, image analysis apparatus, image analysis program
JP2005063308A (en) * 2003-08-19 2005-03-10 Fuji Photo Film Co Ltd Image identification method and device, object identification method and device, and program
JP2006079326A (en) * 2004-09-09 2006-03-23 Sysmex Corp Classification support map preparation method, program for executing the method, and classification support map preparation device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TAKIZAWA H. ET AL.: "Jiko Soshikika Map o Mochiita Senko Sharyo Ninshiki Shuho", IEICE TECHNICAL REPORT PRMU, vol. 101, no. 302, 6 September 2001 (2001-09-06), pages 23 - 28, XP003022341 *

Also Published As

Publication number Publication date
JP2008102589A (en) 2008-05-01

Similar Documents

Publication Publication Date Title
JP6351240B2 (en) Image processing apparatus, image processing method, and program
US8144932B2 (en) Image processing apparatus, image processing method, and interface apparatus
CN111524137B (en) Cell identification counting method and device based on image identification and computer equipment
KR101410489B1 (en) Face detection and method and apparatus
JP6192271B2 (en) Image processing apparatus, image processing method, and program
JP5777367B2 (en) Pattern identification device, pattern identification method and program
US20110211233A1 (en) Image processing device, image processing method and computer program
JP5549345B2 (en) Sky detection apparatus and method used in image acquisition apparatus
CN109308711B (en) Target detection method and device and image processing equipment
JP2022510622A (en) Image processing model training methods, image processing methods, network equipment, and storage media
US20210133980A1 (en) Image processing apparatus, training apparatus, image processing method, training method, and storage medium
CN108305253B (en) Pathological image classification method based on multiple-time rate deep learning
KR20130043222A (en) Gesture recognition system for tv control
JP2008033424A (en) Image processor, image processing method, program, and storage medium
CN110032932B (en) Human body posture identification method based on video processing and decision tree set threshold
WO2005064540A1 (en) Face image detection method, face image detection system, and face image detection program
JP5578816B2 (en) Image processing device
JP7005213B2 (en) Image analyzer
CN115984969A (en) Lightweight pedestrian tracking method in complex scene
CN113052170A (en) Small target license plate recognition method under unconstrained scene
CN111028263B (en) Moving object segmentation method and system based on optical flow color clustering
JP7210890B2 (en) Behavior recognition device, behavior recognition method, its program, and computer-readable recording medium recording the program
JP2005134966A (en) Face image candidate area retrieval method, retrieval system and retrieval program
WO2008047774A1 (en) Moving image processing device, moving image processing method, and moving image processing program
CN111079516B (en) Pedestrian gait segmentation method based on deep neural network

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07829866

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07829866

Country of ref document: EP

Kind code of ref document: A1