JP2008102589A - 動画像処理装置および動画像処理方法ならびに動画像処理プログラム - Google Patents

動画像処理装置および動画像処理方法ならびに動画像処理プログラム Download PDF

Info

Publication number
JP2008102589A
JP2008102589A JP2006282496A JP2006282496A JP2008102589A JP 2008102589 A JP2008102589 A JP 2008102589A JP 2006282496 A JP2006282496 A JP 2006282496A JP 2006282496 A JP2006282496 A JP 2006282496A JP 2008102589 A JP2008102589 A JP 2008102589A
Authority
JP
Japan
Prior art keywords
moving object
object region
vector data
pixel
winner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006282496A
Other languages
English (en)
Other versions
JP2008102589A5 (ja
Inventor
Nobuyuki Matsui
伸之 松井
Naotake Kamiura
尚武 上浦
Teijiro Isogawa
悌次郎 礒川
Yuzo Ogawa
雄三 小川
Akitsugu Otsuka
晃嗣 大塚
Kenji Iwatani
憲司 岩谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toa Corp
Original Assignee
Toa Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toa Corp filed Critical Toa Corp
Priority to JP2006282496A priority Critical patent/JP2008102589A/ja
Priority to PCT/JP2007/070132 priority patent/WO2008047774A1/ja
Publication of JP2008102589A publication Critical patent/JP2008102589A/ja
Publication of JP2008102589A5 publication Critical patent/JP2008102589A5/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】 自己組織化マップを用いて動画像中の移動物体を検知する、新規な動画像処理装置を提供する。
【解決手段】 カメラ20から出力されたコンポジットビデオ信号は、入力変換部50によって、カラー画像データに変換される。そして、このカラー画像データは、画像分割部52および枠設定部56を介して、特徴抽出部58に入力される。特徴抽出部58は、入力されたカラー画像データのn次元の特徴を抽出し、抽出された特徴データは、制御部60に入力される。制御部60は、マップ62と共に、ブロック単位学習型の自己組織化マップを構成し、当該マップ62に特徴データを印加することで、それぞれの画素が移動物体領域および背景領域のいずれを形成するのかを識別する。そして、この識別結果に基づいて、移動物体領域のみがモニタ40に表示されるように、出力変換部70を制御する。
【選択図】 図3

Description

本発明は、動画像処理装置および動画像処理方法ならびに動画像処理プログラムに関し、特に自己組織化マップ(Self-Organizing Maps;以下、SOMと言う。)を用いて動画像中の移動物体を検知する動画像処理装置および動画像処理方法ならびに動画像処理プログラムに関する。
SOMは、多次元のデータを、その位相関係を維持しつつ、2次元状のマップに写像するものであり、例えば、未知のデータを分類するのに用いられる。そして、このSOMを発展させた技術として、従来、例えば、特許文献1に開示されたものがある。この特許文献1に開示された従来技術によれば、マップを構成する複数のセルが、その集合体であるブロック単位で扱われ、つまり、当該ブロック単位で学習が行なわれると共に、当該ブロックのベクトルデータに基づいて未知データが分類される。これにより、セル単体で学習が行なわれると共に、当該セル単体のベクトルデータに基づいて未知データが分類される、という言わば一般のSOMに比べて、より正確な学習および未知データの分類が実現される、とされている。
さらに、特許文献2には、主たるマップである未学習マップの他に擬似マップが設けられており、この擬似マップにより学習が逐一行なわれ、全ての学習データに基づく学習が行なわれた後、一括して、当該擬似マップによる学習結果が未学習マップに反映される技術が、開示されている。そして、この特許文献2に開示された従来技術によれば、擬似マップによる学習が行なわれている最中に、未学習マップを構成する各セルのベクトルデータが変化することはないので、当該各セルのベクトルデータに基づく未知データの分類が常に正確に行なわれる、とされている。なお、この特許文献2に開示された従来技術は、特許文献1に開示された従来技術と同様、マップを構成する各セルがブロック単位で扱われる場合にも適用可能である、とされている。
特開2006−53842号公報 特開2006−79326号公報
ところで、一般のSOMにおいては、学習に先立って、各種パラメータの設定が必要であり、しかも、最重要とされる学習係数および近傍の広さというパラメータは、学習が進行するに連れて単調に減少する。従って、学習中に学習データが変化する場合や、新たな学習データが追加される場合に、当該学習係数および近傍の広さが適切に対応することができず、つまり正確な学習が行われない、という不都合が生じる。
これに対して、各特許文献1および2に開示された従来技術では、各セルがブロック単位で扱われることによって、上述の学習係数や近傍の広さのような単調減少性のパラメータが排除される。従って、学習中に学習データが変化する場合や、新たな学習データが追加される場合にも、十分に対応することができる。これは、即ち、時々刻々と変化する動画像のデータを学習データとして採用しつつ、当該動画像を構成する各画素が移動物体領域および非移動物体領域のいずれを形成しているのかを識別すること、言い換えれば移動物体を検知すること、への応用が期待されることを、意味する。
そこで、本発明は、SOMを用いて動画像中の移動物体を適確に検知することができる新規な動画像処理装置および動画像処理方法ならびに動画像処理プログラムを提供することを、目的とする。
この目的を達成するために、第1の発明の動画像処理装置は、移動物体領域を形成する画素と非移動物体領域を形成する画素とを含む画像データが入力され、この画像データのn(n;複数)個の特徴を当該画素ごとに抽出してn次元の第1ベクトルデータを生成する抽出手段と、2次元状に配置されておりそれぞれn次元の第2ベクトルデータを有すると共に移動物体領域および非移動物体領域のいずれか一方のクラスに属する複数のニューロンを含むマップと、を具備する。さらに、互いに隣り合う一部のニューロンから成る複数のブロックのうち、それぞれを構成する当該ニューロンの第2ベクトルデータの統計である第3ベクトルデータが第1ベクトルデータに対応する勝者ブロックを、画素ごとに探索する探索手段と、勝者ブロックを構成するニューロンの属するクラスに基づいてそれぞれの画素が移動物体領域および非移動物体領域のいずれを形成するのかを識別する識別手段と、この識別手段による識別結果およびそれぞれの画素の第1ベクトルデータに基づいて当該画素に対応する勝者ブロックを構成するニューロンの第2ベクトルデータおよびクラスを更新する更新手段と、をも具備する。そして、更新手段によって全ての画素に基づく更新が行なわれた後、動画像を構成する新たな画像データが抽出手段に入力される、というものである。
即ち、この第1の発明では、画像データを構成するそれぞれの画素ごとに、n個の特徴が、抽出手段によって抽出される。そして、抽出手段は、抽出したn個の特徴を表すn次元の第1ベクトルデータを、それぞれの画素ごとに生成する。その一方で、マップを構成する各ニューロンは、それぞれn次元の第2ベクトルデータを有すると共に、移動物体領域および非移動物体領域のいずれかのクラスに属している。そして、探索手段によって、互いに隣り合う一部のニューロンの集合体である複数のブロックが組み立てられると共に、これら複数のブロックの中からそれぞれの画素に対応する勝者ブロックが当該画素ごとに探索される。具体的には、それぞれの画素ごとに、その第1ベクトルデータに最も対応する第3ベクトルデータを有するブロック、より具体的には、当該第1ベクトルデータとの間のユークリッド距離が最も短い第3ベクトルデータを有するブロック、が勝者ブロックとされる。なお、第3ベクトルデータとは、それぞれのブロックを構成するニューロンの第2ベクトルデータの統計であり、例えば平均値である。そして、勝者ブロックを構成する各ニューロンの属するクラスに基づいて、それぞれの画素が移動物体領域および非移動物体領域のいずれを形成するのかが、識別手段によって識別される。さらに、この識別手段による識別結果およびそれぞれの画素の第1ベクトルデータに基づいて、それぞれの画素に対応する勝者ブロックを構成するニューロンの第2ベクトルデータおよびクラスが、更新手段によって更新され、言わば学習される。そして、この更新手段によって全ての画素に基づく学習が行われた後、動画像を構成する新たな画像データが抽出手段に入力される。つまり、画像データを構成する各画素の識別、および当該識別後の各画素に基づく学習が、継続して行われる。
なお、この第1の発明においては、識別手段によって移動物体領域を形成すると識別された画素のみを表示させる表示手段を、さらに備えてもよい。このようにすれば、動画像のうち移動物体のみを取り出して、表示させることができる。
また、探索手段は、互いに同サイズの複数のブロックのうち第3ベクトルデータが第1ベクトルデータに対応する勝者候補ブロックをそれぞれの画素ごとに探索する勝者候補探索手段と、この勝者候補探索手段によって探索された勝者候補ブロック内においてよりサイズの小さい別の勝者候補ブロックを順次探索するように当該勝者候補探索手段による探索を当該画素ごとに繰り返し実行させる繰り返し実行手段と、勝者候補探索手段による探索が繰り返し実行されることによって探索された複数の勝者候補ブロックのうち第3ベクトルデータが最も第1ベクトルに対応するものを勝者ブロックとして当該画素ごとに決定する決定手段と、を含むものであってもよい。つまり、この構成によれば、いわゆる決定木方式により、互いにサイズの異なる複数の勝者候補ブロックが順次探索される。そして、これら複数の勝者候補ブロックの中から、真の勝者ブロックが決定される。このように、勝者ブロックの探索に決定木方式を採用することによって、当該勝者ブロックの探索に要する演算量が低減され、探索手段の負担が軽減される。このことは、探索手段を含む動画像処理装置全体の処理速度を向上させるのに、極めて有効である。
さらに、更新手段は、識別手段によって全ての画素に基づく識別が行なわれた後に、一括して、言わばバッチ的に、当該全ての画素に基づく更新を行うものとしてもよい。このようにすれば、更新手段による更新に要する演算量が低減され、当該更新手段の負担が軽減される。このこともまた、更新手段を含む動画像処理装置全体の処理速度を向上させるのに、極めて有効である。
そして、この第1の発明における画像データは、色情報を含むものであってもよい。この場合、抽出手段は、当該色情報を画像データの特徴として抽出するのが、望ましい。なお、ここで言う色情報とは、一般に知られているRGBフォーマットに従う色空間情報であってもよいし、YUVフォーマットに従う色空間情報であってもよい。また、印刷用のCMYKフォーマットに従う色空間情報であってもよい。
さらに、それぞれの画素についての特徴は、当該画素の近傍にある近傍画素、例えば周辺画素、の当該特徴をも含むものであってもよい。
また、抽出手段は、互いに隣り合う複数の画素を1画素として取り扱うものであってもよい。このようにすれば、抽出手段を含む動画像処理装置全体の処理の負担が軽減され、当該動画像処理装置全体の処理速度を向上させるのに、極めて有効である。
そして、移動物体領域と一部の非移動物体領域とを含む枠を設定する枠設定手段を、さらに備えると共に、抽出手段は、当該枠内にある画素のみを取り扱うものとしてもよい。このようにすることによっても、抽出手段を含む動画像処理装置全体の処理の負担が軽減され、当該動画像処理装置全体の処理速度を向上させるのに、極めて有効である。また、非移動物体領域(特に枠外の非移動物体領域)を形成する画素が移動物体領域を形成するものであると誤って識別される可能性が減り、換言すればそのような画素がノイズとなって影響するのが抑制される。
続いて、第2の発明は、第1の発明に対応する動画像処理方法に関する発明であり、具体的には、移動物体領域を形成する画素と非移動物体領域を形成する画素とを含む画像データのn(n;複数)個の特徴を当該画素ごとに抽出してn次元の第1ベクトルデータを生成する抽出過程と、それぞれn次元の第2ベクトルデータを有すると共に移動物体領域および非移動物体領域のいずれか一方のクラスに属する複数のニューロンが2次元状に配置されたマップを形成するマップ形成過程と、を具備する。さらに、互いに隣り合う一部のニューロンから成る複数のブロックのうち、それぞれを構成する当該ニューロンの第2ベクトルデータの統計である第3ベクトルデータが第1ベクトルデータに対応する勝者ブロックを、画素ごとに探索する探索過程と、勝者ブロックを構成するニューロンの属するクラスに基づいてそれぞれの画素が移動物体領域および非移動物体領域のいずれを形成するのかを識別する識別過程と、この識別過程における識別結果およびそれぞれの画素の第1ベクトルデータに基づいて当該画素に対応する勝者ブロックを構成するニューロンの第2ベクトルデータおよびクラスを更新する更新過程と、をも具備する。そして、更新過程において全ての画素に基づく更新が行なわれた後、動画像を構成する新たな画像データが抽出過程における処理の対象とされる、というものである。
即ち、この第2の発明を実施することで、第1の発明と同様の作用を奏することができる。
第3の発明は、第1の発明に対応する動画像処理プログラムに関する発明であり、具体的には、移動物体領域を形成する画素と非移動物体領域を形成する画素とを含む画像データのn(n;複数)個の特徴を当該画素ごとに抽出してn次元の第1ベクトルデータを生成する抽出手順と、それぞれn次元の第2ベクトルデータを有すると共に移動物体領域および非移動物体領域のいずれか一方のクラスに属する複数のニューロンが2次元状に配置されたマップを形成するマップ形成手順と、を具備する。さらに、互いに隣り合う一部のニューロンから成る複数のブロックのうち、それぞれを構成する当該ニューロンの第2ベクトルデータの統計である第3ベクトルデータが第1ベクトルデータに対応する勝者ブロックを、画素ごとに探索する探索手順と、勝者ブロックを構成するニューロンの属するクラスに基づいてそれぞれの画素が移動物体領域および非移動物体領域のいずれを形成するのかを識別する識別手順と、この識別手順による識別結果およびそれぞれの画素の第1ベクトルデータに基づいて当該画素に対応する勝者ブロックを構成するニューロンの第2ベクトルデータおよびクラスを更新する更新手順と、を具備する。そして、これら抽出手順、マップ形成手順、探索手順、識別手順および更新手順を、コンピュータに実行させると共に、当該更新手順によって全ての画素に基づく更新が行なわれた後、動画像を構成する新たな画像データが抽出手順による処理の対象とされる、というものである。
即ち、この第3の発明を実施することによっても、第1の発明と同様の作用を奏することができる。
上述したように、本発明によれば、画像データを構成するそれぞれの画素が移動物体領域および非移動物体領域のいずれを形成するものであるのかの識別、および当該識別後の各画素に基づく学習が、継続して行われる。これにより、動画像に含まれる移動物体を継続して検知することができる。また、移動物体がどのような態様であろうとも、学習によってその態様に応じた特徴を正確に捉えることができるので、様々な移動物体(状況)に柔軟かつ適確に対応することができる。
本発明の一実施形態について、図1〜図14を参照して説明する。
図1に示すように、本実施形態に係る動画像処理システム10は、カラービデオカメラ(以下、単にカメラと言う。)20と、動画像処理装置30と、モニタ40と、を備えている。
このうち、カメラ20は、いわゆる固定式のものであり、図示しない固定具によって適当な場所に固定される。そして、カメラ20は、レンズ22を介して入射される被写界の光学像をアナログ電気信号であるコンポジットビデオ信号に変換し、出力する。このカメラ20から出力されたコンポジットビデオ信号は、動画像処理装置30に入力され、動画像処理装置30は、入力されたコンポジットビデオ信号に対して次のような処理を施す。
即ち、当該コンポジットビデオ信号に従う入力画像が、例えば図2(a)に示すように、移動物体領域100と、非移動物体領域、言わば背景領域102と、を含む場合、動画像処理装置30は、このうちの移動物体領域100のみを取り出す。そして、この移動物体領域100のみを取り出した画像を表示させるための処理後ビデオ信号を生成し、出力する。この処理後ビデオ信号は、モニタ40に入力され、これにより、当該モニタ40の表示画面に、図2(b)に示すような移動物体領域100のみを取り出した画像が映し出される。
つまり、動画像処理装置30は、カメラ20から与えられる動画像中の移動物体領域110を自動的に検知して、これをモニタ40に表示させる、という機能を奏する。そして、この機能を実現するために、動画像処理装置30は、図3に示すような構成とされている。
即ち、動画像処理装置30は、カメラ20からのコンポジットビデオ信号が入力される入力変換回路50を、有している。この入力変換回路50は、入力されたコンポジットビデオ信号を、YUVフォーマットに従うディジタル映像信号、言わばカラー画像データ、に変換して、出力する。
入力変換回路50から出力されたカラー画像データは、画像分割部52に入力される。画像分割部52は、入力されたカラー画像データに従う1フレームごとの画像を、複数画素ずつ、例えばa×a(a;2以上の整数)画素ずつ、分割する。具体的には、図4(a)に示すように、入力画像の水平方向の画素数がHであり、垂直方向の画素数がVであるとき、画像分割部52は、図4(b)に示すように、当該入力画像を水平方向にH’(=H/a)個、垂直方向にV’(=V/a)個、の計H’×V’個の小区画110,110,…に分割する。なお、本実施形態においては、H×Vが640×480であり、a×aが4×4であり、よって、H’×V’は160×120であり、言い換えれば計19200(=160×120)個の小区画110,110,…に入力画像が分割される。
この画像分割部52による分割後のカラー画像データは、初期検知部54および枠設定部56のそれぞれに入力される。このうち、初期検知部54は、動画像中に移動物体領域100が現れたときに最初にこれを検知するためのものであり、一般に知られているフレーム差分法等の画像処理法によって当該移動物体領域100を検知する。そして、この初期検知部54によって移動物体領域100が検知されると、当該移動物体領域100を表す画素、厳密には上述の小区画110,110,…、の位置(座標)データが、枠設定部56に入力される。
枠設定部56は、初期検知部54から上述の位置データが入力されると、これに基づいて、図5に示すように、移動物体領域100を囲む矩形枠120を設定する。そして、この矩形枠120によって囲まれた小区画110,110,…のカラー画像データのみが、特徴抽出部58に入力される。
特徴抽出部58は、入力されたカラー画像データの特徴を抽出するためのものであり、具体的には、それぞれの小区画110ごとに、当該小区画110に含まれる画素(16個の画素)のYUVそれぞれの色情報を抽出して、その平均値および分散値を求める。さらに、それぞれの小区画110と、これを取り囲む8個の周辺小区画110,110,…と、の計9個の小区画110,110,…のYUVそれぞれの色情報の平均値および分散値を求め、これをも中心の小区画(言わば注目小区画)110の特徴として付加する。つまり、それぞれの小区画110ごとに、合計12種類、言わば12次元、の第1ベクトルデータとしての特徴データX[t,g]={x[t,g],x[t,g],…,x[t,g],…,x[t,g]}(tは、フレーム番号(離散時間)を表すインデックスであり、gは、小区画110の番号を表すインデックスであり、iは、特徴の番号(次元)を表すインデックスであり、当該iの最大値nは、n=12である。)が抽出される。そして、抽出された特徴データX[t,g]は、制御部60に入力される。
制御部60は、マップ62と共に、言わばブロック単位学習型のSOMを実現するためのものであり、特徴抽出部58から入力されたそれぞれの小区画110についての特徴データX[t,g]をマップ62に印加することで、当該小区画110が移動物体領域100および背景領域102のいずれを形成するのかを識別すると共に、この識別後の特徴データを学習データとしてマップ62の学習を行い、詳しくは後述する参照ベクトルw を更新すると共に、クラス分けを行う。なお、上述した初期検知部54によって移動物体領域100が検知された当初の第1フレームについては、マップ62は言わば未学習の状態にあるので、当該初期検知部54から得られる移動物体領域110の位置データに基づいて、それぞれの小区画110が移動物体領域100および背景領域102のいずれを形成するのかが識別される。
より具体的に説明すると、まず、マップ62は、図6に示すように、2次元状に配置されたm×m個のニューロン64,64,…を、有する。なお、この実施形態においては、m=6とされており、つまり全36(=6×6)個のニューロン64,64,…が設けられている。そして、各ニューロン64,64,…には、それぞれ第2ベクトルデータとしての参照ベクトルw (jは、後述するブロック66内におけるそれぞれのニューロン64の番号を表すインデックスである。)が、個別に付与されている。
一方、制御部60は、マップ62上において、2×2個以上のニューロン64,64,…から成る正方形のブロック66を種々形成する。そして、これらのブロック66,66,…のうち、それぞれが持つ第3ベクトルデータとしてのブロック参照ベクトルB={b,b,…,b,…,b}が、上述の特徴データX[t,g]に最も対応するもの、詳しくはこれら両者間のユークリッド距離D=|X[t,g]−B|が最も短いもの、を探索して、これを勝者ブロックとする。なお、ここで言うブロック参照ベクトルBは、それぞれのブロック66を構成する各ニューロン64,64,…の参照ベクトルw の統計であり、例えば平均値である。詳しくは、当該ブロック参照ベクトルBの任意(i次)の要素bは、次の数1で表される。
ここで、αは、ブロック66を構成するニューロン64の総数であり、言い換えれば当該ブロック66内におけるニューロン64の番号jの最大値である。
ただし、マップ62上で考えられるブロック66の総数Tは、次の数2で表されるように膨大であり、当該マップ62のサイズm×mが大きくなるほど指数的に増大する。従って、この膨大な数のブロック66,66,…の全てについてユークリッド距離Dを求め、ひいては勝者ブロックを求めるのは、制御部60にとってかなりの負担になる。
そこで、本実施形態における制御部60は、図7に示すような決定木方式に基づいて、勝者ブロックを探索する。即ち、まず、同図(a)に示すマップ62上の全領域m×mのうち、同図(b)に示すように、これよりもサイズが1つ小さい[m−1]×[m−1]サイズの全ての(4つの)ブロック66,66,…を選択する。そして、選択された4つのブロック66,66,…のうち、それぞれのブロック参照ベクトルB={b,b,…,b,…,b}と特徴データX[t,g]との間のユークリッド距離D=|X[t,g]−B|が最も短いものを探索して、これを勝者候補ブロックとする。なお、同図(b)において、右から2番目の斜線模様68で示されるブロック66が、勝者候補ブロックを表す。
このようにして[m−1]×[m−1]サイズの勝者候補ブロック68が決まると、制御部60は、図7(c)に示すように、当該勝者候補ブロック68内において、これよりもさらにサイズが1つ小さい[m−2]×[m−2]サイズの全てのブロック66,66,…を選択する。そして、上述と同じ要領で、これらのブロック66,66,…の中から[m−2]×[m−2]サイズの勝者候補ブロック68を探索する。そして、これと同様に、同図(d)に示すように、[m−2]×[m−2]サイズの勝者候補ブロック68内において、これよりもサイズが1つ小さい[m−3]×[m−3]サイズの勝者候補ブロック68を探索する。この勝者候補ブロック68の探索は、同図(e)に示すように、2×2(本実施形態では[m−4]×[m−4])サイズの勝者候補ブロック68が探索されるまで、続けられる。
このようにして[m−1]×[m−1]サイズ〜2×2サイズまでの各サイズの勝者候補ブロック68,68,…が決まると、制御部60は、これらの勝者候補ブロック68,68,…の中から最も上述したユークリッド距離D=|X[t,g]−B|の小さいものを選出する。そして、選出した勝者候補ブロック68を、言わば真の勝者ブロックとして決定する。
このような決定木方式に基づいて勝者ブロックを探索することで、ユークリッド距離Dを求める対象となるブロック66の総数Tは、上述の数2で表される値よりも激減し、詳しくは次の数3で表される値となる。
これにより、勝者ブロックを探索する際の制御部60の負担が大きく軽減され、当該制御部60を含む動画像処理装置30の処理速度の向上が図られる。
制御部60は、それぞれの小区画110について、この勝者ブロックの探索を行う。そして、それぞれの小区画110について勝者ブロックが決まるごとに、次の数4に基づいて、当該勝者ブロックを構成するそれぞれのニューロン64の参照ベクトルw と当該小区画110の特徴データX[t,g]との偏差の累積量wd [t,g]を、算出する。
併せて、制御部60は、次の数5に基づいて、偏差累積率wr [t,g]を算出する。
そして、全ての小区画110,110,…について勝者ブロックを決定すると共に、偏差累積量wd [t,g]および偏差累積率wr [t,g]を算出すると、制御部60は、次の数6に基づいて、それぞれのニューロン64の参照ベクトルw を更新する。
なお、上述の如く、全ての小区画110,110,…について勝者ブロックを決定すると共に、偏差累積量wd [t,g]および偏差累積率wr [t,g]を算出する、という制御部60による一連の処理を、本実施形態では、エポックと言う。つまり、それぞれのニューロン64の参照ベクトルw は、1回のエポックが終了するごとに、一括して、言わばバッチ的に、更新される。制御部60は、このエポックを、1フレームにつき複数回、例えば30回、繰り返す。そして、この30回にわたるエポックの実行後、次のフレームについて、当該30回にわたるエポックを繰り返す。
さて、制御部60は、上述したように、第1フレームについては、初期検知部54から与えられる移動物体領域110の位置データに基づいて、それぞれの小区画110が移動物体領域100および背景領域102のいずれを形成するのかを識別するが、第2フレーム以降は、マップ62を用いて当該識別を行う。このため、制御部60は、第1フレームについての識別後、その識別結果に基づいて、マップ62上の各ニューロン64,64,…のクラス分けを行う。
このクラス分けについては、上述した特許文献1および2にも開示されているが、簡単に説明すると、まず、制御部60は、それぞれの小区画110…に対応する勝者ブロックの各ニューロン64,64,…に、当該小区画110の識別結果、つまり当該小区画110が移動物体領域100および背景領域102のいずれを形成するものであるのか、を表す所定の指標値を、付与する。そして、全ての小区画110,110,…の識別結果に基づいて各ニューロン64,64,…に指標値を付与した後、それぞれのニューロン64ごとに付与された指標値の統計、例えば平均値、を求める。そして、この平均値が、移動物体領域100および背景領域102のいずれの指標値に近いのかを判別し、この判別結果に基づいて、それぞれのニューロン64が移動物体領域100および背景領域102のいずれのクラスに属するのかを決定する。この結果、マップ62上の各ニューロン64,64,…は、図8に示すように、移動物体領域100に属するもの(格子模様)と、背景領域102に属するもの(斜線模様)とに、クラス分けされる。
このクラス分けされたマップ62を用いて、制御部60は、第2フレーム以降のそれぞれの小区画110が移動物体領域100および背景領域102のいずれを形成するのかを識別する。具体的には、勝者ブロックを構成する各ニューロン64,64,…のうち移動物体領域100に属するものが多い小区画110については、当該移動物体領域100を形成するものと識別する。これとは反対に、勝者ブロックを構成する各ニューロン64,64,…のうち背景領域102に属するものが多い小区画110については、当該背景領域102を形成するものと識別する。なお、勝者ブロックを構成する各ニューロン64,64,…のうち移動物体領域100に属するものと背景領域102に属するものとが同数である小区画110については、予め定めたいずれか一方の領域、例えば移動物体領域100、を形成するものと識別する。
この制御部60による識別結果は、出力変換部70に与えられる。出力変換部70には、上述した入力変換部50からカラー画像データが入力されており、当該出力変換部70は、入力されたカラー画像データのうち、制御部60によって移動物体領域100を形成すると識別された小区画110を構成する画素のみを表示させるための上述した処理後ビデオ信号を生成する。そして、この処理後ビデオ信号がモニタ40に入力されることで、当該モニタ40の表示画面に、図9に示すような移動物体領域100のみの画像が映し出される。
さらに、制御部60は、第2フレーム以降のそれぞれの小区画110についてマップ62を用いて識別した結果に基づいて、改めて当該マップ62上の各ニューロン64,64,…のクラス分けを行う。つまり、各ニューロン64,64,…の参照ベクトルw のみならず、当該各ニューロン64,64,…のクラスについても、新たなフレームが入力されるたびに更新される。要するに、前回のフレームによって学習されたマップ62により今回のフレームについての識別が行われ、この識別が行われた後の今回のフレームによって次回のフレームのために改めてマップ62が学習される。そして、この識別と学習とが、継続して行われる。
なお、移動物体領域100を形成する小区画110がなくなると、つまり動画像から当該移動物体領域100がなくなると、制御部60は、識別および学習を停止する。併せて、初期検知部54をリセットする。これによって、動画像処理装置30は、移動物体領域100が現れる前の初期状態に戻る。
図10に、本実施形態の動画像処理装置30の実際の入力画像と出力画像との一例を示す。なお、同図において、左側に示される画像が入力画像であり、右側に示される画像が出力画像である。また、同図(a),(b)および(c)は、それぞれ第1フレーム,第20フレームおよび第40フレームの画像である。この図10から、カメラ20の被写界(視野)を横切ろうとしている人間のみが、移動物体として検知されていることが、分かる。つまり、本実施形態の動画像処理装置30によって、当該移動物体を適確に検知できることが、確認された。
このようなマップ62を用いての移動物体検知を実現するべく、制御部60は、図11および図12のフローチャートで示される物体検知タスクを実行する。
即ち、初期検知部54によって移動物体領域100が検知されると、具体的には当該初期検知部54から言わば初期識別データとしての上述の位置データが入力されると、制御部60は、図11のステップS1に進み、当該初期識別データとしての位置データを記憶する。そして、ステップS3に進み、移動物体領域100が検知されたことを表すフラグFに“1”を設定した後、ステップS5に進む。
ステップS5において、制御部60は、マップ62を初期化し、詳しくは当該マップ62上の各ニューロン64,64,…の参照ベクトルw に乱数を設定する。そして、ステップS7に進み、特徴抽出部58から特徴データX[t,g]を取得する。この特徴データX[t,g]もまた、制御部60によって記憶される。さらに、制御部60は、ステップS9において、上述したエポックの実行回数を表すインデックスeにその初期値である“1”を設定した後、ステップS11において、上述した矩形枠120内の小区画110の番号を表すインデックスgにその初期値である“1”を設定し、ステップS13の勝者ブロック探索処理を実行する。
このステップS13の勝者ブロック探索処理においては、制御部60は、上述した決定木方式に基づいて勝者ブロックを探索する。そして、今現在の処理の対象である小区画110について勝者ブロックが決定すると、制御部60は、ステップS15に進み、上述したフラグFが“0”であるか否かを判定する。
このステップS15において、フラグFが“0”でない場合、つまり移動物体領域100が検知された直後である場合、制御部60は、ステップS17に進み、上述のステップS1で記憶した初期識別データに基づいて、当該移動物体領域100のみを表示させるよう出力変換部70を制御する。そして、制御部60は、ステップS19において、フラグFに“0”を設定した後、ステップS21の更新準備処理に進む。
一方、ステップS15において、フラグFが“0”である場合、つまり移動物体領域100が検知されてから上述のステップS17を実行した経験がある場合、制御部60は、ステップS23に進む。そして、このステップS23において、今現在のエポックの実行回数eが“1”回目であるか否かを判定し、“1”回目である場合は、ステップS25の識別処理に進む。
このステップS25の識別処理において、制御部60は、今現在の処理の対象である小区画110の特徴データX[t,g]をマップ62に印加して、当該小区画110が移動物体領域100および背景領域102のいずれを形成するものであるのかを識別する。そして、この識別結果に基づいて、ステップS27において出力変換部70を制御する。つまり、今現在の処理の対象である小区画110が移動物体領域100を形成する場合にはこれを表示させ、そうでない場合には表示させないように、出力変換部70を制御する。そして、このステップS27の実行後、ステップS21の更新準備処理に進む。
ステップS21の更新準備処理において、制御部60は、上述した数4に基づいて、勝者ブロックを構成するそれぞれのニューロン64についての偏差累積量wd [t,g]を算出すると共に、数5に基づいて、偏差累積率wr [t,g]を算出する。そして、これらの算出後、ステップS29に進む。
ステップS29において、制御部60は、今現在の処理の対象である小区画110の番号gがその最大値Gに達したか否か、つまり全ての小区画110,110,…についてステップS13〜ステップS27を一通り実行したか否か、を判定する。そして、未だ当該ステップS13〜ステップS27を実行していない小区画110が存在する場合には、それを実行するべく、ステップS31に進み、小区画110の番号gの値を“1”つインクリメントした後、ステップS13に戻る。一方、全ての小区画110,110,…についてステップS13〜ステップS27を一通り実行した場合には、ステップS33に進む。
ステップS33において、制御部60は、上述した数6に基づいて、それぞれのニューロン64の参照ベクトルw を更新する。そして、この更新後、図12のステップS35に進み、エポックの実行回数eがその最大値Eに達したか否かを、判定する。なお、上述したように、本実施形態におけるエポックの最大実行回数Eは、30回である。
このステップS35において、エポックの実行回数eが最大値E(=30)に達していない場合は、改めて当該エポックを繰り返すべく、制御部60は、ステップS37に進み、エポックの実行回数eの値を“1”つインクリメントした後、図11のステップS11に戻る。一方、エポックの実行回数eが最大値Eに達した場合には、ステップS35からステップS39に進む。
ステップS39において、制御部60は、動画像上に移動物体領域100が未だ存在するか否かを判定する。そして、当該移動物体領域100が存在する場合には、ステップS41のクラス分け処理に進む。
ステップS41のクラス分け処理においては、制御部60は、上述した要領で、マップ62上の各ニューロン64,64,…のクラス分けを行う。そして、このクラス分けの完了後、新たなフレームの特徴データX[t+1,g]を取得するべく、ステップS43において、フレーム番号tの値を“1”つインクリメントした後、図11のステップS7に戻る。
なお、上述のステップS39において、移動物体領域100の存在が確認されない場合には、制御部60は、ステップS45に進む。そして、このステップS45において、初期検知部54をリセットして、一連の物体検知タスクを終了する。
ここで、この物体検知タスクにおけるステップS13の勝者ブロック探索処理について、図13を参照して、さらに詳しく説明する。
即ち、勝者ブロック探索処理においては、制御部60は、まず、ステップS101に進み、マップ62全体を仮の勝者候補ブロック68として設定する。そして、ステップS103に進み、これから探索しようとする勝者候補ブロック68のサイズpを設定し、詳しくはp=m−1というサイズを設定する。
そして、制御部60は、ステップS105に進み、勝者候補ブロック68内にあるp×pというサイズの全てのブロック66,66,…のうち、それぞれのブロック参照ベクトルBと特徴データX[t,g]との間のユークリッド距離Dが最も短いものを探索する。そして、このステップS105で探索されたブロック66を、次のステップS107において勝者候補ブロック68として記憶し、併せて当該勝者候補ブロック68のユークリッド距離Dを記憶する。
さらに、制御部60は、ステップS109に進み、今現在のブロックサイズpがその最小値である“2”に達したか否かを判定する。そして、達していない場合には、ステップS111に進み、ブロックサイズpを“1”つ小さくした後、ステップS105に戻る。一方、ブロックサイズpが最小値である“2”に達した場合には、ステップS113に進む。
ステップS113において、制御部60は、上述のステップS105〜ステップS107を繰り返すことで探索された複数の勝者候補ブロック68,68,…のうち、最もユークリッド距離Dが短いものを探索する。そして、探索された勝者候補ブロック68を真の勝者ブロックとして決定して、この図13のフローチャートで示される勝者ブロック探索処理を終了する。
さらに、図14を参照して、上述した物体検知タスクにおけるステップS21の更新準備処理について、詳しく説明する。
即ち、更新準備処理においては、制御部60は、まず、ステップS201に進み、今現在の勝者ブロック内におけるニューロン64の番号を表すインデックスjに、その初期値である“1”を設定する。そして、ステップS203に進み特徴(次元)の番号を表すインデックスiに、その初期値である“1”を設定した後、ステップS205に進む。
ステップS205において、制御部60は、上述した数4に基づいて、偏差累積量wd [t,g]を算出する。そして、その算出結果wd [t,g]を、次のステップS207で記憶する。
さらに、制御部60は、ステップS209に進み、上述した数5に基づいて、偏差累積率wr [t,g]を算出する。そして、その算出結果wr [t,g]を、次のステップS211で記憶した後、ステップS213に進む。
ステップS213において、制御部60は、特徴の番号を表すインデックスiの値がその最大値n(=12)に達したか否か、つまり全ての特徴についてステップS205〜ステップS211を一通り実行したか否か、を判定する。そして、未だステップS205〜ステップS211を実行していない特徴が存在する場合には、これを実行するべく、ステップS215に進み、当該インデックスiの値を“1”つインクリメントした後、ステップS205に戻る。一方、全ての特徴についてステップS205〜ステップS211を実行した場合には、ステップS217に進む。
ステップS217において、制御部60は、ニューロン64の番号を表すインデックスjの値がその最大値αに達したか否か、つまり今現在の勝者ブロック内における全てのニューロン64についてステップS203〜ステップS215を実行したか否か、を判定する。そして、未だステップS203〜ステップS215を実行していないニューロン64が存在する場合には、これを実行するべく、ステップS219に進み、当該インデックスjの値を“1”つインクリメントした後、ステップS203に戻る。一方、全てのニューロン64についてステップS203〜ステップS215を実行した場合には、これをもって、図14のフローチャートで示される更新準備処理を終了する。
以上のように、本実施形態によれば、マップ62を構成する各ニューロン64,64,…をブロック単位で扱うというブロック単位学習型のSOMを利用して、動画像中の移動物体領域100を検知するための動画像処理装置30を実現することができる。また、移動物体領域100がどのような態様であろうとも(例えば黒っぽいとか赤っぽいとかであっても)、学習によってその態様に応じた特徴を正確に捉えることができるので、様々な移動物体領域100の態様(状況)に柔軟かつ適確に対応することができる。
なお、本実施形態においては、図3に示した画像分割部52によって、図4に示したように入力画像をa×a画素ずつ分割することとしたが、これに限らない。例えば、a×b(b;aとは異なる整数)画素ずつ分割してもよいし、極端には分割しなくてもよく、つまり図3の構成から画像分割部52を排除してもよい。ただし、このような画像分割部52を設けることによって、これよりも後段、特に制御部60、の負担が軽減される。このことは、当該制御部60を含む動画像処理装置30全体の処理速度を向上させるのに、極めて有効である。
また、図3に示した枠設定部56によって、図5に示したように矩形枠120を設定すると共に、この矩形枠120によって囲まれた小区画110,110,…のカラー画像データのみが特徴抽出部58に入力されるようにしたが、これに限らない。即ち、図3の構成からこの枠設定部56を排除して、全ての小区画110,110,…(または画素)のカラー画像データが特徴抽出部58に入力されるようにしてもよい。ただし、このような枠設定部56を設けることによって、これよりも後段、特に特徴抽出部58および制御部60、の負担が軽減される。このこともまた、動画像処理装置30全体の処理速度を向上させるのに、極めて有効である。また、特に、矩形枠120以外の背景領域102に移動物体領域100と同様の特徴を有する小区画110が存在する場合に、これが移動物体領域100を構成するものと誤って識別される可能性が減り、言い換えればそのような小区画110が一種のノイズとなって影響するのが抑制される。
さらに、図3に示した特徴抽出部58によって、それぞれの小区画110ごとに、周辺小区画110,110,…の色情報をも含む12種類(次元)の特徴を抽出することとしたが、これに限らない。例えば、当該周辺小区画110,110,…の色情報を排除して、それぞれの小区画(注目小区画)110自体の色情報の平均値および分散値から成る6種類の特徴を抽出してもよいし、当該平均値および分散値の一方のみを抽出してもよい。また、YUVではなく、RGBの色情報を抽出してもよいし、輝度情報を抽出してもよい。さらに、それぞれの画素の位置(座標)情報を、併せて抽出してもよい。つまりは、状況に応じて適宜の特徴を抽出すればよい。
そして、図3に示した制御部60によって、図7に示したように決定木方式に基づいて勝者ブロックを探索することとしたが、これに限らない。即ち、マップ62上で考えられる全てのブロック66,66,…についてそれぞれのユークリッド距離Dを求め、その結果を基に勝者ブロックを探索してもよい。ただし、この場合は、上述したように制御部60にかなりの負担が掛かるので、好ましくは、本実施形態のように決定木方式に基づいて勝者ブロックを探索することを推奨する。
また、制御部60によって、1回のエポックが終了するごとに、バッチ的に、それぞれのニューロン64の参照ベクトルw を更新することとしたが、これに限らない。例えば、それぞれの小区画110について勝者ブロックが決定されるごとに、当該参照ベクトルw を更新してもよい。なお、この場合の更新式は、次の数7で表される。
ただし、勝者ブロックが決定されるごとにこの数7に基づいて参照ベクトルw を更新する場合は、言うまでもなく、バッチ的に更新する場合に比べて、制御部60の負担が大きい。従って、好ましくは、本実施形態のようにバッチ的に更新することを推奨する。
そしてさらに、制御部60によって、1フレームにつきエポックを30回繰り返すこととしたが、これに限らない。例えば、前回のエポックと今回のエポックとのそれぞれにおける偏差累積量wd [t,g]の差、言わば量子化誤差、を求め、この量子化誤差が所定の閾値以下となったときに、次のフレームに進んでもよい。
また、それぞれのブロック66のサイズをp×pとし、言い換えれば当該ブロック66の形状を正方形としたが、長方形としてもよい。ただし、特に勝者ブロックを決定する際を含め、制御部60による処理を簡素化する上では、当該ブロック66の正方形とするのが、望ましい。マップ62についても、同様に、m×mの正方形である必要はなく、長方形でもよいが、正方形の方が好都合である。
また、本実施形態では、図1に示したカメラ20として、固定式のものを採用したが、雲台を備えた可動式のものを採用してもよい。特に、動画像処理装置30(制御部60)によって検出された移動物体領域100の画像上での位置(座標)情報に基づいて、当該移動物体領域100を当該画像上の中心位置に移動させるための変位量を求め、この変位量に基づいて雲台を制御(パンおよびチルト)するようにすれば、常に移動物体をカメラの中心で捉えるという、いわゆる自動追尾機能を実現することができる。この自動追尾機能を実現する場合であっても、上述したマップ62のブロック単位での識別および学習手順については、本実施形態で説明した固定式カメラ20の場合と同様である。また、この識別および学習を行うに当たっては、言うまでもなく各画素の位置(座標)情報は必須要素である。従って、ここで言う変位量を求めるのに特段な問題はなく、ゆえに、自動追尾機能を実現するのにも本発明は極めて有用である。
なお、本実施形態における動画像処理装置30は、パーソナルコンピュータ等の汎用のコンピュータによって実現することができる。また、このように汎用コンピュータを動画像処理装置30として機能させるためのプログラムのみを、提供することもできる。
この発明の一実施形態の概略構成を示す図である。 同実施形態における入力画像と出力画像との関係を示す図解図である。 図1における動画像処理装置の詳細な構成を示すブロック図である。 図3における画像分割部による処理の内容を説明するための図解図である。 図3における枠設定部部による処理の内容を説明するための図解図である。 図3におけるマップの構成を概念的に示す図解図である。 図3における制御部による処理の内容を説明するための図解図である。 図3におけるマップがクラス分けされた状態を概念的に示す図解図である。 図5に対する出力画像を示す図解図である。 同実施形態における実際の入力画像と出力画像とを示す図解図である。 図3における制御部が実行する物体検知タスクの概略を示すフローチャートである。 図11に続くフローチャートである。 図11における勝者ブロック探索処理の詳細を示すフローチャートである。 図10における更新準備処理の詳細を示すフローチャートである。
符号の説明
10 動画像処理システム
20 カメラ
30 動画像処理装置
40 モニタ
50 入力変換部
52 画像分割部
56 枠設定部
58 特徴抽出部
60 制御部
62 マップ
70 出力変換部

Claims (10)

  1. 移動物体領域を形成する画素と非移動物体領域を形成する画素とを含む画像データが入力され該画像データのn(n;複数)個の特徴を該画素ごとに抽出してn次元の第1ベクトルデータを生成する抽出手段と、
    2次元状に配置されておりそれぞれn次元の第2ベクトルデータを有すると共に上記移動物体領域および上記非移動物体領域のいずれか一方のクラスに属する複数のニューロンを含むマップと、
    互いに隣り合う一部の上記ニューロンから成る複数のブロックのうちそれぞれを構成する該ニューロンの上記第2ベクトルデータの統計である第3ベクトルデータが上記第1ベクトルデータに対応する勝者ブロックを上記画素ごとに探索する探索手段と、
    上記勝者ブロックを構成する上記ニューロンの属する上記クラスに基づいてそれぞれの上記画素が上記移動物体領域および上記非移動物体領域のいずれを形成するのかを識別する識別手段と、
    上記識別手段による識別結果およびそれぞれの上記画素の上記第1ベクトルデータに基づいて該画素に対応する上記勝者ブロックを構成する上記ニューロンの上記第2ベクトルデータおよび上記クラスを更新する更新手段と、
    を具備し、
    上記更新手段によって全ての上記画素に基づく更新が行なわれた後、動画像を構成する新たな上記画像データが上記抽出手段に入力される、
    動画像処理装置。
  2. 上記識別手段によって上記移動物体領域を形成すると識別された上記画素のみを表示させる表示手段をさらに備える、請求項1に記載の動画像処理装置。
  3. 上記探索手段は、互いに同サイズの複数の上記ブロックのうち上記第3ベクトルデータが上記第1ベクトルデータに対応する勝者候補ブロックを上記画素ごとに探索する勝者候補探索手段と、該勝者候補探索手段によって探索された該勝者候補ブロック内においてよりサイズの小さい別の勝者候補ブロックを順次探索するように該勝者候補探索手段による探索を該画素ごとに繰り返し実行させる繰り返し実行手段と、該勝者候補探索手段による探索が繰り返し実行されることによって探索された複数の該勝者候補ブロックのうち該第3ベクトルデータが最も該第1ベクトルデータに対応するものを上記勝者ブロックとして該画素ごとに決定する決定手段と、を含む、請求項1または2に記載の動画像処理装置。
  4. 上記更新手段は上記識別手段によって全ての上記画素に基づく識別が行なわれた後に一括して該全ての画素に基づく更新を行なう、請求項1ないし3のいずれかに記載の動画像処理装置。
  5. 上記画像データは色情報を含み、
    上記特徴は上記色情報を含む、
    請求項1ないし4のいずれかに記載の動画像処理装置。
  6. それぞれの上記画素についての上記特徴は該画素の近傍にある近傍画素の特徴をも含む、請求項1ないし5のいずれかに記載の動画像処理装置。
  7. 上記抽出手段は互いに隣り合う複数の上記画素を1画素として取り扱う、請求項1ないし6のいずれかに記載の動画像処理装置。
  8. 上記移動物体領域と一部の上記非移動物体領域とを含む枠を設定する枠設定手段をさらに備え、
    上記抽出手段は上記枠内にある上記画素のみを取り扱う、
    請求項1ないし7のいずれかに記載の動画像処理装置。
  9. 移動物体領域を形成する画素と非移動物体領域を形成する画素とを含む画像データのn(n;複数)個の特徴を該画素ごとに抽出してn次元の第1ベクトルデータを生成する抽出過程と、
    それぞれn次元の第2ベクトルデータを有すると共に上記移動物体領域および上記非移動物体領域のいずれか一方のクラスに属する複数のニューロンが2次元状に配置されたマップを形成するマップ形成過程と、
    互いに隣り合う一部の上記ニューロンから成る複数のブロックのうちそれぞれを構成する該ニューロンの上記第2ベクトルデータの統計である第3ベクトルデータが上記第1ベクトルデータに対応する勝者ブロックを上記画素ごとに探索する探索過程と、
    上記勝者ブロックを構成する上記ニューロンの属する上記クラスに基づいてそれぞれの上記画素が上記移動物体領域および上記非移動物体領域のいずれを形成するのかを識別する識別過程と、
    上記識別過程における識別結果およびそれぞれの上記画素の上記第1ベクトルデータに基づいて該画素に対応する上記勝者ブロックを構成する上記ニューロンの上記第2ベクトルデータおよび上記クラスを更新する更新過程と、
    を具備し、
    上記更新過程において全ての上記画素に基づく更新が行なわれた後、動画像を構成する新たな上記画像データが上記抽出過程における処理の対象とされる、
    動画像処理方法。
  10. 移動物体領域を形成する画素と非移動物体領域を形成する画素とを含む画像データのn(n;複数)個の特徴を該画素ごとに抽出してn次元の第1ベクトルデータを生成する抽出手順と、
    それぞれn次元の第2ベクトルデータを有すると共に上記移動物体領域および上記非移動物体領域のいずれか一方のクラスに属する複数のニューロンが2次元状に配置されたマップを形成するマップ形成手順と、
    互いに隣り合う一部の上記ニューロンから成る複数のブロックのうちそれぞれを構成する該ニューロンの上記第2ベクトルデータの統計である第3ベクトルデータが上記第1ベクトルデータに対応する勝者ブロックを上記画素ごとに探索する探索手順と、
    上記勝者ブロックを構成する上記ニューロンの属する上記クラスに基づいてそれぞれの上記画素が上記移動物体領域および上記非移動物体領域のいずれを形成するのかを識別する識別手順と、
    上記識別手順による識別結果およびそれぞれの上記画素の上記第1ベクトルデータに基づいて該画素に対応する上記勝者ブロックを構成する上記ニューロンの上記第2ベクトルデータおよび上記クラスを更新する更新手順と、
    をコンピュータに実行させるための動画像処理プログラムであって、
    上記更新手順によって全ての上記画素に基づく更新が行なわれた後、動画像を構成する新たな上記画像データが上記抽出手順による処理の対象とされる、
    動画像処理プログラム。
JP2006282496A 2006-10-17 2006-10-17 動画像処理装置および動画像処理方法ならびに動画像処理プログラム Pending JP2008102589A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006282496A JP2008102589A (ja) 2006-10-17 2006-10-17 動画像処理装置および動画像処理方法ならびに動画像処理プログラム
PCT/JP2007/070132 WO2008047774A1 (en) 2006-10-17 2007-10-16 Moving image processing device, moving image processing method, and moving image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006282496A JP2008102589A (ja) 2006-10-17 2006-10-17 動画像処理装置および動画像処理方法ならびに動画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2008102589A true JP2008102589A (ja) 2008-05-01
JP2008102589A5 JP2008102589A5 (ja) 2009-03-05

Family

ID=39314002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006282496A Pending JP2008102589A (ja) 2006-10-17 2006-10-17 動画像処理装置および動画像処理方法ならびに動画像処理プログラム

Country Status (2)

Country Link
JP (1) JP2008102589A (ja)
WO (1) WO2008047774A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101799876A (zh) * 2010-04-20 2010-08-11 王巍 一种视音频智能分析管控系统
CN101859436A (zh) * 2010-06-09 2010-10-13 王巍 一种大幅规律运动背景智能分析管控系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112017214B (zh) * 2019-05-29 2024-08-02 多方科技(广州)有限公司 前景及背景影像判断方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05174149A (ja) * 1991-12-26 1993-07-13 Nippon Telegr & Teleph Corp <Ntt> 画像認識装置
JPH05210739A (ja) * 1991-09-12 1993-08-20 Fuji Photo Film Co Ltd 被写体認識方法
JP2000259838A (ja) * 1999-03-12 2000-09-22 Fujitsu Ltd 画像追跡装置及び記録媒体
JP2004164563A (ja) * 2002-09-26 2004-06-10 Toshiba Corp 画像解析方法、画像解析装置、画像解析プログラム
JP2005063308A (ja) * 2003-08-19 2005-03-10 Fuji Photo Film Co Ltd 画像識別方法および装置、オブジェクト識別方法および装置ならびにプログラム
JP2006079326A (ja) * 2004-09-09 2006-03-23 Sysmex Corp 分類支援マップ作成方法およびそれを実行するためのプログラムならびに分類支援マップ作成装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05210739A (ja) * 1991-09-12 1993-08-20 Fuji Photo Film Co Ltd 被写体認識方法
JPH05174149A (ja) * 1991-12-26 1993-07-13 Nippon Telegr & Teleph Corp <Ntt> 画像認識装置
JP2000259838A (ja) * 1999-03-12 2000-09-22 Fujitsu Ltd 画像追跡装置及び記録媒体
JP2004164563A (ja) * 2002-09-26 2004-06-10 Toshiba Corp 画像解析方法、画像解析装置、画像解析プログラム
JP2005063308A (ja) * 2003-08-19 2005-03-10 Fuji Photo Film Co Ltd 画像識別方法および装置、オブジェクト識別方法および装置ならびにプログラム
JP2006079326A (ja) * 2004-09-09 2006-03-23 Sysmex Corp 分類支援マップ作成方法およびそれを実行するためのプログラムならびに分類支援マップ作成装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101799876A (zh) * 2010-04-20 2010-08-11 王巍 一种视音频智能分析管控系统
CN101859436A (zh) * 2010-06-09 2010-10-13 王巍 一种大幅规律运动背景智能分析管控系统

Also Published As

Publication number Publication date
WO2008047774A1 (en) 2008-04-24

Similar Documents

Publication Publication Date Title
JP5284048B2 (ja) 画像処理装置、撮像装置及び画像処理方法
JP6351240B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
JP4764172B2 (ja) 画像処理による移動体候補の検出方法及び移動体候補から移動体を検出する移動体検出方法、移動体検出装置及び移動体検出プログラム
JP7223079B2 (ja) 画像処理装置およびその制御方法、ならびに撮像装置
JP2005190400A (ja) 顔画像検出方法及び顔画像検出システム並びに顔画像検出プログラム
JP7005213B2 (ja) 画像解析装置
JP2011053951A (ja) 画像処理装置
CN105357517B (zh) 屏幕的图像检测方法和装置
JP2010165052A (ja) 画像処理装置及び画像処理方法
US20180205877A1 (en) Information processing apparatus, information processing method, system, and non-transitory computer-readable storage medium
US9842260B2 (en) Image processing apparatus and image processing method of performing image segmentation
JP6851163B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2005134966A (ja) 顔画像候補領域検索方法及び検索システム並びに検索プログラム
CN107958202B (zh) 人体检测设备、人体检测设备的控制方法和存储介质
JP6511950B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2008102589A (ja) 動画像処理装置および動画像処理方法ならびに動画像処理プログラム
WO2018037479A1 (ja) 画像処理装置、ステレオカメラ装置及び画像処理方法
JP6044138B2 (ja) 画像領域分割装置、方法、およびプログラム
JP2015165433A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6350331B2 (ja) 追尾装置、追尾方法及び追尾プログラム
EP2541469A2 (en) Image recognition device, image recognition method and image recognition program
JP6348020B2 (ja) 画像処理装置、画像処理方法およびそれを用いた検査方法。
JP5702960B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5786838B2 (ja) 画像領域分割装置、方法、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101005

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110215