JP2008250908A - 映像判別方法および映像判別装置 - Google Patents
映像判別方法および映像判別装置 Download PDFInfo
- Publication number
- JP2008250908A JP2008250908A JP2007094626A JP2007094626A JP2008250908A JP 2008250908 A JP2008250908 A JP 2008250908A JP 2007094626 A JP2007094626 A JP 2007094626A JP 2007094626 A JP2007094626 A JP 2007094626A JP 2008250908 A JP2008250908 A JP 2008250908A
- Authority
- JP
- Japan
- Prior art keywords
- video
- category
- discriminating
- input
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
【課題】入力映像があらかじめ定められたカテゴリに含まれるものか否かを正確かつ高速に判別することが可能な映像判別方法を提供する。
【解決手段】カメラにより撮像されて入力される映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する場合、あらかじめ前記カテゴリに属する映像サンプルを複数のクラスに分割し、その分割結果に基づいて学習した識別器それぞれの識別結果を統合し、この統合結果に基づき前記入力された映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する。
【選択図】 図1
【解決手段】カメラにより撮像されて入力される映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する場合、あらかじめ前記カテゴリに属する映像サンプルを複数のクラスに分割し、その分割結果に基づいて学習した識別器それぞれの識別結果を統合し、この統合結果に基づき前記入力された映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する。
【選択図】 図1
Description
本発明は、たとえば、車両に搭載されて車両の後側方を監視する映像監視システムや被監視エリアに対する映像を用いた侵入者監視システム、顔画像を用いた生体認証システム等において、入力映像があらかじめ定められたカテゴリに含まれるものであるか否か、たとえば、入力映像が本来のシステムが取扱うことを想定していないクラスであるかどうかを判別する映像判別方法および映像判別装置に関する。
一般に、たとえば、車両に搭載されて車両の後側方を監視する映像監視システムや被監視エリアに対する映像を用いた侵入者監視システム、顔画像を用いた生体認証システム等において、入力映像が本来のシステムが取扱うことを想定していないクラスであるかどうかを判別する機能を備えたものは少ない。
また、対象とする映像を映像蓄積データベースから、映像特徴にしたがって高速かつ高精度に検索するための手法が望まれている。
また、対象とする映像を映像蓄積データベースから、映像特徴にしたがって高速かつ高精度に検索するための手法が望まれている。
前者の例で監視・警報装置において、入力映像が本来の監視処理に対して適正かどうかを判別するものとして、逆光やスミヤのような輝度レベルの問題に注目し、画面内の輝度レベルの代表値をある対象問題にのみ依存する閾値にしたがって評価し、判別するものがある(たとえば、特許文献1、特許文献2参照)。
特許文献1では、画面内の水平方向の輝度分布を異常時の分布と比較することで正常、異常のカテゴリ判別を行なっている。また、特許文献2においては、映像の水平方向のエッジが少なく、かつ、平均輝度が高いときに異常と判別するものである。
後者の例では、映像中の輝度ヒストグラムの類似度をデータベース中の画像のそれと順次比較し、判別することで最も類似するものを求める方法がある。また、映像中に存在することがあらかじめわかっている特定対象物について、その対象物の映像から生成した統計的情報をデータベースに蓄積し、入力映像からも同様な統計情報を抽出することで、それら統計情報同士の類似度を比較し、判別することで最も類似するものを求める方法がある。この場合の対象物として、たとえば、人物の顔や車両の外観といったものがあげられる。
特開2001−43377号公報
特開2001−43352号公報
前述したシステムへの適正映像クラスか否かを判別するための従来技術からなる装置の大部分では、判別する特徴量が陽に特定された場合に有効な方式であり、入力映像のクラスを判別するための特徴量が明確に特定しにくい場合には条件を満たさないことも考えられる。
このような例として、入力映像の輝度が非常に不足している場合、および、悪天候による雨滴、雪等、または、その他なんらかの汚れ、ゴミ等の撮像面への付着、故意に正常映像が遮られてしまった場合、画面が著しく振動して振れた画像となってしまった場合に生じる映像とそうでない場合の映像との判別を行なう場合がある。
たとえば、前述の特許文献1や特許文献2などでは、逆光やスミヤのような輝度レベルの影響によって起こる異常な映像と正常な映像とを判別するものであるが、判別に用いる特徴としての輝度分布やエッジ量の判定を水平方向のみで行なっており、車両の進行方向が暗に画面垂直方向に仮定されたもののみを判別するものとなっており、一般に不充分と考えられる。
また、一般に車両に搭載されて車両の後側方を監視する映像監視システムにおいて起こりうる異常状態としては、このような輝度レベルの問題以外に、カメラの撮像系レンズ面等に付着物が存在するために起こるものも多く、そのための対策が考慮されていない。
一方、映像蓄積データベースからの検索の従来技術に用いられる判別特徴は、輝度ヒストグラムや映像そのものである場合が多く、汎用性が高いと考えられる。また、これらは厳密な判別特徴量を与えている代わりに、判別すべき典型的映像をカテゴリ分けして記憶しておき、入力映像がどのカテゴリに存在するのかを判別しているものとも考えられる。
これらの手法では、統計的に判別に有効な特徴を自動的に算出するものであるが、従来一般的に用いられている単純類似度を用いたもの、部分空間を用いたもの、判別分析を用いたものなどでは、対象とする映像として一般環境下の自然画像、自然映像が用いられる場合、その複雑さのため、判別が困難になる場合がある。
また、判別に有効な手法として非線形サポートベクターマシンがあるが、この手法では一般に判別に要する時間が他の手法に比べて多く、問題である。
そこで、本発明は、入力映像があらかじめ定められたカテゴリに含まれるものか否かを正確かつ高速に判別することが可能な映像判別方法および映像判別装置を提供することを目的とする。
本発明の映像判別方法は、撮像手段により撮像されて入力される映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する映像判別方法であって、あらかじめ前記カテゴリに属する映像サンプルを複数のクラスに分割し、その分割結果に基づいて学習した識別器それぞれの識別結果を統合する学習ステップと、この学習ステップによる統合結果に基づき前記入力された映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する判別ステップとを具備している。
また、本発明の映像判別方法は、撮像手段により撮像されて入力される映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する映像判別方法であって、あらかじめ前記カテゴリに属する映像サンプルを複数のクラスに分割し、そのカテゴリごとに分割されたクラスを選択して、その分割クラスと入力映像との関係から求められる識別結果について、分割クラスの組合わせを複数用意し、その各組合わせにおける識別結果の重みつき加算を用いることで統合する学習ステップと、この学習ステップによる統合結果に基づき前記入力された映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する判別ステップとを具備している。
また、本発明の映像判別装置は、撮像手段により撮像されて入力される映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する映像判別装置であって、あらかじめ前記カテゴリに属する映像サンプルを複数のクラスに分割し、その分割結果に基づいて学習した識別器それぞれの識別結果を統合する学習手段と、この学習手段による統合結果に基づき前記入力された映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する判別手段とを具備している。
また、本発明の映像判別装置は、撮像手段により撮像されて入力される映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する映像判別装置であって、あらかじめ前記カテゴリに属する映像サンプルを複数のクラスに分割し、そのカテゴリごとに分割されたクラスを選択して、その分割クラスと入力映像との関係から求められる識別結果について、分割クラスの組合わせを複数用意し、その各組合わせにおける識別結果の重みつき加算を用いることで統合する学習手段と、この学習手段による統合結果に基づき前記入力された映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する判別手段とを具備している。
本発明によれば、入力映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する場合、あらかじめ前記カテゴリに属する映像サンプルを複数のクラスに分割し、その分割結果に基づいて学習した識別器それぞれの識別結果を統合し、この統合結果に基づき前記入力映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別することにより、入力映像があらかじめ定められたカテゴリに含まれるものか否かを正確かつ高速に判別することが可能な映像判別方法および映像判別装置を提供できる。
以下、本発明の実施の形態について図面を参照して説明する。
図1は、本発明の実施の形態に係る映像判別装置の構成を概略的に示すものである。この映像判別装置は、たとえば、車両に搭載されて車両の後側方を監視する車載映像監視システムや被監視エリアに対する映像を用いた侵入者監視システム等において、入力された映像があらかじめ定められた監視適合映像(正常)であるか不適合映像(異常)であるかを判別するもので、映像入力手段としての映像入力部11、判定教示手段としての判定教示部12、学習手段としての学習部13、記憶手段としての記憶部14、判別手段としての判別部15、判別結果通知手段としての判別結果通知部16、および、映像監視手段としての映像監視部17を有して構成される。
図1は、本発明の実施の形態に係る映像判別装置の構成を概略的に示すものである。この映像判別装置は、たとえば、車両に搭載されて車両の後側方を監視する車載映像監視システムや被監視エリアに対する映像を用いた侵入者監視システム等において、入力された映像があらかじめ定められた監視適合映像(正常)であるか不適合映像(異常)であるかを判別するもので、映像入力手段としての映像入力部11、判定教示手段としての判定教示部12、学習手段としての学習部13、記憶手段としての記憶部14、判別手段としての判別部15、判別結果通知手段としての判別結果通知部16、および、映像監視手段としての映像監視部17を有して構成される。
映像入力部11は、後述のように映像処理の状態(学習処理中か否か)を保持する記憶制御手段とカメラおよびA/D変換器、あるいは、ディジタル映像入力手段等を有して構成される。ここでの映像はアナログ、ディジタルのいずれでもよく、前者であれば、たとえばNTSC映像として入力した後、A/D変換してディジタル映像化して取込み、後者であれば、ディジタル映像として直接取込むが、ディジタル化されたときのフォーマットとしては各画素についてモノクロの8〜16ビット長のデータとして取込むもの、あるいは、カラーのRGBそれぞれ8〜16ビット長として取込んだものからモノクロ成分を抽出したものとしてもよい。
判定教示部12は、入力映像や監視処理結果等を表示する表示装置、および、ユーザの映像判定結果(入力映像が正常あるいは異常という判定結果、つまり教示属性)を入力するための入力手段(たとえば、マウス、キーボード等)を有して構成されるもので、たとえば、ディジタルコンピュータの構成品によって実現してよい。
学習部13は、判定教示部12からの教示属性に基づき、入力映像に対する学習処理を実行することで識別器パラメータを求めるもので、詳細は後述する。記憶部14は、学習部13で求められた識別器パラメータ等を記憶する。
判別部15は、記憶部14に記憶された識別器パラメータに基づき、入力映像に対する映像判別処理を行なうもので、詳細は後述する。判別結果通知部16は、判別部15の判別結果をユーザに対して出力・通報する。
これら学習部13、記憶部14、判別部15、判別結果通知部16も、たとえば、ディジタルコンピュータによって実現してよい。
映像監視部17は、本実施の形態において判別しようとしている入力映像を用いて本来の監視動作を実施するための処理手段であり、映像を用いた一般の侵入者監視システム、生体認証システム、あるいは、車載映像監視システム等が該当する。
次に、上記のような構成において全体的な処理について説明する。
本映像判別装置の処理は大きく分けると、入力映像が監視映像として適切なものかどうかを判断するために、サンプル映像を映像監視部17に与えて、その結果が適切かどうかを教示するための映像登録学習ステップと、その結果を用いて実際に与えられた入力映像について正常/異常を判定する映像判定ステップとからなる。この場合の全体的な処理の流れを図2のフローチャートに示し、以下順に説明を行なうが、映像登録学習ステップは図2におけるステップS1〜S8の処理に対応し、映像判定ステップは図2におけるステップS1,S9〜S13の処理に対応する。
本映像判別装置の処理は大きく分けると、入力映像が監視映像として適切なものかどうかを判断するために、サンプル映像を映像監視部17に与えて、その結果が適切かどうかを教示するための映像登録学習ステップと、その結果を用いて実際に与えられた入力映像について正常/異常を判定する映像判定ステップとからなる。この場合の全体的な処理の流れを図2のフローチャートに示し、以下順に説明を行なうが、映像登録学習ステップは図2におけるステップS1〜S8の処理に対応し、映像判定ステップは図2におけるステップS1,S9〜S13の処理に対応する。
以下、図2のフローチャートを参照して全体的な処理の流れを説明する。
まず、映像入力部11において、学習処理を実施中か否かを判定し(ステップS1)、映像を入力する(ステップS2またはS9)。すなわち、ステップS1における判定の結果、現在学習処理中であったならば、映像入力部11により入力サンプル映像を入力し(ステップS2)、当該サンプル映像に対して映像監視部17による映像監視処理を適用し(ステップS3)、その監視結果および入力映像を判定教示部12に表示する(ステップS4)。
まず、映像入力部11において、学習処理を実施中か否かを判定し(ステップS1)、映像を入力する(ステップS2またはS9)。すなわち、ステップS1における判定の結果、現在学習処理中であったならば、映像入力部11により入力サンプル映像を入力し(ステップS2)、当該サンプル映像に対して映像監視部17による映像監視処理を適用し(ステップS3)、その監視結果および入力映像を判定教示部12に表示する(ステップS4)。
ユーザは、判定教示部12に表示された監視結果および入力映像を目視することで、入力映像が正常であるか異常であるかを判定し、その判定結果(教示属性)を判定教示部12によって教示する(ステップS5)。この教示された判定結果は、このときの入力映像とともに学習部13に一時蓄積される。
次に、上記処理が全サンプル映像について終了したか否かを判定し(ステップS6)、全サンプル映像にいたっていない場合にはステップS1に戻り、上記同様な処理が繰り返される。ステップS6における判定の結果、全サンプル映像にいたっている場合には、映像入力部11によるサンプル映像の入力を終了する(ステップS7)。
次に、学習部13は、判定教示部12からの教示属性に基づき、入力映像に対する学習処理を実行することで識別器パラメータを求め、その求めた識別器パラメータを記憶部14に記憶する(ステップS8)。
一方、ステップS1における判定の結果、現在学習処理中でなければ、これは実際の映像監視中での適用ということになり、映像入力部11により監視映像を判別部15に入力する(ステップS9)。
次に、判別部15は、記憶部14に記憶された識別器パラメータに基づき、入力映像に対する映像判別処理を行ない(ステップS10)、その判別結果を判別結果通知部16によりユーザに対して出力・通報する(ステップS11)。
次に、監視映像の入力が継続されているか否かを判定し(ステップS12)、継続されていればステップS1に戻り、上記同様な処理が繰り返される。ステップS12における判定の結果、継続されていなければ当該映像判別処理を終了する(ステップS13)。
次に、入力映像が監視映像として適切なものかどうかを判断するための映像登録学習ステップの処理について説明する。
前述のように、映像入力部11から取込まれた映像について、映像監視部17での処理結果を参照しながら、判定教示部12をユーザが操作することによって、「異常」あるいは「正常」と分類する。さらに、この分類結果と、入力映像に対して学習部13において行なわれる統計処理結果を用いて、上述の入力映像、正常/異常の関係を学習する。
前述のように、映像入力部11から取込まれた映像について、映像監視部17での処理結果を参照しながら、判定教示部12をユーザが操作することによって、「異常」あるいは「正常」と分類する。さらに、この分類結果と、入力映像に対して学習部13において行なわれる統計処理結果を用いて、上述の入力映像、正常/異常の関係を学習する。
以下、学習部13にて行なわれる学習処理の流れについて図3に示すフローチャートを参照して説明する。
学習部13内に蓄積された各サンプル入力映像、および、それぞれについての映像分類(カテゴリ)教示結果を、学習部13内に設けられた映像登録学習処理を実施するためのメモリエリア上に取得する(ステップS21,S22)。なお、ステップS21では、実際は入力映像を後述の特徴ベクトルに変換(以下「サンプル入力特徴ベクトル」と呼ぶ)して用いる。
学習部13内に蓄積された各サンプル入力映像、および、それぞれについての映像分類(カテゴリ)教示結果を、学習部13内に設けられた映像登録学習処理を実施するためのメモリエリア上に取得する(ステップS21,S22)。なお、ステップS21では、実際は入力映像を後述の特徴ベクトルに変換(以下「サンプル入力特徴ベクトル」と呼ぶ)して用いる。
ここで、サンプル入力特徴ベクトルは、映像中のある瞬時画像全体から抽出した特徴量を用いることとし、たとえば、サンプル映像シーン中の各フレーム画像について各画素の輝度値を1次元ベクトルとして用いてもよいし、各画像の輝度頻度分布、フレーム間差分画像の頻度分布、フレーム間差分画像の頻度分布、オプティカルフローの方向ごとの頻度分布などを1つのベクトルとして合成して用いてもよい。また、瞬時画像を用いず、ある複数フレームごとにサンプリングした画像列から上述の特徴量を抽出し、それら複数画像内のベクトルとしてまとめて扱ってもよい。
次に、ステップS11にてサンプル入力特徴ベクトルをカテゴリごとに、さらに複数の分類(サブカテゴリ)に分割する(ステップS23)。この分割方法としては、従来知られたK−means法など一般的な統計的クラスタリング手法を用いてよい。
次に、各サブカテゴリに分割された各サンプルを線形判別分析し、線形判別空間を示す行列(線形判別行列)を保存する(ステップS24)。ここに、線形判別分析は、代表ベクトル同士のサブカテゴリ内分散Wiとサブカテゴリ内分散Woとの比(Wi/Wo)を最小化するような変換であり、サブカテゴリ間の距離を拡大し、サブカテゴリ内のベクトル同士の距離を縮小する効果がある。つまり、これによって、ある入力がどのサブカテゴリに含まれるのかを判定する際の識別性能を向上させる効果をもたらす。
次に、各カテゴリについて、属する各サンプルを前記線形判別空間に射影させることで、サブカテゴリの代表ベクトルを算出し、保存する(ステップS25)。代表ベクトルの算出方法は数種類考えられるが、本実施の形態では線形判別分析を各サンプル入力特徴ベクトルについて適用する。
ここに、各サブカテゴリの代表ベクトルは、各サブカテゴリ内に存在するサンプル入力特徴ベクトルの重心ベクトルを前記線形判別空間に射影させることで生成するもので、そのサブカテゴリが元来いずれのカテゴリ(ここでは「正常」または「異常」のいずれか)から分割されて生じたかを示す属性を付与する。
なお、このような代表ベクトル算出方法としては、これ以外に例えばサンプル映像シーン中の各フレーム画像について上述の特徴ベクトルを抽出し、これらを前記同様にサブカテゴリに分類し、各サブカテゴリ内のベクトルを主成分分析してそれぞれを上位n個(nはサブカテゴリ数未満の整数)の固有ベクトルから張られる部分空間で代表させることを利用してもよい。ただし、この方法の場合には、前述の線形判別分析を用いる方法のようにサブカテゴリ間距離を強制的に拡大する効果はない。
次に、ステップS26の処理を実行し、続いてステップS27〜S31までの処理を、ステップS32の条件が満たされている間繰り返す。ここに、ステップS26は本繰り返し処理の初期化処理であり、後述の(a)に示す処理である。
また、ステップS27〜S31までの処理では、前記各サンプル入力特徴ベクトルを線形判別空間に射影したもの(以下、「サンプル入力射影ベクトル」と呼ぶ)とサブカテゴリ代表ベクトル同士の距離を比較することで、入力がどのカテゴリ(ここでは「正常」カテゴリか「異常」カテゴリ)に所属するのかを判別する識別器(弱識別器)を複数の候補から1つずつ選択し、サンプル入力に対するその応答を決定する。
ここに、入力から弱識別器の応答を決定するためには、各カテゴリから入力と比較するためのサブカテゴリ代表ベクトルをそれぞれ1つずつ抽出することと、後述する式(5)、式(6)に示す特徴量に対する頻度分布が必要である。したがって、本ステップの結果として、弱識別器での距離比較対照となるサブカテゴリ代表ベクトルの番号(弱識別器構成用サブカテゴリ代表ベクトル番号)、および、頻度分布表を弱識別器パラメータとして記憶部14に保存する。
すなわち、ステップS26では、サンプル入力の重みを初期化する。次に、ステップS27では、あるカテゴリと他カテゴリとについて、それらに属するサブカテゴリ代表ベクトルを1つずつ選択して距離ペアjとする。次に、ステップS28では、入力iと距離ペアj内の代表ベクトルのうち、より近い代表ベクトルのカテゴリを特徴量fijとする。
次に、ステップS29では、全サンプル入力を用いて特徴量ラベルと興じ結果との一致、不一致の分布を算出し、保存する。次に、ステップS30では、正解、不正解の分布を基準にして、全距離ペアのうちから特定の特徴量(弱識別器)を選択するとともに、それに対する応答を決定する。次に、ステップS31では、サンプル入力の重みを更新する。
一方、ステップS32の条件が満たされた場合には、ステップS27〜S31までの処理が終了され、繰り返し回数、つまり選択された弱識別器の数が識別器のパラメータとして記憶部14に登録され保存される。ここに、ステップS32の条件としては、繰り返し数が弱識別器の総数に一致する場合か、あるいは、選択済みの弱識別器を全て用いた全サンプル入力に対する識別正解率があらかじめ設定した目標値を超えた場合のいずれかとする。
ステップS26〜S31までの処理にはいろいろな方法が考えられるが、本実施の形態においては、たとえば、周知のAdaboostアルゴリズムを用いて実現する例を示す。概略すると、その処理は以下の(a)〜(d)となり、全サンプル入力に対する弱識別器の応答を評価していずれかの弱識別器を選択し、さらに、その応答結果の分布に応じて各サンプル入力の重みを更新するものとなる。
(a)下記式(1)により、各サンプル入力の重みD(i)を均等化する。これは図3におけるステップS26の処理に相当する。
D(i)=1/M ……式(1)
M:サンプル入力数
(b)サブカテゴリ代表ベクトルiからの距離ペア(N個:サブカテゴリの組合せ数)を生成し(図3におけるステップS27の処理に相当)、当該距離ペアの大小判定結果を識別特徴量とする(図3におけるステップS28の処理に相当)。
D(i)=1/M ……式(1)
M:サンプル入力数
(b)サブカテゴリ代表ベクトルiからの距離ペア(N個:サブカテゴリの組合せ数)を生成し(図3におけるステップS27の処理に相当)、当該距離ペアの大小判定結果を識別特徴量とする(図3におけるステップS28の処理に相当)。
(c)全サンプル入力に対し上記全識別特徴量についての頻度分布を算出し(図3におけるステップS29の処理に相当)、繰り返しtラウンドでの弱識別器応答ht(x)を決定する(図3におけるステップS30の処理に相当)。
(d)ht(x)を使って、入力の確率分布Dt(i)の更新を下記式(2)にしたがって実施する。この処理は図3におけるステップS31の処理に相当する。
Dt+1(i)=Dt(i)exp(−yiht(xi)) ……式(2)
t:各繰り返しラウンド
なお、上記(a)〜(d)までの繰り返し処理に対する終了条件であるステップS3は2つの条件からなっているが、そのうちの後者は、全入力に対してその繰り返しラウンドtの時点までに選択された弱識別器の合成結果H(x)を下記式(3)にて構成し、評価することで求められる。ここに、H(x)<0は「異常」を表し、H(x)≧0は「正常」を表す。なお、bはバイアス定数である。
Dt+1(i)=Dt(i)exp(−yiht(xi)) ……式(2)
t:各繰り返しラウンド
なお、上記(a)〜(d)までの繰り返し処理に対する終了条件であるステップS3は2つの条件からなっているが、そのうちの後者は、全入力に対してその繰り返しラウンドtの時点までに選択された弱識別器の合成結果H(x)を下記式(3)にて構成し、評価することで求められる。ここに、H(x)<0は「異常」を表し、H(x)≧0は「正常」を表す。なお、bはバイアス定数である。
以上のうち、(b)の処理を詳細に説明すると以下のようになる。まず、サブカテゴリ代表ベクトル同士を比較して元カテゴリへの従属を判別する識別特徴は次のように構成する。今、ある入力が、あるカテゴリAと他のカテゴリBのいずれに属するものかを判別しようとしている場合、各カテゴリからそれぞれ1つずつサブカテゴリを選び、その代表ベクトルVa(このサブカテゴリはカテゴリAに属している:本例では「正常」)およびVb(このサブカテゴリはカテゴリBに属している:本例では「異常」)を抽出する。
次に、それら2つのサブカテゴリ代表ベクトルと入力ベクトルVとの距離に基づいて以下の識別特徴を出力する。
fj=1:ifカテゴリAとの距離<カテゴリBとの距離
fj=−1:ifカテゴリBとの距離<カテゴリAとの距離
ここに、上述のような識別特徴の構成方法概念図を図4に示す。
fj=1:ifカテゴリAとの距離<カテゴリBとの距離
fj=−1:ifカテゴリBとの距離<カテゴリAとの距離
ここに、上述のような識別特徴の構成方法概念図を図4に示す。
このとき、上記のような識別特徴は最大でサブカテゴリ代表ベクトル同士のペアの組合せ数と同数だけ生成することができる。すなわち、上述のように2つのカテゴリを判別する場合に、それぞれがNn個、Na個のサブカテゴリを有するとした場合の組合せ数の上限は
N=Nn×Na
となる。
N=Nn×Na
となる。
次に、上述の識別特徴を用いて識別器を以下のようにして構成する。前記サンプルを用いて識別器での正解(教示ラベルが識別特徴値と等しい)の場合、および、不正解(教示ラベルが識別特徴値と等しくはない)の場合、それぞれについて下記式にしたがって頻度分布
F(yi=1|fj),F(yi=−1|fj)
を算出する。
F(yi=1|fj),F(yi=−1|fj)
を算出する。
Aサンプル入力xiに対して識別器特徴量fj=−1,1の頻度分布を生成する場合
F(yi=1|fj)=Σi|xi∈fj∧yj=1D(i) ……式(4)
Bサンプル入力xiに対して識別器特徴量fj=−1,1の頻度分布を生成する場合
F(yi=−1|fj)=Σi|xi∈fj∧yj=−1D(i) ……式(5)
ここに、yiはサンプルxiのラベル(正解値)であり、その意味は以下に示すものとなる。
xiはカテゴリAに属する:yi=1
xiはカテゴリBに属する:yi=−1
上記分布を用いることで、k番目の識別器hk(x)は下記式(6)で構成できる。
F(yi=1|fj)=Σi|xi∈fj∧yj=1D(i) ……式(4)
Bサンプル入力xiに対して識別器特徴量fj=−1,1の頻度分布を生成する場合
F(yi=−1|fj)=Σi|xi∈fj∧yj=−1D(i) ……式(5)
ここに、yiはサンプルxiのラベル(正解値)であり、その意味は以下に示すものとなる。
xiはカテゴリAに属する:yi=1
xiはカテゴリBに属する:yi=−1
上記分布を用いることで、k番目の識別器hk(x)は下記式(6)で構成できる。
次に、以上のうち、(c)の処理においては、全弱識別器のうちから現状の入力分布に対して最適な応答を出力するものを、下記式(7)による損失Zを最小とする条件によって選択し、繰り返しtラウンドにおける識別器ht(x)とする。
次に、実際に与えられた入力映像について正常/異常を判定する映像判定ステップの処理について説明する。
映像判定ステップでは、判別部15において構成される前記各識別器を統合した識別器に入力映像を適用して、その映像がいずれのカテゴリに属するものかを判別し、その結果を判別結果通知部16にて通知する。この処理の流れは図5に示すフローチャートのようになり、以下、それについて説明する。
映像判定ステップでは、判別部15において構成される前記各識別器を統合した識別器に入力映像を適用して、その映像がいずれのカテゴリに属するものかを判別し、その結果を判別結果通知部16にて通知する。この処理の流れは図5に示すフローチャートのようになり、以下、それについて説明する。
まず、前述した学習処理の学習結果として記憶部14に保存された情報を用いて、実際に入力されている映像が各カテゴリクラスのうちのどれに相当するかを確認する。すなわち、映像の入力を開始する前に、前述した学習処理の学習結果として記憶部14に保存された線形判別行列および各サブカテゴリ代表ベクトルを、図示しない処理用メモリ上に準備する(ステップS41)。
次に、前述した弱識別器を構成するための弱識別器構成用サブカテゴリ代表ベクトル番号および特徴量頻度分布を、図示しない処理用メモリ上に展開し、これらをもって弱識別器を構成する(ステップS42)。
次に、前述同様な手続きにより、撮像した映像を入力し、この入力した映像から前述した学習時と同じ特徴量を抽出し(ステップS43)、各サブカテゴリ代表空間へ射影して入力射影ベクトルを生成する(ステップS44)。
次に、ステップS42にて構成ずみの各弱識別器に対して弱識別器構成用サブカテゴリ代表ベクトル番号を参照し、2つないしはそれ以上の複数のサブカテゴリ代表ベクトルを抽出し、それらのうちで入力射影ベクトルとの距離が最小なるものが属するカテゴリから前記fjを求める。この求めたfjを前記式(6)に代入することで現入力に対する弱識別器応答が求められるので、全弱識別器についての総和を求める(ステップS45)。
最後に、上記弱識別器応答の総和の符号を判定することで(ステップS46)、入力映像が属すると思われるカテゴリを推定することができる。
以上説明したように、上記実施の形態によれば、映像を用いた様々な認識システムにおいて、処理がうまく機能する/しないという結果だけを用い、そのときの入力映像との対応付け学習結果を用いた映像判別方式に適用した場合、もともとの認識処理手法の内部処理がどのような原因でうまく動作しないのかを本来の処理ごとに調査する必要がないため、映像を用いた様々な認識システムに利用可能であり、その場合に判別速度の高速と高精度化に貢献できる。
また、映像がなんらかのカテゴリに分類されている場合に、入力映像がどのカテゴリに属するのかを判断する映像データベース検索の応用についても本方式を適用することで、検索の高速、高精度化が実現できる。
11…映像入力部(映像入力手段)、12…判定教示部(判定教示手段)、13…学習部(学習手段)、14…記憶部(記憶手段)、15…判別部(判別手段)、16…判別結果通知部(判別結果通知手段)、17…映像監視部(映像監視手段)。
Claims (5)
- 撮像手段により撮像されて入力される映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する映像判別方法であって、
あらかじめ前記カテゴリに属する映像サンプルを複数のクラスに分割し、その分割結果に基づいて学習した識別器それぞれの識別結果を統合する学習ステップと、
この学習ステップによる統合結果に基づき前記入力された映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する判別ステップと、
を具備したことを特徴とする映像判別方法。 - 撮像手段により撮像されて入力される映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する映像判別方法であって、
あらかじめ前記カテゴリに属する映像サンプルを複数のクラスに分割し、そのカテゴリごとに分割されたクラスを選択して、その分割クラスと入力映像との関係から求められる識別結果について、分割クラスの組合わせを複数用意し、その各組合わせにおける識別結果の重みつき加算を用いることで統合する学習ステップと、
この学習ステップによる統合結果に基づき前記入力された映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する判別ステップと、
を具備したことを特徴とする映像判別方法。 - 前記分割されたクラスの各識別結果に対する組合わせに付与される重みは、前記各組合わせにおける入力サンプルに対する識別結果に依存して逐次的に決定されることを特徴とする請求項2記載の映像判別方法。
- 撮像手段により撮像されて入力される映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する映像判別装置であって、
あらかじめ前記カテゴリに属する映像サンプルを複数のクラスに分割し、その分割結果に基づいて学習した識別器それぞれの識別結果を統合する学習手段と、
この学習手段による統合結果に基づき前記入力された映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する判別手段と、
を具備したことを特徴とする映像判別装置。 - 撮像手段により撮像されて入力される映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する映像判別装置であって、
あらかじめ前記カテゴリに属する映像サンプルを複数のクラスに分割し、そのカテゴリごとに分割されたクラスを選択して、その分割クラスと入力映像との関係から求められる識別結果について、分割クラスの組合わせを複数用意し、その各組合わせにおける識別結果の重みつき加算を用いることで統合する学習手段と、
この学習手段による統合結果に基づき前記入力された映像があらかじめ定められたカテゴリに含まれるものであるか否かを判別する判別手段と、
を具備したことを特徴とする映像判別装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007094626A JP2008250908A (ja) | 2007-03-30 | 2007-03-30 | 映像判別方法および映像判別装置 |
US12/017,807 US20080240579A1 (en) | 2007-03-30 | 2008-01-22 | Video discrimination method and video discrimination apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007094626A JP2008250908A (ja) | 2007-03-30 | 2007-03-30 | 映像判別方法および映像判別装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008250908A true JP2008250908A (ja) | 2008-10-16 |
Family
ID=39794480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007094626A Pending JP2008250908A (ja) | 2007-03-30 | 2007-03-30 | 映像判別方法および映像判別装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20080240579A1 (ja) |
JP (1) | JP2008250908A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010116222A1 (ja) * | 2009-03-26 | 2010-10-14 | パナソニック電工株式会社 | 信号識別方法および信号識別装置 |
WO2014208575A1 (ja) * | 2013-06-28 | 2014-12-31 | 日本電気株式会社 | 映像監視システム、映像処理装置、映像処理方法および映像処理プログラム |
WO2015146113A1 (ja) * | 2014-03-28 | 2015-10-01 | 日本電気株式会社 | 識別辞書学習システム、識別辞書学習方法および記録媒体 |
JP2015176283A (ja) * | 2014-03-14 | 2015-10-05 | オムロン株式会社 | 事象検出装置および事象検出方法 |
CN111860603A (zh) * | 2020-06-23 | 2020-10-30 | 沈阳农业大学 | 一种图片中稻穗的识别方法、装置、设备和存储介质 |
KR20210000578A (ko) * | 2019-06-25 | 2021-01-05 | 백승빈 | 망막치료서비스장치 및 그 동작 방법 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8126833B2 (en) | 2008-09-11 | 2012-02-28 | Behavioral Recognition Systems, Inc. | Detecting anomalous events using a long-term memory in a video analysis system |
US8489079B2 (en) * | 2010-03-29 | 2013-07-16 | International Business Machines Corporation | Content identification and retrieval based on device component proximity |
US9589190B2 (en) * | 2012-12-21 | 2017-03-07 | Robert Bosch Gmbh | System and method for detection of high-interest events in video data |
JP6129600B2 (ja) * | 2013-03-18 | 2017-05-17 | 株式会社東芝 | 情報処理方法、及び情報処理システム |
US9449229B1 (en) | 2014-07-07 | 2016-09-20 | Google Inc. | Systems and methods for categorizing motion event candidates |
US10140827B2 (en) | 2014-07-07 | 2018-11-27 | Google Llc | Method and system for processing motion event notifications |
US10127783B2 (en) | 2014-07-07 | 2018-11-13 | Google Llc | Method and device for processing motion events |
US9213903B1 (en) | 2014-07-07 | 2015-12-15 | Google Inc. | Method and system for cluster-based video monitoring and event categorization |
US9501915B1 (en) | 2014-07-07 | 2016-11-22 | Google Inc. | Systems and methods for analyzing a video stream |
US9009805B1 (en) | 2014-09-30 | 2015-04-14 | Google Inc. | Method and system for provisioning an electronic device |
USD782495S1 (en) | 2014-10-07 | 2017-03-28 | Google Inc. | Display screen or portion thereof with graphical user interface |
US20160365122A1 (en) * | 2015-06-11 | 2016-12-15 | Eran Steinberg | Video editing system with multi-stage control to generate clips |
US9361011B1 (en) | 2015-06-14 | 2016-06-07 | Google Inc. | Methods and systems for presenting multiple live video feeds in a user interface |
US10506237B1 (en) | 2016-05-27 | 2019-12-10 | Google Llc | Methods and devices for dynamic adaptation of encoding bitrate for video streaming |
US10380429B2 (en) | 2016-07-11 | 2019-08-13 | Google Llc | Methods and systems for person detection in a video feed |
US11783010B2 (en) * | 2017-05-30 | 2023-10-10 | Google Llc | Systems and methods of person recognition in video streams |
US10664688B2 (en) | 2017-09-20 | 2020-05-26 | Google Llc | Systems and methods of detecting and responding to a visitor to a smart home environment |
CN110738233B (zh) * | 2019-08-28 | 2022-07-12 | 北京奇艺世纪科技有限公司 | 模型训练、数据分类方法、装置、电子设备及存储介质 |
CN113034433B (zh) * | 2021-01-14 | 2024-01-02 | 腾讯科技(深圳)有限公司 | 数据鉴伪方法、装置、设备以及介质 |
-
2007
- 2007-03-30 JP JP2007094626A patent/JP2008250908A/ja active Pending
-
2008
- 2008-01-22 US US12/017,807 patent/US20080240579A1/en not_active Abandoned
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010231455A (ja) * | 2009-03-26 | 2010-10-14 | Panasonic Electric Works Co Ltd | 信号識別方法および信号識別装置 |
WO2010116222A1 (ja) * | 2009-03-26 | 2010-10-14 | パナソニック電工株式会社 | 信号識別方法および信号識別装置 |
JP2019192227A (ja) * | 2013-06-28 | 2019-10-31 | 日本電気株式会社 | 映像監視システム、映像処理方法および映像処理プログラム |
WO2014208575A1 (ja) * | 2013-06-28 | 2014-12-31 | 日本電気株式会社 | 映像監視システム、映像処理装置、映像処理方法および映像処理プログラム |
US11729347B2 (en) | 2013-06-28 | 2023-08-15 | Nec Corporation | Video surveillance system, video processing apparatus, video processing method, and video processing program |
JPWO2014208575A1 (ja) * | 2013-06-28 | 2017-02-23 | 日本電気株式会社 | 映像監視システム、映像処理装置、映像処理方法および映像処理プログラム |
US11210526B2 (en) | 2013-06-28 | 2021-12-28 | Nec Corporation | Video surveillance system, video processing apparatus, video processing method, and video processing program |
US10275657B2 (en) | 2013-06-28 | 2019-04-30 | Nec Corporation | Video surveillance system, video processing apparatus, video processing method, and video processing program |
JP2015176283A (ja) * | 2014-03-14 | 2015-10-05 | オムロン株式会社 | 事象検出装置および事象検出方法 |
US10380456B2 (en) | 2014-03-28 | 2019-08-13 | Nec Corporation | Classification dictionary learning system, classification dictionary learning method and recording medium |
JP2020053073A (ja) * | 2014-03-28 | 2020-04-02 | 日本電気株式会社 | 学習方法、学習システム、および学習プログラム |
JPWO2015146113A1 (ja) * | 2014-03-28 | 2017-04-13 | 日本電気株式会社 | 識別辞書学習システム、識別辞書学習方法および識別辞書学習プログラム |
WO2015146113A1 (ja) * | 2014-03-28 | 2015-10-01 | 日本電気株式会社 | 識別辞書学習システム、識別辞書学習方法および記録媒体 |
KR20210000578A (ko) * | 2019-06-25 | 2021-01-05 | 백승빈 | 망막치료서비스장치 및 그 동작 방법 |
KR102285889B1 (ko) | 2019-06-25 | 2021-08-03 | 백승빈 | 망막치료서비스장치 및 그 동작 방법 |
CN111860603A (zh) * | 2020-06-23 | 2020-10-30 | 沈阳农业大学 | 一种图片中稻穗的识别方法、装置、设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20080240579A1 (en) | 2008-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008250908A (ja) | 映像判別方法および映像判別装置 | |
US8351662B2 (en) | System and method for face verification using video sequence | |
CN109241985B (zh) | 一种图像识别方法及装置 | |
KR101179497B1 (ko) | 얼굴 검출 방법 및 장치 | |
JP4767595B2 (ja) | 対象物検出装置及びその学習装置 | |
US8121348B2 (en) | Object detection apparatus, method and program | |
US8538141B2 (en) | Classifier learning image production program, method, and system | |
US7773809B2 (en) | Method and apparatus for distinguishing obscene video using visual feature | |
US8374440B2 (en) | Image processing method and apparatus | |
US20040022423A1 (en) | Method for locating faces in digital color images | |
US20120275653A1 (en) | Method for recognizing license plate image, and related computer program product, computer-readable recording medium, and image recognizing apparatus using the same | |
US20170255831A1 (en) | System and method for relevance estimation in summarization of videos of multi-step activities | |
JP2006048322A (ja) | オブジェクト画像検出装置、顔画像検出プログラムおよび顔画像検出方法 | |
US8842889B1 (en) | System and method for automatic face recognition | |
JP6565600B2 (ja) | アテンション検出装置及びアテンション検出方法 | |
JP2012084140A (ja) | 映像解析方法およびシステム | |
JP2019057815A (ja) | 監視システム | |
CN111783665A (zh) | 一种动作识别方法、装置、存储介质和电子设备 | |
CN111209818A (zh) | 视频个体识别方法、系统、设备及可读存储介质 | |
TW200529093A (en) | Face image detection method, face image detection system, and face image detection program | |
JP2012252447A (ja) | 情報処理装置および方法、記録媒体、並びにプログラム | |
CN108052931A (zh) | 一种车牌识别结果融合方法及装置 | |
WO2015146113A1 (ja) | 識別辞書学習システム、識別辞書学習方法および記録媒体 | |
US20120052473A1 (en) | Learning apparatus, learning method, and computer program product | |
JP2017045438A (ja) | 画像解析装置、画像解析方法、画像解析プログラム、および画像解析システム |